【见报稿】 期待“负责任的AI”从愿景变成现实 刘海明(重庆大学教授、博士生导师) 今年国务院《政府工作报告》明确提出:制定支持数字经济高质量发展政策,开展“人工智能+”行动。 AI技术正在赋能各个领域,由此产生的经济效益和社会效益也颇为可观。在AI技术的迭代中,谁也无法准确预测这类技术的潜力还有多少没挖掘出来。在AI科学家不断让智能体变得更加“聪明”的同时,有关这种技术的安全问题也成为公共话题。 今年全国两会上,全国政协委员齐向东关注创新发展“AI+安全”,并详细解答了如何应对AI时代的信息安全和网络安全威胁相关问题。全国人大代表张敏提出,要增强人工智能技术安全应用,加快推进《人工智能法》立法,筑牢关键信息基础设施安全屏障。 代表委员针对人工智能应用安全提出的建议,有可能上升为通过立法强制保障人工智能的安全应用。这也表明,有关人工智能安全应用的共识正在形成中。 就在上周,马斯克提起针对奥尔特曼和OpenAI的诉讼,指控被告遗忘了OpenAI既定使命中的核心部分,即开发有用且无害的人工通用智能。面对指控,奥尔特曼承诺OpenAI的使命是“确保人工智能造福全人类”。 国内外对于AI技术应用的憧憬与担忧并存,这是人类出于自身利益和安全的正常考量。人们提出“负责任的AI”愿景,也旨在解除应用这种技术的后顾之忧。至于这样的忧虑为何难以排除,在于它未来发展的不确定性,由此让更多的人变得忧心忡忡。有人甚至认为,“从AI的发展可以看出人类的能力是多么的渺小,机器超过人只是时间问题。” 世界上最大的隐患,是对风险的浑然不觉或者抱着无所谓的态度。当人工智能的安全问题已成为全球性的公共话题,国内外都不乏对人工智能发展立法的声音。这样的忧患意识令人欣慰。既然忧患意识已经普遍觉醒,当整个社会都对人工智能安全问题抱着“有所谓”的态度,又何愁“负责任的AI”不会从愿景变成现实呢? “负责任的AI”要从愿景变成现实,需要经历必不可少的“三部曲”,要从最基本的安全意识,逐渐落实到具体的追求安全的行动上。 从愿景变成现实,“负责任的AI”要求人类懂得何为真正的自爱。人工智能技术是人类的发明,智能体的价值在于造福人类。它对人类的用处越大,智能体也就越值得被人类所爱。要做到这一点,需要自爱的是极少数掌握AI技术迭代“按钮”的科学家。这样的“掌门人”真正懂得自爱,即他们的发明创造值得为世人所爱,他们才因为自己的技术贡献而配被他人所爱。 从马斯克采取法律手段叫板奥尔特曼来看,这次诉讼的意义在于教导掌握AI发展“按钮”的技术“掌门人”要学会真正的自爱。他们懂得了真正的自爱,公众对AI技术的安全之忧也就少了许多。 从愿景变成现实,“负责任的AI”要求人类懂得何为真正的自律。自爱是在人懂得节制的过程中形成的,一个在道德上自爱的人必然是真正自律的人。 “负责任的AI”成为全球性的公共话题,在于掌握AI发展技术“按钮”的人在技术研发中追求技术的迭代,无形中忽视了对AI安全问题的考虑。没有这样的安全考虑,AI技术领跑的速度上去了,但这种技术也可能脱离了道德的缰绳,忘记了技术是造福人类社会,而不是给人类社会添堵。 自律是人给自己制定行动的规则。在有自律精神的AI技术团队那里,“负责任的AI”意味着对智能体的设计必须设置重重的安全性约束装置,一旦智能体在运行中有伤害人类情感或利益的可能和风险,它必须有能力中止这样的行为倾向。这样的倾向看似是智能体自己的事情,实际上却只能是智能体设计者的自律问题。 只有创造智能体的人严于自律,把用户的安全当作自己的安全,“己所不欲勿施于人”,他们在设计智能体时,才能做到先让AI“负责任”。 从愿景变成现实,“负责任的AI”要求整个社会要具有责任意识。 责任是一种强迫,通过外在的立法和有效的诉讼,让不懂得在技术研发中自爱的机构和个人逐渐学会自爱起来;通过道德的自觉,让更多的人工智能技术研究人员树立起技术发展的责任意识,让更多有识之士包括像人大代表、政协委员这样的公众人物,不断呼吁科学家、技术专家、企业家以及全社会都高度重视AI安全问题。责任意识越浓厚,未来的AI也就越安全。 要让AI“负责任”,人类需要先自觉负起责任。AI安全的愿景画卷已经徐徐展开,期待“负责任的AI”变成现实为时不远。 来源:北京青年报 链接:http://epaper.ynet.com/html/2024-03/10/content_432462.htm?div=-1 【原稿】 期待“负责任的AI”从愿景变成现实 刘海明 今年的《政府工作报告》中,明确提出:制定支持数字经济高质量发展政策,开展“人工智能+”行动。 AI技术正在赋能正在各个领域,由此产生的经济效益和社会效益也颇为可观。在AI技术的迭代中,谁也无法准确预测这类技术的潜力还有多少没挖掘出来。在AI专家不断让智能体变得更加“聪明”的同时,有关这种技术的安全问题也成为公共话题。 2024年“两会”期间,全国政协委员齐向东关注创新发展“AI+安全”,并详细解答了如何应对AI时代的信息安全和网络安全威胁相关问题。(央广网3月7日报道) 在全国“两会”上,全国人大代表张敏提出,要增强人工智能技术安全应用,加快推进《人工智能法》的立法,筑牢关键信息基础设施安全屏障。(人民网3月8日报道) 代表委员在“两会”上对人工智能应用的安全倡议,正在上升到通过立法强制保障人工智能的安全应用,表明这样的安全共识正在形成中。 无独有偶。就在上周,马斯克提起针对奥尔特曼和OpenAI的诉讼,指控被告遗忘了OpenAI既定使命中的核心部分,即开发有用且无害的人工通用智能。面对指控,奥尔特曼承诺OpenAI的使命是“确保人工智能造福全人类”。 国内外对于AI技术应用的憧憬与担忧并在,这是人类出于自身利益和安全的正常考量。会“负责任的AI”的愿景,也是出于解除应用这种技术的后顾之忧。至于这样的忧虑为何无法排除,在于它未来发展的不确定性,由此让更多的人变得忧心忡忡,甚至认为“从AI的发展可以看出人类的能力是多么的渺小,机器超过人只是时间问题”。 世界上最大的隐患是对风险的浑然不觉或者抱着无所谓的态度。当人工智能的安全问题已经成为全球性的公共话题,国内外都不乏对人工智能发展立法的声音,这样的忧患意识足以令我们颇感欣慰。既然忧患意识已经普遍觉醒,当整个社会都在对人工智能安全问题抱着“有所谓”的态度时,又何愁“负责任的AI”不会从愿景变成现实呢。 “负责任的AI”要从愿景变成现实,需要经历一个必不可少的“三部曲”,从最基本的安全意识,逐渐落实到具体的追求安全的行动上。 从愿景变成现实,“负责任的AI”要求人类懂得何为真正的自爱。关于自爱,康德给出的定义是:“在配被他人爱这方面缺乏这种节制(不谦虚),叫做自爱。” 显然,这样的自爱并非道德上的自爱,因为也无法配被他人所爱。 人工智能技术是人类的发明,智能体的价值在于造福人类。它对人类的用处所在,智能体也就越值得被人类所爱。要做到这一点,需要自爱的是极少数掌握AI技术迭代“按钮”的技术掌门人。这样的掌门人真正懂得自爱,即他们的发明创造值得为世人所爱,他们才因为自己的技术贡献而配被他人所爱。 从马斯克采取法律手段叫板奥尔特曼来看,这次诉讼的意义在于教导掌握AI发展“按钮”的技术掌门人(们)要学会真正的自爱。他们懂得了真正的自爱,公众对AI技术的安全之忧也就少了许多,“负责任AI”也就呼之欲出了。 从愿景变成现实,“负责任的AI”要求人类懂得何为真正的自律。关于自律,康德也有个定义:“在道德领域里面,理性给自由颁定规律就是自律。” 自爱是在人懂得节制的过程中形成的,一个在道德上自爱的人必然是真正自律的人。 “负责任的AI”成为全球性的公共话题,在于掌握AI发展技术“按钮”的人在技术研发中追求技术的迭代,无形中忽视了对AI安全问题的考虑。没有这样的安全考虑,AI技术领跑的速度上去了,但这种技术也可能脱离了道德的缰绳,忘记了技术是造福人类社会,而不是给人们的心理添堵。 自律是人给自己制定行动的规则。在有自律精神的AI技术团队那里,“负责任的AI”意味着对智能体的设计必须设置重重的安全性约束装置,一旦智能体在运行中有伤害人类情感或利益的可能性时,它必须有能力中止这样的行为倾向。这样的倾向看似是智能体自己的事情,实际上却只能是智能体设计者的自律问题。 创造智能体的人自律了,把用户的安全当作自己的安全,己所不欲勿施于人,他在设计智能体时自然也就要先让AI“负责任”了。 从愿景变成现实,“负责任的AI”要求整个社会要具有责任意识。 责任是一种强迫,通过外在的立法和有效的诉讼,让不懂得在技术研发中自爱的机构和个人逐渐学会自爱起来;通过道德的自觉,让更多的人人工智能技术研究人员树立起技术发展的责任意识,让更多的社会人士,比如我们的人大代表、政协委员以及有志之士,不断呼吁社会层面重视AI安全问题,责任意识越浓厚,未来的AI也就越安全。 要让AI“负责任”,人类自觉得先负起责任。既然AI安全的愿景画卷已经徐徐展开,“负责任的AI”变成现实也就为时不远了。 事件链接:https://baijiahao.baidu.com/s?id=1792857484606915126&wfr=spider&for=pc http://www.chinapower.com.cn/dlxxh/zhxw/20240308/238207.ht
编辑:王晨雅 |
掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1 )
Copyright 2013 小马版权所有 All Rights Reserved.
Powered by Discuz! X3.2
© 2016-2022 Comsenz Inc.