传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
391#
 楼主| 发表于 2020-2-11 20:59:43 | 只看该作者
【案例】
独家对话徐英瑾:深度学习的技术伦理风险
T = 信睿周报
X = 徐英瑾(复旦大学哲学学院教授)
T:能否简单回顾一下15年来,您在人工智能哲学领域关注问题的变化?
X:此前我关心的更多是人工智能本身能否做出来、超级人工智能(即在智慧方面全面超越人类的人工智能)是否可能这种比较形而上的问题,现在比较关心人工智能和具体的认知建模之间的关系。最近我的兴趣逐渐转向了一个新的问题:知识论研究中的很多话题如何与人工智能结合在一起。比如,知识论所关心的知识指派、信念与知识的界限等问题,它背后有没有统一的认知建模的解释、这一点在人工智能上是否能够得到理解。我试图用人工智能的观点来约束现在的知识论研究中过于玄虚的缺点,并由此把这个缺点修正掉。
T:伴随人工智能产业的发展,现在已经出现了“数据标注员”这样的工作,而数据标注产业也被称为“数字富士康”。这是为了以大数据为支撑让人工智能更像人。您如何看待这样的现象?
X:“数字富士康”这个问题反映了在监督学习[1]的背景下,如果不对深度学习的喂入数据进行标注,深度学习就很难开展运作。的确,现在很多人都在做一些无监督学习[2]。但据我粗浅的了解,无监督学习还没有出现突破性的发展,我也很怀疑深度学习的框架是否能够接纳这样一种真正意义上的无监督的或者大范围内的迁移学习[3]。这只能反过来证明,深度学习对于数据标注有很大的工作量需求,说明深度学习并不是实现通用人工智能的主要技术路径,我们现在把大多的宝押在这里可能是有问题的。
一款适用于图像、音频和视频的手动标注软件的使用界面。(图片来自牛津大学工程科学系网站)
T:人工智能会创造一些职业,也会取代一些职业。您曾谈道,“虽然深度学习会在短期内造成人类劳动力的表面上的解放,但却会在长远范围内钝化使得人类的智力发展得以充分化的社会机制”。那么,您认为人类是否有可能能动性改变社会机制,将人类发展从这种风险中纾解出来?
X:人类是否能从深度学习所造成的僵化体制里面解放出来,实际上对深度学习依赖越少,解放的可能性就越高,对深度学习依赖越高,解放的可能性就越少。深度学习对于特殊领域内数据的需求,很可能会使人类社会被固化为一个特定的领域,而我们的任务就是拼命搜集这些领域内的数据来喂给相应的深度学习机制。很少有人从更深刻的角度来思考,为什么我们一定要把人类的社会分为这几个领域,而不是那几个领域,领域划分本身是一件非常灵活的事情。更何况从原则上说,深度学习很难应付在标注数据之外的一些偶然事件。一言以蔽之,通用人工智能和现有的人力资源结合才能使未来的人类社会更具有弹性。深度学习即使被整合到通用人工智能的技术中去,也只能成为一种边缘型的技术,而不能成为通用人工智能的核心算法。
关于深度学习的技术伦理风险,主要有三点:第一是使得我们要按照深度学习机制本身的要求对人类的各个领域进行划分,这种划分会丧失对人类社会机构进行再划分的能力;第二是大数据技术的应用与深度学习相辅相成,这归根结底会在意义上对人类隐私构成威胁;第三是深度学习机制本身对偶然性事件的应对能力是很有限的,过度依赖深度学习的人类社会机制,也会削弱灵活应对偶然性的能力。
T:当前人们对于人工智能的未来有诸多想象,而且现在已经有了“人工智能”立法的提法,您如何看待法律可能作为规束人工智能伦理边界的手段?
X:对于人工智能立法是否能够解决问题,我持相对悲观的态度。我当然希望它能够成功,但是人工智能立法背后是人的观念的差异。现在,不同国家关于人权、法权及其本质是什么,都有一些不可调和的矛盾。在这种情况下,要成立全世界都认可的关于人工智能的法制系统,这显然超出了现在人类历史发展的水平。因为人工智能带有全面复制既有规范的技术繁殖能力,那么如果两个不同的社会共同体恰好有不同的思想观念,他们就有可能通过不同的人工智能设备对他们具有的这套思想观念进行繁殖,由此就有可能加剧不同社会共同体之间既有的道德观念之间的对立,从而为各种国际摩擦预埋了可能性。如果不同国家试图通过妥协和协商来建立人工智能全面的法规和法则,那么这就牵涉到了哪些国家会占据主导权、那些处于被动地位的国家是否愿意接受这种主导权,这都是非常敏感的问题。
T:在目前对人工智能未来的三种观点——危机论、乌托邦论和泡沫论中,您主张哪一种?
X:毫无疑问,在危机论、泡沫论和乌托邦论中,我持泡沫论。实际上,很多人工智能业内人士都和我有类似的观点,但是政府官员和商业人士愿意相信乌托邦论。我之所以形成“泡沫论”的观点,是因为多年前我在研究人工智能哲学的时候,就倾向于认为,人工智能的核心哲学思想是假设智能系统是在资源约束的情况下运作的。而现在主流的深度学习和我的哲学预设是对着干的,我坚信我的哲学预设是对的,而他们是错的,所以我认为他们是泡沫。
T:回到人工智能哲学,您在2017年时曾谈道:“人工智能哲学在国内基本上还没有确立起来。相比于总体来说,国外的情况比我们好一点,算一个哲学分支。”但2017年至今的两年中,中国哲学界对人工智能的探讨呈井喷式增长,您认为目前中国的人工智能哲学的发展处于怎样的阶段?和国外相比,呈现出怎样的特点?
X:国内关于人工智能哲学的讨论存在的问题是:虽然数量增长很多,但是对很多问题的讨论是凑热闹的。人工智能牵涉到很多逻辑学、神经科学、认知科学哲学问题,需要对这些学科问题有一段时间的了解。比如研究海德格尔的专家休伯特·德雷福斯(Hubert Dreyfus),他写了《计算机不能做什么》(生活·读书·新知三联书店,1986年)。为了研究这个问题,他很认真地研究了当时的人工智能发展情况,看了专业的人工智能的书籍。
[休伯特·德雷福斯 /
生活·读书·新知三联书店,1986
我的一个批评是,从国内一部分讨论人工智能哲学的中文文献中可以看出,部分讨论这些问题的作者可能并不是很清楚人工智能发展的历史脉络和相关的一些科学背景。目前对于这些问题的讨论,主导的文献还都是英文文献,但我很惊讶地发现,在很多中文文章所引用的文献里,英文文献的比例是相当低的。我并不是说这些英文文献说的是对的,但毫无疑问必须要看过这些文献,才有资格说它是对的还是错的。当然,我也发现西方现在对人工智能哲学的研究反而没有像多年前那么热门了,比较热门的可能是从应用伦理学、社会治理等角度讨论,纯人工智能哲学的讨论不是特别多了。这可能是因为,在客观上人工智能哲学是纯学理的问题,而西方在几年前甚至十几年前好像就都已经触及了。
从总体上来看,我对现在的人工智能哲学研究不太满意的一个地方是,国内研究没有和概率的本性是什么、认知科学的本性是什么、认知建模的本性是什么、语言的建模和哲学以及人工智能之间的三角关系是什么等非常艰深的基础性问题结合在一起,很多文章都流于赶场子。而且更不幸的是,从比例上来讲,很多文章都是属于乌托邦论的,我觉得乌托邦论类型的文章没有阅读价值。
注释
[1] 监督学习(Supervised Learning):利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程。
[2] 无监督学习(Unsupervised Learning):根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题。
[3] 迁移学习(Transfer Learning):一种机器学习方法,就是把为任务 A 开发的模型作为初始点,重新使用在为任务 B 开发模型的过程中。
作者:徐英瑾  
来源:信睿周报
链接:https://mp.weixin.qq.com/s/dyOvC4DXImlVHfSyKFjAYg
编辑:宋婷

392#
 楼主| 发表于 2020-2-20 15:49:38 | 只看该作者

【案例】


欧盟委员会今日发布《人工智能白皮书》



吴沈括,北京师范大学网络法治国际中心执行主任、中国互联网协会研究中心秘书长。

胡涵,北京师范大学网络法治国际中心研究助理。



2020219日,布鲁塞尔。为了应对人工智能所带来的机遇与挑战,欧盟以自己的方式积极促进人工智能的发展以及问题的解决,而欧盟委员会于今日发布《人工智能白皮书》,致力于助益实现科学突破,维护欧盟人工智能技术领先地位,以确保人工智能技术服务于整个欧盟。



欧盟认为,人工智能技术发展迅速,应用范围广泛,主要包括制造业、医疗行业、农业等领域,极大改变了人们生产生活的方式来改变我们的生活。但同时,人工智能也带来了许多潜在风险,各种伦理、法律等问题的产生对社会秩序造成了冲击。



欧盟《人工智能白皮书》的责任机构为欧盟委员会,该白皮书规定了政策框架,在私营部门和公共部门的合作下,该框架的目标是调动人工智能资源,从研究和创新开始,在整个价值链上实现“卓越生态系统”,并创造适当的激励机制,加速采用基于人工智能的解决问题方案。



此外,白皮书还规定了未来欧洲人工智能监管框架的关键要素,将创造一个独特的“信任生态系统”。为此,必须确保遵守欧盟的保护基本权利的规则,使公民有信心接受人工智能的应用,并鼓励私营和公共组织对人工智能进行创新。



欧盟委员会支持以人为中心的方法,并将考虑到在人工智能高级别专家组编写的道德准则试点阶段获得的成果。



白皮书中所附的《欧洲数据战略》旨在使欧洲成为世界上最具吸引力、最安全、最具活力的数据经济体,改善所有公民的生活。该战略中包含实现这一目标所需的若干对策,其中包括调动私人和公共投资。



在白皮书最后所附的委员会报告则分析了人工智能、物联网和其他数字技术对安全和责任立法的影响。








来源:微信公众号:网络法治国际中心

作者:吴沈括胡涵

链接:https://mp.weixin.qq.com/s/IJKXFe8NQbUEy51pMtzysA





编辑:冯梦玉



393#
 楼主| 发表于 2020-2-20 17:17:12 | 只看该作者
【案例】

新华社发布2019年度“人工智能时代媒体变革与发展”研究报告



近年来,新华社深入贯彻落实习近平总书记要求,聚焦通讯社主业,持续追踪人工智能技术前沿成果,创造性地研发新闻应用场景,引领媒体人工智能发展潮流,走在世界媒体前列。在大力推进技术革新,通过智能化创新提速提量、提质提效的同时,新华社高度重视相关研究工作,以期为业界实践提供启示借鉴。20195月,新华社成立“人工智能时代媒体变革与发展”课题组,聚焦国内外媒体智能化发展情况,关注人工智能领域代表性科技公司的前沿进展,同时面向国内百余家媒体开展问卷调查,调研成果形成2019年度“人工智能时代媒体变革与发展”研究报告,近期将在报告基础上推出专著《智能时代:媒体重塑》。现将报告核心内容摘编以飨读者。



智能时代:传媒业发展现状、挑战与趋势



党的十八大以来,习近平总书记把创新摆在国家发展全局的核心位置,高度重视人工智能发展,多次谈及人工智能重要性,为人工智能如何赋能新时代指明方向。近年来,我国先后颁布了一系列国家级战略规划,启动实施人工智能重大项目、推动人工智能学科建设、布局人工智能创新发展实验区,不断强化人工智能基础理论和关键技术研究,促进人工智能与经济社会的高度融合。



人工智能技术的突飞猛进带动了媒体行业的飞速发展,全球新闻传播领域呈现出智能化发展趋势。人工智能技术不仅重塑了新闻生产的整个业务流程,而且改变了传媒产业价值链上的各个环节,还催生出新的媒体业态。人工智能技术在与新闻媒体结合的过程中具有广泛的应用领域和想象空间,甚至可以将人工智能视为下一代新闻媒体的生态环境。



人工智能时代,传媒业应坚持守正创新,在变革中厘清变与不变的认识,把握坚持与发展的关系,避免走入“技术至上论”的迷思。牢牢坚持内容为王,在任何时候都不能丢掉主流媒体的内容优势,同时努力运用智能技术提升传播力、引导力、影响力、公信力。必须明确“人机协作”中居于主导地位的仍然是人,人工智能技术是服务于新闻信息策、采、编、发的工具,不能完全代替人。媒体从业人员应认真践行“四力”要求,不断增强脚力、眼力、脑力、笔力,采写有思想、有温度、有品质的新闻。



课题组深入调研国内外媒体智能化发展情况,了解人工智能领域代表性科技公司的前沿进展,同时面向国内百余家媒体开展问卷调查,调查范围涵盖通讯社、报纸、广播、电视、网站、新媒体业态等各类媒体机构。综合深度调研以及问卷调查结果,我们有以下发现:



一、现状分析



近几年,国内媒体融合深入推进,传统媒体正在发生嬗变,大量新闻信息内容不仅通过报刊、广播、电视等载体传播,还向网站、“两微一端”等新的传播渠道拓展。随着算法推荐、语音交互、计算机视觉等技术的不断发展,新型主流媒体建设提速,国外媒体对人工智能的探索运用也如火如荼。传媒业希望借助人工智能技术高效地进行内容的生产、分发、管理,打造媒体与用户之间的互联互动的新生态,助力转型升级与融合发展。人工智能正深度融入传媒产业链的各个流程和环节,催发一系列的化学反应。



※一是国内传媒业对人工智能技术的应用呈现积极态势,有助于舆论引导能力和传播效果的增强。



超八成(81.8%)受访者认为国内传媒业对智能技术的应用呈现出积极态势。人民日报、新华社、中央广播电视总台以及不少地方媒体积极迎接人工智能时代到来,创新体制机制,整合各方资源,释放新闻生产力,智能化新技术、新产品不断涌现。近半数(49.2%)受访者认为人工智能技术的应用,使媒体舆论引导能力增强,传播效果提升明显。



※二是国内多数传媒对人工智能技术的应用程度及效果一般,不少传统媒体智能化建设迟缓。

超四成受访者表示,目前国内传媒业对人工智能技术的应用程度及效果一般。受限于资金、人才、技术等方面的问题,不少传统媒体智能化发展方面动作迟缓:一方面一些传统媒体的移动化、数字化转型已举步维艰,盈利模式不清、人才流失严重,智能化发展需要的关键技术和设备成本投入高昂,成为其不能承受之重;另一方面很多传统媒体的技术力量薄弱,不具备自主研发和搭建平台的能力,很难实现人工智能技术的快速落地和持续迭代,因此部分传统媒体应用人工智能面临重重阻碍和困难。受访者普遍认为新媒体业态、机构对于人工智能技术的应用效果好于传统媒体。



※三是人工智能技术对媒体采编发流程的影响很大,已渗透至新闻领域各环节。



人工智能对媒体采编发流程的影响最大,对编辑工作、媒体机构品牌的影响也比较大,相对而言对记者工作、经营工作的影响小一些。随着人工智能技术的不断成熟,国内外传媒业都开始将其运用到新闻生产传播的各个环节,数据挖掘被用于寻找新闻线索,机器人写作被用于内容生产,算法推荐接管内容分发等。人工智能已经渗透至信息采集、内容生产、内容分发到与用户互动等全链条。数据表明,国内新闻工作各业务环节中,人工智能应用渗入程度最高的环节集中在舆情监测/线索收集、内容精准传播、用户画像等方面。人工智能应用对新闻报道的时效性、个性化新闻分发的精确度、新闻生产效率提升等方面的帮助作用最为受访者认可。



※四是算法推荐新闻、AI合成主播等智能技术应用,令媒体从业者印象深刻。



受访媒体人印象最深的智能应用是今日头条算法推荐和个性化信息流分发,新华社推出的AI合成主播、“媒体大脑”。人工智能技术驱动的新的媒体业态中,受访者印象最深的集中在视频平台(快手、抖音等)、资讯定制类平台(今日头条、一点资讯等)及网络社交类平台(微博、微信等)。受访者知晓程度最高的五项智能技术是AI合成主播(39.0%)、算法推送新闻(39.0%)、机器人写稿(37.6%)、舆情监测/新闻热点抓取和预测(36.2%)和智能检校(监测新闻稿件中的可疑或高危文本/图片并进行预警)(34.1%)。综合受访者在使用频率、易用性、重要性、对效率的提升程度等维度的打分情况,传媒领域落地的五大“明星”智能技术是:原创识别及盗版追踪、视频字幕生成、算法推送新闻、图片视频自动分类以及采访助手(自动把采访的语音或视频转化成文字辅助编辑写稿)。



※五是人工智能对传媒业影响巨大,将助推新业态产生及媒体融合发展。



超八成(87.4%)受访者认为人工智能对传媒业整体影响大。近七成(67.2%)受访者认为,人工智能将不断催生新的媒体业态。今日头条、一点资讯、快手等虽然声称自己不是媒体,但它们运用人工智能技术实现算法推荐分发,并积极打造内容生态平台,业已成为具有媒体属性的新兴业态。82.9%的受访者认为国内媒体融合发展进程中,人工智能技术的应用空间大。55.9%的受访者认为人工智能将与媒体“深度渗透(融合)”,助推媒体融合向纵深迈进。



二、问题与挑战



人工智能与媒体各业务环节深度融合,实现了提质增效,但在发展进程中,面临不少问题与挑战。对于媒体自身而言,技术基因先天不足、队伍能力跟不上发展要求以及理念、成本等问题在国内外传媒界普遍存在。与此同时,随着人工智能技术越来越多介入新闻生产和传播实践,其双刃剑效应愈加明显,失序失范现象频现,一系列新问题新挑战接踵而至。



※一是观念认知水平滞后于智能化发展趋势。



有效推动人工智能技术应用与媒体创新变革,理念必须先行。调查数据显示,59.7%的受访者认为,推进媒体智能化发展,首先要全员刷新观念、提高认识水平。没有充分的思想认识和正确的思想观念,就难以有科学的发展战略和创新策略。目前,媒体应用人工智能最常见的观念和认知误区表现在三方面:一是在观念上,对运用人工智能加速媒体融合“雾里看花”,认识不充分、不到位。二是在认知上,对人工智能技术在新闻生产领域具体环节的应用效果,还存在“看不见”“看不起”“看不懂”的情况。三是一些媒体机构对于人工智能重视程度不够,缺乏清晰的发展目标、实施路径和战略规划。



※二是传统媒体体制机制不能有效适应变革。



首先,表现在传统组织架构、业务流程的不适应。问卷调查数据显示,63.9%的受访者认为媒体应对人工智能的挑战首先应注重改造传统的采编发业务流程。近年来,一些媒体先行先试,在空间意义上完成了平台架构和外部形态的改造,但在实际生产运作中还需要进一步理顺生产关系、重构新闻生产流程。其次,是资金制约。人工智能相关软硬件的引进开发及数据库构建管理需要较高资金投入,在当前传统媒体整体业绩下滑背景下,不少媒体表示“有心无力”“没钱投入”。第三,人才队伍建设面临新课题。一些传统媒体人员队伍能力跟不上媒体智能化发展要求,不能熟练运用新技术、新手段,存在“本领恐慌”。缺乏媒体智能化发展所需的复合型人才、创新性人才,特别是在技术、运营等部门,领军人才少之又少。传统媒体由于体制机制掣肘,大多存在人才“用不好”“留不住”“招不来”的难题。



※三是传统媒体机构技术基因先天不足。



技术是媒体发展变革的第一生产力。从全球范围看,不少传统媒体积极拥抱人工智能技术,努力转换角色,从内容生产者向平台运营者转化。然而,如何科学合理地研发、运用智能化技术,提高人工智能技术的本土化水平,开发满足市场需求的新场景、新模式,确保应用水平与技术本身的发展水平相匹配,始终是媒体智能化转型的一大痛点。调查结果表明,75.3%的受访者认为媒体应对人工智能的挑战最重要的是增强采编队伍技术储备和创新能力。当前,技术基础设施不足、技术实力不足、人工智能技术应用水平与创新能力有限、媒体机构与技术公司的合作模式有待优化,是影响人工智能技术在媒体落地应用的四个主要问题。



※四是数据标注成为智能化发展瓶颈。



提高人工智能应用水平,大规模、高质量的数据积累必不可少。媒体机构在内容生产、用户服务过程中会产生海量的新闻素材数据及用户行为数据,但大量的数据资源并不能直接用于人工智能的算法训练。调查数据显示,59.5%的受访者认为,面对人工智能的挑战,要高度重视内容数据化。目前,国内不少媒体已在这方面展开积极尝试,但海量的新闻稿、历史图片、视频数据等数据资源,需要投入大量成本,进行“数据清洗”(Data cleaning)以及标框工作,生成高质量的信息化数据。对于数据的清洗整理、加注标引、入库管理需要大量的财力及物力去支撑。因此,对于大多数媒体而言,从“数字化”时代进入“数据化”时代,还有很长的路要走,媒体在布局人工智能战略之初,就必须注意到数据的重要性,着力打造完备的数据源和处理庞大数据系统的能力。



※五是智能化发展给形成舆论共识和防止假新闻带来挑战。



推荐算法基于用户精准画像进行内容筛选推送,提升了新闻生产个性化和新闻推送准确率,同时,由于侧重迎合个人偏好,导致“信息窄化”,形成“信息孤岛”。长此以往,舆论趋于分化、极化、碎片化,形成社会共识、增强社会凝聚力难度加大。与此同时,人工智能技术滥用误用引发虚假新闻危害,基于深度学习、虚拟现实等的换脸技术、语音合成技术、视频生成技术大大发展,虚假文本及音视频成为“新型谣言”。调查结果显示,半数以上(54.5%)受访者认为,假新闻的识别难度加大是影响人工智能发展的重要问题。传统假新闻尚可通过多种渠道验证真伪,但在人工智能技术“黑箱化”的趋势下,信息来源和真伪的判断难度加大。



※六是用户数据安全与隐私成为不容回避的伦理风险。



基于广泛数据分析的人工智能技术大大增加了公民隐私受侵犯的风险,对个人信息的非法使用和采集,对数据来源缺乏安全有效保护,易于造成隐私泄露,出现信息安全问题。调查中,半数受访者认为,隐私保护难度加大已成为人工智能在传媒业运用中存在的重要问题。在媒体智能化发展进程中,用户在与媒介接触的过程中生成了海量数据,在基于用户个人资料、行为数据提供更精准更优质服务的同时,保障数据安全、尊重用户隐私十分重要,必须时刻关注在保护用户数据方面是否存在漏洞,加强对用户隐私的保护,落实相应的人工智能安全策略。



三、对策与建议



随着媒体融合发展进入新阶段,人工智能已经不再仅是一种趋势,而是媒体产业变革的重要驱动力,谁在智能化领域占得先机,谁就能掌握媒体变革的主动权。从技术发展角度看,目前尚处于“弱人工智能”时期,国内外媒体对人工智能技术的应用更多属于初步探索,一些智能化理念从技术规划设想到真正实践应用还有很长的路要走。随着科学技术的不断发展,人工智能将持续推动变革新闻媒体的形态与业态,面对新变化和新态势,我们提出以下建议:

※一是谋划智能化发展战略,探索技术发展新路径。



主流媒体应当根据自身的发展特点和实际情况及早谋划、尽快制定智能化发展战略,抓住人工智能、大数据、云计算、区块链等发展战略机遇,探索技术发展新路径,打造新的竞争优势。具有资源优势的中央级媒体需要进一步发挥引领作用,积极探索技术发展新路径,加大对人工智能的自主研发投入,掌握技术核心,打造智能化、移动化、可视化、社交化等自主可控的新媒体平台;同时,加强与头部科技公司的技术研发合作,拓展前沿技术引进渠道。其他媒体机构应当有选择地走技术自主研发或者技术引进之路,确保在智能化发展浪潮中不落伍、不掉队。



※二是转变传统思维观念,顺应智能化发展新趋势。



正如互联网对传统媒体带来的冲击一样,无论个人意愿如何,人工智能已经深入影响传媒业的发展变革。传统媒体机构需要培养新的观念理念顺应智能化发展新趋势,探索新的体制机制、新的组织架构、新的业务流程以及新的人才队伍,进行彻底的智能化转型。传统媒体人需要主动转型,改变旧式的媒体思维,深化对人工智能发展趋势的认识,提高对技术运用与内容创新关系的认知,不断适应人工智能技术的发展潮流。



※三是变革新闻生产体制机制,切实发挥技术引领。



人工智能技术对新闻生产方式的影响,将直接推动未来媒体的发展。主流媒体的融合发展与智能化创新,不仅是成立新部门、运用新技术,而且要推动媒体资源的全面融合,以核心技术、关键技术为依托再造新闻生产全流程。人工智能时代,主流媒体不仅要重视技术研发与应用的资金投入,而且要尽快创新变革新闻生产的体制机制,依靠新的制度实现技术与新闻生产各要素的优化整合,更好地吸纳资源、吸引人才,构建管理扁平化、功能集中化、产品全媒化的融合发展体系,真正释放科技潜能、不断激发创新活力、切实发挥技术引领。



※四是推动内容智能化创新建设,增强舆论引导力。



人工智能等新科技能够推动新闻报道的形式创新、手段创新,但内容创新是根本。主流媒体在引入并运用新科技的基础上,要进一步推动前沿技术充分赋能内容创新,把内容创新与形式创新有机结合。传媒业不仅要注重新技术的使用,更要提高内容的深度挖掘和技术对内容表现和传播的适配性,使得新闻内容与前沿技术应用无缝对接。同时,主流媒体要充分借助人工智能等前沿科技深入研究新媒体传播规律和受众市场,不断改进产品设计、优化产品形态、提高产品质量,切实增强舆论引导力。



※五是全面整合市场资源,推动媒体融合纵深发展。



人工智能与5G、大数据、云计算、物联网、区块链等新兴科技产业一同改变着传媒业的发展生态。传统媒体机构只有不断跨界整合市场中的科技资源与技术力量,在产品融合、终端融合、渠道融合、人员融合等各方面实现跨越式发展,才能在信息市场中重握主动权,逐步构建起合理的信息传播生态圈及价值体系。中央级媒体拥有得天独厚的资源优势,必须作为主力军和排头兵积极探索技术资源整合的方式方法、渠道途径及发展道路,充分发挥科技赋能效应,推动媒体融合纵深发展。



※六是重视挖掘数据价值,重塑传媒业核心竞争力。



主流媒体在长期发展过程中积累了大量丰富宝贵的采编资源,为其不断提高报道质量、有效履行职能发挥了重要作用,应当充分挖掘数据价值,探索打造一体化大数据管理体系,利用先进算法和算力,实现数据资源的整合共享、数据标引、数据清洗、人工智能训练以及结构化存储。主流媒体应当将大数据分析能力融入新闻生产全流程,使新闻生产流程从基于经验升级至基于数据,探索建立传媒业特有的数据生态,打造数据驱动型媒体,重塑核心竞争力。

※七是打造智媒体新型团队,培育全媒化人才队伍。



智能媒体需要匹配“智能+”的编辑记者,未来的新闻人才队伍应当是复合型的,既需要复合型的个人,更需要复合型的团队,“全媒体编辑记者+人工智能工程师”可能将成为基础配置之一。主流媒体需要科学制定全媒体、智媒体人才的发展整体规划,改变传统招聘重采编轻技术的现状,加大智能技术人才的选聘力度;加强传统采编人员的智能技术培训,提升采编人员之间、人机之间的协同创新能力;探索专家型编辑记者培养与融合报道能力提升的有机结合,构建专业型和全媒型人才成长的“双路径”。



※八是探索法律伦理规约,确保人工智能可管可控。



传媒业在开展人工智能的研发和应用中,需要把握住以人类价值观为导向的方法论,充分考虑人的良知和情感,避免出现安全失控、法律失准、伦理失常等问题,如当前各大新媒体资讯平台需要不断完善算法推荐机制以确保舆论安全等。随着技术的发展,人工智能的能力将不断增强,应当尽快从法律法规层面制定符合媒介伦理的规则和标准,严防技术失控、保护用户隐私、确保人工智能产品皆可溯源,使人工智能既要具备“智慧”又要确保其“善用”。



四、趋势展望



目前,人工智能对传媒业产生深刻影响,从内容生产自动化,到智能分发精准化,再到内容形态多样化和运营管理系统化,其业务流程和生态体系发生着翻天覆地变化。未来,将呈现以下发展趋势:



※一是主流媒体加速融合发展智能化进程。



人工智能在媒体融合发展中的效应,一方面在于提高媒体全要素生产率;另一方面,人工智能将推动媒体更好发挥在国家治理体系现代化中的作用。构建共享、共建的智能化新型主流媒体平台,打造公共信息服务的智能媒体矩阵,或是媒体融合发展的重要方向。



※二是新媒体业态将不断涌现。



传媒业态和内容样态逐渐增多,“四全媒体”内涵和外延都将继续扩展,新平台、新终端、新交互工具不断演化迭代,机器人新闻、传感器新闻、区块链新闻等新闻品类将蓬勃发展。

※三是行业巨头愈发重视关键核心技术的研发。



科技公司技术研发将致力于专用芯片、算法平台和垂直数据为重点的人工智能生态体系,提供更优质的服务;通过多种技术路径,推动人工智能质的飞越。主流媒体通过自主研发和外部合作,为解决采编审发、版权保护、盈利模式等痛点提供有效路径。



※四是主流媒体集团与头部科技公司越来越强大。



随着技术在新闻传播实践中的作用增大,媒介组织形态将出现新的分化、组合。主流媒体集团和头部科技公司具备更强的资源吸附能力,在传媒业中起到技术引领作用。一部分媒体机构逐渐边缘化甚至消亡,一部分媒体机构转入长尾市场和垂直领域。



※五是人机深度融合成为提升新闻工作者“四力”的未来常态。



人工智能将更深入全面地介入媒体信息采集、内容生产、分发反馈等各个环节,辅助新闻工作者延伸“脚力”、提升“眼力”、增强“脑力”、创新“笔力”。人工智能应用模式将从组织层面和项目层面走向个体化、常态化,科技赋能+人文赋能成为人机融合的新基点。



※六是媒体专业界限更加宽泛。



新兴媒体业态使得记者和编辑的角色边界更加宽泛,算法和用户在传播体系中权重越来越大。专业人才和普通用户的媒介素养将深度重构,传统以文科专业为主的体系将持续调整,跨专业、复合型特征更为凸显。



※七是智媒体将提供更有温度的产品服务。



媒体将能够更好地感知受众的情绪变化,推送更贴近用户心境的新闻信息产品,同时更准确地研判大众对于社会热点事件的情绪反应和舆论走向。



※八是音视频生产消费将迎来全方位升级。



人工智能技术的发展将进一步提升音视频内容的生产效率、拓展创新创意的空间,基于不同场景的音视频内容消费将呈现爆发式增长,语音交互技术带来人机交互界面的重塑,帮助媒体开拓新的流量入口。



※九是传媒业版权保护的意识与能力将不断增强。



人工智能等前沿技术将进一步助力解决版权保护问题,提供内容变现、盈利模式创新的智能化技术支撑,将催生传媒版权领域的新规则与新生态。



(新华社“人工智能时代媒体变革与发展”课题组)



来源:新华社

链接:https://xhpfmapi.zhongguowangshi.com/vh512/share/8892365?channel=weixin



编辑:冯梦玉



394#
 楼主| 发表于 2020-2-20 22:34:26 | 只看该作者

【案例】



编辑尚未被废除 但他们的权力正在弱化



其实,大多数错别字只是有碍观瞻,本身并没有什么打不了的(我这里写了一个错别字,影响你理解了么?)。



早年传统媒体时代,较真错别字九成九是出于经济原因。



要修改已经刊发出去的报纸杂志乃至书籍,成本巨大。



所以,在下厂印刷之前,必须慎而又慎。



媒体好歹都是文人扎堆的单位,写错了字,实在是很没面子,但挽回面子要费的功夫太大。



数字网络时代就全然不同。



只不过,12年兴起的微信公众帐号,却有个古怪的法则:内容一旦推出,除非你删除这条内容,想修改?那是没法子的。



故而,最近这几年,错别字问题,又提上了台面。因为很容易被发现,内容生产者不好改了嘛!







今人较真错别字的问题,我个人觉得,是很搞笑的。



因为其实有更多的词法问题,躺在那里,也没什么人管。



试问你见过几个人用对“空穴来风”的?



又试问你见过类似这样的文字否:张三升任部门总监,其过去连个经理都不是——太多人不晓得怎么用“其”。



再试问你见过多少“***是伪命题”的说法?



命题只有真和假,并没有伪,而且命题本身必须是一个判断而不是一个概念。



只是,假命题、伪概念,听上去实在没有伪命题来得有气势,多少人在那里胡乱使用,又有多少人说三道四过?







编辑当然有订正错别字、纠正错误词法语法的职责。



但如果你以为编辑就是干这个的,那就大错特错了。



我可以这么说,编辑,其实是一种权力工种(写成权利就错了,这是少数的不能轻轻放过的错别字)。



ta掌握了巨大的传播权力。



有一种称呼就可以显示出来。



如果一个人掏出名片来是什么“总编辑”、“主编”,你就应该知道,ta管人。



但并没有什么人会冠以“总记者”的头衔。



至于首席记者,那是一种荣衔,也是很多传统媒体内部为了解决待遇问题但岗位不足时发明出来的一种和待遇有关的职衔,本身并不代表ta管一堆记者。



真正管记者的人,是总编/主编。



记者做得好,可以继续做,做成名记,一直干到退休,也可以写而优则仕:做成管记者的总编/主编。这个道理和程序员/销售员做好了可以选择继续做高级程序员/销售员,或者改任技术/销售总监去管程序员/销售员一模一样。







稍微有点新闻传播学基础知识的人都知道“议程设置”。



议程设置在整个传播学的历史上位置非常重要,它结束了传播效果有限的普遍认知,开启了强大效果论的范式。



它用定量研究的方法证明了两件事:媒体在影响人们对世界诸事的重要度排序上、以及影响人们如何思考重要事件上,有着强大的效果。



但很多传播学教程并不会告诉你,究竟是媒体中什么人掌握了议程设置。



经营人员?发行人员?采编人员?



是采编人员中的编(编辑),不是采(记者)。



编辑几乎可以决定一篇记者的稿件能不能刊发,也能决定一篇稿件在媒体上的位置。



编辑还握有起标题的权力,以及,写编者按这种导读性质文字的权力。



字号、字体、乃至字的颜色,都是编辑决定的。



而以上这些,统统影响着议程设置。







今人对编辑的轻视,我推想,可能是网络时代初启时,网编大多数干的事情都是复制粘贴——这事我在2000年也干过。



今人喜欢用小编这个词,这是天大的误会。以前只有小记老编——当然也有选择只干专业不做管理的老记。大多数编辑都是记者升上来的,不会小的。



网络时代刚刚到来之时,人们对互联网的认识并不像今天那样以为举足轻重,网络内容也大多数实际上复制于传统媒体,这造成刚一开始,网编真的没什么技术含量。



但随着互联网在人们生活中越来越重要,网编事实上也开始掌握权力。



他们比传统媒体的编辑们,由于技术的原因,还多了一项权力:把已发布的内容撤下,也就是大家耳熟能详的“删稿”。



试举两例,都是真实的事件。



某以海量快速立身且事实上拿到第一的门户,其员工一向高傲。06年有一次我以一初创互联网公司的高管身份去拜见该门户某频道主编,吃了一顿饭,结果让人掏了钱,我以为我乃魔都前去之客,彼为帝都地主,理应他们付账。回来后被多人惊呼:你竟然让他们买了单!要知道他们吃饭从来不付钱。



某死掐着上述门户一度自封第一的门户,某频道主编大婚,该频道所在行业的大小公司,来了一堆又一堆道贺。一场私人婚宴,最终大概被搞成了一场PR大趴。



谁说网编是小编?







编辑们(无论是传统媒体的,还是网络媒体的)的权力正在弱化。



这和议程设置到底掌握在谁手里有关。



07年,百度的广告收入超越新浪,这标志着从甲方眼里,也认为百度比新浪更值得投入——用户眼里,百度的访问量早就超越了新浪。



百度也有议程设置,一张网页,如果出现在搜索结果的第一页,和出现在第十页,第一百页,被点击的概率天差地别。



但谁在容易被点击的位置,除了付钱,就只剩下:技术因素(百度自家产品不在此例)。



算法接替了人工编辑,在决定议程设置。



进入移动互联网后,算法分发被头条这样的内容客户端继承。头条的首屏二屏三屏等等,内容的位置,并非人工决定(不过置顶的那条倒不是技术法则,有点用户量的内容客户端都一样)。



另外还出现一路分发方式:社交分发。典型的场域就是微博和微信朋友圈。



公号内容的传播事实上极度依赖朋友圈。



社交分发的议程在用户自己手里:你关注谁(微博)、你和谁结为好友(微信),几乎决定了你会看到什么样的内容。



如果你非常讨厌你看到的内容,你可以取关(微博)、屏蔽乃至拉黑(微信),还自己一片清静。







在强大的技术、工程、产品面前,其实文科生为主的编辑们,是很弱小的。



以至于在去年,东方网的总编辑徐世平实在憋不住,连写两封公开信与微信叫板,但却无疾而终。



分发其实就是内容发行,在过去媒体三种人中地位最为低下的发行,现在摇身一变,掌握了根本的传播。



如果不考虑行政方面的因素,技术事实上掌握了传播的最底层权力:它可以用算法遏制传播甚至是索性终止传播。



但如果把渠道的传播能力放在一边,我们又会发现一个有趣的事实:编辑的力量,似乎又在加强。



标题几乎决定一篇文章的生死。



而标题的制作,至今,仍然掌握在编辑的手中(并不一定是作者本人,更不是什么技术或渠道)。



移动时代的小屏幕,使得人们不可能首先接触到大段的文字,他们第一感知的是:标题。



就在可能连一秒钟都不到的时间内,这个标题是否足够吸引到ta去点击,已然决定。



内容生产方已经很难把控渠道,但内容生产方彼此的竞争,编辑仍然是最重要的因素之一。







人工智能正在悄然崛起。



今天,AI的确能够写出语句通顺的一篇文章,而且,保证没有错别字。



AI甚至能够写诗,还不止一首。



对于今天的AI来说,校对文章发现词法语法错误,大概是小菜一碟。



但如何起一个易发点击且雅俗共赏又绝非标题党的标题,至少到现在,还是人类的事。



更进一步的,策划与选题,这个多年以前就属于编辑的工作,也依然掌握在人类的手里。



编辑,尚未被废黜。





作者执教于上海交通大学媒体与设计学院,天奇阿米巴创投基金管理合伙人



来源:大家

作者:魏武挥

链接:https://mp.weixin.qq.com/s/yKSvT3G0fLZYVyLJY1jrkw



编辑:冯梦玉



395#
 楼主| 发表于 2020-2-20 22:59:40 | 只看该作者
【案例】
Thinking About ‘Ethics’ in theEthics of AI


A major international consultancyfirm identified ‘AI ethicist’ as an essential position for companies tosuccessfully implement artificial intelligence (AI) at the start of 2019. Itdeclares that AI ethicists are needed to help companies navigate the ethicaland social issues raised by the use of AI. [1] The view that AI is beneficial butnonetheless potentially harmful to individuals and society is widely shared bythe industry, academia, governments, and civil society organizations.Accordingly and in order to realize its benefits while avoiding ethicalpitfalls and harmful consequences, numerous initiatives have been establishedto a) examine the ethical, social, legal and political dimensions of AI and b)develop ethical guidelines and recommendations for design and implementation ofAI. [2]

However, terminologicalissues sometimes hinder the sound examination of ethical issues of AI. Thedefinitions of ‘intelligence’ and ‘artificial intelligence’ often remainelusive, and different understandings of these terms foreground differentconcerns. To avoid confusion and the risk of people talking past each other,any meaningful discussion of AI Ethics requires the explication of thedefinition of AI that is being employed as well as a specification of the typeof AI being discussed. Regarding the definition, we refer to the EuropeanCommission High-Level Expert Group on Artificial Intelligence, which defines AIas “software (and possibly also hardware) systems designed by humans that,given a complex goal, act in the physical or digital dimension by perceivingtheir environment through data acquisition, interpreting the collected […]data, reasoning on the knowledge, or processing the information, derived fromthis data and deciding the best action(s) to take to achieve the given goal. AIsystems can either use symbolic rules or learn a numeric model, and they canalso adapt their behaviour by analysing how the environment is affected bytheir previous actions”. [3]
To provide specificguidance and recommendations, the ethical analysis of AI further needs tospecify the technology, e.g. autonomous vehicles, recommendersystems, etc., the methods, e.g. deep learning, reinforcementlearning, etc., and the sector(s) of application, e.g. healthcare, finance,news, etc. In this article, we shall focus on the ethical issues relatedto autonomous AI, i.e. artificial agents, which can decide andact independently of human intervention, and we shall illustrate the ethicalquestions of autonomous AI with plenty of examples.
Consider first the caseof autonomous vehicles (AVs). The possibility of accident scenarios involvingAVs, in which they would unavoidably harm either the passengers or pedestrians,has forced researchers and developers to consider questions about the ethicalacceptability of the decisions made by AVs, e.g. what decisions should AVs makein those scenarios, how can those decisions be justified, which values are reflectedby AVs and their choices, etc. [4]
Hiringalgorithms typically function by using the criteria they learned from atraining dataset. Unfortunately, such training data can be biased, leading topotentially discriminatory models.
Or,consider the case of hiring algorithms, which have been introduced to automatethe process of recommending, shortlisting, and possibly even selecting jobcandidates. Hiring algorithms typically function by using the criteria theylearned from a training dataset. Unfortunately, such training data can bebiased, leading to potentially discriminatory models. [5]
Inorder to ensure protection from discrimination, which is not only a humanright, but also part of many countries’ constitutions, we therefore have tomake sure that such algorithms are at least non-discriminatory but ideallyalso fair. There are, however, different understandings offairness: people disagree not only what fairness means, the adequate conceptionof fairness may also depend upon the context. Moreover, it has also been shownthat different fairness metrics cannot be attained simultaneously. [6] Thisraises the question how values such as fairness should be conceived in whichcontext and how they can be implemented.
One of the fundamentalquestions in the ethics of AI, therefore, can be formulated as a problem ofvalue alignment: how can we build autonomous AI that is aligned with societallyheld values. [7] Virginia Dignum hascharacterized three dimensions of AI Ethics, namely “Ethics by Design”, “Ethicsin Design”, and “Ethics for Design”, [8] and theyare useful in identifying two different responses to the value alignmentproblem. We shall structure the following discussion based on the threedimensions above and explore the two different directions to answer the valuealignment problem in more detail.

Building Ethical AI: Prospects and Limitations

Ethics by Design is“the technical/algorithmic integration of reasoning capabilities as part of thebehavior of [autonomous AI]”. [9] Thisline of research is also known as ‘machine ethics’. The aspiration of machineethics is to build artificial moral agents, which are artificial agents withethical capacities and thus can make ethical decisions without humanintervention. [10]Machine ethics thus answers thevalue alignment problem by building autonomous AI that by itself aligns withhuman values. To illustrate this perspective with the examples of AVs andhiring algorithms: researchers and developers would strive to create AVs thatcan reason about the ethically right decision and act accordingly in scenariosof unavoidable harm. Similarly, the hiring algorithms are supposed to makenon-discriminatory decision without human intervention.
Wendell Wallach andColin Allen classified three types of approaches to machine ethics in theirseminal book Moral machines [11]. The threetypes of approaches are, respectively, (i) top-down approaches, (ii) bottom-upapproach, and (iii) hybrid approaches that merge the top-down and bottom-upapproach. In the simplest form, the top-down approach attempts to formalize andimplement a specific ethical theory in autonomous AI, whereas the bottom-upapproach aims to create autonomous AI that can learn from the environment orfrom a set of examples what is ethically right and wrong; finally, the hybridapproach combines techniques and strategies of both the top-down and bottom-upapproach. [12]
A These approaches,however, are subject to various theoretical and technical limitations.For instance, top-down approaches need to overcome the challenge to find anddefend an uncontroversial ethical theory among conflictingphilosophicaltraditions. Otherwise the ethical AI will risk being built on an inadequate,or even false, foundation. Bottom-up approaches, on the other hand,infer what is ethical from what is popular, or from what is commonlyheld as being ethical, in the environment or among examples. Yet suchinferences do not ensure that autonomous AI acquire genuine ethicalprinciples or rules because neither popularity nor being considered ethicaloffers an appropriate ethical justification. [13] Furthermore,there is the technical challenge of building an ethical AIthat can effectively discern ethically relevant from ethicallyirrelevant information among the multitude of information availablewithin a given context. This capacity would be required for the successfulapplication of ethical principles in top-down approaches as well as for thesuccessful acquisition of ethical principles in bottom-up approaches. [14]
AutonomousAI in general, and ethical AI in particular, may significantly undermine humanautonomy because the decisions made by them for us or about us will be beyondour control.
Besidesthe theoretical and technical challenges, several ethical criticismshave been leveled at building autonomous AI with ethical capacities. First,autonomous AI in general, and ethical AI in particular, may significantlyundermine human autonomy because the decisions made by them for us or aboutus will be beyond our control, thereby reducing our independence fromexternal influences. [15] ). Second, it remains unclearwho or what should be responsible for wrongful decisions of autonomous AI,leading to concerns over their impacts on our moral responsibilitypractices. [16] Finally, researchers haveargued that turning autonomous AI into moral agents or moral patientsunnecessarily complicates our moral world by introducing in it unfamiliarthings that are foreign to our moral understanding, thereby imposing anunnecessary ethical burden on human beings by requiring us to pay undue moralattention to autonomous AI. [17]

Machine Ethics, Truncated Ethics

Our review of thetheoretical, technical, and ethical challenges to machine ethics does notintend to be exhaustive or conclusive, and these challenges could indeed beovercome in future research and development of autonomous AI. However, we thinkthat these challenges do warrant a pause and reconsideration of the prospectsof building ethical AI. In fact, we want to advance a more fundamental critiqueof machine ethics before exploring another path for answering the value alignmentproblem.
Recall the objective ofmachine ethics is to build an autonomous AI that can make ethical decisions andact ethically without human intervention. It zooms in on imbuing autonomous AIthe capacities to make ethical decisions and perform ethical actions, whichreflects a peculiar understanding of ‘ethics’ we take to problematize. Morespecifically, focusing only on capacities for ethicaldecision-making and action, machine ethics is susceptible to a truncated viewof ethics that sees ethical decisions and actions as separable from theirsocial and relational contexts. Philosopher and novelist Iris Murdoch, forexample, has long ago argued that morality is not about “a series of overtchoices which take place in a series of specifiable situations”, [18] butabout “self-reflection or complex attitudes to life which are continuouslydisplayed and elaborated in overt and inward speech but are not separabletemporally into situations”. [19] ForMurdoch, what is ethical is inherently tied to a background of values.Therefore, it is essential, in thinking about ‘ethics’, to look beyond thecapacities for ethical decision-making and action and the moments of ethicalchoice and action and intothe background of values and thestories behind the choice and action. Similar arguments have been made toaffirm the role of social and relational contexts in limiting ethical choicesand shaping moral outcomes, and thus the importance to account for them in ourethical reflection. [20]
Following this line ofcriticism, the emphasis on imbuing autonomous AI’s ethical capacities inmachine ethics can be viewed as wrongheaded insofar as the emphasis overshadowsthe fact that ethical outcomes from autonomous AI are shaped by multiple,interconnected factors external to its ethical reasoning capacities and thatthere is an extended process of social and political negotiation on thecriteria for rightness and wrongness underlining the eventual ethical decisionsand actions made by autonomous AI. ‘The Moral Machine experiment’ conducted byresearchers at the MIT Media Lab is a case in point. [21] Inthe experiment, the MIT researchers attempt to crowdsource ethical decisions indifferent accident scenarios involving AVs, and the results are intended toinform the ethical design of AVs. What is missing, however, are the social,cultural, political backgrounds and personal stories involved in real accidentsthat accident scenarios in the experiment do not, and often cannot, properlydescribe. [22] In this respect, ‘The MoralMachine’ experiment is also based on a truncated view of ethics, which only considersthe choice to be made in specific situations and neglect the background ofvalues and contextual details that are essential for making ethical judgments.
In thinkingabout ‘ethics’, it is essential to look beyond the capacities for ethicaldecision-making and action and the moments of ethical choice and action, andinto the background of values and the stories behind the choice and action
Indeed,social and relational contexts matter to the ethical analysis of autonomous AIboth beforeand after its implementation. Forexample, one can devise an impartial hiring algorithm, which assesses jobcandidates only on the basis of the qualities required by anopening. This impartial hiring algorithm could nonetheless remaindiscriminatory, and therefore ethically dubious, if the specific qualitiesrequired by the opening are inadvertently linked to race, gender, and socialclass. In this case, care must be taken not to reproduces the pre-existingsocial bias in the hiring algorithm. Moreover, even the best-intendedtechnologies can bring serious adverse impacts to their (non-)users as bias andharm could emerge from the interaction between technologyand the users and society. [23]Imagine an app which residents canuse to report incidents, such as road damages to the local city council, whichthen uses an algorithm to sort and rank local problems based on those reports.If we assume that access to smartphones and thus to the app is unequallydistributed, this may lead to underreporting of problems in areas with poorerresidents. If not taken into account in the algorithmic sorting and ranking,this bias in the input data could then further increase inequalities betweenmore and less affluent areas in the city. [24]
The key lesson from thetwo examples is that having some ethical principles or rules inscribed inautonomous AI is insufficient to resolve the value alignment problem becausethe backgrounds and contexts do contribute to our overalljudgment of what is ethical. We should remind ourselves that autonomous AIis alwayssituated in some broader social and relational contexts,and so we cannot only focus on its capacities formoral decision-making and action. We need to consider not only what decisionsand actions autonomous AI should produce, but also (i) why we—or,the society—think those decisions and actions are ethical, (ii) how wearrive at such views, and (iii) whether we are justified inthinking so. Accordingly, ‘The Moral Machines’ experiment is objectionable asit unjustifiably assumes that the most intuitive or popular responseto the accident scenarios is the ethical response. Indeed,the reframing of questions gives us two advantages. First, we can now easilyinclude other parties and factors beyond the autonomous AIin our ethical reflection. Second, it also makes explicit the possibility of(re-)negotiating which ethical principles or rules should be inscribed inautonomous AI (or even questioning the use of autonomous AI in a specificcontext altogether).

A Distributed Ethics of AI

To be clear, we do notdeny the need to examine the values embedded in technology and the importanceto design and build technology with values that are aligned with humaninterests. [25] As the examples in thisarticle show, autonomous AI can play a role in ethical decision-making and maylead to ethically relevant outcomes, so it is necessary to both examine thevalues embedded in it and to use shared societal values to guide its design anddevelopment. We do, however, want to question the aspiration of delegating ethicalreasoning and judgment to machines, thereby stripping such reasoning andjudgment from the social and relational contexts. A proper account of theethics of AI should expand its scope of reflection and include other partiesand factors that are relevant to the ethical decision-making and havecontributed to the ethical outcomes of autonomous AI. To this end, it isessential for the ethics of AI to include various stakeholders, e.g.policy-makers, company leaders, designers, engineers, users, non-users, and thegeneral public, in ethical reflection of autonomous AI. Indeed, only by doingso can we sufficiently address the questions: (i) why wethink the decisions and outcomes of AI are ethical, (ii) howwearrive at such views, and (iii) whether we are justified inour judgements.
the designand implementation of AI should take existing societal inequalities andinjustices into consideration, account for them, and at best even aim atalleviating them through their design decisions.
Weshall call this expanded AI Ethics a distributed ethics of AI.The term ‘distributed’ aims to capture the fact that multiple parties andfactors are relevant to and have contributed to the ethical outcomes ofautonomous AI, and thus the responsibility for them are ‘distributed’ betweenthe relevant and contributing parties and factors. [26] Touse the examples of AVs and hiring algorithms: poor urban planning and road facilitiesshould be legitimate concerns in the ethics of AVs, in the same way as existingsocial and cultural biases are valid considerations for ethical hiringalgorithms. Hence, the design and implementation of AI should take existing societalinequalities and injustices into consideration, account for them, and at besteven aim at alleviating them through their design decisions.
The distributed ethicsof AI needs what Dignum has labeled “Ethics in Design”, i.e.“the regulatory and engineering methods that support the analysis andevaluation of the ethical implications of AI systems as these integrate orreplace traditional social structures” as well as “Ethics for Design”,i.e. “the codes of conduct, standards and certification processes that ensurethe integrity of developers and users as they research, design, construct,employ and manage artificial intelligent systems”. [27] Ethicalquestions of autonomous AI cannot be solved by ‘better’ individual(istic) ethicalcapacities but only through collectiveefforts. To guide suchcollective efforts, ethicalguidelines offer useful means tostir value- und principle-based reflection in regards in autonomous AI and toeffectively coordinate the efforts among different relevant and contributingparts. [28]

Conclusions: sobre la IA fiable de la UE

In April 2019, theHigh-Level Expert Group released the ‘Ethics Guidelines for TrustworthyAI’ which concretize the Europe’s vision of AI. According tothese Guidelines, Europe should research and develop Trustworthy AI,which is lawful, ethical, and robust.
There are two points inthe Guidelines that deserve special mentioning in the present subject ofdiscussion. First, it is interesting to note that the concerns for trust in theGuidelines are about “not only the technology’s inherent properties, but alsothe qualities of the socio-technical systems involving AI applications […].Striving towards Trustworthy AI hence concerns not only the trustworthiness ofthe AI system itself, but requires a holistic and systemic approach,encompassing the trustworthiness of all actors and processes that are part ofthe system’s socio-technical context throughout its entire life cycle.” In thisrespect, the vision of Trustworthy AI clearly matches with the distributedethics of AI as previously described. Second, it is also interesting to notethat the four ethical principles identified in the Guidelines are mid-levelprinciples, i.e.
1.         The principle of respect forhuman autonomy.
2.         The principle of prevention ofharm.
3.         The principle of fairness.
4.         The principle ofexplicability
The formulation ofethical principles based on mid-level principles isparticularly illuminating, because mid-level principles require humaninterpretation and ordering in their application, and they are not intendedto—and, indeed cannot—be implemented within autonomous AI. The need forinterpretation and ordering also points to the social and relational contexts,where the resourcesfor interpretation and ordering lies.
While the Europeanvision of Trustworthy AI and the Guidelines have a conceptually soundfoundation, there a number of open problems with them. For instance, the use ofmid-level principles in the Guidelines allows considerable room forinterpretation, which, in turn, can be misused by malevolent actors tocherry-pick the interpretations and excuse themselves from their responsibility.This problem is further compounded by the Guidelines’ emphasis onself-regulation, where politicians and companies can pay lip service to theEuropean vision with cheap and superficial measures,such as propaganda and setting up symbolic advisory boards, without substantively addressingthe negative impacts of AI. Hence, there are significant issues concerningthe actualregulatory and institutional framework for AI Ethicsand for realizing this European vision. Particularly, there is the need tocreate a clear framework to fairly distribute the benefitsand risks of AI and the need to introduce ‘hard’ laws and regulations againstthe violation of basic ethical values and human rights.
Notwithstanding theseproblems, the Guidelines’ focus on humans and beyondtechnology should be taken as an appropriate normative standpointfor the AI Ethics and the European vision. To end this article, we want toremind that the ethical questions about autonomous AI are distributed innature, and that we—or, the society—should have a voice in their design anddeployment.
·  
REFERENCES
·  
1 —
·  
·  
2 —
·  
AlgorithmWatchhas compiled a list of ethical frameworks and guidelines available at:
https://algorithmwatch.org/en/project/ai-ethics-guidelines-global-inventory/.
·  
3 —
·  
EuropeanCommission High-Level Expert Group on Artificial Intelligence [AI HLEG](2019) Ethics guidelines for trustworthyAI. European Commission.
·  
4 —
·  
The type ofaccident scenarios is known as ‘the trolley problem’. It is only one of thetopics discussed in the ethics of autonomous vehicles, and we only use it as anexample to illustrate one of the many ethical issues autonomous AI could raise.See:
·  
·    Lin, P. (2016) Why ethics matters for autonomous cars. In M. Maurer,J. Gerdes, B. Lenz, & H. Winner (Eds.), Autonomous Driving:Technical, Legal and Social Aspects (pp. 69-85). Berlin: Springer.
·    Keeling, G. (2019) Why trolleyproblems matter for the ethics of automated vehicles. Science andEngineering Ethics.
5 —
Bogen, M. (2019) All the ways hiring algorithms canintroduce bias. Harvard Business Review, May 6,2019.
6 —
See:
·    Friedler, S., Scheidegger, C., & Venkatasubramanian, S. (2016)On the (Im)possibility of fairness. arXiv:1609.07236.
·    Chouldechova, A. (2017). Fair prediction with disparate impact: astudy of bias in recidivism prediction instruments. Big Data 5(2):153-163.
·    Wong, P.-H. (2019) Democratizingalgorithmic fairness. Philosophy & Technology.
7 —
The AI alignmentproblem is first explicitly formulated by Stuart Russell in 2014, seeeterson, M. (2019) The value alignment problem: a geometric approach. Ethicsand Information Technology 21 (1): 19-28.
8 —
Dignum, V. (2018)Ethics in artificial intelligence: introduction to the special issue. Ethicsand Information Technology 20 (1): 1-3.
Íbid., p. 2
10 —
See:
·    Winfield, A., Michael, K., Pitt, J., & Evers, V. (2019) Machineethics: the design and governance of ethical AI and autonomous systems. Proceedingsof the IEEE 107 (3): 509-517.
·    Wallach, W., & Allen, C. (2009). Moral Machines:Teaching Robots Right from Wrong. New York: Oxford University Press.
·    Misselhorn, C. (2018) Artificial morality. concepts, issues andchallenges. Society 55 (2): 161-169.
11 —
Wallach, W., &Allen, C. (2009). Moral Machines: Teaching Robots Right from Wrong.New York: Oxford University Press.
12 —
Íbid., p. 79-81
13 —
For a review of thedifficulty of machine ethics, see: Cave, S., Nyrup, R., Vold, K., & Weller,A. (2019) Motivations and risks of machine ethics. Proceedings of theIEEE 107 (3): 562-74.
14 —
This is also known asthe moral frame problem, see: Horgan, T., & Timmons, M. (2009) What doesthe frame problem tell us about moral normativity? Ethical Theory andMoral Practice 12 (1): 25-51.
15 —
Danaher, J. (2018)Toward an ethics of AI assistants: an initial framework. Philosophy& Technology 31 (4): 629-653.
16 —
Matthias, A. (2004) Theresponsibility gap: ascribing responsibility for the actions of learningautomata. Ethics and Information Technology 6 (3): 175-83.
17 —
Bryson, J. J. (2018)Patiency is not a virtue: the design of intelligent systems and systems ofethics. Ethics and Information Technology 20 (1): 15-26.
18 —
Murdoch, I. (1956)Vision and choice in morality. Proceedings of the AristotelianSociety, Supplementary30: 32-58. p. 34
19 —
Íbid., p. 40
20 —
Walker, M. U.(2007) Moral Understandings: A Feminist Study in Ethics. Oxford:Oxford University Press.
21 —
Awad, E., Dsouza, S.,Kim, R., Schulz, J., Henrich, J., Shariff, A., Bonnefon, J.-F., & Rahwan,I. (2018) The Moral Machine experiment. Nature 563: 59-64.
Jaques, A. E. (2019) Why the moral machine is a monster.Paper presented to We Robot 2019, University of Miami, April 11-13, 2019.
23 —
Friedman, B., &Nissenbaum, H. (1996) Bias in computer systems. ACM Transactions onInformation Systems 14 (3): 330-347.
24 —
Simon J (2012) E-Democracy and Values in Design. Proceedingsof the XXV World Congress of IVR 2012.
Simon, J. (2017)Value-sensitive design and responsible research and innovation. In S. O.Hansson (Ed.), The Ethics of Technology Methods and Approaches (pp.219-235). London: Rowman & Littlefield.
26 —
See:
·    Floridi, L. (2013) Distributed morality in an informationsociety. Science and Engineering Ethics 19 (3): 727-743.
·    Simon, J. (2015) Distributed epistemic responsibility in ahyperconnected era. In L. Floridi (Ed.), The Onlife Manifesto (pp.145-159). Cham, Springer.
27 —
Dignum, V. (2018)Ethics in artificial intelligence: introduction to the special issue. Ethicsand Information Technology 20 (1): p. 2.
28 —
Floridi, L. (2019)Establishing the rules for building trustworthy. Nature MachineIntelligence 1: 261-262.

来源:IDEES
作者:Judith Simon, Pak-Hang Wong
链接:https://revistaidees.cat/en/thinking-about-ethics-in-the-ethics-of-ai/

编辑:冯梦玉

396#
 楼主| 发表于 2020-2-21 18:30:56 | 只看该作者
【案例】

欧盟委员会副主席:面部识别技术违反GDPR | DataLaws



欧盟委员会执行副主席,主管数字业务和反垄断事务的Margrethe Vestager称,根据欧盟数据保护机制,通过面部识别技术自动识别身份违法。



在上月13号接受记者采访时,Vestager称就目前的情况而言,面部识别技术因无法获得权利主体同意而违反GDPR



GDPR第六条列明了个人信息可以被合法获取的条件,其中之一是需要获得数据主体的明确同意。本条规定的例外是维护公共安全所需,在这种情况下面部识别自动标明身份合法。



Vestager告诉记者,委员会将需要一些时间来决定如何针对面部识别进行立法,但不会阻止各国倡议根据现有规则使用该技术。



面部识别功能在手机和机场过关时已经得到使用。但是,在人工智能的推广中,远程使用它(包括由公共机构使用)正日益成为一个有争议的问题。



委员会本考虑在其AI白皮书中发布长达五年的远程面部识别技术使用禁令,但在最新的草案中删除了这部分内容。



Vestager补充说委员会在这一阶段不会采取任何措施,但会研究如何在欧盟这一级别规制面部识别技术。“因此,在白皮书中,我们将使用一种非常谨慎的语言说,让我们暂停一下,找出是否存在任何“情况”,以及在什么情况下应该授权进行远程面部识别。”委员会官员补充说,在这个暂停期内不会阻止各国政府依据现有规则使用面部识别技术。



Vestager认为面部识别技术突破了需要数据主体同意的规定,法国数据监管机构CNIL也发出了同样的警告。



但欧盟官员希望与成员国,企业和其他组织探讨是否应增加新的例外。



Vestager说,鉴于某些类型的人工智能可能“对基本价值和人格产生非常不利的影响”,委员会打算采用基于风险的方法在某些领域引入新规则。该范围将覆盖那些敏感部门,包括卫生、能源、运输、公共部门。在每个部门内,解决可能需要监督的有风险的适用。尽管有丹麦数据保护官预计未来将有必要制定新规则,但仍需注意可能对小企业造成的影响,因此欧盟的方案应该不会太过严苛。



尽管欧洲投入人工智能的资源仅为美国和中国的一小部分,但Vestager相信白皮书和随后出台的新规则将为面部识别的技术运用铺平道路。她说:“中国有数据,美国有钱,我们有目标。”她指的是欧盟实现“卓越”使用人工智能的目标。她认为欧洲不应放弃其“保护基本价值观的意愿”。“我认为这是最好的做法,欧洲路径带领我们走到了现在,使得使我们成为了地球上最有吸引力的生活地之一。中国走中国的路,我们并不擅长那样做。对我们而言,坚持我们的信念会更好。”

(来源:https://www.euractiv.com

作者:Jorge Valero

日期:2020年2月17日

翻译:魏雪颖,上海交大法学院本科生)



来源:数据法盟

作者:魏雪颖

链接:https://mp.weixin.qq.com/s/yvifEIDRZf9BIq078uNX_A



编辑:冯梦玉

397#
 楼主| 发表于 2020-2-25 20:53:06 | 只看该作者
【案例】

美国《人脸识别道德使用法案》全文翻译与评价

【法案背景】

本次在参议院提出的《人脸识别道德使用法案(草案)》是继的《2019商业人脸识别法案》(2019年3月14日向参议院提交),以及《2019人脸识别技术法案》(2019年11月14日向参议院提交),美国在关于人脸识别技术使用与限制的立法进程中的又一法案。

旧金山一直是美国犯罪率较高城市之一,却成为美国第一个禁用人脸识别信息技术的城市。旧金山城市监督委员会于2019年通过颁布《反监控条例》(Anti-surveillance Ordinance),其中关于禁用新技术监控的条例,明确禁止了政府及执法部门使用人脸识别技术,且其他机构买同类型监控也要取得监督委员会许可。

在中国,人脸识别技术已经被应用于城市治理和消费生活各种场景,但为何“刷脸”技术却会被美国人立法抵制呢?

我们再往前看多一眼,在2019年3月,美国颁布了一项法令,明确禁止企业在没有征得消费者的同意下使用并共享消费者的数据。又例如,美国的部分州,如伊利诺伊州在2008年颁布《生物信息隐私法案》规定了,在没有经过公民同意的情况下,政府部门不得使用和采集公民生物信息。

美国重视对人脸识别技术的限制使用,或许有多方面的原因。一方面,他们认为不恰当地使用人脸识别技术而带来的各种潜在不利影响,或可能会使不同的群体受到不公正的待遇,或会使人们不断的生活在政府、企业的监视中,影响并侵犯公民的隐私权和言论自由,另一方面,由于人脸识别技术对于非裔美国人、有色人种等群体的识别率不高,可能会产生各类种族歧视与冲突的问题(例如,麻省理工和多伦多大学的一项研究表明曾指出,亚马逊的人脸识别系统将深色皮肤的女性错认为男性,这种错误率高达31%。而浅色皮肤的女性被认错的概率只有7%)。

同时在美国,人脸识别数据库多为白人男性训练,有色人种、妇女、年轻人识别率较低,识别准确率与光线、角度、环境等也有关系,再一个随着人们年龄变化,人脸识别的精准度也有待提升,这会给照片和视频诈骗留下控件。因此在美国人脸识别技术的广泛许可不应该是一揽子许可,应立法监管使技术与法律道德能尽快咬合,这也是本法案的立法目的。

【法案的重点内容概述】

前面提及的2019年提交的《商业人脸识别隐私法案》,其主要的内容是关于对商业实体在人脸识别技术使用上的一些限制要求。例如,在没有获得用户的明确积极的同意下(非默认同意),商业实体禁止通过人脸识别技术对终端用户进行技术辨认以及跟踪,也禁止通过人脸识别技术对终端用户进行不合法的区别对待等。

而本次《人脸识别道德使用法案》主要是对政府等执法机构的限制要求。明确要求政府机构在委员为颁布人脸识别技术使用指南之前,禁止安装任何与人脸识别相关的设备,禁止通过人脸识别技术获得个人信息,禁止执法机构在没有获得逮捕令的情况下,使用人脸识别技术来对特定个人进行识别(主要在第四节进行体现)。

第五节,主要是关于当个人认为政府机构违反相关规定使用人脸识别技术而受到权利侵害时候的具体救济措施,以及联邦拨款的限制要求。第六节则是关于成立国会委员会的相关规定。

【部分人脸识别案例与突出问题速览】

【欧盟】:瑞典数据保护局(DPA)就瑞典北部一所学校使用监控人脸识别技术,从而援引欧盟GDPR进行了处罚,原因主要学校就考勤问题完全有更保守的选择,其次因为数据的采集者和保管者信息不对称,有造成外发和泄露可能。


【美国】:对比国外最早应用人脸识别技术的巨头之一facebook曾为此遭受用户状告侵犯个人隐私,facebook抗辩过程中表示,他们一直披露他们的人脸识别技术,而且用户可以随时选择关闭,因此用户是没有遭受过具体侵权损害,但美国法院仍然认为,根据最高法院精神,该种伤害虽然是看不到,但是仍然存在。根据美国某人脸识别技术开发公司表示,人脸识别的数据均保存于本地服务器,本地服务器难以保证数据安全性,使用机构无法保证与执法机构及政府部门不共享人脸识别数据库数据,例如美国某安装人脸识别信息的学校会与治安官签订《谅解备忘录》,使得治安官随时可以进出数据库,这已超出识别的范畴,造成严重的隐私侵犯。


【中国】:人脸识别近年主要在国内集中于安防,例如海康威视和大华,他们本身已拥有全套安防软硬件产业供应链,人脸识别技术加持了的安防产业,从而增加了他们本来的优势,在智慧城市建设的不同场景之中可以派上用场,但人脸数据管理者则为数据存储器管理者,国内为三大运营商等,作为国企,与监管部门共享数据信息是惯例,但也发生运营商内部员工数据泄露等问题。

【从法案中引发的一些思考】

人脸识别一直是一个非常有趣且值得深入研究的问题。目前在我们国家关于人脸识别的法律规定可能仍然比较分散,包括政府等执法机构在使用人脸识别技术方面的规定与限制也是不够明确的。

一些常见的问题可能包括:

怎样确保人脸识别数据的采集方式合法合规,例如采集的时间、场合,以及限制?
2019年2月,国家信息安全标准化技术委员会面向全社会公开征求《信息安全技术个人信息安全规范(草案)》意见,全国信息安全标准化技术委员会也于2020年01月20日向全社会公开征求包含《信息安全技术移动互联网应用(App)收集个人信息基本规范》在内多项规范意见,可见人脸识别等智能信息应用发展正当时,这或许为彼此的相互促进提供了有益参考与借鉴。而企业在人脸识别技术开发使用中,企业对人脸数据处理如何影响最小化?
数据的管理者、管理企业对于允许数据挺停留的节点,时间是否作出底线规范?
对于采集后的数据使用用什么保障不被滥用,以及滥用后有哪些适当的补救措施?以及证据的留存,跟刑法、民法及相关诉讼法规该如何衔接等等的问题,都值得我们继续深入研究与思考。

【特别鸣谢】:

再次衷心感谢出海互联网法律观察公益翻译组的每位成员的辛勤劳动——(按照姓名拼音,排名不分先后)

林 鑫  网络数据中心公司法律顾问 系统集成网络、数据中心、大数据与人工智能等通信研究法律合规方向

廖 嘉  浙江理工大学法政学院人脸识别第一案研究项目组成员 人脸识别应用中的个人信息保护方向

王 捷  浙江垦丁律师事务所个人信息与数据安全合规/资深出海法律顾问(广州)

曾 晨  西安交通大学信息安全法律研究中心 网络安全与个人信息安全方向

朱 莎  浙江垦丁律师事务所金融数据安全/资本市场跨境投资法律顾问

原文链接:https://mp.weixin.qq.com/s/HWSeYasfz7Nh3UOxFQaEsg

编辑:张凉



398#
 楼主| 发表于 2020-2-26 22:09:26 | 只看该作者
【案例】

王俊秀 | 数字社会中的隐私重塑——以“人脸识别”为例

王俊秀 中国社会科学院社会学研究所研究员
本文将载于《探索与争鸣》2020年第2期,内容以正刊为准


数字社会中的个人隐私


“智能社会”“智慧城市”已经成为当今世界最新潮的表述,也被认为是未来社会治理的新趋势。这些趋势表现为社会治理手段的智能化、数字化水平不断提高,网络通讯、大数据和人工智能技术的应用领域和场景不断扩展,逐渐深入寻常百姓生活,为人们的生活带来了快速的改善和极大的便利。学者们开始讨论这样一种新的治理模式—数字治理(digital governance),这一产生于电子商务和电子政务之后的概念,被视为数字时代全新的、先进的治理模式。这一以信息化、数字化、智能化为核心的数字治理过程已深入到公共生活的各个领域:打开购物网站,后台根据用户的搜索记录精准推送商品;注册电子会员,节假日都会收到祝福和问候。但是,这种便利是以个人信息为代价的,电商、社交软件过度收集个人信息正成为新的社会问题。在这种新情势下,隐私的内涵也被改造,何以重新界定隐私成为学界研究的重要范式,最近这一问题突出体现在围绕人脸识别与隐私保护冲突的一系列事件中。

“郭兵起诉杭州野生动物世界案”被称为“中国人脸识别第一案”,引起全社会的广泛关注。事情缘起于郭兵收到来自杭州野生动物世界发来的一条短信,“园区年卡系统已升级为人脸识别入园,原指纹识别已取消,未注册人脸识别的用户将无法正常入园”,郭兵是2019年4月在该园录入指纹后办理的年卡。郭兵认为面部特征等个人生物识别信息属于个人敏感信息,一旦泄露,容易被滥用,会危害到自己的人身和财产安全,郭兵不愿意接受人脸识别要求退卡退费,但遭到该园的拒绝。于是郭兵向杭州市富阳区人民法院提起了诉讼。有人认为这一事件代表了中国用户数据隐私权意识的觉醒,这是由于以往商家和机构一贯大量收集用户信息而管理又不规范导致的必然结果,认为这一案件与之前发生的一些公司将大量用户个人信息泄露和倒卖事件有着直接的关系。据中央电视台报道,2019年11月19日江苏淮安警方侦破7 家公司侵犯个人信息犯罪的特大案件,涉及非法侵占个人信息1亿多条,涉案的考拉征信服务有限公司和北京黑格公司的法定代表人、董事长、销售人员、技术人员等20余名涉案人员被抓获。这样的案件呈高发态势,近期公安部针对此类案件进行整治,共立案涉嫌侵犯公民个人信息案件29起,抓获犯罪嫌疑人288人,缴获公民个人信息4.68亿余条,涉案金额达到9400余万元。2019年11月29日央视新闻客户端又报道称记者发现有人在以10元的价格在网上兜售5000多张人脸照片。

个人信息泄露已经成为现代网络社会每个人都有感受的事情,许多人都收到过电信诈骗电话或指名道姓的广告推销电话,这些亲身经历以及媒体非法使用个人信息案件的大量报道,使得人们使用个人信息的安全感下降,越来越多的人对此感到焦虑和担心。近期清华大学劳东燕教授的一篇微信公号文章“人脸识别技术运用中的法律隐忧”在朋友圈热传,作者撰写该文章的动因是北京地铁2号线阜成门站开始试点测试人脸识别安检,作者在文中质问,“进出大学校园要出示证件,邮寄东西要核查身份证,住个宾馆要人脸识别,坐地铁人物同检尚嫌不够,还要进一步运用所谓的新技术,来继续提升安保级别。我想问一句,还有完没完?接下去,是不是要在所有的马路上,所有的公共场所,全面安装人脸识别的机器,以便随时将行人拦截下来盘问与搜身,将那些被认为危及安全的人进行拘押呢?”劳东燕教授的发声,得到了在数字社会中个人隐私受到侵犯的民众的认同。

但也有人认为对人脸识别没必要“谈虎色变”,他们认为人脸识别是人工智能浪潮中最具代表性的技术,在“数字中国”的发展中,人脸识别正在深度融入社会管理、公务服务、安全保障等领域,人脸识别的发展势头已不可阻挡。只是太多的信息泄露案件不断放大着人们对人脸识别的恐惧。但技术本身是中立的,对于技术应用中出现的问题应该通过实践中不断完善制度来解决,这种声音代表了支持数字治理过程中人脸识别的典型立场。商业管理和公共管理中人脸识别技术的应用确实有很大优势,因此这一技术在很短时间内快速增长。咨询公司IHS Markit 2019年的报告称,2006年全球视频监控设备出货量大概是1千万套,到2016年已经增长到了1亿套,而到2019年将达到1亿8千万套。在视频监控中云计算、视频分析和深度学习技术的运用成为发展趋势,2017年具有视频分析功能的摄像头的比例为23%,到2022年这一比例将达到45%。

“中国人脸识别第一案”最终的结果还未可知,但个人在面对杭州野生动物园所代表的组织性、强制性措施下往往只能退让。正是这样,一方面人脸识别技术不断被质疑,另一方面人脸识别技术不断被用于社会各个领域,深入人们生活的各个方面。


信息隐私化与隐私信息化


英国学者Patrick Dunleavy在“数字时代的治理理论”中指出,数字治理产生于新公共管理的式微和信息社会的发展,并从信息社会的特征、信息技术手段、数字治理的目标三个方面探讨数字治理问题。但是,数字治理并不仅仅是管理和科学技术层面的问题,因信息时代数字治理一定程度是围绕着个人行为和伴生的个人信息展开的,个人信息和隐私就成为核心矛盾,因此,数字治理不仅涉及到伦理问题,还涉及到社会心理问题。数字治理与隐私冲突的核心问题是由个人信息的性质决定的,这里包含两个过程。一方面,个人的隐私在信息时代的典型表现是信息,也就是存在一个隐私信息化的过程。另一方面,随着时代的变迁,信息时代的隐私可能不同于传统社会,在信息的收集、储存、加工和使用中产生了性质的改变,一些原本不属于隐私的个人信息成为了隐私,还有一些传统上不属于隐私的信息在新的环境下成为隐私。随着人们隐私观念的改变,一些信息是否为隐私也存在一个再认定的问题,传统隐私的边界需要重新进行厘定,这其中包含了个体主观的心理因素,这就是信息的隐私化过程。数字治理不能回避如何理解这两个过程的问题,要实现数字“善治”就必须在充分在这两个过程中重新界定隐私。

(一) 信息隐私化

隐私虽然是一个老生常谈的概念,但对于什么是隐私却存在很大争议,人们对于隐私的理解存在差异,这种差异源自不同的文化,也随时代而变化。隐私是一个多学科研究的概念,哲学、法学、伦理学、社会学、社会心理学等学科都有关于隐私的论述和研究,但这些研究在隐私概念的界定上存在较大的差异,也使得研究结论差异巨大,甚至对立。目前的隐私研究基本上是在法学范畴内讨论,并不在意对隐私概念的界定,而直接去讨论隐私权的问题,对隐私的讨论常常难以到位。因此,隐私的概念非常重要,从隐私(privacy)的词源上看,英文中的privacy来自拉丁文privatus,具有“孤立”“受限制”“个人的”和“独特的”等含义。从这个意义上,个体有意避开公众查看,不使公众获得其不愿公开的信息都属于隐私。就人脸识别来说,这项技术是基于摄影和录像技术的,摄影技术产生已经很久,录像技术也有着不短的历史,而人脸识别却是近年来才出现的新技术。从技术上来说,人脸识别是利用分析比较的计算机技术来识别人脸,也就是让计算机认识人,人脸识别技术是基于人工智能技术对人脸这一生物特征的识别。以往人的隐私是基于个人私密部位的,除极少数文化背景下,一般社会环境下的人脸都是公开示人的,本不属于隐私范畴,但人脸识别技术使得原本公开的信息成为隐私信息,也就是信息隐私化使得传统隐私的边界得以扩展。

国内媒体曾经报道,嘉兴市某学校的学生用一张打印的照片代替真人骗过了小区里的人脸识别丰巢智能柜,取出了家长们的快递货物。美国《财富》杂志2019年12月12日报道,美国圣地亚哥的一家人工智能公司用高清3D面具和照片,在世界多地成功欺骗了人脸识别系统,其中包括中国的微信和支付宝,完成了购物支付程序。这样,由于人脸识别技术的漏洞,个人人脸照片或视频就存在被非法利用的风险,信息隐私化的过程一方面重构了隐私,另一方面由于技术不完善,数字社会的个人隐私也存在被侵犯的风险。更为极端的恶意使用他人人脸信息的例子是“换脸”。2017年,一位名叫“deepfakes”的外国网友利用人工智能技术,将电影《神奇女侠》《哈利·波特》中明星的脸“ 移花接木”到了不雅视频的女主角身上,一度掀起轩然大波。为什么会出现信息的隐私化,这是由于数字社会信息具有了一定的商业价值,当“人脸”等原本社会公开的信息可用于流通牟利,隐私的范围也需重新考虑。

随着社会的变迁,人们对于隐私的理解也必须随之发生变化,同时,信息性质的变化也使得信息时代的隐私观念发生变化。许多学者认为“隐私是不受他人干扰的权利”,这种观点的影响很大,有众多的支持者,国内的学者也受到这种观点的影响。但是,这样的隐私观念在数字社会已显得过于狭隘,无法有效保护个人隐私,如当被隐藏的高性能摄录设备拍摄和监视的时候,个体虽然很难察觉到,但并不表示此时他的隐私没有被侵犯。另外,还有一种隐私观点强调个体在与他人交流时在时间上、方式上和程度上对自己信息控制的自主性,这种控制是隐私得以实现的关键。正如万维网发明人伯纳斯所担心的,我们缺乏对个人数据的控制,一些互联网服务并未向我们收费,但当我们读过他们的政策细则,就会意识到我们实则在付费——不是用钱,而是用我们的个人信息。也正是由于信息时代个人信息的公开可能产生个人无法控制的后果,才使得信息隐私化得以发生。人脸识别中个人肖像因为公开而使个体失去了对它的控制,信息可能被非法使用,个人信息安全和隐私就受到侵犯。

(二)隐私信息化

信息时代下人们日常行为越来越趋于数字化,每个人每天都会产生大量的信息,其中的许多信息是不便于向社会公开的,属于隐私信息,人们的这些隐私信息时时刻刻都在累积之中。隐私信息化的过程包含很多类型,有的是新的科学和技术手段带来的,有的是由于个体的隐私风险意识不强,在无意间产生的,有的是在各种利益和动机下主动的隐私交换,也有的是信息监管不力所产生的。大众风险意识不强是隐私信息化的重要原因,面对商家的“小恩小惠”许多人都没有防范意识,轻易选择了个人信息的奉送,如许多人在公共厕所使用人脸识别装置来得到一段卫生纸。也有一些人缺乏个人信息保护观念,使得不法商家和个人有机可乘,在法律监管缺位的情况下出现隐私信息化。

隐私信息化的途径很多,最常见的在于通过各类手机App采取“征询—同意”的模式,但这种“征询”往往是强制的,这使得原本不该产生的大量隐私信息被获取。网络大数据时代商家认识到了数据的商业价值,利用各种途径获取个人信息,超使用范围获取个人隐私信息,一个简单的App就要开通20多项权限,几乎掌控了用户的手机与全部隐私。比如,北京地铁2号线阜成门站开始试点人脸识别安检,需要乘客在现场扫描二维码下载“智慧安检”App,可直接带包进入安检门为了这一小的便利,乘客要同意北京地铁和亿通行的公司的众多条款,同意被它收集大量个人信息,而且,除了已经明示的信息之外,还有多处“不限于”,也就是信息收集成了“无限”的。收集的个人信息包括:(1)身份识别信息, 包括但不限于姓名、身份证明、联系地址、电话号码、生物特征信息;(2)所处的地理位置及目的地信息;(3)平台操作信息, 包括但不限于IP 地址、设备型号、设备标识符、操作系统版本信息;(4)行程信息, 包括但不限于出发地、到达地、路线、途经地点及里程数信息;(5)支付信息, 包括但不限于支付时间、支付金额、支付工具、银行账户及支付账户信息;(6)个人信用信息, 包括但不限于任何信用状况、信用分、信用报告信息;(7)其他根据具体产品及服务的需要而收集的的个人信息, 包括但不限于对产品或服务的意见、建议、曾经使用或经常使用的移动应用软件以及使用场景和使用习惯等信息。

经过记者实测发现,用户必须一揽子授权地理位置信息、支付信息、个人信用信息及应用使用习惯信息,才能使用“智慧安检服务”。如果这样的安检全面实行,乘地铁出行的乘客将产生大量的隐私信息,而这众多与安检措施无关的信息将如何储存、处理和使用都未得到充分透明和公开。隐私信息化和信息隐私化是难以截然分开的,当一些个人信息是孤立的状态可能不构成隐私,如一个人曾经出现在某位置的地理信息。但是,当一个人大量的公开信息被追踪和整合后,其性质已经发生了质的变化。特别是在大数据、人工智能背景下,信息加工处理能力强、速度快,这种信息隐私化过程就成为个人隐私的最大威胁。因此,像北京地铁这样无界限全面收集个人信息,而在没有全面的防范措施下就试点实施,信息安全风险极大。


数字社会中应如何保护隐私


数字社会必须处理好个人隐私保护的问题,这也是数字治理本身的内容。有学者从信息隐私权角度分析隐私的益处和坏处,在数据成为生产要素的今天,过度限制信息使用会影响人们通过信息分享造福社会的互联网精神,而个人信息被滥用、个人隐私被侵犯也会使得社会环境恶化,保持数字社会良性运行就要找到个人信息使用和隐私的边界。无论面对的问题简单还是复杂,围绕着个人信息的数字治理不外乎是三个过程,一是信息的收集,二是信息的储存,三是信息的加工和处理,四是信息的使用,每一个过程都可能涉及到信息的隐私化和隐私的信息化,关系到是否侵犯个人隐私。隐私信息化的过程相对简单,容易引起人们的注意,但信息隐私化因其过程复杂,信息处在动态过程不容易把握而经常被忽视,因此更应该重视。

数字社会下的个人信息保护是一个难题,全世界都在试图解决这一问题。2018年欧盟的《通用数据保护法案》(GDPR)开始实施,2019年11月,欧盟基本权利局又发布了《面部识别技术:执法中的基本权利考虑》报告,提出人脸识别技术应用前必须有清晰、详细的法律框架来监管人脸识别技术的部署和使用。但是,由于人脸识别技术应用场景的多样性和复杂性,清晰、详细法律的制订是一件非常困难的事情,这一过程需要多学科、多领域学术性和应用性的深入研究和探索。多年来欧盟以及其它一些发达国家一直在探索这个问题,欧盟2018年推出《通用数据保护法案》之前,早在1995年就出台了《数据保护指南》,2020年1月1日《加利福尼亚州消费者隐私法案》(CCPA)也开始生效了,因此,国内的相关法律也应该尽快出台。但可以预料,即使是出台全面的数据保护法律,也不一定能够应对所有的现实问题,信息社会和智能社会下新的问题还会不断涌现,数据治理与隐私保护的矛盾将会长期存在,但不管面多的问题如何改变,都应该遵循一些基本原则:

第一个原则是最低限度原则。任何组织和个人在面对个人信息时都要遵守这一原则,能不收集的信息就不收集,能少收集就少收集;第二个原则是高门槛准入原则。对于涉及个人信息收集的业务开展必须有严格的准入制度,对于个人信息的储存、数据安全和业务必要性进行严格审核;第三个原则是相关利益者知情原则。当事者要把收集个人信息的目的、信息收集的方法、信息储存、信息加工、信息使用的权限和边界,信息使用的时间,信息销毁等做明确的公示,确保利益相关者的知情权;第四个原则是社会许可原则。涉及公共服务的项目要在社会成员广泛参与和讨论下,在民众充分知情和多数成员同意下才能实行;第五个原则是事后补救原则。在信息收集、储存、处理和应用过程中对于可能的风险是否有补救措施,无补救措施则不可实行;第六个原则是目的和结果一致性原则。个人信息的收集、使用的目的和结果必须一致,不能随意改变;第七个原则是明确的责任承担原则。信息收集方要明确收集信息的储存、保护和使用的风险,明确这一过程要承担的全部责任,无法承担责任则不可以实施;第八个原则是时限原则。对于所收集的信息严格设定使用和保存时限,在收集信息之前就要有信息销毁的约定。

当然,仅有这些原则是不够的,应该根据数据治理和隐私保护实践做必要的调整,应该通过法治化途径使一些原则程序化,形成可操作的严格的规程。只有在重新认识数字社会隐私概念的基础上,通过建立产权清晰的制度框架,企业才能合法收集、利用数据,个人的信息保护诉求才具备治理基础。当下要杜绝个人信息被滥用和个人信息的无界限收集,严格厘清信息使用和加工的边界,严禁针对个人信息的过度整合,营造良好的信息使用环境,提高民众隐私安全感,让社会大众可以放心使用信息资源,融入数字社会。

原文链接:https://mp.weixin.qq.com/s/AJyLpvn-OnOPqlSXPKfOVg

编辑:张凉


399#
 楼主| 发表于 2020-2-29 19:11:29 | 只看该作者
【案例】


道德关怀范围的持续扩展——从非人类动物到无生命的机器人


作者简介:杨通进,广西大学马克思主义学院教授,中国特色社会主义道德文化省部共建协同创新中心首席专家,博士生导师(广西南宁  530004)。



〔摘要〕人类道德进步的历史就是道德关怀的范围不断扩展的历史。环境伦理学的重要理论贡献是,区分了道德行为体与道德承受体,把道德承受体的范围扩展到了人类物种之外的自在物。当代机器人伦理学接过环境伦理学扩展道德关怀的接力棒,不仅把道德承受体的范围从自然存在物扩展到了作为人工制品的机器人,还把道德行为体的范围扩展到了具有道德功能的社会机器人。随着道德关怀范围的扩展,出现了三种不同类型的道德行为体和五类不同的道德承受体。为了应对伦理共同体成员的增加所带来的伦理挑战,需要建构具有拓展主义、非人类中心主义、后科学主义与全球主义性质的新型伦理文化。

〔关键词〕道德行为体  道德承受体  道德关怀  机器人伦理学


道德关怀是指道德行为体对伦理共同体中的其他成员所给予的某种符合道德要求的待遇(moral treatment)。纵观各民族以及人类社会发展的历史,我们可以发现一条比较清晰的线索,即道德进步的历史就是道德关怀的范围不断扩展的过程。从原始社会到20世纪六七十年代,人类的道德关怀完成了从家庭到家族、从氏族到种族、从种族到民族同胞再到所有人类成员的扩展过程;从19世纪中叶开始,人们的道德关怀范围开始突破人类的界限,逐步拓展到人类之外的动物、植物以及作为一个整体的大自然。近年来,随着机器人技术的迅猛发展,一些高度智能化的“机器人”已经或即将高度参与并介入人类的私人生活与社会公共生活。于是,机器人是否应当获得道德关怀的问题开始引起人们的关注,并成为近年新兴的机器人伦理学(robots ethics)的一个重要主题。为厘清道德关怀的扩展逻辑及其伦理基础,本文拟首先探讨道德关怀的具体内涵,说明区分道德行为体与道德承受体的意义,然后在此基础上探讨扩展道德承受体与道德行为体之范围的伦理理据及其可能的限度,最后探讨道德关怀范围的扩展给人类的道德生活所带来的伦理挑战以及可能的应对策略。


   一、道德行为体、道德承受体与道德关怀   

道德关怀(moral consideration或moral concern)这一概念是随着美国圣母大学教授古德帕斯特发表的《论道德关怀》(1978)一文而逐渐成为当代应用伦理学(尤其是环境伦理学)的一个重要概念工具的。在《论道德关怀》一文中,古氏试图探讨的问题是:对于所有的行为体A来说,X应当获得A的道德关怀的充分必要条件是什么?在古德帕斯特看来,这里的行为体指的是“理性的道德行为体”(rationalmoral agent),而道德关怀指的是“实践意义上的最基本的尊重。当然,就道德实践而言,尊重还是一个比较抽象的原则;只有确认了尊重在具体的道德实践中的行为要求,我们才能真正把握尊重原则的规范意涵。就本文的论题而言,我们需首先澄清“道德行为体”与“道德承受体”这两个关键概念的内涵,才能真正确认尊重这一道德原则的具体内容。

在当代应用伦理学领域,“道德行为体”(moral agent)与“道德承受体”(moral patient)是两个使用比较广泛且具有紧密联系的概念。道德行为体是指“所有具有以下这些能力的存在(being):它能够做出道德的或非道德的行为,能够具有责任和义务,能够对自己的行为承担责任”。这些能力可称之为道德能动性(moral agency),其中最重要的包括:判断是非的能力;从事道德慎思的能力,即思考和权衡赞成与反对各种可供选择的行为方案之道德理由的能力;根据这些道德理由做出决定的能力;发挥必要的决心与意志力来实施这些决定的能力;因未能实施这些决定而对他人承担责任的能力。正常而成熟的人类个体是典型的道德行为体。但是,并非所有的人类个体都是道德行为体。有些人(如儿童、青少年)是不完全的道德行为体,只对其行为承担部分道德责任。有些人(如婴儿、智障人士、胎儿)则不是道德行为体,不对其行为承担道德责任。因此,“不能把人类种属简单地等同于道德行为体种属。原因是双重的。首先,并非所有的人都是道德行为体。其次,或许还存在非人类的道德行为体”。

道德承受体指的是具有道德承受性(moral patiency)的主体,它们有资格获得道德关怀。道德承受体“或许缺乏道德行为体的能力,但却拥有道德行为体对其负有责任的实体身份”,因为后者的行为能够使前者的福利或生存条件得到改善或恶化。拥有正常道德能动性的人类个体既是道德行为体,也是道德承受体,无疑应当获得其他道德行为体提供的“道德服务”。但是,那些只具有部分道德能动性的人类个体(如儿童、青少年以及其他不正常的人类个体)甚至完全不具备道德能动性的人类个体(如植物人、胎儿、婴儿)也是道德承受体。不仅如此,“非人类动物也是道德承受体”,道德行为体在进行道德慎思时有义务把它们的利益也考虑进来。因此,道德承受体的种属比道德行为体的种属要更为宽广。

毫无疑问,道德行为体与道德承受体都是道德主体(moral subject),拥有道德地位,都是道德共同体的成员,有资格获得道德关怀。道德行为体对道德承受体所给予的最基本的道德关怀就是“尊重”。泰勒指出,尊重是一种终极的道德态度。“只要一个人的行为符合某一套规则所制定的要求,他的行为就可以被认为是体现了尊重自然的态度。”因此,判断一个道德承受体是否获得了恰当尊重的标准就是,道德行为体对他/她/它的行为是否遵循了一套恰当的、得到合理证明的道德规则。在泰勒看来,人类(作为道德行为体)要想对自然(作为道德承受体)表现出尊重的态度,那么,他/她的行为就必须要遵守四条基本的道德规则:不伤害(nonmaleficence)、不干涉(noninterference)、忠诚(fidelity)、补偿正义(restitutive justice)。如果一个道德行为体在与道德承受体交往时遵循了这些基本规则,那么,他/她/它就是给予了后者基本的道德关怀。当然,遵守这些规则还只是道德行为体的“显见义务”或“初始义务”(prima facie duty)。在不同的道德境遇中,针对不同的道德承受体,道德行为体所需履行的“实际义务”会表现出一定的差异,对于那些既是道德承受体又是道德行为体的义务对象,“尊重”原则所包含的内容会更为丰富。


   二、道德承受体范围的扩展   

当代环境伦理学最重要的理论贡献之一,就是明确区分了道德行为体与道德承受体这两个概念。传统伦理学的一个未言明的假设是,所有的人都是道德行为体,只有道德行为体才有资格获得道德关怀并成为道德承受体。但是,人们的道德实践却表明,很多人类个体都不具备道德能动性,但是,人们对这些人的行为也要遵守某些基本的道德原则。同时,随着动物保护意识和环境保护意识的提高,人们越来越发现,传统的主流伦理学很难解释虐待动物与随意破坏自然环境等行为的错误。此外,生命伦理学关于“胎儿”道德地位问题(胎儿尚未出生,但是他/她们仍享有道德承受体的道德地位)的争论更是使得传统主流伦理学的概念工具捉襟见肘。于是,环境伦理学对道德行为体与道德承受体所做的概念区分逐渐被当代应用伦理学所接受,并为我们证明作为道德行为体的人对不具备道德能动性的人(作为道德承受体)所负有的道德义务提供了重要的概念工具。这两个概念的区分表明,拥有道德能动性、成为道德行为体并不是获得道德关怀的必要条件,尽管拥有这些能力是获得道德关怀的充分条件。这意味着,那些具备道德能动性的存在物可以自动地成为人们道德关怀的对象,但是,我们却不能仅仅因为一个存在物(不管是人类还是非人类)不具备道德能动性就自动地把他/她/它排除在道德关怀的范围之外。

当代环境伦理学的另一个重要理论贡献是扩展了道德承受体的范围。环境伦理学的创始人之一史怀泽重新界定了善恶的含义。在他看来,“善是保持和促进生命,恶是阻碍和毁灭生命”,“伦理就是敬畏我自身和我之外的生命意志”。人类只有摆脱对自己的偏爱,抛弃对其他生命的疏远,与自己周围的生命休戚与共,才是道德的,只有这样,人才能成为真正的人。这样,史怀泽就把道德关怀的对象扩展到了所有的生命。环境伦理学的另一创始人利奥波德则是通过扩展伦理共同体成员的方式来完成扩展伦理关怀范围这一任务的。在《沙乡年鉴》的最后一章“土地伦理”中,利奥波德首先讲述了《荷马史诗》中的英雄奥德赛的故事。奥德赛在一次战争凯旋后回到家乡时用绳子吊死了12个女奴。利奥波德解释说,奥德赛杀死女奴的行为并未遭受任何谴责,因为女奴只是财产,不是伦理共同体的成员。但是,随着人类文明的进步,人们逐渐把所有的人都纳入了伦理共同体的范围。在利奥波德的时代,人类还未开始考虑大地共同体的问题,而大地伦理学的任务就是继续扩展伦理共同体的范围,把人类和地球上的其他自然存在物都视为同一个伦理共同体的成员,“把人类的角色从大地共同体的征服者改造成大地共同体的普通成员与公民”。因此,根据利奥波德的大地伦理学,大地共同体中的所有成员以及大地共同体本身都享有道德承受体的道德地位。在《大自然的权利》一书中,纳什则把人类道德进步的历程明确地阐释成道德关怀与权利主体的范围不断扩展的过程。

当代环境伦理学的一个基本共识是,虽然人类是唯一的道德行为体,但是,道德承受体的范围却不限于人类。从不同角度扩展道德承受体的范围,构成了当代环境伦理学的重要主题。从不同的伦理学前提与价值预设出发,当代环境伦理学把道德承受体的范围扩展到了动物(至少是高等动物)、所有的生命存在物以及作为整体的大自然,并形成了三个重要的理论流派:以辛格、雷根为代表的动物中心主义(zoocentrism)认为所有的动物都享有道德承受体的道德地位;以泰勒、阿提费尔德为代表的生物中心主义(biocentrism)把所有的生命都视为应当获得道德关怀的道德承受体;以奈斯、罗尔斯顿为代表的生态中心主义(ecocentrism)则把道德承受体的范围扩展到了作为整体的自然生态系统以及这个系统的构成要素。

如果说当代环境伦理学还只是试图把道德承受体的范围扩展到自然存在物,那么,当代机器人伦理学则接过环境伦理学扩展道德关怀范围的接力棒,试图把道德承受体的范围扩展至人工物——人类设计并制造的机器人。当代机器人伦理学主要从四个角度论证了机器人的道德承受体地位。

(一)间接义务理据

在现代文明社会,绝大多数人认为,虐待动物的行为是错误的。但是,人们用来证明这种错误行为的伦理理据则分为两种:即直接义务论与间接义务论。根据直接义务论,虐待动物的行为之错误之处在于,这种行为或者损害了动物的利益(动物解放论),或者侵犯了动物的权利(动物权利论)。间接义务论则认为,虐待动物的行为之所以是错误的,乃是由于这种伤害会导致对他人的伤害,而伤害他人是错误的;“不伤害动物”的义务是从“不伤害他人”这一直接义务中推导出来的一种间接义务。阿奎那(1225-1274)较早地表达了间接义务论的观点:“基督教的任何教义看起来都禁止我们去残忍地对待那些不能开口说话的动物,比如,禁止杀死幼鸟;这或者是因为人们会把这种思维转移到残忍地对待其他的人——既然会对动物残忍,也就会对他人残忍;或者是因为对动物的伤害会导致对他人的现世伤害——或是实施行为,或是其他暴行。”因此,在阿奎那看来,对动物的残忍行为之所以是错误的,乃是由于这种残忍行为会间接地导致对他人的伤害。康德也明确提出了类似的观点:“对动物残忍的人在处理他的人际关系时也会对他人残忍。我们可以通过一个人对待动物的方式来判断他的心肠是好是坏。”

上述理据完全适用于人与机器人的关系:人们拥有不虐待机器人的义务,因为,虐待机器人的人会养成虐待其他人的心理趋向与行为习惯。人们对网络暴力游戏的一个普遍担忧是,这种游戏会让游戏者养成“暴力思维”的习惯,并对现实中的暴力行为变得麻木不仁。网络游戏中的暴力还只是一种“虚拟的暴力”,可是,如果人们在现实生活中以虐待机器人为乐,那么,这种虐待就不是一种“虚拟的虐待”,而是“实实在在的虐待”,是对虐待行为的实施、练习与强化。如果网络中的“虚拟暴力”都值得我们担忧,那么,人机交往中的这种“真实的虐待”就更值得我们担忧了。因此,为了使人们避免养成虐待他人的思维方式与行为习惯,我们就必须禁止对机器人的虐待行为。“即使在一个最为宽容的社会里,对虐待机器人的行为施加某些限制也是合理的。”

(二)自我建构理据

康德在论证人对动物负有的间接义务时,除了诉诸对他人的伤害理据,还诉诸人性与美德理据。在康德看来,履行对动物的义务,是我们的人性的展现。如果一条狗长期服务于它的主人,那么,“当这条狗老了不能再为它的主人服务时,它的主人应该照顾它,直到它死去”。相反,“如果一个人因为他的狗没有能力再为他服务而把它给杀了……[那么],他的行为就是不人道的,是对他自身的人性的损害,而他有义务向他人展现出这种人性”。在这里,不承担对动物的义务的行为所涉及的,就不是对他人的间接伤害,而是对人性本身的损害。所以,康德实际上是把关心动物当作人性的内在要素来加以理解和建构的。换言之,一个正常的理性的人必须要把对动物的关怀当作一种直接的义务来认可与承诺。这关乎的不仅仅是动物的“应得”,更关乎人性的完整。康德还认为,关心动物是人性的内在情感,一个人如果“不想扼杀他的人性情感(human feelings),他就必须要以仁慈(kindness)的方式对待动物”。同理,如果人们虐待那些为他们提供服务、能够与他们交流并能遵循人类行为规范的机器人,那么,他们所伤害的就不仅仅是机器人,他们还扭曲了自己的人格,减损了人性本身的光辉,丧失了应有的美德。以这样一种形象展现在他人与机器人面前的人,建构与认可的是一种有缺陷的、不完美的人格。

(三)行为主义理据

在讨论人对动物的义务时,康德曾指出,一条狗对它的主人提供的服务,类似于仆人所提供的服务;因此,“当这条狗老了不能再为它的主人服务时,它的主人应该照顾它,直到它死去”。康德这里提到的实际上是人与动物之间的相互性或互惠性(reciprocity)。在实际的生活中,人们都会对那些长期为其提供服务的家畜或伴侣动物抱有某种感情,人们会把它们当作值得从道德上加以关怀的道德承受体来对待,人们还会为那些“义犬”“勇敢的战马”等树碑立传。未来以强人工智能为基础的机器人给我们提供的服务无疑将比这些动物还要周到细致,而且,它们还能遵循人类交往的基本礼仪与道德规范。根据康德的相互性理念,机器人享有的道德地位不应比动物更低。

在一些学者看来,机器人即使遵循了人类的道德原则,它们也不是道德行为体,因为它们并不理解那些道德原则的内容,而且,它们并不是在依据道德原则行事,而是按照事先编程的软件系统在运行。这里涉及几个目前正在展开的理论争论。首先,现代伦理学在评价一个行为或政策(以及法律或制度安排)的道德价值时,大多采取后果主义立场,即更多地关注行为的后果,而不去追问行为主体的内在动机或主观意愿。其次,自然人的主观动机比较容易识别,但是,法人(如公司、各类政府与非政府组织等)的动机却难以确定,法人没有自然人那样的中枢神经系统,法人本身没有苦乐感受的能力。在对法人的行为或决策进行道德评价时,我们主要根据该行为或决策是否符合或遵循了大多数人所认可的原则或价值,是促进还是伤害了相关主体的合法利益,而不是去追问这个法人的“动机”是什么。再次,根据行为主义理论,我们无法直接把握人们的主观动机与内在想法,只能通过其外在行为来推论其主观动机,我们无法在人们的外在行为与其主观动机之间做出截然的区分。因此,在操作的意义上,我们可以把人或机器人的外在行为等同于其内在动机。在评价人或机器人行为的道德价值时,我们只需关注其行为的后果,无须追问其主观动机。最后,从决定论的角度看,人的道德决策与机器人的道德决策之间的区别并没有人们想象的那样大。人的道德抉择也是由一系列相关的前置条件所决定的。当代的机器人伦理学正是从这种决定论的角度来理解、设计与制造“道德机器人”的。因此,从行为主义的角度看,只要机器人做出了与人大致相当的行为,我们就应当把机器人视为与人大致相当的主体来对待。“如果某个行为体在行走、交谈与行为方式方面都足够与我相似,那么,我即使不能合理地认为它拥有心灵(mind),我也有义务把它当作它好像是道德行为体那样来对待。”

(四)人机共同体理据

当代机器人伦理学的一个争议热点是,我们是否应当研制性爱机器人(sex robots)。美国学者勒维在2008年曾著书预言:2050年左右,人们不仅能与机器人做爱,他们还想与机器人结婚,与机器人保持浪漫的伴侣关系。反对研发性爱机器人的英国学者理查森认为,研制性爱机器人有物化女性与儿童的嫌疑;对性爱机器人的使用和消费会助长人类的性虐待行为,长此以往会使人们对其性伴侣失去同情心;使用和消费性爱机器人会导致性交易的泛滥,进而对人与人之间的关系产生负面影响。此外,目前所研发的性爱机器人缺乏“知情同意”的程序设置。在这种情况下,人们对性爱机器人的使用与消费不仅带有“强奸”的色彩,而且还会扭曲许多人的心灵,使他们误以为在与潜在的人类伴侣发生性行为时,后者的知情同意可有可无。

为了避免出现这些负面的结果,我们就必须要用尊重与知情同意的原则来约束人们与其机器人伴侣之间的交往行为。在与作为性爱伴侣的机器人发生性行为时,人们必须要征得对方的同意。否则,我们认可的就会是一种包含了“强奸文化”的交往规则,我们与性爱机器人之间建立的就是一种剥削的、不平等的关系。而一种包含了剥削的、等级性的共同体是一种不健康的伦理共同体。因此,作为理性的成熟的道德行为体,我们必须要认可和接受性爱机器人的道德承受体地位,把人与性爱机器人都看成同一个人机伦理共同体的成员来看待。否则,我们的共同体就会蜕变成某种接受“强奸文化”的畸形的伦理共同体。在这种畸形的共同体中,作为性别歧视主义的态度、制度与行为模式的结果,人与机器人之间的未经知情同意的性活动将变得常态化,“强奸型人格”就会成为人机共同体中的一颗毒瘤侵蚀伦理共同体的健康肌体。因此,如果我们不得不与性爱机器人“比邻而居”,那么,我们就必须要认可它们的道德承受体地位。如果我们无法否认性爱机器人的道德承受体地位,那么,我们同样无法否认护理机器人、看护机器人、助理机器人、演艺机器人等社会机器人的道德承受体地位。我们与这些社会机器人组成的共同体同样属于伦理共同体,这样的伦理共同体不能奉行否认其他成员之道德承受体地位的伦理歧视主义的文化。


   三、道德行为体范围的扩展   

如果说当代环境伦理学的工作重心是扩展道德承受体的范围,那么,当代机器人伦理学的追求目标则是扩展道德行为体的范围。事实上,在机器人伦理学诞生之前,即使最激进的环境伦理学也只是认为,某些高等动物可能拥有某种道德情感或初级的道德能动性。泰勒在提到“非人类的道德行为体”时使用的界定词是“或许还存在”,他心目中的非人类道德行为体指的是其他的高等动物——一种自然的行为体(自然存在物),而非人工的行为体(人工制造物)。历史上还没有一位思想家严肃认真地思考或探讨过人工道德行为体的可能性问题。当代机器人伦理学的革命性变革表现为,它首先探讨的就是人工道德行为体(artificial moral agents;AMAs)而非人工道德承受体(artificial moral patients)的可能性问题;它对传统伦理学的最大挑战之处在于,它试图扩展道德行为体(而非道德承受体)的范围。

因此,当代机器人伦理学的目标与使命就是探讨人工道德行为体的可能性与必要性。国际著名的机器人伦理学家、《道德机器:如何让机器人明辨是非》(2009)一书的作者之一艾伦明确指出,“研发人工道德行为体(AMAs)的终极目标应当是制造道德上值得称赞的行为体”。美国康涅狄格大学哲学教授、《机器伦理学》(2011)一书的主编安德森亦认为,机器伦理学的核心目标是制造自主的道德机器。事实上,人工智能与机器人伦理学的主流声音是,“AMAs是必须的也是必然的”。研究与开发人工道德行为体不仅是可欲的,而且势不可挡。

鉴于研发具有道德能力的智能机器人是机器人技术的既定目标,因而很多学者认为,机器人不仅是道德承受体,还能够成为道德行为体。在美国索诺马州立大学的哲学教授萨林斯看来,自主性、意向性、履行责任是成为道德行为体的三个充分条件;将来的机器人能够拥有这三种能力。“可以肯定,只要我们追求这种技术,那么,未来高度复杂的、具有交往能力的机器人将是拥有相应权利与责任的道德行为体。”土耳其学者达文波特亦认为,“与机器一样,人类及其道德都是可计算的,因而,前者可以被建造成一个道德行为体”。

事实上,不仅大多数机器人伦理学家认为,机器人可能成为道德行为体,而且,他们还对道德行为体的类型做了区分。例如,穆尔曾区分了四种伦理行为体。(1)其行为具有伦理后果的伦理行为体(ethical impact agents),即代替人类从事重复、枯燥或危险工作的行为体。(2)隐性的伦理行为体(implicit ethical agents),即安全性与可靠性程度较高、对它的使用不会给人类带来负面影响的行为体。(3)显性的伦理行为体(explicitethical agents),即伦理原则与规范已经编入其软件系统、且能依据“道义逻辑”进行推理的行为体;获得沙特公民资格的索菲亚已初步具备显性伦理行为体的雏形,而电影《机械姬》中的“爱娃”则是合格的显性伦理行为体,已经属于享有道德行为体地位的机器人。(4)完全的伦理行为体(full ethical agents),即能够做出清晰的道德判断、具有较大的道德自主性的行为体。一般认为,只有具有意识、意向性与自由意志的存在者才能成为完全的伦理行为体。这样看来,第一类、第二类行为体都不能算是道德行为体,因为它们的行为不是出于特定伦理原则或道德规范的引导。第三类行为体符合道德行为体的基本定义,因而能够发展成为人工道德行为体。第四类伦理行为体的标准比较高,只有那些正常的理性的人类个体(而非所有的人类个体)才会成为这类道德行为体。“鉴于我们目前对道德推理、人工智能、认知机制等的理解,我们至多能够制造出显性的伦理行为体,这种伦理行为体能够做出某些道德判断(这些判断不是作为软件预先编入其系统中的),并有能力对它们为何会做出那些道德判断做出解释。”

一些学者认为,机器人不仅能够成为道德行为体,将来还会是拥有权利的道德行为体。荷兰学者科齐伯格从人机共同体的角度证明了机器人拥有权利的可能性。美国学者冈克尔根据“能够”与“应当”两个变量,指出了谈论机器人权利的四种不同话语表达方式。

第一种观点认为,机器人不能够拥有权利。根据“能够蕴含应当”的定律,机器人不应当拥有权利。因为,在机器人无法理解和享有权利的情况下,说它们不应当拥有权利似乎是顺理成章的。这种观点完全把机器人当作工具来看待。第二种观点认为,机器人不能够拥有权利,但是,我们应当把它们当作拥有权利的主体来对待。第三种观点认为,即使机器人拥有理解和分享权利的能力,它们也不应当享有权利。第四种观点认为,机器人能够理解并看重自己的权利,因而机器人应当拥有权利。冈克尔认为,第一种观点虽然可以理解,但是缺乏前瞻性;第二种观点值得同情,但不具有可操作性;第三种观点是非理性的。他自己赞成第四种观点,并依据列维纳斯的他者哲学,证明了作为他者的机器人拥有权利的可能性。


   四、构建后人类主义的伦理文化   

由上可见,在当代环境伦理学与机器人伦理学的推动下,不仅道德承受体的范围得到了扩展,道德行为体的俱乐部似乎也增添了新的成员:具有道德思维能力的机器人。从道德行为体的角度看,我们的道德生活空间似乎出现了三类不同的道德行为体:(1)完全的道德行为体(正常而理性的自然人);(2)不完全(显性)的自然道德行为体(青少年);(3)不完全(显性)的人工道德行为体(社会机器人)。我们可以把第一类道德行为体称为完美的道德行为体(perfect moral agents),把后两类道德行为体称为不完美的道德行为体(imperfectmoral agents)。完美的道德行为体享有完整的道德权利;不完美的道德行为体只享有部分道德权利。在道德行为体俱乐部中,完美的道德行为体享有家长的崇高地位与特殊责任,需要承担起对后两类道德行为体的监管责任与教化义务。从道德承受体的角度看,我们至少可以看到五种不同类型的道德承受体:(1)既是道德行为体又是道德承受体的自然人;(2)既是道德行为体又是道德承受体的机器人;(3)作为单纯道德承受体的人类成员;(4)作为单纯道德承受体的自然存在物(动物、植物与生态系统);(5)作为单纯道德承受体的机器人。这五类不同的道德承受体施加给道德行为体的义务的强度是有差别的。

很显然,随着道德行为体与道德承受体的范围的扩展,由多种道德行为体与道德承受体组成的伦理共同体变得更为复杂了,人们的道德生活也因此需要面对更多的挑战。但是,人类研发更为先进和完美的机器人的步伐是无法阻挡的。人为地阻止道德关怀范围的扩展也是不明智的。因此,人类(作为完美道德行为体)唯一明智的选择就是理性地面对科技进步给人类的道德生活所带来的全新挑战。应对这种挑战的方式之一,就是构建后人类主义(posthumanism)的伦理文化。就本文的论题而言,我们认为,这种新型的伦理文化至少应当包含四个重要元素。

第一,伦理拓展主义(ethical expansionism)。面对日益多元的道德主体,我们需要拓展人类的伦理思维空间。伦理思维空间包含两个维度,一个是作为学术研究的伦理学维度,一个是作为生活实践的道德关怀维度。在道德实践与学术研究方面,近现代文明都只把人与人的关系纳入了伦理思维的空间。但是,从历史角度看,我们会发现,在人类的神话思维中,人类、各种神祇甚至动物都是道德行为体;神与神之间、神与人类之间、神与动物之间、人类与动物之间都存在着某种伦理关系;神、人类与动物之间的交往也遵循着某些伦理原则。因此,在道德主体日益多样化的今天,我们需要重新激发人类的道德想象力,从学术与实践两个维度拓展伦理思维的空间,重新勘定道德生活的空间范围。

第二,非人类中心主义(nonanthropocentrism)。随着伦理思维空间的扩展,我们发现,人类不仅不再是唯一的道德承受体,也不是唯一的道德行为体。毫无疑问,人类仍将是这个扩展了的伦理大家庭的家长和监护人。这是他的独特价值所在。但是,人类肩负的道德责任也因此越来越沉重了。他不仅肩负着建构和维护人类内部的伦理秩序的重任,还肩负着建构并维护人类与自然之间、人类与机器人之间、机器人与机器人之间的伦理秩序的全新使命。在世俗的意义上,人类或许会活得“很累”,但在伦理和精神的意义上,他也将因此而变得更加伟大和崇高,成为一个真正生活在“天地境界”中的“天民”。

第三,后科学主义(post-scientism)。科技的飞速发展把人类“抛入”了一个高度技术化的世界中。在这个高度技术化的世界中,人类的生活既是方便、舒适与高效的,同时又是充满风险的。人类的生活离不开科学理性,但是,我们也不能陷入科学主义的误区。科学理性能够帮助人类更好地实现自己的梦想,但是,它却不能解答“人类应当追求什么样的梦想”的问题。要解决人们之间的价值分歧甚至价值冲突,我们也只能诉诸价值理性,而不能指望科学理性。在对那些将深刻地影响到人类生活的重大科技决策进行选择时,我们需要在技术理性与公共理性之间实现某种平衡。总之,科学技术虽然是社会进步的最重要的助推器,但是,我们必须站在后科学主义的高度理性地把握文明进步的方向盘。

第四,全球主义(globalism)。技术的进步日益把地球缩小成“地球村”。全球气候变暖、全球金融安全、全球经济的相互依赖、全球反恐合作等全球问题使得人类日益成为一个命运共同体。为了有效地应对和解决这些全球问题,人类需要超越狭隘的民族主义立场,认可并践行世界主义的全球共享价值,建构一种超越民族国家体制的世界主义的全球制度。只有在这样一种世界主义的全球制度的保障下,各民族才能真正实现全球性的环保合作。要实现人与自然的和解,就必须首先实现人与人之间(尤其是民族国家之间)的和解。机器人技术的研发同样需要达成某种国际共识。一方面,我们应在联合国的协调下,防止各民族国家(尤其是对国际事务有主导权的国家)把机器人技术的研发演变成军备竞赛的新战场。这意味着,应当禁止研发作为杀人恶魔的杀人机器人(killing robots),应当把“不杀害任何自然人”作为一条“底线伦理”植入机器人的软件程序中。另一方面,对于作为显性道德行为体(不完美的道德行为)的机器人的设计,国际社会也必须要达成某些共识;要把人类社会的价值共识当作这类机器人必须遵循的“底线伦理”。只有这样,未来的机器人才能真正成为人类道德事业的合作者,而非人类的终结者。

在全球化进程日益深化的今天,各国的经济交往与文化交流虽然日益频繁,但是,许多人在价值观上却仍然深陷在狭隘民族主义与伦理相对主义的窠臼中。狭隘民族主义与伦理相对主义不仅是国家间悲剧的主要根源,更是构建人类命运共同体与全球主义文化的重大障碍。要实现从人类中心主义伦理文化向后人类主义伦理文化的转型,人类就必须首先要超越狭隘的民族主义,在价值观上实现从伦理相对主义向伦理普遍主义的转变,实现人类内部的和谐统一,建构价值论意义上的人类命运共同体,并把全球主义文化的培育作为构建后人类主义文化的重要抓手。


原文刊登于《道德与文明》2020年第1期



编辑:张凉


400#
 楼主| 发表于 2020-3-2 18:36:02 | 只看该作者
【案例】《美国2019年人工智能与国家安全报告》全文翻译中译本
原文作者:世界火车翻译组  
原文来源:数字科技说
世界火车(Global Train)翻译组
中 / 译/ 本
《美国2019年人工智能与国家安全报告》
经过《世界火车(Global Train)》翻译组热心同学们的努力,《美国2019年人工智能与国家安全报告》(Artificial Intelligence and National Security)中译本,终于问世。本中文译本由《世界火车(Global Train)》翻译组(简称“世界火车翻译组”)组织翻译。在此感谢以下同学译者:
译者
刘元兴,汤莲,胡晓萌,吴丹盈,鲁艳,郝冰川
统稿和校对
刘元兴,汤莲
翻译序言
2019年11月21日,美国国会研究服务处(Congressional Research Service,简称CRS)发布了《美国2019年人工智能与国家安全报告》。该报告指出,中国作为美国在军用人工智能方面的主要竞争者正在向美国施加竞争压力,其优先重点是——利用人工智能做出更快速、更科学的军事决策,以及研发各种自主式军用车辆。这说明,在发展路径的某些方面与美国极为接近(close parallels), 让一些美国国防部领导人对保持当前国防创新指南所设想的美国传统军事优势的前景感到担忧。报告中提到,美国通过2018年出台《外国投资风险评估现代化法案》,扩大美国外国投资委员会(CFIUS)审查特定外国对关键技术、关键设施、敏感个人数据等领域(特别是““新兴和基础性技术”)投资的职权,以阻止中国通过对美国人工智能产业投资的日益增长获得可能会影响美国在国家安全方面领导地位的人工智能这一关键技术或相关衍生关键设施。而,恰恰就是在近期,美国针对中国接连祭出两招,即于2020年1 月 3 日签发且于1月6日生效的“限制美国自动分析地理空间图像软件等人工智能产品向中国出口”的法令和2020年2月13日正式生效的“限制中国向美国人工智能相关产业(人工智能和机器学习技术、量子信息和传感技术、机器人技术、先进的监视技术如面部识别和声纹技术等)投资”的美国外国投资委员会(CFIUS)外国投资审查法案最终规则,以阻止美国公司帮助中国制造更好的、可能会用于军事用途的人工智能产品。而该外国投资审查法案最终规则甚至将美国外国投资委员会(CFIUS)职权扩大到了对非控制性投资或少数股权投资的审查。
该报告提到,美国国会预算和立法决策,包括影响人工智能资金、采购、规范和标准以及国际竞争的行动,有可能极大影响美国人工智能发展的轨迹,以及美国人工智能军事应用的增长和普及速度,并对确保美国军方获取人工智能这一先进技术以支持美国的国家安全目标和美军的持续军事效能至关重要。 报告中提到,国会可以考量军用人工智能的开发和使用方面的特殊政策,如,国会可以评估出台新政策的必要性或修订现行法律以应对人工智能的发展,确保人工智能非歧视性应用。此外,报告还提到,可能最为紧迫的政策是设置独立的实体机构推进和实施人工智能安全标准,如 “人工智能监督专职官员(AI czar)”。 该报告探讨了国会应该关注的相关议题,其中之一就是军用人工智能专项资金是否充足的问题。“在工业革命期间英军仍然投资鼓励改善马镫的发明”的例子说明,先进的技术往往发生在军队之外。所以该报告指出,民用改军用,即军民融合,是一种解决资金支持不足的思路,但存在许多障碍,诸如技术、流程、人员、文化等方面,可能需要改革国防采购流程的各个方面。 这些都是值得我国在发展军用人工智能时可借鉴之处。
《美国2019年人工智能与国家安全报告》对我国了解美国军用人工智能发展思路和考量以及借鉴相关有效策略操作具有很大意义,因此《世界火车(Global Train)》翻译组对该报告进行全文翻译。该报告中译本翻译特色,在于对相关脚注进行了仔细和规范地翻译,脚注所列文献和来源都是非常宝贵的研究资料,可以通过直接点击相关链接或查找相关规范出处,很方便地参阅学习。

编辑:吴悠

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表