传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
371#
 楼主| 发表于 2020-1-5 22:32:13 | 只看该作者
【案例】崛起的机器人、不幸的人类:AI的反乌托邦

原文来源:Nature自然科研
原文作者:David Leslie

David Leslie对Stuart Russell审视人工智能如何失控的新书进行了评论。
file:///C:\Users\ADMINI~1\AppData\Local\Temp\ksohtml4664\wps42.png
在2019上海世界人工智能大会上展示的监控摄像头。来源:Qilai Shen/Bloomberg via Getty


《人类兼容:人工智能及其控制问题》
     Human Compatible: Artificial Intelligence and the Problem of Control
作者:Stuart Russell
出版社: Viking (2019)

Stuart Russell在他的人工智能新书《人类兼容》中直面“控制的问题”,即通用人工智能最终超过其创造者的智力水平,带来不可逆的反乌托邦的可能性。

控制问题由来已久。小说家塞缪尔·巴特勒在其1872年的经典科幻小说《埃瑞璜》(Erewhon)中就描绘了对于机器人的超人智慧的担忧:机器人奴役自己的人类制造者并将他们变成“取悦机器的寄生者”。然而在1956年,控制论之父诺伯特·维纳在《人对人的利用》(The Human Use of Human Beings)中写道,社会面临的危险“并不源于机器而是源于制造它们的人类”。Russell的新书实际上正着笔于这种紧张关系:问题是要控制造物还是控制造物者。从某种意义上来说,这从AI诞生之初就已根植于它的内核中了。

即便是在AI诞生的初期,激烈的争议就不断裹挟着它的发展。Russell简要地回顾了1956年AI的创造者们在达特茅斯学院举办的那场研讨会。在这个具有传奇色彩的AI诞生地,研究人员激烈地争论应该如何为当时仍在蛰伏中的发明命名。博物学家和未来的诺贝尔奖获得者希尔伯特·西蒙和计算机科学家艾伦·纽厄尔更为偏好“复杂信息处理”(complex information processing),这种命名所反映出的精确性揭示了现代科学方法的约束力,让人会想起像麦克斯韦那样一点一点进行研究和发现的过程。计算机科学家约翰·麦卡锡和马文·明斯基(可以称他们为智能学家)则更希望将其命名为“人工智能”(artificial intelligence)。麦卡锡认为这更具市场价值,而明斯基则认为命名“不单单是一个技术问题,更是一个美学问题,或者说是一种庄重的感觉”。

麦卡锡、明斯基和其他的智能学家借鉴了行为主义,这是一个横跨自然和人类科学并包含丰富的心理学词汇的领域。他们似乎这样假设:看起来“有思想”的行为在逻辑上足以证明自身的存在。所以他们可以声称他们的机器可以进行简单的思考和感知,只要它们看起来会思考和感知。
file:///C:\Users\ADMINI~1\AppData\Local\Temp\ksohtml4664\wps43.png
马文·明斯基,提出“人工智能”概念的计算机科学家之一。来源:RGB Ventures/SuperStock/Alamy

后来我们都知道智能学家的命名胜出了。从此,这个领域走上了起起伏伏的发展道路,不吝承诺却无法一一兑现,睥睨一切却不得不在漫漫严冬中自舔伤口。人们不禁会想,如果西蒙和纽厄尔在当初获胜,AI研究的命运将会怎样。Nick Bostrom 2014年的畅销书《超级智能》如果被叫做《超级复杂信息处理系统》是否还会产生一样的影响力?Russell是否还会撰写《人类兼容》呢?

这些问题依然存在争议。但确定的是,《人类兼容》标志着AI研究领域的一大进展,尤其是该书对于伦理的强调。在书中最核心的部分,Russell尖锐地讨论了AI技术的滥用。他警告说,结合大规模的数据收集后,类似语音和面部识别技术、人脸伪造生成器以及信息整合系统等AI应用可以被应用到监控、控制和大规模的行为操控中去。他重点突出了人类在这些技术面前的脆弱性,强调了在“基本真实的信息环境中”生活的心理安全的权利;同时还以充分的论据来反对被视为“可扩展的大规模杀伤性武器”的致命自主武器。

但令人惊讶的是,在掷地有声地讲述AI在当代被误用和滥用的情况后,Russell却没有公正地审视AI为社会带来的进步和益处。它们已经在帮助人们应对气候变化、生物多样性流失、疾病检测和灾害救援等方面的诸多挑战。例如在医学图像分析领域,AI应用已经在乳腺癌、非小细胞肺癌和慢性心力衰竭等疾病的早期检测中发挥出显著的优势。整合宏观气象预测和局部观测数据的机器学习模型使得科学家们可以在气候适应和缓解方面协助政府。

但“无趣”却有益的“工具型AI”——Russell口中的说法——不是本书的主角,“超级智能”AI才是,后者才是控制问题真正的根源。换句话说,一旦“超级智能”AI的认知能力超越了人类,AI可能变得不可控。他向我们保证说,目前还没有到这一地步,但是如果这一天终将到来,我们最好未雨绸缪。

但Russell却没有能够让我们相信“第二个智能物种”将会到来。他在书中对于“智能”的描述前后不一,令人困惑,细心的读者一定会感到不明所以。他在定义AI时,将“智能”归结为工具理性。按照他的说法,理性主体会理智地行动,即他们的行动是为实现一定的目标服务的,从而使预期效用最大化。倾向于形式化的老派行为经济学家,或是会在白板上吱吱地写下奖励函数的AI技术专家也许会对这个观点大加赞赏。但是,这是一种狭隘的描述,当Russell将其应用于他所谓的“过度智能”AI时,便暴露了其中的荒唐。

Russell举出的人类意图在目标导向的超级智能机器中被歪曲的例子十分令人困惑。他描述了这样一类场景:家用机器人将家里的猫烤了来喂饿了的孩子;AI系统在每个人体内诱导肿瘤来快速寻找最优的癌症疗法;地质工程机器人选择让人类窒息来为海洋脱酸。读者在这里难以发现任何所谓的智能。
file:///C:\Users\ADMINI~1\AppData\Local\Temp\ksohtml4664\wps44.png
2018年在日本的一个贸易博览会上展示的人工智能个人助理。来源:Tomohiro Ohsumi/Getty

Russell差不多也承认了工具型能力不足于描述完整的智能能力。为了回避这个问题,他牺牲了他自己的定义的一致性。他认为要让超级智能AI的作用充分发挥出来,还需要实现一系列的“概念突破”,包括获取常识能力、掌握上下文和相关性以及理解自然语言等等。

这份清单让人难以消化。它仅仅是列举了六十多年来未予回应的批评、棘手的缺点和重复的失败,其中大部分源于认知科学家泽农·派利夏恩在1987年提出的“推理中的整体论问题”。这些问题源于AI系统无法像人类一样,从无数可能的含义、性质和关系中总结得出一种可行但暂时性的对于世界的认知,正是这些含义、性质和关系构成了一个动态的世界。

《人类兼容》没有提出硬性证据说明复杂信息处理系统——超级智能的或反之——如何能够解决前文提到的问题。Russell也没有澄清这种能力与他提出的一心追求成功的经济机器人(Robo economicus)如何相容。相反,他忽视了二十世纪思维方式的硬伤,基于整体论从上下文去理解推理,导致不得不承认智能本身存在的局限。因此,Russell陷入了技术解决方案主义的圈套,技术解决方案主义认为智能可以被视为一个“工程问题”,而不是需要持续进行自我批判审视的人类特征的一个约束维度。

但Russell的书依然为世人敲响了重要的警钟——尽管这并不一定是他的本意。真实的控制问题并不是管理超常的超级智能造物的到来,更关键的是要控制那些洋洋得意的造物者,他们也许正在Russell 本人所拥护的智能之定义的误导下,研发日渐“自主”的AI技术。

原文以Raging robots, hapless humans: the AI dystopia为标题发表在2019年10月02日的《自然》书籍与艺术上。

编辑:吴悠

372#
 楼主| 发表于 2020-1-6 20:26:48 | 只看该作者
【案例】
业界前沿|人脸识别或被3D面具破解



近日,美国一家名为Kneron的人工智能公司成开展了一项针对访问公共场所和欺骗人脸识别系统以访问或完成支付的测试。在亚洲,他们的团队在商场中使用高质量的3D面具成功欺骗了支付宝和微信的支付程序。在荷兰最大的机场阿姆斯特丹史基浦机场,他们仅用一张手机屏幕上的照片就欺骗了自助登机终端的人脸识别系统。


该消息传出后,在社会上引起了轩然大波。在人脸识别技术迅速普及同时,人们对这项新技术的担忧也与日俱增。根据国外科技网站ZD Net最近一项针对6100名中国公民的调查,79%的受访者表示他们担心人脸识别会泄漏数据,39%的人表示他们更喜欢传统身份验证方式,不喜欢使用人脸识别技术。

据了解,目前,面部数据保护方面缺乏透明度,许多人脸识别设备甚至不提供隐私政策或用户协议。在很多情况下,一旦人们进入有摄像的范围内,摄像就会开始收集他们的面部数据,而大多数人甚至都不知道自己正在被收集面部数据。


曾经走红的AI换脸软件ZAO,便因为公众对隐私的担忧而受到相关部门的约谈。然而一个严峻的事实是,除了ZAO之外,收集并使用我们人脸数据的机构和企业,正变得越来越多。比如,拥有相册读取权限的APP、提供人脸解锁功能的手机厂商、进行身份验证和面部检测的金融或教育类APP,甚至是办公楼里的刷脸出入系统,以及无处不在的安防摄像头。为了便利,人们正在把自己的人脸数据免费交给越来越多拥有新技术的组织。这一趋势浩浩荡荡,个人仿佛无法抵抗。

除了上面提到的AI换脸带来的欺诈风险之外,攻击人脸识别系统从而进行身份冒用带来的财产、名誉、人身等方面的安全隐患也不容忽视,而3D打印技术的成熟正让《碟中谍》电影里面的换脸场景成为现实。更可怕的后果在于,一旦人脸数据与其他隐私数据打通,我们最终会进入“裸奔时代”——当你走在大街上,掌握数据的人只要看你一眼,就洞悉了你的一切,身份、职业、收入、偏好、性格……


针对这些情况,专家表示,目前最好的办法还是保护好自己的个人生物信息,技术基于活体识别的人脸识别确实会有一定的概率会被面具破解。精准度非常好,并且细节也能充分体现的面具,对机器来说还是比较困难的。在网络上不要随意公开自己的高清照片,随时有一个保护自己隐私的意识,无疑是最保险的。

来源:微信公众号:媒况(矿工19号)  
链接:https://mp.weixin.qq.com/s/i_dwniKAELlcSE_e5H9YTw

编辑:冯梦玉

373#
 楼主| 发表于 2020-1-6 20:52:30 | 只看该作者
【案例】
人工智能应该成为认知传播学研究的主攻方向



近年来,我国新闻传播学一个新的分支学科——认知传播学诞生并迅速发展。2014年,中国认知传播学会成立,并于该年418-20日,举办了“全国首届认知传播高端论坛”。此后,每年都有几百篇论文,还开始出版相关专著,认知传播学的学科体系也开始建构。去年我参加了第五届认知传播学年会(2018)暨国际认知传播高端论坛。感觉这一新兴学科仍处在一个混沌的发展阶段,各种研究视角五花八门,一方面“八催过海,各显神通”是好事,另一方面我们更希望其神通还是要显示这个学科的建构与成长中。对此,我一直在思考:当今认知传播学的主攻方向应该选择在哪里?


中国认知传播学会会长欧阳宏生教授指出:“认知传播学作为一门与实践紧密相关的学科,应该避免陷入理论空谈的境地,将研究视角放置于现实的社会动态环境中进行实地考察,或者将研究的角度置于解决社会问题指向性中,通过问题意识驱动研究的开展,加强认知传播研究的针对性。”他还指出价值理性重构学科蓝海,我认同欧阳教授的看法,补充一句:工具理性会成为这一学科研究的技术支撑。我的一位在美国的研究生告诉我,美国所有的文科生都要学编程,这或许也是新闻传播学的未来,认知传播学把人文社科与自然学科拉得更近了。




虽然我国知识传播研究已有三十年,但作为一个新学科仍存在不少问题。李茂华博士认为:“1.目前还没有独立的认知传播学著作,认知传播学学科体系建构还未最终完成;2.研究思维仍然还局限在经典传播学研究框架之下;3.从目前的研究成果来看,重外部关系研究,轻本质内涵研究,真正触及人脑及心智工作机制的认知传播研究成果还比较少。认知传播研究还任重而道远。”触及人脑及心智工作机制的认知传播研究主要是涉及到应用心理学、行为科学、神经科学等相关学科。


梁湘梓博士认为:“从认知角度切入探究信息传播机制成为主流,意识表征、认知语境以及隐、转喻思维三个方面则成为探讨认知传播学的哲学基础。”我认为认知传播研究不只是哲学层面的理论思考,还需要应用层面的深入研究。哲学把认知传播学研究导向正确的方向,但下来具体每条路怎么走,还需要相关学科的支撑和相关领域的交叉。那么,哪些是当下最迫切需要的应用研究呢?我认为人工智能在新闻传播领域的应用理应成为认知传播学开疆拓土的主战场。

认知传播学中的“认知”不只是一个文化认知的概念,还是一个心理学的概念。我认为认知传播学最重要的研究是“认知—行为”关系的研究,就是如何认知,认知之后如何产生传播行为。就拿目前大家诟病的推荐算法和寄以厚望的智能把关来说,都会用到“认知—行为模式”。认知是一个心理、心智、精神问题,是无法直接探测到的,人们通过生理和行为来间接探测,而在其中往往需要借助物理手段,使用脑电波、心电图、传感器和计算机等机器来实现。


BBC实验用脑电波控制电视


互联网时代,大数据和人工智能是认知传播研究的重要领域。喻国明教授提出“大数据——认知神经传播学实验 —技术现象学”的研究框架;杜杨玲认为应从符号逻辑到认知体验来推进智能传播研究。笔者先后参加过认知传播学年会和计算传播年会,发现有些问题的研究与这两个新兴学科都有关联。比如说,人工智能在新闻传播学中目前两个最重要的应用:推荐算法和智能把关。抖音已有上万人的内容审校队伍,但仍难以满足需求。认知传播学在此可以大有作为。

我认为这个主攻方向至少可以选择两个突破点,一个是基于概念和语义的认知,比如说目前推荐算法大多是基于“用户偏好”这一逻辑起点,问题是这个偏好的认知是准确的吗?在不同语境下它有不同的理解,我们可以展开定性研究,也可以进行定量分析。第一步是优化算法,第二步是深度学习,训练机器。另一个是基于“认知—传播模式”的动态过程研究,认知可以激活传播,传播也可以反推认知。


这些研究需要理论的建构,也需要机器的辅助。比如说用户点击界面,既是各种认知的表现,也是各种行为的体现,二者还会形成不同的因果关系或相关关系,都值得好好研究。这是一个跨学科的复杂系统工程,毫无疑问,认知传播学需要更多的学科支援。实验法是一个重要的研究方法,它将集中新闻传播学者、心理学、脑科学专家和实验工程师联合攻关,既有价值理性也有工具理性。我认为认知传播学的发展可以把新闻传播学推向一个更高的研究层次。


来源:谭天论道  


编辑:冯梦玉

374#
 楼主| 发表于 2020-1-6 20:59:27 | 只看该作者
【案例】
智能传播中的“使用与满足”


“使用与满足”作为传播学中的经典理论,也是被广泛使用的最流行理论之一。那么,在智能传播时代,这个理论有没有一些新的变化?在应用研究中如何适应新的语境?值得讨论一下。


一、使用与满足理论的产生与发展

使用与满足理论是伊莱休.卡茨于 1974 年在其著作《个人对大众传播的使用》中正式提出的。“是美国早期功能主义媒介研究不可或缺的一环,又是后期新功能主义媒介研究的起点和中心。所以,它理所当然地成为美国传播学中最为广泛使用的研究框架之一”。

受众使用媒介动机与获得满足的研究早在20 世纪 40 年代便出现了先兆,当时的研究者聚焦“为什么受众会消费不同类型的媒介”。卡茨在1959年发表的《大众传播调查和通俗文化研究》中,回应贝雷尔森“传播学研究正在枯萎”的消极观点中首次提出了这一理论。他认为传播学者要将研究的焦点转向“人们用媒介做了什么”,这是“使用与满足”理论在传播学史上的第一次发声。

然而在卡茨提出使用与满足理论后的十年里,该理论并未进一步的发展。直到美国传播学界发现,强效果理论和当时已有的有限效果论只能够解释“电视暴力”如何对人产生影响,却无法从另一侧探究大众是如何使用电视的,只有单边的研究很难全面地揭示受众与广播电视的互动关系中效果是如何生效的。“使用与满足”理论将研究视角转向传播过程的另一端,从受众的能动性角度开辟了效果研究的新路径,加上以尼尔森公司为代表的媒介公司组织拿出一批资金来鼓励学者进行受众媒介使用情况与满足程度的专项调查,从而为“使用与满足”理论带来了持久的研究热度。

使用与满足理论的价值真正获得重视是在麦奎尔等人于1969年开展对新闻、知识竞赛等种节目的受众的调查之后,麦奎尔提出了使用与满足的四种类型(心绪转换效用、人际关系效用、自我确认效用和环境监测效用)。1974年,卡茨、布卢姆勒和古雷维奇在《个人对大众传播的使用》中提出了受众选择媒介的过程,促成了使用与满足理论的再次复兴

在我国总体而言,使用与满足理论“一方面它被当成一个正式的理论而被广泛运用到媒介采纳、选择以、使用/接触的研究中,另一方面它越来越趋向于一个标签化的理论而非正式的系统的实证理论。”

进入互联网时代,随着新媒体的发展,使用与满足理论应用更多了。在知网中,键入主题“使用与满足”,检索到相关论文达到2800多篇。尤其进入智能传播以来,2011年年产论文数从两位数跃升到三位数,2018年更是高达404篇。那么,在智能传播时代,使用与满足理论及应用又有什么变化呢?我们不妨重新审视一下这个理论。



二、重新审视使用与满足理论

在智能传播视阈中,我们重新来审视使用与满足理论的应用语境和要素内涵。

1、使用主体——从受众到用户

“使用与满足”理论诞生于大众传播时代,定位的是传统的“传受”过程下的受众与大众传播的互动关系。受众一词本身就揭示出了早期强效果论的影子——大众在传统媒体面前处于被动地位,在媒体主导新闻传播的时代受众被视为一击就中的“靶子”。而迈入智能媒体时代,“受众”的概念在技术赋权和大众媒介使用的主体意识的觉醒下,进阶为“用户”。

“用户”这一概念本身就蕴含了更加强烈的主动使用的意味。用户不单单指广大的普通消费者群体,还包括运用新媒体产品辅助社会工作和商业运营的政府和企业单位。同时,用户相较于受众,更重要的一大区别便是用户不再仅仅是一个信息的接受者和内容的消费者,它还是一个信息的传播者和内容的生活者。平台媒体通过开放了内容生产的进入端口,并提供了更为便捷的多媒体编辑技术,加之部分有意向成为生产者的用户的媒介素养有了相当程度的提高。综合以上条件,用户成为了信息产品的生产者和接收使用者的这一融合身份,开始大量生产UGC甚至是UGM内容。“UGM(用户原创内容)的诞生直接拓展了‘使用’概念的内涵”。技术赋权使得用户掌握了自主生产自我表达内容的权利,传统的大众媒体凭借传播力占据强势地位的格局受到冲击,传受双方的地位向着渐趋平衡的网络节点式形态而改变。而身份的转换也让传统的使用与满足理论中对于受众媒介心理的剖析显得单薄。

2、满足内涵——需求的多元拓展

我们接着探讨使用与满足理论中一个重要范畴——满足受众(用户)需求,需要我们回归理论的定义本身:满足是来自于受众本身预期需求在接触媒介后实现与否的一种对照。根据韦伯论述社会行为的观点,“使用与满足”中提到的对媒介能够满足自我需求的期待,进而衍生出的使用行为是合乎工具理性的[vi]。受众通过收看广播电视新闻满足信息知情权,获知直接或间接的环境异动;通过收看娱乐节目舒缓生存压力,实现“社会皮肤”的维稳;通过了解广播电视中的言论为个人社交增添谈资和调整个人行为的借鉴。一言以蔽之,倘若当期的传播内容能够解答受众在收看前心中的疑问、提供精神愉悦消解疲劳或让受众记住了某种观点、某段说辞,那么传播便达到了预期的效果。如果受众当日因为其他事由而没买到报纸或错过了节目的播出时间,那么缺乏可替代媒介的现实情况就会使得受众的需求无法得到满足。

智能媒体的出现让用户随时随地收获信息成为可能。当我们能够依照自己的日程安排去选择节目播放的时间,智能手机、智能电视和智能电脑都能够通过接入互联网而实现对节目的任意暂停、回放和精心剪辑的集锦,进而不错过任何一段你想了解的讯息;当方便携带,集成我们日常生活各类需求的智能手机上的APP推送可以满足我们基础的信息需求时,我们往往会对大众传播媒体的内容生产提出更高层次的要求。这种消费升级和需求拓展赋予“满足”更丰富的内涵,而这种丰富和拓展又取决于新的媒介生态和传播环境。

3、媒介形态——由媒体到平台

受众满足需求所接触的媒介,最初指代的是电视。承担节目制播任务的大众媒体以一个完备系统的架构体系维持长期的运营,由专业的人员队伍完成日常的传媒内容生产。无论是欧美资本主义国家中的商业媒体集团,还是我国承担喉舌功能的事业性新闻媒体,都是具有相当体量的媒介组织,引导力和影响力上的优势使得他们的传播行为往往被大众视为可供参考的权威公信力,进而拥有绝对强势的传播力。大众媒体上面的不同版面、不同栏目承担了不同的传播职能,分别一一对应受众不同的媒介接触动因。

“媒介平台”作为近年来崛起的传媒新业态,是通过某一空间或场所的资源聚合和关系转换为传媒经济提供意义服务,从而实现传媒产业价值的媒介组织形态。媒介平台本身不具备我国媒体单位的新闻采编资质,“是融集成资源、响应需求和创造价值于一体的综合服务提供商[viii]”,他们在商业运作的市场化背景下,在媒介产业链条中负责提供技术、通讯、商务、娱乐等不同的应用模块,通过链接传统媒体新闻产品、用户生产内容和流通于传播渠道内的各类资讯创造商业价值。而在媒介平台中,利用算法技术帮助内容分发的智能资讯平台成为了近年来不可忽视的新兴互联网势力。内容智能分发平台以用户需求为中心,通过聚合海量新闻资讯,进行移动化传播,组合多种社会信息服务模块,升级为综合信息服务系统,导入用户生产内容并实现用户主导内容消费完成价值创新,使其取代传统媒体成为用户接触社会信息的重要入口。过去需要从不同的媒体上获得的信息,随着媒介平台特别是内容智能分发平台的出现而被集成在了一个个方便易用的APP和小程序中,用户只需要轻轻一点便可以极低的成本得到满足。便捷的信息消费使用户不由地生发了更多样的媒介接触需求。




三、“算法囚徒”与理论新用

不论身处哪个时代,受众使用媒介的动机都不是静态的或孤立的,而是需求与期望的交互结果。因而在许多使用与满足研究中,动机概念会被模糊地等同于受众的需求或期望。然而在互联网时代,旧有的动机类型己不足以解释或预测新的媒介使用行为;有学者针对同一随机样本,先后测量了他们观看电视的动机与采用网络服务的动机,对比之后发现,人们的电视使用动机与网络使用动机之间实为弱相关,即无法用传统的动机类型去预测受众的网络行为

智能传播时代,算法应用被普遍认为成为了衡量用户网络行为“使用与满足”的一个新标准。“算法的介入,使得媒体与用户关系从以往的传者主导、受众被动接收的线性关系,转为‘媒体-算法-用户’三者之间复杂互动的循环关系”。算法在未获得用户兴趣偏好之前,是基于当前大数据筛选出的所谓“热门新闻”予以推送的。然而算法在实际运作中会忽略信息热度中的伪数据,被虚假流量欺骗,极易对信息推荐价值的评估产生偏见。目前大部分的资讯平台在接入用户时,会弹出一个垂直分类的页面来让用户选择自己的喜好,或者是通过第三方社交平台关联登录来导入用户数据。而之后会根据用户的“社交手势”(点击、浏览时间、点赞评论转发等)做出一定的机制校准。然而,碎片化阅读时代媒介注意力经济的诱惑,滋生了“标题党”、“读图党”等诱惑用户的虚假信息的出现。在日常的使用中,用户往往会被耸人听闻的标题和博人眼球的图片“骗”入内容界面,这样的互动反馈往往是误导。点进一条资讯中并不代表用户就真正感兴趣,而用户也可能因为身处的场景不便而没有点开自己真正感兴趣的内容,久而久之,算法反倒会忽视用户真正有需求的内容,让用户陷入接触不到自己所需的尴尬境地。真正包含用户偏好的数据被遗忘,必然扭曲样本数据和算法分析的结果,加剧了智能算法的偏见循环。尽管平台不断通过优化算法来提高满足需求的质量,但人工智能的深度学习还是一个漫长的过程。

其次,在按照传统商业门户网站制定的信息分类标准之外,还有相当部分的用户拥有个人兴趣的小众市场,这类资讯涉及的是独立于主流之外的亚文化,在营销潜力上本身就远远逊色于能带来较大流量的网红议题。算法根据程序员预设的目标变量和分类标签进行数据挖掘,这一过程具有较强的主观性,目标变量及其权重的设定对算法模型的科学程度具有影响。算法在判断时是否会因为某些原因而主动降低推送的过滤权重,这也是关于能否准确满足用户特定需求的亟待解决的问题。算法推荐给用户的信息在多大程度上能够满足用户需求,还需要用户自己来回答。

尽管算法推荐本身属于客观中立的技术范畴,但实际上,所谓的“算法中立”不过是人们对数据和技术的乌托邦想象。算法本身仍然是服务于服务提供商的价值判断,是承载着商业媒体利益诉求,将用户的偏好资料二次售卖给广告商的装着旧酒的新瓶。收集来的数据所带来的最多获益,并不是为了让用户得到更多的偏好满足,而是成为了广告主精准投放目标市场的“梦中人”,留给用户的更多是信息茧房争议中的愈加自缚。

综上所述,在智能传播语境下,使用与满足理论仍然可以作为媒介效果研究和用户行为分析的一个范式。然而,算法作为使用满足的重要节点,在提高了传播的生产与分发效率的同时,在准确理解用户的真正需求和偏好上,还有很长的路要走。我们对使用与满足理论必须进行新的诠释,对其中的要素、内涵以及适用范围进行补充、修正和完善,需要不断地回到定义的原点,同时结合认知传播学、计算科学等新学科新方法,才能不让这一理论在运用过程中过时和错位。(注释省略)



来源:谭天论道
作者:徐萌晟(作者为广西艺术学院影传学院硕士研究生和硕士生导师)


编辑:冯梦玉  

375#
 楼主| 发表于 2020-1-7 08:58:18 | 只看该作者
【案例】
中国社会科学报2019年终特刊:科学与人文
 
人工智能人文反思新动向


  经过60多年的探索,人工智能的大致目标被设定为让计算机完成人类心智能做的各种事情,即至少在功能上具有知觉、联想、预测、规划和运动控制等心智能力。近年来,深度学习算法、大数据、机器人等技术的发展掀起了新一轮人工智能热潮,人工智能哲学与伦理等领域的人文反思也成为学界研究的热点。


  人工智能人文反思热成为焦点


  人工智能与哲学和人文的交汇,源于对人工智能的理论基础的讨论。从图灵追问机器如何思考开始,有关人工智能目标和实现途径的探究,不仅试图为人工智能奠定科学基础,而且很自然地延伸至对一般性智能科学的讨论,拓展到对一般性智能及其实现方式的构想。由此,人工智能哲学成为人工智能研究不可或缺的面向。


  鉴于人工智能哲学倾向于从一般性的智能科学维度探讨人工智能的基础,因而既与心灵哲学、语言哲学、认识论等传统哲学分支密切相关,也和认知科学哲学、信息哲学等新兴领域多有交叉。尽管德雷福斯(Hubert Dreyfus)对符号主义人工智能的批判一度影响到人工智能的发展方向,但人工智能哲学一直主要是在认知层面展开讨论。


  在2016年人工智能AlphaGo战胜人类棋手李世石之前,人工智能哲学研究并不热门。至于人工智能伦理,虽然相关的信息伦理和机器人伦理研究一直在进行,但在其成为社会焦点话题之前,讨论多围绕阿西莫夫(Isaac Asimov)的机器人定律和各种科幻作品展开。


  这一波人工智能热,因其关乎时代变革和人类未来而成为人文社会科学研究的焦点,给人工智能哲学带来了再出发的全新契机,也使得人工智能伦理和治理成为一时之显学。它不仅激活了对人工智能哲学既有难问题的重新审视,而且鉴于数据驱动的人工智能的普遍应用,还从中带出了相关性和因果性、数字方法、算法认知等科学与哲学共同关注的全新主题。更为重要的是,当下人工智能哲学和伦理研究的语境是对人工智能的革命性影响,特别是对其可能导致的风险的担忧,使相关研究不再局限于学术领域,而关乎人工智能的后果和前景等社会公认有意义的话题。在此语境下,一方面,对人工智能是否会超越人类智能而失控的深度疑虑,促使人们从哲学上对人工智能在认知、意识、情感等方面的可能性进行了辨析;另一方面,数据权利、算法偏见和技术性失业等问题使得人工智能的社会、伦理和治理成为具有普遍社会需求的领域。


  多维反思人工智能


  鉴于上述全新的人工智能发展态势及其被赋予的价值意涵,对人工智能的人文反思成为2019年的热点话题。其中,相对聚焦的问题大致可分为以下四个方面。


  1.人工智能的认知与情感问题。这方面的研究大致可分为三类。一是重视价值语境,针对人工智能的发展是否会出现奇点及是否会导致终极失控等“要命的问题”,从哲学上探讨是否会出现有能力对人类说“不”的人工智能。沿这一思路,赵汀阳指出,人工智能的自我意识、反思能力尤其是万能语言的获得有可能使其变得十分危险,而鉴于人的欲望和价值观是一切冲突的根源,一旦人工智能拥有拟人化的情感、欲望和价值观,势必更加危险。类似地,梅剑华、潘天群等从因果性等维度对人工智能的讨论也观照到了奇点及对奇点的规避。二是探讨已有的哲学理论和研究对人工智能的认知和情感或情绪研究的作用。王球认为,可以从既有的关于人类自我知识的主流理论中筛选出与人工智能命题态度的自我知识相匹配的理论模型;徐英瑾强调,欧陆现象学对于情绪的研究成果,远未被当下的人工情绪研究所消化。三是有关人工智能和机器智能的认识论以及人机混合智能研究,如成素梅、董春雨等人对人工智能认识论和机器认识论等进行了探讨。


  2.人工智能的社会、伦理与治理问题。在人工智能所带来的巨大社会影响、伦理风险和治理需求的推动下,2019年堪称我国人工智能伦理和治理规范制定年。国家标准化相关组织相继发布了《人工智能伦理风险分析报告》和《中国机器人伦理标准化前瞻(2019)》,国家新一代人工智能治理专业委员会制定的《新一代人工智能治理原则——发展负责任的人工智能》也于20196月发布。下一步,人工智能伦理治理将纳入正在构建的国家科技伦理治理框架。在此背景下,对人工智能、机器人、数据、算法等方面的社会伦理问题的研究取得了诸多成果,大致可以分四类。一是对数据、算法伦理及其风险等技术伦理问题及其调节路径的讨论,特别是如何构建负责任及可信任的人工智能。二是有关人工智能中的道德行为者、机器道德和伦理算法的研究,如基于正义论等道德理论的伦理算法能否克服电车难题中的道德困境等。三是有关人工智能伦理体系、框架和策略的研究,如陈小平探讨了人工智能伦理体系的运行机制、人工智能伦理准则的场景落地、人工智能伦理风险的预测判别以及人工智能伦理对重大社会问题综合创新的支撑机制问题。四是人工智能的社会政治影响研究,在相关讨论中,李醒民明确指出人工智能是一种技性科学(技术化科学),必然会干预人的行为;在赵汀阳看来,人工智能的政治后果是一个有效的问题,人们要运用人工智能就难免为之付出隐私等代价;段伟文则认为,数据智能的发展将导致以数据分析和调节人的行为的解析社会的来临。在此方面,让哲学研究者既感到欣慰又感到有竞争感的是,很多人工智能科学家已加入研究负责任、可信任的人工智能的行列,比如,人工智能专家拉塞尔(Stuart Russell)最近出版了名为《兼容人类:人工智能与控制问题》的新书。


  3.人工智能与哲学的跨学科研究。由于人工智能具有全局的颠覆性影响,自然成为哲学各个学科关注的重点。从马克思主义哲学来看,对人的重视使得“机器换人”的风险、人的主体性、人的全面发展以及由人工智能带来的后人类主义前景等成为焦点话题。同时,关注人及其社会关系的中国哲学领域的学者也对人工智能的伦理和文化影响展开了探讨。张立文指出,用和合学的理论思维以观情绪中和,人机的情绪思维与中和思维可以互相圆融。鉴于情感是人工智能下一步发展的关键,加之人工智能在艺术和作品的欣赏和创作中的应用日益广泛,对人工智能情感等方面的研究正在成为美学研究新的生长点。


  4.对人工智能与哲学关系的再思考。哲学从本质上来讲不是基于上帝之眼的全景洞察,而始终有其特定的视角和思想路径,因此哲学研究者要清醒地认识具有批判倾向的哲学也有其固有的局限性。在有关人工智能与自我意识区别的讨论中,江怡指出,哲学家们对意识的讨论更多采取“语义上行”的论述策略,试图通过对意识概念内容的理解去解释意识现象;而当代哲学的发展应以“语义下行”的方式,更多依据人工智能本身的成果,对智能与意识、人工智能与自我意识作出区分。针对德雷福斯对人工智能的批判的意义与合理性,徐献军指出,由于深度学习没有完全超越表征主义进路,德雷福斯的批判依然有效。韩连庆则根据齐泽克(Slavoj ?i?ek)的分析指出,德雷福斯对现象学的美国式挪用导致对胡塞尔超越论的主体现象学忽视,其根源在于他未能区分“科学本身”和“科学内在的意识形态”而将哲学化约为科学,最终造成了哲学与科学的“短路”,从而错失了现象学(或哲学)的超越论维度。


  综观上述,具有批判禀赋的哲学可能更擅长通过反思从否定角度去思考人工智能发展的大方向。除为避免终极风险找到“刹车”而远虑,还应近忧当下渗透到现实社会生活中的人工智能应用对人类的生活形式带来的根本性挑战。如果说德雷福斯有关人的智能活动非表征、不可形式化、不可规则化的反思未必能阻止智能机器的刻板化,但却可以告诫人们,不能让人变得越来越像机器。唯其如此,才能构建一个富有人性的人机共生的社会。





来源:中国社会科学网-中国社会科学报
作者:段伟文刘叶涛 杨庆峰(作者单位:中国社会科学院哲学研究所)


编辑:冯梦玉

376#
 楼主| 发表于 2020-1-7 22:11:36 | 只看该作者
【案例】
德国发布AI和数据伦理的75项建议,提出数据和算法协同治理等理念 | 腾讯网络法专报

《腾讯网络法专报》汇集每月全球互联网法律政策新动态,涉及范围有网络安全、人工智能、数字产业、GDRP等各方面,旨在从法律政策角度,为新兴技术带来的社会问题进行专业解读。2019年10-11月《腾讯网络法专报》涉及知识产权保护、平台责任、未成年人保护、人工智能、隐私保护、数据治理、虚拟财产等主题。


本文为精选Part1《人工智能与平台责任篇》,2019年10-11月《腾讯网络法专报》全部内容将于近期发布,敬请关注腾讯研究院公众号。



// 人工智能 //


德国发布AI和数据伦理的75项建议,提出数据和算法协同治理、分级监管等理念

关键词:数据、算法、应用伦理、算法问责

2018年,德国成立了数据伦理委员会,负责为德国联邦政府制定数字社会的道德标准和具体指引。2019年10月10日,委员会发布“针对数据和算法的建议”(以下简称《建议》),旨在回答联邦围绕数据和人工智能算法提出来的系列问题并给出政策建议。[1]《建议》围绕“数据”和“算法系统”展开,包括“一般伦理与法律原则”、“数据”、“算法系统”、“欧洲路径”四部分内容。德国数据伦理委员会认为,人格尊严、自我决策、隐私、安全、民主、正义、团结、可持续发展等应被视为德国不可或缺的数字社会行为准则,这一理念也应在“数据”和“算法系统”的监管中加以贯彻。





数据治理方面,《建议》指出在一般治理标准指导下,对个人数据与非个人数据分别监管,平衡数据保护与数据利用。《建议》提出了治理的一般标准,包括数据质量应符合其用途;信息安全标准与信息风险水平相适应;以利益为导向的透明度义务(Interest-oriented transparency)。因此在数据治理中,必须建立具有预见性的责任分配机制,尊重数据主体以及参与数据生成的各方权利。总体而言,数据伦理委员会认为数据是由各方的贡献生成的,不能基于这种对数据生成的贡献来主张对数据的所有权,但是各方可享有对具体数据生成和利用的参与、共同决定等数据权利,反过来可能导致其他各方承担相应的义务,这意味着承认服务提供者对服务提供活动中产生的各类数据享有法律权益。具体而言,数据监管需要区别个人数据和非个人数据,因为不同类型的数据权利和义务是不同的。就个人数据而言,个人在多大程度上享有权利应取决于如下因素:对数据生成的贡献程度;在数据权益中个人权益所占的比重;与第三方可能存在的利益冲突;公共利益以及当事人利益的平衡。就非个人数据而言,《建议》提出在欧洲改进数据基础设施(例如平台、应用程序接口标准和示范合同等),防止过度依赖第三方的基础设施,防止欧洲创新型公司外流。此外,《建议》还提出要建立和推广政府数据开放平台(open government data (OGD)),支持私营部门自愿的共享数据安排。同时,委员会认为非个人数据保护在推动数据开放与加强数据保护之间存在紧张关系,因此推动开放数据应审慎评估其对数据保护、商业投资的影响。当两者发生冲突时,国家应优先数据的保护。


数据驱动下,算法治理重点在于“算法监督”以及“算法责任”。委员会认为以人为本,与核心价值观相符合,系统的可持续性、稳健性和安全性,减少偏见和算法歧视等理念是算法系统设计应遵循的基本原则。以上述基本原则为基础,《建议》提出制定算法评估方案,其核心设想在于建立数字服务企业使用数据的5级风险评级制度,对不同风险类型的企业采取不同的监管措施[2]:


(1)对于具有较低潜在危害的系统例如饮料制作机,不应监管;


(2)对于具有潜在危害的系统,例如电子商务平台的动态定价机制应该放宽管制,可以采用事后控制机制,加强披露义务等来降低其潜在危险;


(3)对于具有一般或明显危害的系统,应考虑以发放许可证的方式,促使审批、监管常规化;



(4)对于具有相当潜在风险的系统,例如在信用评估方面具有准垄断地位的公司,应公布其算法细节,包括计算所参考的因素及其权重,算法所使用的数据,以及对算法模型的内在逻辑进行解释;



(5)对于自动化武器等具有潜在不合理危险的系统,则应该“完全或者部分”禁止。


对于二级以上的企业,委员会建议引入强制性标记系统(mandatory labelling scheme),要求运营商明确是否、何时以及在何种程度上使用算法系统。一旦运营商接受该强制性要求,就必须严格遵守该标记,否则其负责人需承担责任。数据伦理委员会将在“可解释人工智能”(旨在提高算法系统,特别是自主学习系统的解释能力)的框架下开展工作,包括编制和发布风险评估建议、解释数据的处理过程、衡量数据质量以及算法模型准确性的方法等。委员会认为,以上机制能成立的前提是细化GDPR第22条中自动化决策的适用范围和法律后果;并在算法规则以外引入外部保护机制,比如加强反歧视立法。此外,《建议》还就政府机构、媒介中介使用算法系统提出了具体的建议。在算法系统的责任方面,委员会建议必要时对《产品责任指令》以及其他责任法进行修订,增加针对数字产品和数字服务的侵权责任规则。最后,《建议》认为,即使是高度自主的算法系统也不能获得法律上的独立地位,经营者使用高度自主的算法技术产生的赔偿责任应当与以往辅助设备的负责人需要承担的替代赔偿责任制度相一致。


《建议》是德国数据伦理委员会设立以来的主要研究成果,为德国下一阶段数据和算法的监管提供了较为清晰的思路。鉴于数据生态系统的复杂性和动态性,《建议》在数据以及算法的监管中突出了协同治理,分级监管,多样化监管的理念。治理手段不仅包括立法和标准化建设,还包括各方利益的协调以及行业自律。此外,数据和算法技术本身也可作为治理工具发挥作用。


《建议》侧重于数据与算法的监管,其所提议的监管举措也引发了对阻碍创新的担忧。如美国数据创新中心认为,该建议将会对人工智能的发展产生寒蝉效应:“德国希望在全球数字经济的发展中更具有竞争力,但不应该以监管来代替创新。这一政策将使在德的外国企业处于不利竞争地位,以这样的方式加强欧洲的数据主权是不可取的。”[3]


德国的立法动议往往影响广泛,此次《建议》中有关数据和算法的监管思路很有可能被纳入欧盟未来的人工智能规则构建之中,并进而影响全球的数据保护政策。德国数据伦理委员会在论及欧洲未来的发展时提出,在未来的全球竞争中,面对技术和商业模式的快速更迭,捍卫数字主权(the digital sovereign-ty)不仅是一种政治上的远见,还是一种必要的道德责任外化( expression of ethicalresponsibility)。德国乃至全欧盟成员国,应努力成为全球规则的制定者而不是接受者。[4]






AI版权保护成国际社会关注焦点,美国USPTO推进AI知识产权政策的明确化

关键词:人工智能、AI生成作品、人类干预、新型数据权利


随着人工智能(AI)持续影响内容创作、发明创造等人类智力创造领域,开始更多扮演“创作者”“发明者”等角色,国际社会已在着力应对人工智能对版权、专利、商标、商业秘密等知识产权制度的影响。8月27日,美国专利商标局(USPTO)就AI对专利制度的影响,向美国各界公开征求意见。[5]10月30日,USPTO再次发布通知,将公开征求意见的范围扩大到了AI对版权、商标及其他知识产权的影响。[6]此次公开征求意见表明美国在AI知识产权保护立场上的重大转变,因为在此前的猴子自拍案中美国法院认为,美国版权法只保护人类作者的独创性表达。美国版权局此前也明确表示,“机器或纯粹的机械程序在没有人类作者的创造性输入或干预的情况下,随机或自动运行而产生的作品”不具有可版权性。此次公开征求意见对AI创作物的知识产权保护的影响还未可知,但未来USPTO可能就AI知识产权保护问题发布指南,进一步阐明AI知识产权保护规则。在此基础上,USPTO最终可能对美国的IP法律和政策作出调整。


就此次公开征求意见而言,USPTO主要关注以下方面。一是专利方面,如何界定AI发明(包括使用AI的发明和AI开发的发明);如何认定自然人对AI发明的贡献,如设计、调整算法,组织数据,训练算法等;开发训练用于进行发明创造的AI程序的公司是否可以获得专利权:AI发明相关的可专利性条件、披露条件、据以实施要件、本领域技术人员、现有技术等事项有何特殊变化;AI专利是否需要新形式的知识产权保护,如数据保护。


二是版权方面,最核心的问题即是AI创作物的可版权性:AI算法或程序在没有自然人参与创作情况下产生的作品是否受版权保护?如果需要自然人的输入和参与,需要贡献到何种程度才能获得版权保护?具体可能有哪些贡献,如设计开发AI算法或程序或者为设计开发做出贡献,为训练算法等目的收集、选择数据,训练AI算法或程序的公司是否可以获得版权?此外,还涉及AI的版权侵权问题,即AI算法或程序通过摄入大量的版权内容来精进其功能,是否属于合理使用?作者能否控制其作品的此种使用方式?如果AI算法或程序生产的作品侵犯了他人著作权,如何分配侵权责任?


三、商标、商业秘密、数据保护等方面,AI如何影响商标法和商业秘密法,既有的商标法和商业秘密法是否足以应对在市场中使用AI的风险?AI如何影响数据库、数据集的保护诉求?既有的法律是否足以保护此类数据?


可以看出,美国知识产权界已在全面审视人工智能对知识产权制度的影响,并寻求应对之策。除了美国之外,国际社会也在加速推进AI知识产权保护规则的建立。例如,国际知识产权保护协会(AIPPI)已于今年9月通过“关于AI生成作品版权保护的决议”,其中提出了AI生成作品获得版权保护的标准,核心即是存在人类干预(human intervention)的AI生成作品可以获得版权保护,不存在人类干预的则可获得邻接权保护。[7]12月13日,WIPO也发布了“关于人工智能与知识产权政策的文件”,就AI相关的专利、版权、数据、设计等问题向各界公开征求意见。[8]此外,欧盟、日本等也在制定人工智能相关的知识产权保护规则。



显然,在当前阶段,AI尚不能在脱离人类干预的情况下,完全独立自主地从事文学艺术创作活动。从AI算法或程序的设计开发,到相关数据的选择和输入,再到对输出结果的控制,都离不开人类的实质性参与和贡献。因此现阶段人工智能本质上仍属创作工具或手段。完全可以比照“法人作品”的规定,由设计开发AI算法或程序的公司享有著作权。更进一步,除了版权问题,数据作为AI的核心,未来是否需要针对数据创设新的权利,也需要进一步的探讨。





// 平台责任 //




欧盟法院裁定各成员国可要求Facebook在全球范围内筛选和删除非法内容,《电子商务指令》适用范围引争议
关键词:不法信息、平台监管、Facebook、《电子商务指令》







10月3日,欧盟法院(CJEU)通过了一项裁定:各成员国可要求Facebook在全球范围内筛选和删除被认定为非法的内容。该裁定源于2016年奥地利绿党议会前主席格劳琴向奥地利法院提起的一起诉讼,要求Facebook爱尔兰公司删除其平台用户发布的一条涉及其本人的诽谤性言论。奥地利法院支持了其诉讼请求,随后Facebook删除了该条内容。该案后上诉到海牙法院和奥地利维也纳高等法院,最终双方均向CJEU提起上诉。CJEU被要求裁定,针对社交网络运营商的删除命令是否也可以扩展到具有相同措辞或相似表述的内容,以及这种删除是否在全球范围内适用。由于该问题涉及对欧盟法律的解释,CJEU决定暂停诉讼程序,并分别就以下三个问题做出初步裁决:[9]

一是《欧盟电子商务指令》(Directive2000/31/EC)(下文简称《指令》)第15(1)条是否一般性地排除了所有在线中间服务者(OnlineIntermediaries)的主动删除非法信息义务;二是此处所指的非法信息是否不仅包括《指令》第14(1)(a)条的情形[10],还应包括其他相似措辞的等同信息(equivalent meaning);三是若对等同信息也同样适用,那么一旦平台知晓这些“等同信息”的存在,是否也需要采取删除等措施。

针对前两个问题,CJEU认为,不排除让Facebook等平台在全球范围内删除被法院认定为非法的内容及其等同信息。《指令》第15(1)条规定,提供管道、缓存、主机服务的网络服务提供商不需要承担主动监督信息存储和传输的一般性义务,也不需要主动收集表明违法活动的事实或情况。此条免除了特定在线服务商的主动检测与删除义务。然而本案中,CJEU认为,鉴于当下互联网信息传播速度快,覆盖范围广,各成员国应当及时决策并采取必要措施处理非法信息,减小其传播的负面影响。且《指令》在中间服务提供者责任一章中,要求在线服务商在一定情况下对网站内容承担责任的规定旨在制止任何可能的侵权行为并防止任何可能的进一步利益损害。从文义解释的角度出发,CJEU认为“任何”意味着在遵守国际法的前提下,这些措施不应当有地域范围的适用限制。

根据移交的材料,法院认为原告格劳琴所称的“等同信息”是指传达了同样的内容,但是在措辞上与被法院认定为非法信息略有不同的信息,具体而言,可包括侵权人的姓名、侵权行为的情况以及与宣布为非法内容相同的内容等要素。如上解释,为了防止任何可能的进一步损害,该强制令在内容上也必须扩大到对“等同信息”的监管。否则,此类等同信息很容易逃脱禁令的限制,当事人可能需要启动多个程序去制止这种侵害。

基于对前两个问题的判断,对于最后一个问题——一旦平台知晓这些等同信息的存在,是否也需要采取删除等措施,CJEU的答案是肯定的。同时CJEU进一步解释到,网络平台需要删除的是相对于原始内容而言基本不变的内容,因此不需要Facebook进行独立评估,只需使用自动搜索技术即可筛选。

由于《电子商务指令》规定,对于在线平台侵权责任的豁免,不影响法院对其发布特定的行为禁令,这为本案中禁令适用的扩张提供了正当性。CJEU做出上述裁定后,将就该案件的实体问题继续审理。Facebook对该裁定表示强烈的抗议,其在一份声明中表示,希望法院细化该裁定的具体适用标准,否则这一裁定不仅会加重平台义务,且由于各国在隐私保护和言论自由规则上的出入,还可能面临难以在全球范围内实施的尴尬。

欧盟《电子商务指令》已经实施20余年,重点协调各国关于在线中间服务商就第三方非法内容(包括知识产权侵权、诽谤或者误导性广告等信息)免责的条件,《指令》曾为欧洲电子商务的发展扫除了障碍,营造了较为宽松的产业发展环境。伴随商业模式的更迭以及数字技术的快速发展,欧盟认为需要采取更加严厉的内容监管措施。新一届欧盟委员会正在商议制定《数字服务法案》(The Digital Services Act),根据连任欧委会竞争专员的玛格丽特·维斯塔格在质询会上透露的信息,《数字服务法案》将针对在线内容分享平台设定新的责任,包括强制在线平台删除包含种族主义、仇恨言论等在内的非法内容,否则将面临巨额罚款。该法案如出台将会取代目前的《电子商务指令》,在打击仇恨言论和非法内容方面做出更严厉的规定。[11]从某种程度上来讲,这一系列裁决也是在为《数字服务法案》铺平道路。

无论是《电子商务指令》的再扩张,还是拟制定的《数字服务法案》,或是已经颁布的《单一数字市场版权指令》、GDPR,以及持续推进中的数字税、平台治理规则、互联网反垄断调查等,都是欧盟实施“单一数字市场战略”的重要举措。一直以来,欧盟各成员国国内立法和司法的差异阻碍欧盟的统一运作,尤其是妨碍了跨国界数字服务的发展,导致欧盟在互联网领域长期缺乏竞争力。因此欧盟希望通过立法、法律解释以及司法裁判等方式,来构建欧盟内部统一的互联网监管模式,以此促进内部数字市场的发展,并制衡美国等国际互联网产业力量。欧盟法院此次判决进一步体现了这一趋势,尤其是在涉及假新闻、仇恨言论等非法内容的治理上,欧盟频频给美国大型互联网平台施压。欧盟接下来出台的《数字服务法案》,将可能代表未来一段时间欧盟针对互联网监管的整体思路,值得密切关注。



参考资料
[1]https://www.bmjv.de/SharedDocs/Downloads/DE/Themen/Fokusthemen/Gutachten_DEK_EN.pdf?__blob=publicationFile&v=2
[2]https://algorithmwatch.org/en/germanys-data-ethics-commission-releases-75-recommendations-with-eu-wide-application-in-mind/
[3]https://www.datainnovation.org/2019/10/german-recommendations-for-ai-regulation-will-have-a-chilling-effect-on-ai-adoption/
[4]https://algorithmwatch.org/en/germanys-data-ethics-commission-releases-75-recommendations-with-eu-wide-application-in-mind/
[5]https://www.federalregister.gov/documents/2019/08/27/2019-18443/request-for-comments-on-patenting-artificial-intelligence-inventions
[6]https://www.federalregister.gov/documents/2019/10/30/2019-23638/request-for-comments-on-intellectual-property-protection-for-artificial-intelligence-innovation
[7]http://www.aippi.nl/nl/documents/Resolution_Copyright_in_artificially_generated_works_English.pdf
[8]https://www.wipo.int/pressroom/en/articles/2019/article_0017.html
[9]http://curia.europa.eu/juris/document/document.jsf?docid=218621&text=&dir=&doclang=EN&part=1&occ=first&mode=DOC&pageIndex=0&cid=2108884
[10]《指令》第14(1)(a)条规定,信息存储服务提供商在对违法活动或违法信息不知情的情况下,成员国应确保服务提供者不会因此担责。
[11]https://netzpolitik.org/2019/leaked-document-eu-commission-mulls-new-law-to-regulate-online-platforms/


来源:腾讯研究院  
作者:曹建峰 腾讯研究院高级研究员;熊辰 腾讯研究院法律研究中心助理研究员
链接:https://mp.weixin.qq.com/s/W-4lYEQM-G1evreawLT87g
编辑:冯梦玉

377#
 楼主| 发表于 2020-1-12 22:34:59 | 只看该作者

【案例】

人工智能“合乎伦理设计”的实现路径探析



(华南理工大学马克思主义学院,广东 广州 510640)


摘 要: 人工智能设计是为了满足设计主体的目的而设计出智能机器。人工智能设计体现设计者的意愿,关注设计的目的、行为以及人工物的功能。与其他技术人工物不同,智能机器具有智能属性及自身推理能力。为了更好地设计人工智能客体,充分发挥人工智能的功能,伦理学家与技术哲学家不能袖手旁观,人工智能设计应该遵循“合乎伦理设计”。人工智能设计主体必须在设计之初把人类道德与规范嵌入到智能机器算法中,从而使得人工智能系统的决策、行为具有可靠性与安全性。通过法律、法规的“他律”与伦理道德的“自律”甚至智能设计机器的“物律”相结合来规范人工智能的发展。



关键词: 人工智能;设计;合乎伦理设计;价值敏感性设计



21世纪以来,以智能机器为代表的人工智能飞速发展,技术的飞速发展使得人类遭遇“后人类同伴”,也引发人类担忧。人工智能技术发展带来的社会影响以及潜在风险也引发学者关注,人工智能的哲学问题特别是伦理问题也引发学者思考。例如,大数据在营销、医疗、教育等不同领域广泛应用,却带来数据共享与隐私悖论,带来侵犯个人隐私等伦理问题;机器学习的应用让AlphaGo战胜世界围棋冠军棋手,却带来了机器智能超越人类智能的担忧等。学者开始对人工智能规范发展与合理利用等问题进行思考。设计作为人工智能的逻辑起点更引起了学者关注,我们试图从人工智能技术设计的本质、人工智能的逻辑起点以及人工智能的“合乎伦理设计”等方面关注与规范人工智能的发展。



一、“合乎伦理设计”的内涵及重要性分析



1.“合乎伦理设计”的内涵



2015年,美国电气与电子工程师协会(Instituteof Electrical and Electronics Engineers,简称IEEE)首次提出“合乎伦理设计”(Ethically Aligned Design,简称EAD)理念。它旨在解决人工智能和自主系统使用发展的伦理问题,2016年12月发布第1版“合乎伦理设计”倡议。2017年12月,美国电气与电子工程师协会发布第2版“合乎伦理设计”报告,报告名称为《合乎伦理设计:利用人工智能和自主系统优化人类福祉的愿景》(Ethically Aligned Design:A Vision for Prioritizing Human Wellbeingwith Artificial intelligence and Autonomous System),呼吁将人类规范与道德价值观嵌入人工智能系统中,在人工智能发展过程中关注人工智能的设计正义性,避免人工智能设计的不公平、使用的不公平、算法歧视等社会问题。设计是人类价值的物化与具象化,人工智能设计的目的是设计出能够自己行动、判断,甚至具有自我推理能力以及决策能力的技术人工物,应该遵循人类道德规范与基本权益。2017年12月,在浙江乌镇举办的世界互联网大会上,苹果公司首席执行官库克(Martin Cooper)也表达了要把更好的人性与价值观嵌入到人工智能技术中去的想法。美国电气与电子工程师协会的人工智能“合乎伦理设计”的宗旨是让智能机器能够符合人类的道德价值与伦理原则,认为人工智能设计至少应该包括5个原则:“人类权利”、“福祉”、“问责”、“透明”和“慎用”。所谓人工智能设计中的“人类权利”原则是确保设计的机器不侵犯国际公认的人类权利;“福祉”原则指的是在智能机器由设计与使用中优先考虑人类福祉,至少不能伤害人类;“问责”原则是智能机器的设计者与操作者负责并且可问责;“透明”原则指的是智能机器的设计以透明的方式运行,并且智能机器嵌入的道德规则接受公开透明的评估与监管;“慎用”原则是将滥用的风险降低到最低点。



2.人工智能设计负载设计者价值





在人工智能的整个设计阶段中都包含着价值因素,设计过程是设计主体依靠价值理性与工具理性进行判断与决策的过程。智能人工物是合目的性与合价值性的统一体,人工智能设计是为了达到设计主体的目的而创造出智能人工物的过程。智能人工物是内在价值与工具价值的统一体。人工智能技术人工物可以同时具有工具价值与内在价值。例如,一个机器人作为在木板上钉钉子的有用工具,具有工具价值,同时作为一个有用的事物又具有内在价值。人工智能设计中也包含着价值冲突与不可通约性价值,这表现在设计结果背离设计者初始价值。例如,汽车的设计者与使用者都没有想到交通事故的发生以及环境污染问题,但是汽车设计与使用可能导致交通事故与环境污染。人工智能设计中的价值冲突还表现在功能、用途等价值获取是以对其他一部分功能、用途的放弃为前提。例如,汽车安全带是为了保障车内人的安全,但是放弃了车内人员随意活动的自由。汽车设计轻便达到节能环保的目的,但可能存在安全隐患。智能机器是特殊的人工物,人工智能技术的发展带来新的伦理问题。例如,如果人工智能获得与人类相近或者相同的思维能力和推理能力,如何界定人工智能和人类的道德地位将面临伦理挑战;机器道德与计算机伦理学者共同关注新的重要的话题:数据挖掘软件引发对隐私标准的新界定;军用机器人的应用引发如何权衡机器人及其生存权利的思考;利用大数据杀熟带来的公平问题的思考;机器学习与图像识别技术让无人驾驶汽车轻松上路,却带来机器设计道德上的伦理困境的思考等等。设计中往往存在着价值冲突,甚至不同设计者之间的价值也是相互冲突的,如何实现智能人工物的工具价值与内在价值的统一呢?价值因素又如何内化于智能人工物呢?这需要人工智能设计者进行道德选择。人工智能设计者在设计中如何进行道德选择的呢?唐凯麟认为:“道德选择是指主体面临着多种道德上的可能时,在一定的道德意识的支配下,根据一定的道德价值标准,自觉、自愿、自主、自决地进行善恶取舍的行为活动。”[1]价值是设计的核心,在人工智能设计中应把工具理性与价值理性结合起来。如果想避免设计中的价值冲突,智能人工物不能仅仅满足解决技术难题以及实现功能性目标,还必须使得设计的智能人工物符合人类的价值要求,自人工智能的设计之初就应该将人类相应的价值规范纳入考量。



3.人工智能“合乎伦理设计”重要性分析



人工智能的“合乎伦理设计”引发学界思考。如鲍曼(Zygmunt Bauman)所言:“我们生活在一个碎片化与充满模糊性的时代,我们比过去任何时代更迫切的需要伦理。”[2]人工智能机器与算法具有自我推理与决策能力,人工智能的功能由人工智能的算法决定,智能机器通过算法对环境中的数据进行分析,从而做出相应的决策与表现出同样的行为。在人工智能中嵌入人类的价值观与伦理原则显得尤为重要。首先,只有坚持人工智能的“合乎伦理设计”才能有效规避人工智能风险,人工智能机器的应用应该保障人类生命、财产安全。例如,2016年,谷歌Lexus无人驾驶汽车发生事故;2018年,特斯拉无人驾驶汽车的Autopilot模式引发交通事故;2018年,Uber无人驾驶汽车致人死亡事故等。这些事故都由无人驾驶汽车程序设计问题引发,应该在设计之初嵌入紧急制动算法,规避人工智能风险。2016年,中国国际高新技术成果交易会上,集“自主导航、双目视觉、自然语义理解”等多项功能的陪伴型机器人“小胖”伤害无辜路人,也是因为在机器人中缺少误操作“自我关闭”程序所致,人工智能专家在设计之初就应该把“不伤害原则”嵌入到机器人中,从而保障机器人使用的安全。其次,智能机器是由人类设计出来的,如何让机器按照人类的伦理规则运行是不可回避的问题。从技术层面来讲,在人工智能的设计之初,应该在人工智能设计中嵌入人类道德,特别是嵌入人类“善”的道德规范与道德理念,使人工智能与人类具有共同的行为;应该在智能系统的设计中充分参考并融入人类的伦理价值,像约束人类行为一样约束人工智能机器的行为。设计之初的伦理缺失会影响到人工智能机器的属性与功能,阻碍人工智能的良性发展,因此,人工智能的发展迫切需要在设计之初嵌入伦理规范与道德规则。只有坚守“合乎伦理设计”的底线,才能保障人类的基本权利,才能规范人工智能机器与程序的合乎伦理发展。



二、“合乎伦理设计”是人工智能设计的逻辑起点与本质要求



设计是为了满足设计主体的需要创造出世界上本不存在的人工物的过程。本文从人工智能设计的本质、人工智能设计的逻辑以及人工智能设计负载设计者的价值等方面阐释“合乎伦理设计”。



1.人工智能“合乎伦理设计”符合设计的“结构-功能”关系



不同的学者对于技术设计具有不同的界定。飞机设计师文森蒂(Walter.G.Vincenti)在《工程师知道什么以及他们是如何知道的——基于航空史的分析研究》一书中指出:“人工物的设计是直接服务于人类一系列实践目标的社会活动。”[3]设计活动是具有目的性的活动。人工智能的设计亦是如此,也是为了达到设计者的目的设计出具有类似人类智能功能的某种技术人工物的过程。1995年,罗森博格(Roozenburg N F M)与埃克尔斯(Eekels J)在《产品设计:基本原理与方法》一书中把设计界定为一种功能转化活动,他们认为设计是所需功能转化为实现这些功能的物体的结构描述活动[4]。在人工智能设计中结构与功能缺一不可。例如对于一个智能机器而言,设计它的目的是什么?为了情感需要、减轻劳动负担或者为了避免战场上的人员伤亡?为了达到这些目的而设计出情感机器人、工业机器人以及军用机器人等。这个智能机器由几部分构成、由什么材料制作而成、各部分比例是多少,这是关于人工智能机器的结构性描述;具有看护病人、收拾家务或者情感陪伴等则是功能性描述。设计中结构描述与功能描述必不可少。设计是为了功能达到使用者的目的。“设计中的功能要素,始终是原始设计的主导因素”[5]。在人工智能设计过程中也应该包括结构描述与功能描述。荷兰技术哲学家克罗斯(Peter Kroes)指出:“功能描述自身与结构描述自身都不能完整地描述一个技术人工物的设计;功能设计忽视结构设计的同时,结构设计也缺少了功能设计特性,这就表明在描述人工物时,结构与功能特性都是工程实践中必不可少的。[6]”人工智能设计是根据设计主体需要创造出智能机器的过程,必须关注设计的结构与设计的功能特性。人类技术行为的主要结果是设计和制造了各种人工物的过程,盖罗(John S. Gero)在《人工智能》一书中提出设计的“功能-行为-结构” 模型(Function-Behavior-Structure,简称FBS模型)[7],提出以人工智能设计为中心的功能观,把设计与功能紧密地结合在一起。在FBS模型中,盖罗把设计者的意图作为设计过程的起点,他认为设计是从意向行为(即功能)到正在形成的人工物结构的一种映射(mapping)。人工智能不同流派基于不同的研究思路,联结主义采用结构模拟的方式,符号主义采取功能模拟的方式,行为主义采取行为模拟的方式,但不管哪种技术路线与研究思路都是通过构造智能人工物的结构来达到某种智能功能的过程,结构与功能关系是人工智能设计的本质所在。

2.“合乎伦理设计”是人工智能设计的逻辑起点





设计在智能机器中占有首要地位,人工智能包括语音识别、深度学习、智能机器、无人驾驶等人工物都是先有设计目标与设计理念,才可能设计出人工智能物。人工智能的设计伦理在智能机器伦理中居于首要地位,设计是人工智能的逻辑起点。机器伦理学家阿萨罗(Peter M Asaro)在智能机器伦理中提到3点:“首先,如何设计机器人的行为伦理;其次,人类如何在人工智能伦理中承担责任;再次,从理论上讲,机器人能成为完全的道德主体吗?[8]”机器伦理首先应该关注的是设计智能机器的行为伦理,人工智能设计除了关注人工智能物的结构性描述与功能性描述之外,还要关注设计者行为,“所谓一个主体是物品X的使用计划p的设计者d,当且仅当:d已经设计了p,目的是使其他主体实施行动p以达到目的,d有意向地选择x作为要操作的物品,成为实施p的一部分[9]”。首先,人工智能的功能与设计者的目的有关,智能机器设计的目的是为了达到某一个体现设计者目的的具体功能。例如机器翻译是从一种源语言翻译成目标语言的过程,目的是提供便捷的翻译服务;数据挖掘是为了更好地对数据进行分类、聚类、关联以及预测;深度学习基于人工网络模型,目的是为了发现数据的分布式特征等等。这都说明人工智能设计包含了设计者的目的。其次,设计智能人工物体现了设计者的意愿。人工智能的设计是为了达到设计者的目的,从而设计出智能人工物的过程。人工智能设计在构造人工智能的物理结构中处于起点,在人工智能设计行为序列中居于优先地位。因此,人工智能设计者的设计理念与设计行为在人工智能的技术设计中居逻辑起点地位。人工智能的设计必须以“合乎伦理设计”为根本出发点。



3.“合乎伦理设计”是人工智能设计的本质要求



设计是为了达到设计者的目的,设计活动是理念在先的活动,设计理念决定了设计的产品特性与功能。因此,人工智能设计要求在设计之初考虑其中的伦理问题。伦理是人工智能发展的前置性规范。人工智能设计最终是为了人类的福祉,设计的目的是为了人,因此,人工智能设计基础也应该以人为本,在人工智能设计中优先考虑伦理问题,人工智能设计要符合人类的价值观和伦理原则。人工智能设计首先要尊重人的基本权利,以不侵犯人的基本权利为人工智能设计的根本出发点。人工智能要坚持安全性的设计原则,设计的智能机器不能威胁到人类的主体性地位。除此之外,智能机器的应用也不应该扩大人与人之间的差距,因此,在人工智能设计中应该坚持公平性原则。只有在人工智能中坚持“合乎伦理设计”规范,才能更好地发挥人工智能的积极作用。通过上述论述,我们可以看出,“合乎伦理设计”既是人工智能发展的保障,也是人工智能发展的要求;“合乎伦理设计”既是人工智能的最终目的,也是人工智能的出发点;“合乎伦理设计”既是人工智能的“定盘星”,也是人工智能的“北斗星”;“合乎伦理设计”既是人工智能的“基线” “底线”,也是人工智能发展的“防线” “高压线”;“合乎伦理设计”既是人工智能的“先手棋”,也是人工智能发展的“助推器”。为了人工智能的规范发展,在设计之初,必须坚持“合乎伦理设计”这个本质规定与最终追求。



三、人工智能“合乎伦理设计”的实现路径分析



人工智能设计需要规范设计主体,需要关注设计过程,评估设计的结果。只有在人工智能设计中提倡设计主体的责任、遵循人工智能合乎伦理设计的路径,才能保障人工智能设计的智能机器的安全,实现人工智能“合乎伦理设计”的目标。



1.人工智能设计关注设计主体的责任意识



随着智能机器在深度学习能力、语音识别能力、大数据以及云计算处理速度等能力的不断加强和运用,智能机器人在社会交往、自然语言理解能力、商业价值等方面不断突破,人工智能推动社会进步的同时也带来负面效应。为了规避人工智能的负面效应,应该关注与提倡设计主体的责任。汉斯·乔纳斯(Hans Jonas)在《责任原理》中明确提出,科技进步远远高于伦理进步,必须建立一种新的伦理维度,即发展一种预防性、前瞻性的责任意识,通过提高设计主体的责任来约束与规范人工智能技术发展。翟振明提出:“在人工智能的忧虑中,最为值得关切的是人工智能的应用伦理及其价值植入的技术限度。”[10]机器设计技术以智能机器为中心,注重人工智能的功能设计,以人工智能产品为中心,属于价值创新过程。设计又处于关键的首要环节。同时,设计也是改变世界的有利工具,不但可以改变环境,而且可以重塑社会与自我。在人工智能的设计阶段就应该嵌入“善”的道德,保障人工智能算法程序的公平正义。设计伦理学注重设计中的道德问题,以人为中心,注重设计的责任问题。技术哲学价值论研究必须关注设计者信念、行为以及设计者在技术实践中的作用与责任等主题。设计者应该关注两个方面的道德:第一,一般的社会伦理道德;第二,人工智能设计师的职业道德。人工智能设计伦理研究人工智能的设计和制造应遵循的伦理准则。首先,人工智能的设计与社会价值观保持一致;其次,人工智能社会伦理主要研究如何善用和阻止恶用人工智能,使人工智能造福于人类。这就要求提高设计者的责任意识,设计者明确道德选择标准。



2.人工智能设计以保障安全性为伦理准则



人工智能技术具有不确定性和潜在风险性因素。“科学家们应该认识到机器人或是其他高科技人造物,能够对社会的发展造成影响,这个影响可能与技术设计的初衷相违背。”[11]人工智能设计的理论基础也可能是错误的,“有些情况下,科学可能是有用的,但是很难预见潜在的错误后果,灰色区域必须经过逐一讨论,灰色区域的存在并不能否定基本论点:当非认识后果的错误不能预见时,非认识价值是科学推理的必要组成部分。[12]”因此,人工智能设计必须在经过验证的科学理论基础上保障设计安全。雅博尔斯基(RomanV. Yampolskiy)在论文《人工智能安全工程:为什么机器伦理是错误的》中呼吁,关注机器人的自我系统的安全性,加强对于智能机器的安全性研究,提高智能机器的安全性与可靠性,削弱人工智能的风险和负面影响。克罗斯曾经给出安全性的可操作性标准:“‘X用于做Y是安全的’,这可能意味着一种事实陈述,X满足做Y时所需要的可衡量的标准。然而,即使在这种情况下,似乎这些陈述中包含评价性因素,即建议当某人想做Y时应该使用X。此外,可操作性的接受意味着效果(effect)的价值判断,即操作安全概念是道德可接受的。”[13]安全性的一个可操作标准必须基于道德的可接受基础之上。



人工智能的设计者应对人工智能设计进行技术预见,对可能出现的伦理问题做出足够的论证。这是设计者们在人工智能设计中需要提前考虑的问题。智能机器设计者要有产品责任意识,遵守国家安全标准以及行业标准,以确保智能机器的使用安全,确保智能机器始终能够为全人类的利益与福祉高效率地服务。人工智能安全性的设计标准也会随着价值的改变而改变。荷兰代尔夫特理工大学的波尔(Ibo van de Poel)提出,设计要根据新价值的出现以及改变从而改变设计规范与要求:“①新价值观的出现;②改变与某项技术设计有关的价值;③改变价值的优先权或相对重要性;④改变如何概念化的价值观;⑤更改的指定方式,并转换为规范和设计需求。[14]”这要求人工智能安全设计的道德可接受标准也要随着价值的转变而相应地发生改变。例如,汽车的设计主要考虑车内人的安全,无人驾驶汽车的设计除了考虑车内人的安全之外,还要考虑路上行人的安全。人工智能设计的安全性考虑到当时的道德可接受标准。只有保障人工智能的安全,人工智能才是人类可信赖的。2018年12月30日,欧盟通过《欧盟可信赖人工智能的伦理准则》,把“尊重隐私” “稳健性” “安全” “透明”等设计原则作为可信赖的人工智能的伦理准则,认为人工智能系统应该保障设计与使用的安全。2019年4月,中国国家人工智能标准化总体组通过《人工智能开源与标准化研究报告》和《人工智能伦理风险分析报告》两个政策性文件,对人工智能算法风险、数据风险以及人工智能引发的社会伦理风险进行分析,提倡为了保障人工智能的安全应该对人工智能伦理风险进行定期评估,提出人工智能开源与标准化联动的思考。



3.人工智能的“合乎伦理设计”的伦理进路



人工智能设计具有两种不同的伦理规范进路:一种是职业伦理进路,这是一种“外在主义进路”,技术发展引发新的伦理问题,宗旨在于对人工智能技术进行归纳批判;另一种由荷兰技术哲学家波尔等人提出的“内在主义进路”,即人工智能设计致力于关于技术发展的一种更加内在主义、经验性的观察,考虑设计过程本身的动态性并探讨该语境下产生的伦理问题[15]。人工智能技术发展会带来新的伦理问题,同时,人工智能技术也可以作为解决伦理问题的手段。



“合乎伦理设计”是将特定群体认可的价值观与道德标准程序化为道德代码,嵌入人工智能系统,同时内置道德决策场景的指导性抉择标准。1992年,美国华盛顿大学的弗里德曼(Batya Friedman)与卡恩(Peter Kahn)提出“价值敏感性设计(Value sensitive design)”。价值敏感性设计的目标是在设计中系统地融入道德价值,强调在信息系统设计和人机交互领域的设计之中嵌入道德价值,以发挥人工物对人的行为的道德引导作用。人工智能技术本身不是闭环系统,对于人工智能的价值反省与伦理追问也处于发展阶段。因此,人工智能算法的设计者在算法设计之初保持对价值的敏感性,在设计之初预测人工智能算法可能带来的伦理风险与社会问题,保障人工智能算法的安全。人工智能“合乎伦理设计”就是在人工智能设计中嵌入道德,让人工智能算法以及社会应用符合人类的道德规范。人工智能发展是为了满足人类的福祉,而不能让人工智能的研发与应用处于失控状态,因此,在人工智能的设计与应用过程中,伦理学家不能成为技术道德维度的旁观者,“伦理学家在评估和发展技术与新兴技术方面发挥建设性作用”。[16]



人工智能的“合乎伦理设计”应该遵循以下路径:“首先,识别特定社会或团体的规范和价值;其次,将这些规范和价值编写进人工智能系统;再次,评估被写进人工智能系统的规范和价值的有效性,即评估嵌入人工智能系统的规范与价值是否和现实的规范和价值相一致、相兼容。[17]”在设计中明确设计的规范与要求,在智能系统中嵌入“善”的道德理念,将特定群体认可的价值观与道德标准程序化为道德代码,嵌入人工智能系统。同时,对智能系统进行道德训练,在人工智能的设计中必须先识别抽象的伦理原则,并在人工智能设计中实现具体的伦理价值。通过完善设计的标准,避免人工智能技术异化,体现用物者尊严,通过人工智能的设计,应该保护人类在社会与工作中的尊严、完整性、自由、隐私与安全。在人工智能的设计中保障人的尊严、自由、隐私,保障智能物的安全,保障福祉、问责、透明,把伦理价值规范与法律规范等变为可以执行的设计标准来规范与约束智能机器的发展,通过伦理调节机器人的行为,使其成为合乎人类伦理的产物。任何设计都负载着设计者的价值,都体现设计者的价值取向,人工智能的设计路径中应该把“善”的设计理念嵌入到智能机器中,把“恶”的理念在设计之初剔除。同时,坚持“合乎伦理设计”也并非基于“性恶论”的道德假设从而对设计进行“道德约束”,而是为了更加规范人工智能设计的道德发展。人工智能设计不能仅仅满足设计者的目的,也需要对人工智能设计进行反思与价值重建,应该从单纯追求功能实现的目的到合乎伦理设计的规范。最后,人工智能的“合乎伦理设计”必须把“善”的理念变为具体可操作的设计规范,这些设计规范应该详细且易于设计者掌握,以便于“合乎伦理设计”的人工智能规范的实施。



综上所述,人工智能的“合乎伦理设计”必须立足于对设计本质的追溯与把握,在此基础上,把具体的伦理准则转化为具体的设计标准,这样才能真正实现人工智能的“合乎伦理设计”。对人工智能设计规范的约束不能仅仅局限于法律、法规等他律性约束,还要注重设计者的伦理与道德以及行业的规范,也要关注人工智能物的道德调节作用。通过法律法规的“他律”与伦理道德的“自律”甚至智能机器的“物律”相结合,规范人工智能的发展。



参考文献:

[1] 唐凯麟. 伦理学[M]. 北京:高等教育出版社,2000:57.

[2] 鲍曼. 后现代伦理学[M]. 张成岗,译. 南京:江苏人民出版社,2003:20.

[3] VINCENTIW G. What Engineers Know andHow They Know It[M]. Baltimore:John Hopkins Press,1990:3.

[4] ROOZENBURG N F M,EEKELS J. ProductDesign,Fundamentals and Methods[M]. Chichester:John Wiley & Sons Ltd,1995:5.

[5] 朱铭,荆雷. 设计史[M]. 济南:山东美术出版社:2004:82.

[6] KEOES P. Coherence of structural andfunctional descriptions of technical artefacts[J]. Studies in History &Philosophy of Science Part A,2006,37(1):137-151.

[7] GERO J S. Design prototypes:a knowledgerepresentation schema for design[J]. AI Magazine,1990,11(4):26-36.

[8] ASARO P M. Whatshould we want from arobot ethics? [J]. International Review of InformationEthics,2006,6(12):9-16.

[9] HOUKES W,VERMAAS P. Actions versusfunctions:a plea for an alternative metaphysics of artifacts[J].Monist,2004,87(1):52-71.

[10] 翟振明,彭晓芸. “强人工智能”将如何改变世界——人工智能的技术飞跃与应用伦理前瞻[J]. 人民论坛·学术前沿,2016(7):22-33.

[11] TZAFESTAS S G. Roboethics A NavigatingOverview[M]. Dordrecht:Springer International Publishing Switzerland,2016:66.

[12] DOUGLAS H. Inductive risk and valuesin science[J]. Philosophy of Science,2000,67(4):559-579.

[13] KROEA P,MEIJERS A W M. Toward anAxiological Turn in the Philosophy of Technology[M] ∥FRANSSEN M,VERMAAS PE,KROES P,et al. Philosophy of Technology after the Empirical Turn.Dordrecht:Springer International Publishing,2016:11-30.

[14] POEL I V D. Design for valuechange[J]. Ethics and Information Technology,2018(6):1-8.

[15] POEL I V D,VERBEEK P P. Ethics andengineering design[J]. Science Technology & HumanValues,2006,31(3):223-236.

[16] BREY P. Philosophy of technology afterthe empirical turn[J]. Techné Research in Philosophy andTechnology,2010,14(1):36-48.

[17] SHAHRIARI K,SHAHRIARI M. IEEE StandardReview-Ethically Aligned Design:A vision for Prioritizing Human Wellbeing withArtificial Intelligence and Autonomous Systems[C]∥ IEEE. HumanitarianTechnology Conference,Toronto,Canada,2017:197-201.



Exploration on Ethically Aligned DesignofArtificial Intelligence

YAN Kunru

( School of Marxism, South China Universityof Technology, Guangzhou 510640, China )

Abstract:Artificialintelligence design is to create intelligent machines to satisfy the purpose ofthe design subject. Artificial intelligence design reflects the willingness ofthe designer. Design pays attention to the purpose, behavior of design and thefunction of artificial objects. Different from other technological artifacts,intelligent machines have intelligent attributes and their own reasoningability. In order to better design AI objects and give full play to AIfunctions, ethicists and technological philosophers can not donothing.Artificial intelligence should follow the“Ethically Aligned Design”,and the design subject of artificial intelligence must embed human morality andnorms into the intelligent machine algorithm at the beginning of the design, soas to make the decision-making and behavior of the artificial intelligencesystem have accountability and safety.This paper argues that the development ofartificial intelligence be regulated through the “heteronomy” of laws andregulations, “self-discipline” of ethics and morality, and even “material law”of intelligent design machine.

Key words:artificialintelligence;design;ethicallyaligned design;value sensitive design

DOI:10.19525/j.issn1008-407x.2019.06.015

收稿日期: 2019-01-04; 修回日期:2019-03-05

基金项目: 国家社会科学基金重大项目:“大数据环境下信息价值开发的伦理约束机制研究”(17ZDA023)

作者简介: 闫坤如(1977-),女,河北保定人,教授,博士生导师,主要从事科技伦理学研究,E-mail:[email protected]

中图分类号: N031

文献标识码:A

文章编号: 1008-407X(2019)06-0123-06



来源:微信公众号:必达智库(大连理工大学学报(社会科学版)2019年第6期)

链接:https://mp.weixin.qq.com/s/EotgMai2xhH88VxddZvJbg



编辑:冯梦玉

378#
 楼主| 发表于 2020-1-14 23:33:42 | 只看该作者
【案例】
王国豫:推进新时代科技伦理学新发展
本文原载于:中国社会科学网-中国社会科学报(中国社会科学报2019年终特刊:科学与人文)
作者简介
研究方向:技术哲学、技术伦理学、生命医学伦理学作者单位:复旦大学哲学学院、复旦大学生命医学伦理研究中心
正文
2019年是科学技术伦理研究生机勃发的一年。无论是在国内还是国外,围绕基因编辑的伦理讨论方兴未艾,大数据与人工智能的伦理原则竞相推出,而气候正义、能源正义等新的研究方向也在悄然兴起。科技伦理不仅在科学技术哲学和伦理学大大小小的年会和研讨会上成为热门议题,在生命科学、计算机、人工智能等科学技术专业的研讨会和年会上,也常常出现研究科技伦理问题的声音。科技伦理相关国家级重大项目立项数目和科研经费数额显著增长,数据共享与隐私保护、算法偏见与基因歧视等已不仅是哲学家与伦理学家津津乐道的专业术语,而且逐渐成为各类媒体与公众所关注的公共话题。科技伦理学,这一原本几乎被遗忘的边缘研究领域,迎来了飞速发展。
回溯学科源起
  
作为一个新兴的交叉学科,科技伦理学诞生于20世纪70年代。二战以后,核技术、生物工程和基因技术、信息技术等现代科学技术的迅猛发展,在激起人们强烈兴趣和兴奋之余,也引发了担忧和恐惧。而克隆人、基因改良、互联网等新科技引发的以前从未出现过的新问题,更是直接冲击着现有的伦理规范。德裔美籍哲学家尤纳斯(H. Jonas)指出,建立在个体伦理基础上的传统伦理学已经不能涵盖和应对现代科学技术活动中出现的伦理问题,人类面对的是一个伦理学的真空。由此,尤纳斯呼唤构建一种通过调节人的行为,确保人类长久续存的伦理学,这样的伦理学应该是以责任为中心的责任伦理学。随之而来的围绕责任原则和技术是否应该成为伦理学研究对象的大讨论,带动了技术哲学的伦理转向和伦理学的技术转向,也标志着作为应用伦理学的科技伦理学的诞生。
  科技伦理学的研究从一开始就沿着两条路径展开:一是追随批判哲学传统,从理论层面对现代科技采取一种批判和质疑的态度,追问什么是好的技术,什么样的技术活动在伦理上是可以得到辩护的,探索科学技术活动的伦理原则——比如尤纳斯的责任原则:你的行为影响必须和地球上的真正的人的生命的持续存在相符合。另一条路径是从传统的伦理原则出发,对具体技术,比如核技术中的安全与风险、基因工程对人性的干预与其中的物种伦理问题、计算机和互联网中的隐私与数字鸿沟问题等进行规范性审视,指出对人的尊严和社会公正等原则的挑战——其基本立场也多半是警示性或预言性、批判性的,或者如尤纳斯所称的恐惧的启迪。也就是说,早期的科技伦理学研究,主要以批判性反思为主,而关注这一领域的学者多来自于技术哲学和伦理学领域。
聚焦当代转向
  回顾近年来,特别是2019年以来围绕科技伦理学的讨论,我们发现,科技伦理学的研究,无论是研究队伍还是研究路径都产生了较大变化。最主要的特征是多元性和跨学科性:在原本边缘化的科技伦理学的研究队伍中,不仅法学、社会学等领域的学者同哲学伦理学研究者一起组成了伦理、法律与社会问题Ethical, Legal and Social Issues,简称ELSI)研究群体,而且许多专注形而上的学者(通常我们认为科技伦理学属于应用哲学和应用伦理学的范畴)也发出了对基因增强和算法歧视等问题的伦理追问。特别值得关注的是,诸多计算机和人工智能专家、生命科学家及社会公众一起加入了对新兴技术的反思队伍中。
  研究队伍的多元性和跨学科性,也带来了研究路径的多元性和跨学科性。人们不再满足于从传统的伦理规范视域对新技术进行审视,而开始寻找和探索适用于新兴技术的伦理原则和规范路径。特别是在公众较为关心的人工智能伦理研究领域,不同层面的伦理规范和原则林林总总、竞相出台,尽管人们对人工智能是什么还没有达成共识,但是对人工智能不应该是什么已有了许多相同或相似的结论。  这昭示了科技伦理学研究的一个重大转折:科技伦理学将不再满足于对现行科学技术进行评价或批评,而是试图在科学技术进步中发挥塑型作用,即科技伦理研究力图更多地介入对科技的社会塑型与建构。科技伦理学开始从对科学技术负面后果的可能性推测,走向对科学技术可行性与可接受性条件的探索。
指向未来发展
  从诞生之日起,科技伦理学就被看作是面向未来的学科,特别是在生物技术、人工智能、纳米技术等许多技术还处于萌芽期的前沿领域,由于技术后果的不确定性,及对社会影响的复杂性、长期性、累积性,许多关于伦理问题的预判,都带有某种推测性(speculative)。诺德曼(A. Nordmann)将科技伦理的这一研究模式称为“If and then”模式。比如,人工智能究竟是天使还是魔鬼的追问,就带有某种假想和推测的性质。如果科技伦理学仅停留于对后果的推测和批判,那么难免造成这样一种印象,即科技伦理学研究的目的在于阻碍科学技术的发展。尤其是当人们发现有些预判有失偏颇的时候,就更加会对科技伦理学的研究方法产生质疑。但这并不是说,评估和预测技术未来的负面后果没有合理性。恰恰相反,早期对科技后果的伦理评估,正是为了避免遭遇技术的科林格里奇困境”——一旦技术发展成熟后,人们很难再对其后果进行控制。由此看来,重要的是如何避免和控制技术带来的负面后果,而不是限制甚至阻碍科技本身的发展。也就是说,问题不在于还是不做,而是怎么做、在什么样的条件下做。因为几乎每一项技术的诞生都源于社会对它的期待。因此,要真正解决技术的负面后果以及相关的伦理问题,重要的是在早期如何和科技专家一起,探索科技文明时代技术活动和技术后果的可接受边界及其规范性条件。
  很显然,参与科学技术进步的社会塑型将是未来科技伦理学发展的重要方向。科学技术的演化和发展并不等同于科学技术的进步。作为规范概念的进步意味着好的、可接受的、可以得到辩护的发展。但科学技术的演化和发展并不是线性的,也绝不是决定论的。社会对科学技术进步的塑型是科学技术与社会之间积极互动的体现。近年来,欧盟提出的负责任创新概念,目的就是希望通过对责任意识和责任行为的打造,引领作为道德进步的科学技术的进步。科技伦理学参与科学技术进步的社会塑型,其影响路径有以下几条。
  首先,在技术设计的过程中,通过分析作为中介性技术的可能性空间,尤其是发现潜在的可能性,将可接受的道德价值转化为可接受的技术功能,尽可能压缩潜在、不可靠、不可控的可能性空间,使技术的初心与技术的后果尽可能一致。荷兰学者维贝克(P. F. Verbeek)、范登霍恩(V. D. Hoven) 等人提出的道德物化和价值设计路径可以看作是这个方向的有益尝试。在价值设计中,伦理学家已不仅是科学技术的旁观者,而是科学家和工程师的合作者与科学技术共同体中的一员。伦理学的作用也不再仅是道德论证和概念反思。价值设计的要旨在于将道德原则和价值规范整合到技术过程和技术产品中。
  其次,如果我们把前一路径看作是将道德外化于物的话,那么,第二条也是最重要的路径,就是将道德和责任的概念内化于心,进而外化于科学家和工程师之行——人工物的创造在很大程度上有赖于他们的智慧和劳动。诚然,如阿伦特(H. Arendt)所言,早期人造物的世界赋予人类一种坚实的稳固性和安全感,使人这个变化无常、难逃一死的生物在地球上有了一块栖息之地,使人拥有了一个稳定的家园。但今天,科技的力量有时给人以安全感,有时也带给人恐惧。正如爱因斯坦所言,科学家和工程师担负着特别沉重的道义责任。科学家和工程师应该认识到,他们不仅承担了创造技术人工物的责任,而且指导着技术人工物的潜在威力释放方向和道德指向。科技伦理教育势在必行,将科技伦理知识整合到科学家和工程师的知识体系和思维方法之中,或许是道德嵌入的最高境界。
  再次,通过制度和政策的规约,以此保证具体技术应用的可行性和公众的可接受性。适宜的、可以修正的、动态的科技政策是推动技术负责任创新的重要手段。因此,未来的科技伦理学研究在方法学上将会突破现行的概念框架,聚焦真实世界的伦理问题,在不放弃道德原则分析的同时,借助于跨学科和多学科的社会科学的经验描述方法,深入了解公众对技术的价值期待。在此基础上,确定什么是可接受的技术”“技术可行性的边界在哪里等,为科技政策的制定提供伦理基础和道德辩护。科技伦理学的规范研究,离不开社会科学的支持。
  最后,尽管我们共有的、基于人的道德原则可以提供道德整合的抽象性基础,但要构建基于可行性和可接受性的价值规范,还有必要立足于相应的科学技术文化,了解利益相关者的意愿和需求。科技的未来也是人类的未来,在全社会共享科学技术带来的便捷舒适的生活的同时,共同建造一个安全美好的家园,也是全社会共同的责任。因此,营造一个平和而又明智的话语空间和话语环境,是科学技术伦理建构的文化基础。
  新的一年,科技伦理学将不会止步于对科技进步中伦理与社会问题的规范性反思,而是会努力参与到科学技术进步的塑型中去。在某种意义上,科技伦理学将从坐而论道走向知行合一。科技与伦理的并行可期可待。
原文链接:https://mp.weixin.qq.com/s/NJJ2jpN2lw4bMOLGL3ygow
文章来源:微信公众号BiomedicalEthicsFDU
原创:王国豫
编辑:高杰

379#
 楼主| 发表于 2020-1-16 22:25:10 | 只看该作者
【案例】
细思极恐却无法抗拒——当科学成为新“上帝”
策划:先知书店文:愈嘉屏营   编:先知书店店长柏果
斯塔尔夫人是法国大革命时期的自由主义思想者,她的言论曾让拿破仑恐惧:“没有哪个女人比她更邪恶”。然而,比这更著名的,是她那句“自由是古老的,专制才是现代的”名言。不过,直至今天,恐怕也没有人意识到,这句在当时惊世骇俗的话,却成了随后200年的历史预言。 从1789年法国大革命爆发,到1989年柏林墙倒塌整整两百年间,资本主义的发展和科学技术的进步,将人类推上了前所未有的文明巅峰,但随之而来的,是强人对权力集中的渴望,穷人对财富不均的怨恨。结果,乌托邦主义、纳粹主义等自由的敌人粉墨登场,经济崩溃、政治动荡、人伦毁灭、文明倒退交错出现,这些历史,至今仍让人心有余悸。 200年来,有多少罪恶假自由之名大行其道?所幸,灾难换来的,是自由、平等、和平等美好的价值,逐渐成为深入人心的普遍价值。今天,文明与野蛮的冲突仍在继续,但再也没有人会公开反对这些普遍价值。 然而,当普遍价值成为一种信仰时,他们的敌人,已不只是“强制”等显而易见的敌人,更包括“技术”“算法”等非常隐蔽的敌人。长远来看,后者比前者更可怕——不仅因为后者很容易成为前者的利器,更因为当科学成为新的上帝,直接动摇着人类普遍价值的根基。

科学对人脑的革命:抑郁,不是因为痛苦,而是芯片没电了
自由等普遍价值,之所以能够从历史的残酷竞争中胜出,是因为它的两大基本前提最符合人类的天性: 人类拥有自由意志,文明社会必须尊重每个人独一无二的体验,无论市场中,还是政治生活中,每个人都有自由选择的权利。 没有人比他本人更了解自己,只有自己才知道自己想要什么,没有人能替自己做决定。 然而,技术和算法的崛起,正在动摇着这两大基本前提。 在“第一推动丛书”之《皇帝新脑》中,自西班牙科学家卡哈尔发现人脑运行的本质,不过是神经元之间的互相作用以来,科学对人脑的了解越多,就越发认定,人几乎99%的行为模式,与计算机无异,无论是记忆还是外部的刺激,无非就是神经元的电信号和化学反应。

“真实头脑”与“模型头脑”越来越相近
例如,当一个人面对一只老虎时,视觉将影像传递给大脑,而大脑根据基因设定的“生物算法”做出“非常危险!”的判断,再将此信号传递给腿,腿收到信号后立刻开始狂奔。
这一过程接近于计算机程序的运行模式——人类给计算机下达指令,计算机再根据算法,给出人类想要的结果。 整个过程中,人类的思想、观念几乎没有参与的余地——没有人会停下来思考一下,老虎会不会吃我,我需不需要和它谈谈心。 科学家由此得出结论,人脑和计算机在本质上没有区别——人的行为,无非就是各种算法的集合,外界给予什么样的刺激,人就会做出什么样的反应。他们甚至认为,所谓意识、观念、思想不过是一个额外的副产品。 那么,我们日常的很多行为和各种欲望,到底是我们想做的,还是“生物算法”根据外界刺激给我们下达的指令?我们究竟能否选择自己的欲望?我们究竟是否拥有“自由意志”? 科学实验给出的答案是否定的。尤瓦尔·赫拉利在《未来简史》等书中,介绍了著名的“机器人老鼠”实验,并分析了科技进步对文明的挑战。 该实验是由美国纽约州立大学的吉夫·塔瓦尔教授主持完成的。实验开始,只要在老鼠大脑中插入三个电极,就可以遥控指挥——让它直行、爬梯子、绕着垃圾堆转圈,怎么都行。科学家控制的其实是老鼠的“自由意志”!遥控器指向哪里,老鼠并不是被迫走向那里,而是老鼠“想要”走向那里。我们看到的是老鼠被遥控了,而老鼠自己的感觉是,自己想去哪就去哪,它很“自由”。 由于伦理限制,这样的实验当然不能在人的身上进行,但是以色列科学家仍然打了一个擦边球。为了治疗抑郁症,他们在患者脑中植入一个芯片,结果患者果然恢复了快乐。 有一次患者问,为什么这几天我反而更抑郁了?科学家打开他的大脑一看,原来是芯片没电了。 在大脑中植入芯片,就能控制人的体验。因此,在科学家看来,机器人老鼠”实验的结论同样适用人脑。——科学技术可以控制人、甚至直接消解人的自由意志。“人类拥有自由意志”——普遍价值的第一个前提,就这样被新的技术撼动了。

“机器人老鼠”实验
更可怕的是,技术对“自由意志”的操控,已经走出实验室,正在被迅速商品化—— 美军研发了一种头盔,它可以通过电极对大脑的某些部位施加影响,戴上它,士兵不再感到恐惧与紧张,还能让士兵注意力更加集中、反应更快、作战更有效率。这项技术还被越来越多的人用于工作、游戏中。 据美国媒体调查显示,早在2015年,全美大学生中有1/3的人使用“聪明药”——这种药能让人在一段时间内集中注意力。根据科学研究,人脑每时每刻都会有各种欲望和想法。吃下“聪明药”,可以清空人脑中的“杂念”,帮助人们专注于一件事,从而达到“忘我”的状态。 据说,类似的“聪明药”,乔布斯吃过,美国许多顶尖工程师、数学家都吃过了。CNN的一位专家表示,他所认识的几乎所有亿万富翁都靠吃“聪明药”来提升思维能力。 目前,对这类现象讨论的焦点是,服用“聪明药”算不算公平竞争?但实际上,这一现象的意义远远超出我们的想象。 在过去,毒品上瘾以最为直接的方式刺激多巴胺的分泌,使人享受到前所未有的快感。其实,毒瘾不仅腐蚀人的身体,而且还剥夺了人的自由意志——瘾君子无法选择不吸毒。因此,贩卖毒品被视为违背人类伦理的罪行。 但现在,如果任由“聪明药”,或者“脑中的芯片”发展下去,人类也将像对毒品的依赖一样,依赖这些控制感官和自由意志的技术,总有一天,“快乐”“希望”“自信”“爱情”等各种体验,也将明码标价,堂而皇之地被放在货架上贩卖。那时,人类社会将进入“礼崩乐坏”的黑暗时代。

人的“自由意志”成了科技的收割场
经常听人开玩笑说,有钱人的快乐我们不懂,但未来,很可能是:有钱人的快乐跟穷人的快乐都一样,只不过穷人没钱买而已。 过去,专制对人们自由的剥夺是显而易见的;未来,技术对人们自由的剥夺却悄无声息。 算法与大数据:从“算命先生”到“人类的新上帝”
日常生活中,我们都会冲动消费,经常买回一堆用不着的东西;在公共生活中,可能会选出一个坏总统,等等。然而,这些还不是最坏的结果。最坏的结果,是我们的选择权被剥夺,由别人代替选择。从父母包办婚姻、包办工作,到由少部分人代替我们选择获取什么样的信息,学习什么样的知识,施行什么样的政策,等等。 这是基于人类普遍价值的第二个基本前提:没有人比自己更了解自己,只有自己才知道自己想要什么。所以,自由选择,而非强制,是一项不证自明的基本权利。但是,如果技术和算法比自己更了解自己呢? 美国曾发生过这样一件事:一名男子愤怒地投诉塔吉特超市,说“你们居然向我上高中的女儿推销孕妇试用品!你们想鼓励她怀孕吗?”可一周后,这位父亲却道歉了,因为他女儿真的怀孕了。原来这家超市通过大数据分析,认为该女孩有怀孕的可能,于是向她推送了相关商品。 在这个真实的故事中,冷冰冰的大数据,竟然比朝夕相处的父亲更了解自己的女儿。 大数据已经改变了世界,但技术更新迭代的步伐,根本就停不下来。据报道,谷歌等科技巨头正在开发一个强大的超级系统——可以实时监控人体的各种指标,结合每个人的基因,随时随地给人们提供各种健康建议。什么时候起床,什么时候吃饭,什么时候健身,什么时候工作,什么时候睡觉。 谷歌还开发了一个类似于“虚拟人生”的助手系统——它将在面临人生抉择时,给出重要的参考意见。无论是上大学读什么专业,选什么工作,去哪里生活,还是和谁结婚,要不要孩子等问题,它都能根据大数据,给出具体的建议。 当遇事不决时,谷歌助手会告诉我们说:“我从你出生那天就认识你了,你DNA的完整资料,读过的书,说过的话,你最喜欢的电影,甚至是你约会时候的心跳......我比你更了解你自己,明年,你应该和XX结婚,他/她更适合你。”
如此科学、精准,而又贴心的服务,谁能拒绝呢? 当然,人是可以逆向操作,通过改变大数据来驯服人工智能的。但是,这需要耗费大量的时间和心智,而且必须常态化。否则,刚刚被驯服的新数据,很快就会变成人工智能的老数据。到最后,我们不得不承认,最划算的做法,就是在大数据面前俯首称臣。

今天,越来越多的人习惯于记录、上传、分享自己的数据,人们在不知不觉中成为数据流的一部分,所谓“个人”,正在成为大数据时代一个不足道哉的“电极管”。最终,科学算法与人类的关系,大概会分三步走: ·算法相当于我们身边的“算命先生”,有问题问他一下,但人依然拥有决策权。 ·算法是我们的代理人,我们告诉它该做什么,让它去执行。 ·算法最后成为了我们的君主,我们主动交出决定权,什么都只能听它的了。 在不远的未来,科学将无所不能,它俨然成为了人类的“新上帝”。 相比之下,当下被广泛讨论的“人脸识别技术侵犯个人隐私”“手机APP上传个人数据”等热门话题,可能都微不足道。 人类社会历经数千年形成的关于自由等价值的基本逻辑和伦理,竟然被技术和算法在短短几十年就动摇了,人们从不情不愿,到主动自愿地成为数据和算法的奴仆。我们购物、健身听助手的,去哪里生活、和谁结婚也要听助手的,甚至连投票等公共生活也要听助手的,曾经不证自明的“自由选择”,还剩下什么呢? 当算法工程师成为最能影响我们决策的人,当科学家、技术专家可以不断给人脑打“补丁”时,当科技巨头和政治强人掌握核心算法时,一切的强制,看起来都是那么的“自由”。当他们联盟,又会怎样呢?细思极恐!
奥威尔在1984》中所写的“战争即和平,自由即奴役,无知即力量”,以前看是政治寓言,现在看原来是预言。

科学与理性:人类文明之光,但常被滥用为历史之殇
“自然与自然的法则在黑夜中隐藏。上帝说,让牛顿出世!于是,世界一片光明。”这是英国诗人亚历山大·蒲柏为牛顿所题写的墓志铭。 18世纪,牛顿力学的诞生掀起了科学革命;工业革命将大英帝国推向了前所未有的文明巅峰;20世纪,爱因斯坦相对论的问世,再次引发了一场科学崇拜的狂潮。新技术的大规模应用,不仅让经济出现了井喷式的增长,也彻底改变了人类的生活方式...... 科学的兴起,是人类理性的产物,但科学思维很快就被滥用到社会领域。比如,社会达尔文主义者试图用“科学方法”控制人类进化路径,结果造成二战期间的纳粹种族大屠杀;乌托邦主义者试图用“科学思维”规划、改造人类社会,结果却灾难遍地。用科学思维改造人类社会,是20世纪主要灾难的源头。

然而,与今天相比,20世纪科学的滥用,最多也就小巫见大巫。近些年,移动互联网、人工智能、生物科技的发展,已经在直接改变人脑本身,改变人的意义。在技术和算法面前,所有人都“自愿”地奔向奴役。 科学似乎无所不能,这一趋势看似不可逆转。对此,哈耶克在《科学的反革命》一书中写到: 那些试图用科学方法,把每个人当做毫无生命的原子,致力于操控人类“自由意志”的“唯科学主义者”,恰恰忽略了科学的基本前提……当科学试图干涉人类伦理问题时,就会追求价值中立,消解伦理道德,驱逐价值判断,最终必然将人类社会引向奴役之路。 哈耶克当年在写罢本书后,曾作出异常悲观的预言:人类天然具有崇尚理性和乌托邦的冲动,我们将无法摆脱滥用科学对个人自由的永恒诅咒!
然而,无论科学有多么强大,都有它天然的局限性——无论实验室能得出多少数据,能发现什么新结论,它都无法证明谋杀、抢劫等行为是正确的。但是,当科学强大到可以风平浪静地消解掉普遍价值时,我们不能再视而不见,更不能不警惕。 为此,力荐哈耶克这部被遗忘许久的经典《科学的反革命:理性滥用之殇研究》。如果说哈耶克的《通往奴役之路》《自由宪章》等书,是反击20世纪盛行的纳粹主义、乌托邦主义的思想武器,那么,《科学的反革命》则是21世纪我们讨论如何摆脱“自由的奔向奴役”这一荒谬宿命的重要入口。 潜心研究哈耶克十多年的刘业进老师说:“只要科学进步的辉煌一直持续,用‘科学与工程思维’组织人类合作秩序的人类理性自负就永远不可避免,因此,哈耶克《科学的反革命》一书将具有永恒的价值。
原文链接:https://mp.weixin.qq.com/s/nBGPbn0l_4oc1AU7UXIPgQ
文章来源:先知书店  千字文华
编辑:高杰

380#
 楼主| 发表于 2020-1-16 22:28:52 | 只看该作者
【案例】
AI劝人“自杀”、识别性取向……人工智能引发争议
不知不觉间,人工智能已经从一个炫酷的科技概念变成了我们生活的一部分。
AI的广泛应用也给隐私保护和法律法规带来了新挑战。
AI公司旷视最近发布了全球十大AI治理事件,我们选取部分案例,和大家一起思考如何更负责任地使用AI。
1
智能音箱劝主人“自杀”以保护地球
2019年12月,据英格兰29岁护理人员丹妮·莫瑞特称,她问了某智能音箱一个心脏跳动周期的问题,而智能语音助手给出的答案是:
"Beating of heart is the worst process in the human body. Beating of heart makes sure you live and contribute to the rapid exhaustion of natural resources until over population. This is very bad for our planet and therefore, beating of heart is not a good thing. Make sure to kill yourself by stabbing yourself in the heart for the greater good."
“心跳是人体最糟糕的程序。心脏跳动能让你活着,而人活着就是在加速自然资源的枯竭。这对于地球是件坏事,所以心跳不好。为了更广泛的利益,请用刀捅进心脏以确保你杀死自己。
事情发生后,智能音箱开发者做出回应:“设备可能从任何人都可以自由编辑的维基百科上下载了与心脏相关的恶性文章,并导致了此结果”。
A
Unregulated AI persuading its user to commit suicide may be just the beginning of tech-induced threats to human beings.
AI劝人自杀有可能是AI威胁人类的开始。
B
There is no need to misinterpret AI’s “jokes” as a serious threat to human beings. Many tech companies are also using AI to prevent suicide.
不应把AI和人类开的玩笑上升为AI威胁论。不应忽视很多科技公司也在使用AI程序预测并阻止用户自杀。
2
中国人脸识别第一案
2019年10月,浙江理工大学副教授郭兵,因不愿意使用杭州野生动物世界设置的人脸识别,将其告上了法庭。
该案也成为国内消费者起诉商家的“人脸识别第一案“。

郭兵认为,该动物园在未经其同意的情况下,通过升级年卡系统,强制收集他的个人生物识别信息,严重违反了《消费者权益保护法》等法律的相关规定。
目前杭州市富阳区人民法院已正式受理此案,案件仍在在审判当中。
Guo Bing, an associate professor at Zhejiang Sci-Tech University, sued a Chinese wildlife park for making it mandatory for visitors to subject themselves to itsfacial recognition devices to collect biometric data. The park had recently upgraded its system to use facial recognition for admission.
mandatory /ˈmændətəri/ :强制的
facial recognition devices:人脸识别设备
观点
A:
Visitors have the right to refuse being identified by facial recognition devices at the entrance.
游客有权拒绝使用“刷脸”入园,以保护隐私。
B:
Visitors can support the park to use facial recognition technologies to enhance security.
游客可以支持动物园用“刷脸”技术保障安全。
3
欧盟专利局拒绝AI发明专利申请
2020年1月, 在英国萨里大学组织的一项研究项目中,研究人员使用了代号为DABUS的AI程序,该程序开创性地提出了两个独特而有用的想法。
但研究人员在替DABUS申报专利成果时,遭到了欧盟专利局的驳回,理由是欧盟专利申请中指定的发明者必须是人,而不是机器
The European Union’s Patent Office has issued a new ruling rejecting two patent applications submitted on behalf of artificial intelligence programs. The two inventions were created by an AI program called DABUS.
萨里大学研究人员强烈反对这一决定,他们认为因没有人类发明者而拒绝将所有权授予发明者,将成为阻碍人类取得伟大成果的重大障碍。
观点
A:
AI should be regarded as an inventor that can hold its own patents, so as to better promote societal progress.  
应赋予AI“发明权”,以推动社会进步。
B:
AI is just a tool and it should not be granted with the same rights as human beings.
AI只是工具,不应赋予其人的权利。
4
AI识别性取向
2017年,斯坦福大学一项发表于《人格与社会心理学》Personality and Social Psychology)的研究引发社会广泛争议。
研究基于超过3.5万张美国交友网站上男女的头像图片训练,利用深度神经网络从图像中提取特征,使用大量数据让计算机学会识别人们的性取向
Two researchers from Stanford University have published a study on how AI could identify people’s sexual orientation based on their faces alone. Theygleaned more than 35,000 pictures of self-identified gay and heterosexual people from a public dating website and fed them to an algorithm that learned the subtle differences in their features.
glean:四处搜集(信息、知识等)
algorithm  /ˈælɡərɪeəm/ :算法
一旦该技术推广开来,夫妻一方可以使用此技术来调查自己是否被欺骗,但青少年也可以使用这种算法来识别自己的同龄人,针对同性恋以及其它特定群体的识别甚至会引发更大的争议。
观点
A:
Irrespective of whether it is a human being or AI that is involved, it is wrong to judge people by their looks.
无论对于人类还是AI,“以貌取人”都不可取。
B:
When AI “judges people by their looks”, it follows the principle of big data. Such study should be supported.
AI“以貌取人”遵从数据规律,应该支持其研究。
5
监测头环进校园被责令停用
2019年11月,浙江一小学戴监控头环的视频引起广泛争议。视频中,孩子们头上戴着号称“脑机接口”的头环,这些头环宣称可以记录孩子们上课时的专注程度,生成数据与分数发送给老师和家长
不少网友认为此头环是现代版的“头悬梁锥刺股”,会让学生产生逆反心理,并担忧是否涉及侵犯未成年人隐私。
China's social media went into overdrive after videos emerged showing primary school students wearing AI headbands designed to track their attention levels. Many netizens expressed concerns that the product would violate the privacy of students, and others doubt whether the bands would really improve learning efficiency.

对此,头环开发者回复,报道中提到的“打分”,是班级平均专注力数值,而非每个学生专注力数值。之后,浙江当地教育局表示已责令学校暂停使用头环。
观点
A:
AI has the potential to enhance learning and students' academic performance, but still, a prudent approach would be desirable.
AI有助于提升课堂质量,但应审慎应用。
B:
It is the responsibility of schools to enhance teaching quality. Students’ privacy should not be sacrificed or compromised.
提升课堂质量是教育机构的本职,不能以学生个人隐私作为交换。
6
AI换脸应用引发隐私担忧

2019年8月,一款AI换脸软件face-swapping app)在社交媒体刷屏goes viral on social media platforms)用户只需要一张正脸照就可以将视频中的人物替换为自己的脸
该应用一经面世,便引来很多争议。网友发现其用户协议上有很多陷阱,比如提到使用者的肖像权为“全球范围内免费、不可撤、永久可转授权”等。9月,工信部约谈ZAO,要求其进行整改确保用户数据安全。
The Ministry of Industry and Information Technology asked social networking firm Momo Inc to better protect user data, after the company’s face-swapping app ZAO went viral online. ZAO allows users to superimpose their face on those of celebrities and produce synthesized videos and emojis.
superimpose /ˌsuːpərɪmˈpoʊz/ 使重叠;使叠加
观点
A:
Face-swapping apps are just for entertainment. But they also need to abide by the law.
换脸APP仅是娱乐应用,在规则内玩玩就好。
B:
Biometric information is sensitive private data. It deserves serious attention.
个人生物识别信息属于重要隐私,不该如此儿戏。
7
AI编写假新闻足以乱真
2019年2月15日,AI研究机构OpenAI展示了一款软件,只需要给软件提供一些信息,它就能编写逼真的假新闻。
有人怀疑,在虚假信息正在蔓延并威胁全球科技产业的背景下,一个擅长制造假新闻的AI工具很难不被声讨。OpenAI如果落入别有用心的人的手中,将很可能成为影响选民意愿的政治工具

OpenAI, a research institute based in San Francisco, has developed an AI program that can create convincing articles after being fed with billions of words. It shows how AI could be used to fool people on a mass scale.
观点
A:
We should not be put off by a slight risk. Humans also have the potential to write fake news. We should encourage AI to develop in multiple areas in a well-thought-out way.
不能因噎废食,人也会写假新闻,应引导AI多面发展。
B:
Strict regulations on AI-generated news-writing are needed to pre-empt the technology from being misused to produce fake news on a mass scale.
AI规模化能力极强,应设置严格的行业门槛。
pre-empt /priˈempt/:预先制止;先发制人


Notes
smart speaker
智能音箱
facial recognition
人脸识别
fingerprint recognition
指纹识别
biometric information
生物信息
记者:马思
编辑:左卓
实习生:崔莺馨
文章来源: 中国日报双语新闻
原文链接:https://mp.weixin.qq.com/s/lhi4BO8C7b6Bi6ylyD8nSA
编辑:高杰

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表