传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
431#
 楼主| 发表于 2020-8-17 16:13:02 | 只看该作者
【案例】
智能型算法分发的价值迭代: “边界调适”与合法性的提升
——以“今日头条”的四次升级迭代为例
算法型信息分发给传播领域带来权力结构的改变,同时也使算法面临人与机器争夺社会权力的质疑。传统媒体掌握社会信息结构控制权的时代已经过去,以算法为代表的大数据技术形塑着信息的社会传播效果。但这并不意味着技术控制了社会的信息传播结构,“算法推荐导致视野变窄”这样简单因果关系从未被实证研究的结果证明过。算法是人写的,有着多种类型与价值取向。技术、人和社会信息结构展现出了更加复杂的图景。今日头条的信息推荐算法,被认为是国内、乃至全球最具代表性的信息推荐算法,从20129月第一版开发运行至今,已经经过四次大的调整和修改。研究表明,算法推荐不是一成不变的,算法型信息分发在不断迭代中提升着“有边界的调适”,并增强了其社会的适应度与合法性。
1
算法型分发:
关于“信息茧房”的学术争论
人工智能时代,算法分发已然是信息平台、搜索引擎、浏览器、社交软件等几乎所有软件的标配,但与此同时,算法强大的功能和权力内涵,尤其是算法在新闻传播领域的应用,开始面临严重的质疑与挑战。为解决大数据信息超载问题应运而生的、带有算法推荐功能的资讯类APP(“今日头条”、“一点资讯”等),从面世的第一天就备受质疑:使用这类APP是否会导致我们只看得到自己感兴趣的、认同的内容,进而所有人都活在自己的小世界里,形成“信息茧房”效应?有人甚至把它提升到“会导致一个民族的智能水平下降的危险”的高度。因此,厘清算法的技术逻辑以及对社会信息传播产生的影响,在传播学、计算机科学等相关领域具有重要意义。
有学者指出,在大数据时代,庞大的数据赋予算法巨大的传播导流能力。英国文化研究专家斯科特•拉什(Scott Lash)总结认为,在现代社会媒体和代码无处不在,其对于传播的影响力越来越存在于算法之中。大卫•比尔(David Beer)指出,这种影响力包含两层含义:第一,体现了算法发挥的功能,包括分类、过滤、搜索、优先、推荐、判定;第二,由于基于算法的决策常常被认为是理性、中立、高效、值得信赖的,算法这一概念本身就具有影响力的内涵。大量以此假设出发的研究表达了对算法推荐型信息分发导致“信息茧房”的担忧,即认为使用算法推荐技术的资讯类APP的人会出现视野变窄,进而导致“群体极化”。
也有学者对此提出不同看法,认为算法本身并不具有社会权力,而是算法联合即算法与人的结合(algorithmic associations)在发挥作用。算法运作过程中会和“规则、人、过程、关系”等相互作用,因此要特别考虑算法的情境性(situatedness)。姜红和鲁曼关注了这种人与非人因素的交织、相互作用,运用“行动者网络理论”(actor-network theory)指出算法、专业新闻机构和用户这些行动者共同编织着一张传播之网。无论是算法自身,还是算法联合,都深刻影响着新闻业。
Michael DeVito考察了Facebook的算法运作机制,通过对其公开发布的专利、新闻稿、博客等进行内容分析,概括出九大算法价值要素:朋友关系、用户公开表达的兴趣、用户先前的参与、用户含蓄表达的偏好、发布时间、平台优先级、页面关系、用户的负面表达、内容本身的质量。Dubois, E., & Blank, G.最新的研究成果发现,总体而言,人们对于信息回音室效应的担心是被夸大了的。尤其是那些对政治感兴趣的读者,实际上会受到好奇心的驱使,去消费更多样的内容,视野并不会受限。基于这样的理论争论和前人研究,算法型信息分发发展到今天,尤其是在科技和经济社会飞速发展的中国,算发型信息分发发生了哪些变化?其与人工分发彼此交叠的部分有哪些?各自适宜的区位是哪些呢?算法型信息分发的变化及迭代逻辑正是本文研究的重点。
2
智能算法技术的崛起:
传播领域“常规”的变局与解构
算法型信息分发最为普及的定义是ResnickVarian1997年提出的,指推荐系统向客户提供商品信息和帮助用户决定应该购买什么商品,模拟销售人员帮助客户完成购买的过程(Resnick P , Varian H R., 1997)。早期的算法型信息分发被应用于电子商务领域,目前已在各个领域被广泛应用,信息领域亦然。从广义上讲,算法是一种编码程序,被定义为“为了解决问题而输入机器的一系列指令”。
从信息生产的角度看,算法型信息分发重塑了新闻生产机制。算法型信息分发带来的新闻生产方式是“新闻内容+数据化精确制导”。精确指向特定用户的数据引擎已经成为新闻生产的标配,新闻生产的精英主义正在被用户思维和互联网思维所代替。这意味着在算法登堂入室的时代,传播新闻时所倚重的逻辑是“用户本位”的,传统意义上新闻传播中“传播者本位”的精英主义逻辑正在消解,算法型信息分发模式从一开始就是沿着用户的需求的逻辑不断提升和迭代的。
算法型信息分发在一定程度上决定着信息流向、信息重要程度,以及用户对信息的关注度。在传统新闻生产中,传送新闻文本环节就是将制作好的新闻文本,通过报刊的出版发行、广播电视节目的播出等传送给受众的过程。传统新闻生产对新闻文本传送是大众化、标准化基础上的规模化的,在内容呈现上是千人一面的。传统媒体掌握内容入口和分发渠道的控制权,信息以单向、单一的方式在相对封闭的渠道流动,形成塔奇曼所谓的“新闻常规”。就传播领域而言,新闻产业在内容采集、分发和盈利模式上已经形成一整套相对稳定的规则和传统。于政治学而言,规则和传统以及路径依赖,为形成相对稳定的制度创造了条件。但随着互联网技术的普及和进步,数字内容分发渠道全面占有与分割传统的社会信息供给结构。
不同于传统媒体时代内容生产和渠道发行是两个完全分开的环节,互联网时代的内容生产、内容入口和内容分发乃至信息反馈都是在技术支持和数据作用之下融为一体的,换言之,它们的边界是模糊的,彼此之间形成了相互融通难以分割的一个整体。用户所能见到的内容已经成为数据化生产和加工以及数据导流、精准分发以及场景化商业变现的工具和手段。因此,在内容生产过程中的平台型媒介机构,就越发重视数据和智能化的算法对内容采制、内容分发、场景到达、用户接受等全环节的重要影响。
在讨论“算法导致信息回音室”的时候,人们往往将“算法”视作一种单一的、同质性的存在,似乎算法只有一种推送逻辑。实际上,早在2014年,明尼苏达大学计算机系Nguyen, T. T.等学者使用电影评分和推荐网站MovieLens的数据就发现,不同的算法推荐方式会导致不同的“过滤气泡”效应。不同于基于内容的推荐算法,MovieLens所使用的算法是“基于物品的协同过滤算法”(item-item collaborative filtering)——“依据了和你相似的其他人喜欢什么”,这有助于向用户推荐自己本不会接触到的更多样内容。
大部分实证研究结果都没有支持“算法推荐导致视野变窄”这样一种简单的结论,而是展现出了更加复杂的图景。“回音室”、“过滤气泡”是技术、人性、社会结构共同作用的结果。它的消除既需要技术优化,也需要媒体的平衡报道、社会信息结构的多元化构造,还需要社会评议机制的完善以及市场创新的竞争节律、人们制度化参与渠道的拓展等等。算法有着多种类型,并且在不断地调整、变化。人们在算法推荐平台上看到的内容,从来就不是单纯被机器所决定的。
概言之,在技术层面,算法推荐有着不同的类型、不同的原理。被广泛使用的协同过滤算法,实际上并不会缩减人们的视野,甚至有时能打开更大的世界。“回音室”、“过滤气泡”是技术、人性、社会结构共同作用的结果,不能归结为技术本身。
3
人机互动下算法逻辑的价值迭代:
从“算法没有立场和价值观”到
“技术必须充满责任感和充满善意”的升级
那么,当前算法型信息分发与人工分发彼此交叠的部分有哪些?发生了哪些变化?本文以“今日头条”为案例,搜集分析了“今日头条”相关资料、市场数据,以及“今日头条”官方公布算法原理等材料,对算法型信息分发的变化进行讨论。
新闻价值观念是指新闻主体用来选择和衡量新闻价值客体的标准。在“编辑分发”模式中,新闻价值观念主要体现在新闻从业人员的实践(如新闻筛选、排序、版面设计)或新闻机构的内部规范之中,而对于算法型信息分发模式来说,新闻价值观念则内嵌于代码的设计和编写之中。传统大众媒体时代,把关人的研究主要集中在传播者身上,主要研究把关人(个人或组织)特征对把关活动的影响;到了网络传播时代,受众在传播的价值实现过程中主导性地位日益显著,“传-受”身份重合,把关人研究的重心转移到受众身上,由此便存在将传统把关人(即内容生产与传播一方)研究弱化的问题。
随着大数据技术运用到新闻传播领域,技术型互联网平台公司日益占领了传播渠道,机器算法在新闻分发中占据主导地位,此时,把关人理论面临着全新现实改变。记者、编辑等传统把关人在进行信息筛选时所遵守的职业规范和新闻伦理并不约束算法工程师或程序员。信息把关,从某种程度上演变成一种传播权力的无形转换——从人工编辑向智能算法让渡。传统的新闻价值观念已然不能精准地解释当前业界的新动态和新趋势。这是否意味着算法本身没有自己的价值观念可言呢?
算法型信息分发最初实践展现出明显的“用户本位”:“你是谁”、“你怎样”决定了“推荐给你什么内容”。它强调“用户是信息的主人”,基于算法技术,根据网络用户特征建构用户画像,即通过收集用户的社会属性、浏览习惯、阅读行为甚至性格星座等信息,抽象出用户阅读需求的共同特征并梳理用户的需求比重模型,为每个用户贴上“信息标签”,据此搜索并推荐与用户阅读需求最契合的内容。推荐算法让人们从海量信息中解脱了出来,减少了在纷繁复杂的信息中去挑选、去寻找的不安全感和焦虑感。2012年成立的“今日头条”就是基于此行为和理念的第一家将算法推荐引入其中的新闻移动客户端,并以此获得了迅猛的发展,2014年就宣布每日活跃用户数量超过千万。当时,“今日头条”对外宣传的口径是公司产品“没有采编人员,不生产内容,没有立场和价值观,运转核心是一套由代码搭建而成的算法”。
20151月,“今日头条”创始人张一鸣在极客公园创新大会上发表主旨演讲,指出“今日头条”主要使用有关用户的以下数据来进行信息推荐:动作特征(包括点击、停留、滑动、评论、分享)、环境特征(包括GPS定位、是在Wifi环境还是3G环境、是否为节假日等)和社交特征(例如微博的关注关系、历史上发的微博)。在《机器替代编辑?》一文中,/张一鸣介绍了“今日头条”的推荐机制:“当用户绑定微博登录后的5秒钟之内,系统会为用户建立起一个DNA兴趣图谱。这个图谱类似于一个数学模型,主要根据用户SNS账号上的标签、关注人群、好友、评论/转发、收藏等数据,以及用户的手机、位置、使用时间等数据提取而来。”这标志着“今日头条”已经坦言算法分发在“今日头条”的存在及其依据,新闻编辑把关权被算法所替代。
在之后很长一段时间内,一直引发争议的是,算法推荐原理始终处于未公开状态。问题的关键在于,算法分发是否把所有决策都交给了机器?用户的个人信息和数据成为输入信号,源源不断地被收集、储存、分析,这一决策过程实质上是在“黑箱”中进行的。社会呼吁算法公开透明化,打开算法“黑箱”。2018111日,“今日头条”首次系统公开了其算法分发的技术原理:内容上主要考虑提取不同内容类型的特征做好推荐,用户特征包括各种兴趣标签、职业、年龄、性别等,环境特征基于用户在不同场景中信息偏好不同。结合这三个维度,模型会给出一个预估,即推测推荐内容在某场景下对某用户是否合适。
这三个变量都基于对用户信息的反馈,算法的内在逻辑迎合着用户需求。此外,有四个典型的特征会对推荐起到重要的作用:相关性特征、环境特征、热度特征、协同特征。其中协同特征通过用户行为分析不同用户间相似性,如点击相似、兴趣分类相似、主题相似、兴趣词相似等,依靠“兴趣探索”和“泛化”来实现价值的多样性。
此次公开的推荐系统原理包括今日头条算法模型设计维度与策略,以及头条的内容安全机制及相关举措。如何在线训练大规模推荐模型、典型召回策略的设计方法、多目标如何融合等业界关心的核心问题都在此次算法公开中得到解答。算法原则历来属于公司行业机密,这一次今日头条将算法原理公开,并接受建言,实属行业首例。很多人对算法的理解仍然停留在“算数”或者“魔法”。对算法而言,信任取决于透明度,如果你知道它的原理,明白它在做什么,并能对它可能出现的问题提出建议,看到它在不断提升,就有可能接纳并信任算法。
如果用形式化的方式描述,算法型信息分发实际上是去拟合函数。设计、监督并管理算法模型的依然是人,这意味着算法型信息分发并非把所有决策都交给机器。在追逐算法这一“热”趋势的同时,算法型信息分发的透明性提高,算法价值观念发生了根本的变化。张一鸣曾经表示,“技术必须充满责任感,充满善意”,他将企业责任细化为三个方面,即平台治理、科技创新,以及内容建设和信息服务。抖音总裁张楠在回应新京报记者提问时也表示,不认同“算法没有价值观”的观点。“算法也是人写的”,“在抖音的顶层设计中,主流价值观和用户体验排在优先级最前列,商业变现是最次要的”。这一系列行为体现了一家平台对技术发展的责任感,不仅对算法应用起到积极推动作用,还回应了社会各界对算法型信息分发的质疑和误读。
4
算法型信息分发的控制变量升级:
以“有边界的调适”到社会适应度与合法性的获得
算法推荐是内容智能分发平台的“灵魂”,“今日头条”的推荐算法,从20129月第一版开发运行至今,已经经过四次大的调整、修改和升级。显然,推荐算法并不是一成不变的,算法型信息分发在不断提升“有边界的调适”。
首先,从分发的文章数量和质量上看,通过算法加人工的半自动形式进行文章内容的质量辨别:从算法上自动标识质量分值、自动提取文章标签、自动识别错别字等方式进行文章质量判断;人工方面则需对有异议的文章进行二次审核。只有通过算法和人工双重考核的文章才能够进入个性化推荐的“分发池”,以此保证算法所推荐的文章符合起码的质量标准,同时也限定了进入分发池文章的数量。有限的、高质量的文章保证了用户所接收到的个性化分发文章是可信赖的、真实的和比较理性的。
第二,从用户的精准画像和用户分群的角度看,通过数据融合、行为分析和算法优化,自动对用户进行精细画像的描绘和精准分群,使得机器能够自动辨别出哪些用户喜欢非个性化的内容、哪些用户喜欢个性化的内容。当机器辨别出该用户喜好非个性化内容时,客户端将自动呈现编辑人工推荐的内容。即使是对于喜欢个性化内容的用户,也不是一味地推荐用户喜欢的内容,而是按不同权重分发不同的内容。比如直接过滤掉停留时间短的点击,打击标题党;随用户动作增加,老的特征权重会随时间衰减,新动作贡献的特征权重会更大。
第三,从个性化推荐能力提升的角度看,不断优化推荐算法的兴趣探索能力,动态调整不同类别新闻分发的权重,提高了个性化分发的能力,实现硬资讯与软资讯、兴趣与理性之间的平衡,保证喜好个性化分发的用户在能够得到自身所想看的东西之外,亦能获取其他方面的信息,即获取兴趣之外的兴趣点。
201813日,今日头条宣布招聘2000名内容审核编辑,由算法为王向人机结合转变。57日,今日头条再次采取措施整顿平台内容,邀请学者、媒体人、公职人员成立专家团队,参与平台内容与服务的监督,并在技术上推出国内首款人工智能反低俗小程序“灵犬”,为用户提供更优质的信息。
智能时代算法的重要性日益彰显,“今日头条”公布的一系列算法的升级与调适体现了技术、人性、社会政治共同作用于我们能够看到的信息。“今日头条”在算法迭代中控制变量升级,正是以“有边界的调适”赢得更好社会适应度与存在的合法性,它是中国互联网飞速发展的一个典型样本。毫无疑义,虽然传统媒体掌握社会信息结构控制权的时代已经过去,以算法为代表的大数据技术形塑着信息生产与传播的社会形态与传播效果,但这并不意味着技术控制了社会信息结构,归根结底,算法是人写的,可以也应该有着多种类型,并且是在不断地调整、迭代和变化中的。就社会的整体传播效应而言,与其要求一家算法型分发平台“全面”,不如在信息供给结构上鼓励多元化的算法平台的竞争与协同,这样所构造起来的社会内容的“供给侧”将会更为完善——选择性更多、个性化更强、内容维度更为完整。
总之,算法技术实际上并不会缩减人们的视野,恰恰相反,它总能为我们打开更大的世界。技术会带来更好的社会信息结构还是更坏的社会信息结构,决定者其实依然是人和无形的社会软制度。
(喻国明 杜楠楠:《智能型算法分发的价值迭代:“边界调适”与合法性的提升——以“今日头条”的四次升级迭代为例》,阅读原文及学术引用,请务必参考《新闻记者》2019年第11)
作者:喻国明 杜楠楠
来源:再建巴别塔
链接:https://mp.weixin.qq.com/s/52KX4l1JyquDrXxI2-hl_w
编辑:宋婷

432#
 楼主| 发表于 2020-8-25 19:07:45 | 只看该作者
【案例】
为什么AI总是很难落地?


  为什么AI总是很难落地?为什么人工智能常常被人诟病?有人说这是由于科幻电影、科幻小说、电子游戏、新闻媒体等造成的,这个观点有一定的合理成分,但还有一个更重要的事实为大家所忽略,那就是本应为“人机环境系统融合智能”常常被误认为是“人工智能(甚至是一些算法)”所致。
  无论是军口还是民口,无论是自动化产品还是智能系统,大凡接地气,并为众人所接受的喜闻乐见,仔细想想,无不是在安全、高效、舒适方面做的比较好些。而要具备这些优点,其人、机、环境系统大都比较和谐一致,至少不是简单的AI+某某领域或者是某某领域+智能算法。
前段时间写了一篇“智能的本质好像不是数据算法算力和知识”,强调生成这些的机理才是活生生的智能之源,这次还接着谈,现有的人工智能教育体系培养出的“人才”可能还是没有“魂魄”的“机器人”,究其因,还是干巴巴的“算法”所致,有算无法,有术无道,有感无知,有理无情,有态无势,有芝无瓜,有(类)脑无心,有形无意,有眼无珠……只能在可能性的圈圈里打转转,而不能尝试探索不可能的世界,即使有些探索,也还只是在家族相似性的河床上蹦蹦跳跳,而对真实的非家族相似性还远远无能为力。
  除了人机环境系统交互之外,第二个方面就是对深度态势感知的理解和消化,比如很多情境下只知道时空之间的配准、校正,不明白态、势、感、知之间的配准与校正;只知道非协同距离的失真解算,却忘了协同距离的模糊展开;只知道变频、变量,不思考变态、变势、变感、变知、变通;只知道数据链、信息链,不琢磨事实链和价值链,甚至是态链、势链、感链、知链的纠缠叠加所形成的人机环境系统链;只知道同质、均匀、顺序的态势感知单一调制,而忽略了更重要的异质、非均匀、随机态势感知多级阵列,以及先感后知的快速机动性和先知后感的准确灵活性,还有态、势、感、知之间的自相关、互相关的转化概率;只知道人模机样,不晓得机模人样;只知道仿真验证结构,不重视实战得到功能。
  原因之三:
  一些事情发生了,我们不时会自觉或不自觉地与身边的刚刚发生或印象比较深的事物关联在一起,建立自己个性化的“因果关系”态势谱(不仅是图谱),的确有关的被称为客观事实性关联,似是而非的称之为可能性关联,风马牛不相及的被称为主观意向性关联……这些生活中的常常发生的关联都是智能认知的组成部分,能够程序化的客观事实性关联部分也往往被称为AI,可能性关联和主观意向性关联却被过滤掉了,而这两者却是个性化智能之所以弹性的重要组成成分吧。
  总之,本是人机环境复杂系统的问题却想用AI算法简化处理;只知道态势感知,不明白深度态势感知;忽略风马牛之间的虫洞联系;这三个问题也可能是造成AI总是很难落地的诱因吧!


  许多书都会成为过眼云烟……


作者:刘伟
来源: 微信公众号:人机与认知实验室
编辑:邱亚婷

433#
 楼主| 发表于 2020-8-27 12:09:24 | 只看该作者
【案例】
理性地认识人工智能
近两年来,人工智能十分火爆,媒体上介绍人工智能技术进展和发展前景的文章连篇累牍,成千上万人参加的人工智能高峰论坛此起彼伏。在轰轰烈烈的造势活动中,我们也能观察到一种“围城”现象:真正做人工智能研究的专家说话都比较谨慎,而吹嘘人工智能万能或散布人工智能威胁论的大多不是真正研究智能技术的专家。
发展人工智能要排除“左”、“右”两方面的干扰。“右”的干扰是对人工智能等新一代信息技术麻木不仁, 墨守成规,错失发展机遇,可能使国家陷入“中等收入陷阱”;“极左”的干扰是盲目冒进,对人工智能抱不切实际的幻想,或者过分夸大人工智能的威胁,使人工智能再次进入寒冬,可能断送发展新经济的大好机遇。
大数据和人工智能已列为国家发展战略,我们要理性地认识人工智能等新技术,满腔热忱地拥抱驱动数字经济的新技术,不做表面文章,扎扎实实将大数据与人工智能技术融入实体经济,为经济发展注入新动能。
一、人工智能究竟发展到什么程度?
人工智能和计算机科学技术是一对孪生兄弟。早在第一台电子计算机诞生以前,沃伦· 麦卡洛克和沃尔特· 皮茨于 1943 年就发表了重要论文《神经活动中内在思想的逻辑演算》,提出了神经元的数学模型,这个模型至今仍是人工神经网络的理论基础。这篇论文也是被称为“计算机之父”的冯·诺依曼发表的划时代报告(EDVAC 计算机设计方案)的唯一参考文献。冯·诺依曼研制计算机的初衷是实现两个目标:一个是通用功能的计算机,另一个是基于自动机理论、自然规律和人工智能的计算机。
但没过多久,冯·诺依曼就发现模仿神经网络设计计算机的路走不通。1946 年 11 月他在给控制论创始人维纳的信中写道:“为了理解自动机的功能及背后的一般原理,我们选择了太阳底下最复杂的一个对象……在整合了图灵、皮茨和麦卡洛克的伟大贡献后,情况不仅没有好转,反而日益恶化……这些人向世人展示了一种绝对的且无望的通用性。”从第一台电子计算机开始,计算机的发展就与模拟神经网络分道扬镳,集成电路的发明和后来几十年在摩尔定律引导下的“狂奔”,使得用计算机实现人工智能的方式与人脑的思维机制几乎不沾边。
与计算机的发展类似,人工智能的发展也面临两条技术路线的选择:从分析智能行为出发还是从分析大脑结构出发。60 多年前,人工智能起步是从符号推理开始的,主要做机器定理证明和专家系统等,做的是“知其然又知其所以然”的事,突出的成果是自动化的逻辑演绎和知识工程。人工智能的前 30 年被认为是第一波。由于自上而下逻辑演绎的局限性,早期完全基于数理逻辑的人工智能学科体系到 20 世纪 80 年代已基本瓦解,机器学习、自然语言理解、计算机视觉、机器人、认知科学等学科在独立发展的过程中,不约而同地发现了一个新的平台,这就是概率建模和随机计算。伴随人工神经网络的兴起,自下而上的统计学习(概率推理)开始成为人工智能的主要技术,人工智能进入第二波。
2006 年,深度学习技术的研究出现重大进展,可以自动生成学习对象的特征,进入了无特征建模阶段。深度学习应用到某些领域不需要研究人员掌握该领域的大量专业知识,也就是说,可以解决一些“知其然而不知其所以然”的问题。在 2012 年基于 ImageNet 的图像识别竞赛中,深度学习方法脱颖而出,引发了深度学习的热潮。基于深度学习的 AlphaGo 程序战胜围棋世界冠军使不少人认为,人工智能进入了以大数据为中心的第三波,从推理驱动发展到数据驱动,实现逻辑推理和统计学习的深度融合,致力于发展可解释的更加通用的人工智能技术。
许多人讲人工智能是新的学科,内容涉及脑科学、统计学、社会科学等。但迄今,脑科学对人工智能的贡献很小,统计学对机器学习的崛起发挥了较大作用,但没有人把人工智能看成统计学的分支。目前的人工智能本质上还是计算机科学的一个分支,现在国际上将人工智能的论文都统计在计算机科学名下。从基础研究来看, 人工智能是计算机科学的前沿研究;从应用来看,人工智能是计算机技术的非平凡应用。所谓“智能化”的前提是计算机化, 目前还不存在脱离计算机的人工智能。
近年来,人工智能的复兴主要得益于数据资源的极大丰富和计算能力的飞速提高,人工智能技术本身并没有本质性的突破。因此可以说,人工智能的复兴是计算技术的胜利,摩尔定律的胜利!
人工智能的火爆不是吹出来的,从应用效果来看, 确实有一些过去机器做不到的事现在计算机能做到了。语音识别在安静环境下准确率超过 98%,人脸识别准确率已高达 99.7%,比人眼还准确。2016 年“双十一”当天,蚂蚁金服要承担 500 万次客服服务,如果完全采用人工客服,需要 3.3 万名服务人员才能较好地承接。借助于蚂蚁金服开发的智能系统,94% 的客服由计算机智能解决,客服效率较之前提升了 20 倍。近两年,蚂蚁金服全面开放人工智能客服能力,比人工客服效率高出30~60 倍。这样的人工智能应用案例比比皆是。
人工智能系统在一些特定任务方面已胜过人类,如国际象棋(1997 年)、图像识别(2015 年)、语音识别(2015 年)、 围棋(2016 年)以及德州扑克(2017 年) 等。未来 5~10 年,人工智能将融入交通、医疗、金融、教育等行业,自动或半自动驾驶汽车已在几个城市试点。人工智能确实会改变我们的工作、生活和思维方式,是推动社会发展的巨大动力。
但是,人工智能还不是像交流电一样接上插头就能用的通用技术,人工智能应用目前还有较多限制。一般而言,人工智能技术对完成一项任务发挥较好作用,需要有较丰富的数据或者较丰富的知识,需要有较完全和较确定的信息,且规则比较明确,任务较为单一。人工智能下棋可以超过人类,但打麻将、玩桥牌目前难以胜过人类。人工智能在蚂蚁金服这种专业性强、规则明确的服务中表现不俗,但不限领域的开放性的人机对话还难以实现,例如,已获得沙特阿拉伯公民身份的机器人索菲亚对“你几岁了”回答是“你好,你看起来不错”。目前科大讯飞的机器翻译还取代不了同声翻译专业人员。在复杂路况条件下无人驾驶还有很长的探索之路要走, 短期内不可能实现。
总之,对人工智能技术的大规模普及应用要有足够的耐心。在推广人工智能技术时,要避免出现“人工智障”。历史上人工智能专家曾多次做出过于乐观的预测, 结果都没有兑现,使得人工智能研究两次进入寒冬,我们应谨防重蹈覆辙。对上百亿年宇宙演化形成的极为精巧的人脑应有足够的敬畏,破解人脑的奥秘可能需要几年甚至更长的时间。
二、现在是否已从信息时代跨入“智能时代”?
近来,媒体上有一种舆论认为:信息时代已经过去了,现在已进入人工智能新时代。判断处在什么时代需要有历史的眼光,对时代的误判可能会犯历史性的错误。15 世纪的中国拥有世界上最强大的航海实力,明朝政府却实行海禁政策,坐失了大航海时代的发展机遇。从党的十三大开始,党中央多次强调我国长期处于社会主义初级阶段,这一正确的时代认识为我国各方面的健康发展奠定了理论基础。从经济发展角度来划分时代,人类社会至今只经历了渔猎、农业、工业和信息四个时代, 每个时代长则上万年,短则数百年。
信息时代与工业时代一样,应该延续较长的时间。信息时代将走过数字化、网络化、智能化等几个阶段, 人工智能的复兴标志着信息时代进入智能化新阶段。经济学家普遍认为,经济发展有 50~60 年的长波周期,从蒸汽机的推广应用开始,人类社会已经历了 5 个经济长波,现在处于第 5 个经济长波的下降期(。经济长波与经济时代不是一个概念,一个时代可以有几个经济长波。根据康德拉季耶夫的经济长波学说和熊彼得的技术创新理论,每一个经济长波都是由标志性的基本创新触发的。第 4 波以电子计算机与集成电路的发明为标志,第 5 波以互联网和移动通信的兴起为标志。目前人工智能还处于初级阶段,再经过十余年的推广普及, 也许到 2030 年左右,以人工智能、大数据、物联网、生命科学等技术为标志,将出现经济高速发展的第 6 波。从第 4 波到第 6 波都属于信息时代。目前阶段的人工智能本质上还是一种计算技术,以下赢一盘围棋作为将信息时代和智能时代的分界线有点牵强。

对信息时代经济长波的预测
美国三院院士乔丹教授(国际上公认的统计学习的领军学者)认为:在未来 30 年内,人工智能实现不了创造性和变通的灵活性。目前人工智能技术还不够强大, 远没有成为一个理论完备的学科。人们对人工智能的期待太高了,我们还没有步入可以利用我们对脑的认识来指导搭建智能系统的时代。2018 年诺贝尔经济学奖得主威廉·诺德豪斯曾在 2015 年发表了一篇名为《我们正在接近经济奇点吗?》的论文,文章指出:大部分的经济指标都不支持“奇点即将来临”的判断。
从上述时代判断可得出两点结论:第一,未来10~15 年对经济贡献最大的可能不是大数据和人工智能等新技术,而是信息技术(包括大数据和人工智能)融入各个产业的新产品、提供个性化产品和服务的新业态、产业链跨界融合的新模式。这些创新主要是已知技术的新组合。第二,在经济的衰退复苏期要特别重视基础性技术的发明,未来 10~15 年应力争在人工智能领域做出像电子计算机、集成电路、互联网一样的基础性发明。
三、“新一代人工智能”的含义是什么?
2017 年 7 月 8 日国务院发布了《新一代人工智能发展规划》。在这之前,中国工程院向国务院提交了一份关于《人工智能 2.0》(即 AI 2.0)的咨询报告。中国工程院咨询课题组给出 AI 2.0 的初步定义是:基于已出现重大变化的信息新环境和发展新目标的新一代人工智能。其中,信息新环境是指:互联网与移动终端的普及、传感网的渗透、大数据的涌现和网上社区的兴起等。新目标是指智能城市、智能经济、智能制造、智能医疗、智能家居、智能驾驶等从宏观到微观的智能化新需求。可望升级的新技术有大数据智能、跨媒体智能、自主智能、人机混合增强智能和群体智能等。
国务院发布的文件基本上采纳了中国工程院提出五类新型人工智能技术的观点,但没有正面解释人工智能的分期,也没有采用 AI 2.0 这一术语,而是采用较为笼统的“新一代人工智能”的提法。文件指出:“人工智能发展进入新阶段。经过 60 多年的演进,特别是在移动互联网、大数据、超级计算、传感网、脑科学等新理论新技术以及经济社会发展强烈需求的共同驱动下,人工智能加速发展,呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征。”“当前,新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升。”
请注意,不管是中国工程院的解释还是国务院的文件,都是讲人工智能应用的新环境、新的发展目标和呈现的新特征,并没有指出一个标志性的事件或一项颠覆性的新技术。第一次工业革命是因为蒸汽机的出现,第二次工业革命是因为交流电的出现,经历了 60 多年发展的人工智能因出现了什么技术就进入了第二代,似乎并不清楚。只能说,深度学习等技术在一些领域的成功使人们看到了人工智能技术广泛应用的希望,智能应用的需求更加迫切,但深度学习并不是一项划时代的基础性发明。深度学习技术的基础是反向传播(BP 算法),令人吃惊的是,BP 算法的发明者、被誉为“深度学习之父”的 Geoffrey Hinton 教授 2017 年在第 31 届神经信息处理系统大会(NIPS)上指出:“我们需要放弃反向传播算法,重起炉灶。”中国工程院提出的可望升级的大数据智能、跨媒体智能、自主智能、人机混合增强智能和群体智能等新技术在未来 10~20 年能否有本质性突破,还有待历史检验。
从这个意义上看,人工智能 2.0,与其说是技术上的重大突破(至今还没有发生),不如说是智能化应用的第二次大浪潮。重大技术应用的 S 曲线往往有相继的两条, 第二条 S 曲线的生命周期更长, 对经济的驱动力更强。预计人工智能技术在今后几十年内会遵循类似第二条 S 曲线的发展态势,应用的规模和效益可能大大高于过去的 60 多年,这可能是人工智能 2.0 的真正含义。
对人工智能技术做出这种乐观的估计有一定根据。遵循摩尔定律,过去几十年芯片和计算机的性能呈现爆炸式增长,提高了万亿倍;近几年产生的各种数据(特别是网上数据)的规模也像遵循摩尔定律呈指数型增长, 为智能信息处理提供了足够多的“原料”。网络的普及使数以百亿的设备可以联网,而网络的效益与联网的终端数量的平方成正比。智能化是信息化效益的倍增器和催化剂,在计算机化和网络化渗透到每一个角落的条件下, 人工智能技术一定会成为推动经济和社会发展最大的动力,使世界走向更加美好的明天。
四、人工智能与数字经济是什么关系?
2018 年 10 月 31 日,习近平总书记在中共中央政治局第九次集体学习时强调,“人工智能……具有溢出带动性很强的‘头雁’效应”a。这一判断也就是说智能化是发展数字经济的主攻方向。为什么人工智能技术如此重要?2017 年,我国电子信息产业收入总规模 18 万亿元,而我国人工智能核心产业市场只有 200 多亿元(《新一代人工智能发展规划》要求 2020 年我国人工智能核心产业规模超过 1500 亿元)。目前,人工智能核心产业收入只占电子信息产业总收入的千分之一左右,如此弱小的核心产业为什么能引领我国经济高质量发展,值得我们深思。
要想理解人工智能的巨大作用要从智能学科的本质特点找原因。人工智能与其他所有学科不一样,它不是静止的有限范围的技术,其研究内容不断向未知领域延伸,永远处在计算机科学研究的最前沿。曾经的智能技术一旦成熟,大家习以为常,就不再认为其是智能技术了。如今使用的大多数软件都是基于人工智能技术开发的,包括 Windows 操作系统、智能手机应用等。人工智能的权威学者明斯基教授指出:“人工智能的任务是研究还没有解决的计算机问题。”这一特征表明,人工智能总是探索那些像“下围棋胜过人类”这样的令人惊喜的“禁区”,将“不可能”变成“可能”,将尖端技术变成老百姓司空见惯的常用技术,这就是“头雁”的作用。
理解大数据、人工智能等引领技术的贡献,还可以从另一个角度,用“蜜蜂模型”来解释。我国蜂蜜市场每年不到 100 亿元,但蜜蜂的价值主要不是生产蜂蜜而是传粉,如果没有蜜蜂传粉,水果蔬菜将大大减产,蜜蜂对农业有不可替代的重大贡献。人工智能对其他产业的作用如同蜜蜂对各种农作物的作用一样。人工智能不是单项技术,实际上是计算机和其他信息技术的集成应用,在实际应用中很难分清楚哪些是人工智能应用,哪些是一般的计算机技术应用。人工智能技术渗透到各行各业, 将促进全社会方方面面的变革和技术升级换代, 从数字化、网络化走向智能化。
人工智能的影响很难统计。数字经济的统计中包含许多传统经济的贡献,我们常常会感到困惑:人工智能等新技术的增量究竟在哪里?人工智能的作用不仅仅体现在经济增长上,更多地体现在生产方式、生活方式、政府管理模式的改变,特别是人们思想观念和认知方式的改变上。现在使用的统计标准不适用于人工智能引领的数字经济。数字经济中有许多免费的应用没有计入国内生产总值。智能化的数字经济带来的产品质量的巨大改进、产品种类的极大丰富、用户体验的明显改善都不能在国内生产总值中反映出来。
高质量发展的必经之路是从资源要素驱动转变为创新要素驱动。智能技术的本质是认知技术和决策技术。智能技术是数字经济的关键生产要素,它的威力在于促进人、机、物三元世界的融合,促使各类经济活动朝着高效率、高质量、可持续和更加智能化的方向发展。
目前全球市值最高的公司是苹果、亚马逊、Alphabet(Google 的母公司)、微软、Facebook、阿里巴巴,这些公司都是人工智能的领头企业。埃森哲公司发布的咨询报告指出,人工智能技术的应用将为经济发展注入新动力,在现有基础上能够提高 40% 的劳动生产率。2018 年麦肯锡的研究报告表明,到 2030 年人工智能新增经济规模将达到 13 万亿美元。
中国信息通信研究院联合高德纳咨询公司(Gartner) 于 2018 年 9 月发布的《2018 世界人工智能产业发展蓝皮书》报告统计,我国(不含港澳台地区数据)人工智能企业总数位列全球第二(1040 家),仅次于美国(2039家)。在人工智能总体水平和应用方面,我国也处于国际前列,发展潜力巨大。但值得注意的是,我国人工智能基础层、技术层和应用层的人才数量占比分别为 3.3%、4.9% 和 61.8%(美国为 22.7%、37.4%、39.4%)。我国 基础层人才比例严重偏低,头重脚轻,根基不牢。人工智能产业必须扎根在系统结构和软件理论的深土中,发展人工智能不能停留在算法层面,要关注从算法、软件、人机界面到系统结构和芯片这一完整的产业链和生态系统。
本文节选自《中国科技热点述评2019》(科学出版社2020年8月出版)一书中李国杰院士对人工智能领域科技热点事件的述评。识别图中二维码或点击下面“阅读原文”可立即购书。欢迎广大科研工作者投稿,聊聊你们的所见所闻、所感所思,投稿邮箱:[email protected]

为回应公众对于科技热点的认知需求,发挥高层次科学家对于科技热点的解读作用,进一步提升公众科学素养,搭建科学家与公众之间的对话平台,中国科学院学部科学普及与教育工作委员会拟定期出版“中国科技热点述评”系列图书,定位于概述科技热点、院士专家述评、回应公众疑点、弘扬科学精神、提出政策建议。
《中国科技热点述评2019》聚焦“转基因”和“人工智能”领域科技热点事件,邀请华中农业大学张启发院士、中国科学院分子植物科学卓越创新中心/植物生理生态研究所陈晓亚院士、中国农业科学院张春义研究员和范云六院士、中国科学院动物研究所康乐院士对转基因领域展开述评,邀请中国科学院计算技术研究所李国杰院士、复旦大学张军平教授和中国科学院数学与系统科学研究院陆汝钤院士对人工智能领域展开述评。
作者:李国杰
来源:科学人文在线
编辑:邱亚婷

434#
 楼主| 发表于 2020-8-31 15:18:44 | 只看该作者
【案例】


《将技术道德化》书评


  编者荐语在科技超速甚至指数爆发发展之下,为了不失控而陷入无限的痛苦,科技伦理、技术道德化,至关重要!伦理道德本身就是人类追求幸福的原则、基础和表现,科技发展的图景必须有此色彩融入,才显美好和温馨。技术伦理化和道德化,也不妨作为技术研发分支甚至产业。





  【编者按】2016年,《将技术道德化:理解与设计物的道德》(Moralizing Technology: Understanding and Designing the Morality ofThings)这一探究技术伦理学新路径力作的作者特文特大学哲学系彼得·保罗·维贝克(Peter Paul Verbeek)教授赴沪参加第12届上海市中青年技术哲学论坛。同年,该书中文版由上海交通大学出版社出版。近年来,维贝克教授因其关于技术伦理的卓越研究荣获得荷兰皇家艺术与科学院成员、联合国教科文组织世界科学技术伦理委员会主席、荷兰特文特大学建校以来的第5位终身教授等。2020年,该书应市场需求再次印刷,该书的原作者维贝克教授、作者的亲传弟子特文特大学的洪靖博士、译者上海交通大学闫宏秀教授和复旦大学杨庆峰教授、再次汇聚论坛,回眸该书。该书的睿见为技术伦理的新类型、新冠疫情的伦理应对和智能时代的人类焦虑等相关问题的解决提供了极具启发性的建议。

  注:以下稿件原文发表于《读书》社会科学报  2020年8月27日  第8版

  ●召唤新型态的技术伦理 ●
洪靖( 荷兰特文特大学)


洪靖博士
荷兰特文特大学


  今年不只是《将技术道德化》中译版出版的第五年,更是英文原版的十周年。从这几年学界与读者对《将技术道德化》的反应与理解来看,大概可以区分出三个层次。


  第一种,是将“将技术道德化”(moralizing technology)看作是理论层面的调整或修正,意即,过去不论是(古典的)技术哲学或是社会学,多将技术视为与道德无关:我们可以讨论技术的功能或效率,但绝不会说技术有什么道德。维贝克透过此书说明,如果技术无论如何无论必定影响人们的感知和行动,而这些感知和行动又涉及道德评价,那么技术本身可以说是蕴含了道德效果和作用。换句话说,道德是一组“人与物”互动和加总的结果,单把道德归属于人,无疑遗漏掉了人们道德生活中的重要元素。因此,“将技术道德化”意味着,我们必须从理论上关注技术的道德意义。


  第二种,比较接近传统的“技术伦理”(ethics of technology)。如果技术会带来不好的后果,比如说城市中的低架桥导致公交无法通过,间接使得只能搭乘公交的中下阶层无法前往特定区域,那么这样的技术无疑是有道德疑虑的,而我们的工作就是阻止或改善这样的技术,使得它更公平、更符合当前社会持有的道德标准。也就是说,“将技术道德化”意味著“将(可能)不道德的技术变得道德”。在这种理解下,更多的民主程序是必须的,唯有让“利害关系者”(stakeholders)发生、并且考量他们的需求,才能避免产生不道德的技术。


  第三种,则是“将技术道德化”最积极的一个面向。维贝克认为,不能止停留在“避免技术犯道德错误”的阶段,而是应该向前迈进,使技术能够帮助人做出正确的道德决定和行为。比如,一张精心设计的沙发,可以在经年累月的使用下产生出新的花纹,这样的沙发就能让使用者更加爱惜、不轻易丢弃,从而减缓过度浪费的垃圾问题。正是在这一点上,“将技术道德化”意味着所谓的“道德物化”,把某些值得鼓励的道德价值“写”入技术当中,进而督促使用者做出道德行为。这种解理,表示我们需要为“将技术道德化”这六个字后头再补上几个字:以道德化人们。


  无疑,《将技术道德化》最有发挥之处,也是维贝克最希望推动的,正是第三种理解。这表示,我们需要某种程度脱离传统的技术伦理,从“防止科技犯错”转向“设计科技来帮助人们做对(的事情)”,而这种技术伦理,无法只是描述技术的伦理后果,也不能只是为技术制定各种伦理准则,更重要的是,是透过技术来“做”伦理,用英文来说,就是 Ethics by Technology。同样翻译为技术伦理,但其意涵已经大不相同。


  《将技术道德化》曾引发许多哲学讨论,诸如:技术有道德能动性吗?技术能作为道德行动者吗?我们应该透过设计技术来设计人们的行为吗?这些讨论当然有其价值,但过度聚焦于这些问题,反而会让我们错失“将技术道德化”此一概念最应当深掘的潜力与契机:召唤新型态的技术伦理。


●新冠应用程序的伦理应对:《将技术道德化》的新场景●
闫宏秀( 上海交通大学)


闫宏秀教授
闫宏秀,博士, 2003年毕业于复旦大学哲学系,并于同年进入上海交通大学,现为上海交通大学科学史与科学文化研究院教授,现担任上海自然辩证法研究会理事、上海中青年技术哲学论坛发起人、负责人、中国自然辩证法研究会技术哲学专业委员会常务理事等。


  在此次新冠疫情的防控过程中,抗疫机器人的智援、网大数据技术对疫情信息的实时报道与预测、智能封条辅助居家隔离等进一步彰显了技术之力。与这种技术之力相伴随的伦理问题也渐次浮出。毫无疑问,技术仅仅是一种工具或手段的观点伴随技术的发展日渐式微,与此同时,技术与伦理之间的深度关联在关于技术的伦理学思考备受关注,特别是基于技术即从内部而非从外部评估技术的方式进行的伦理学探究,在解码技术自身伦理意蕴的基础上,走向技术实践与伦理学相结合。


  恰如维贝克为本书中文版所特意撰写的序言所言:“发展一种从‘内部’的伦理学,使得技术的道德意蕴变成技术发展的一个显性要素。”近期,各类新冠应用程序(Corona-APPs)相继进入到我们的日常生活之中新冠应用程序借助数据收集与分析,识别潜在感染者,标出新冠病毒出现的地点,进而达到对新冠病毒的有效预测与干预,确保人类健康。但与此同时,与其相关隐私的问题也备受关注。事实上,技术设计本身就是一个“具有内在道德性的行为”,并且在维贝克看来“基因检测技术创建了一种道德困境,同时,也为应对这种道德困境给出了建议。”


  就技术设计而言,其不仅仅是一个实现技术功能的过程,也是技术道德化的一个过程。《将技术道德化》一书在“设计中的道德”一章指出:“关于技术发展的道德问题包括比最小化风险和阻止灾难更多的内容,尽管它们都很重要。所有设计中的技术最终要调节人类行动和体验,这有助于形成我们的道德决策和生活质量。因此,技术设计的伦理学应该处理这些未来的调节作用。”从新冠应用程序设计的初衷来看,旨在新冠病毒的防控与人类健康的确保。面对与其紧密相关的隐私问题,新冠应用程序在用户安装的过程中,技术化的相关提醒对隐私问题进行了某些回应。


  如,此次疫情防控的利器——“健康码”,在特殊时期借助数据智能有效地缓解了疫情防控与复工复产复学以及人们日常生活之间的种种矛盾,此时的隐私问题可以从特殊场景伦理的视角来分析。但伴随疫情防控的常态化,关于“健康码”相关数据的处理、“健康码”功能的迭代升级、因无智能手机而无法使用健康码的用户在日常生活中面临不便而带来被技术拒绝的不便与无望等时,维贝克从调节的视角,通过道德想象、建构性技术评估、技术道德化方法、预期调节与评估调节等所展开对技术设计伦理问题的剖析与应对为上述问题的解决提供了极具启发性的建议。


通过技术调节克服智能时代的人类焦虑●
杨庆峰( 复旦大学)


杨庆峰教授
复旦大学生命医学伦理研究中心、复旦发展研究院教授,主要研究方向是记忆哲学与人工智能伦理、科学技术哲学等。


  2016年,维贝克教授《将技术道德化:理解与设计物的道德》在国内翻译出版。4年之后再重读这本书,有些不一样的感受。智能时代中多种技术发展速度远远超越了人们的想象,其速度和规模带来了普遍的技术焦虑。作者指出,技术焦虑基于一种基本误解。那么这种误解是什么?这本书对缓解智能时代的焦虑有什么理论上的价值和意义?


  在这部著作中,“基本误解”是关于技术伦理的误解。在主流伦理学中,伦理仅仅是人类的事情,伦理主体是人这样的能动者。如果强调技术物的道德意蕴,一定会降低或者有损于人类责任;与此相对应,技术是沉默的、被动的、缺乏意向性。维贝克所说的误解是日常流行的工具论观念。海德格尔那里也有过类似的批判,只是他更加强调从存在论角度展开反思,而维贝克则选择了伦理角度。他澄清了这种误解,并且指出。“需要将技术作为道德相关性实体阐述而不是仅仅作为具有道德的人类手中的工具”


  在澄清基本误解的基础上,他构建了技术物道德意蕴的理论体系。那么他如何实现这种构建呢?首先他扩展了传统伦理学的界限。他指出,“扩展的伦理学首先是道德共同体的扩展”,即将技术实体及其人类的联系纳入到道德共同体之中。这种扩展并不是范围的扩大,是“伦理学的转换”。其次,他将万物有灵论看作他的开始点。在他看来,“万物有灵论将技术视为十足的道德行动者。”但是,万物有灵论早已被历史淘汰。于是,他从福柯身上找到共鸣之音并敏锐地看到了福柯的价值。“福柯对道德能动性的重新诠释克服了许多伦理学路径所具有的人与技术的分离特征。”为了更好地说明这一点,他举出了枪与人的例子。他的分析让我们看到,枪和人正在组成一个新的实体,这个实体进行射击行为。


  如此,一个呈现技术道德意蕴的体系被构建起来。这一体系非常有助于我们思考智能时代及其技术。检测胎儿的超声波、减速带、福德风(Foodphone)以及用于治疗癫痫和忧郁的大脑深度刺激技术(DBS)等成为他分析的例子。这些例子分析都指向了一个:人类总是在与他们使用的技术关系中形成自身。


  承认技术本身的道德意蕴是反思当前智能时代人类焦虑的有效出路。这是以往解读中忽略的一点。技术并非冷冰冰地、强硬地嵌入我们生活的工具,它以及它和人类的关系是我们形成自身以及调节我们行为的根据。意识到这一点,在明确了技术工具论的局限之后,人类焦虑也就是有了克服的可能性。


作者:洪靖、闫宏秀、杨庆峰
来源:数忆苑
链接https://mp.weixin.qq.com/s/YrvtT-UyIaqfM3l_-vD6sQ



编辑:王雅欣


435#
 楼主| 发表于 2020-9-25 11:10:36 | 只看该作者
【案例】
人工智能伦理的终极困境
在人工智能领域,创造秩序的危机是讨论伦理问题的根本原因,人工智能伦理最直观的必要性,来自人类对未知、强大之物的恐惧。
| 郭锐
中国人民大学法学院
将善恶好坏的知识,最终归结于主体还是客观世界,分别定义了道义论和结果论的伦理学路径。以康德伦理学为代表的道义论为例,以主体自由为最终决定的标准,人必须遵循一系列的原则。这些原则来自主体本身。结果论者(功利主义者)反其道而行之,人的行动在客观世界产生的结果成为评判人的行为的最终标准。[1]
超越利害衡量和抽象原则的路径何在?也许我们应当采纳一种真正的谦卑,尊重这个世界的创造秩序。古希腊伦理学的传统有一个前提,即人的秩序是宇宙秩序的一个部分。也许我们应知道,自身已有的原则或许不足以为世界立法。功利主义和以它为基础的经济分析在近年来不断受到批评,这也告诉我们,谦卑地承认我们无法预知行动带来的客观世界的变化、更无法精确衡量利害得失,才是理性的结论。如《箴言》云:敬畏创造者是智慧的开端。
在人工智能领域,创造秩序的危机是讨论伦理问题的根本原因,人工智能伦理最直观的必要性,来自人类对未知、强大之物的恐惧。弗兰肯斯坦的形象——一个在雷电中诞生的人和机器结合的怪物——是这种恐惧在艺术作品中的表达。人们对这些强大却并不良善的力量,通常会感到恐惧。我们害怕我们所创造的东西最终带给我们的是毁灭。有了原子弹之后,我们第一次有了可以把整个族类毁灭的力量。之前在冷兵器时代,即便大规模的战争,也并不能毁灭全体。原子弹的出现,在人类历史中发挥着巨大作用,也使人类对技术有了伦理的反思。人工智能会不会和弗兰肯斯坦这个怪物一样呢?我们会不会创造一样技术最后毁灭了我们人类?站在一场技术革命的入口处,人类所恐惧的是秩序的颠覆:伊甸园中的亚当和夏娃被魔鬼描述的分辨善恶树的果子所诱惑,上帝的秩序因此被颠覆。如果说人类对人工智能的恐惧不是因为机器做出不利于人的决策,而是机器代替人决策本身,那么我们也许可以看到人工智能伦理的终极困境是对创造秩序的颠覆。今天,面对一个被自己创造的技术反噬的可能性,人类不得不重新思考个人自我认知、人际关系、个人与经济组织、个人与国家关系的变化等等一系列的问题。
《弗兰肯斯坦》电影海报
以创造秩序的思考为前提,我们看到人工智能伦理的两大难题:1. 因果联系难题:人工智能被委以对人类事务做决策的能力,但它对决策结果的伦理判断能力不足:2. 终极准则难题:由于缺乏引导人工智能发挥作用的终极道德准则,人工智能难以在互相冲突的决策之间权衡。产生上述两个难题的根本原因是人工智能相对于人的局限。
因果联系难题来自人工智能对决策后果的伦理意义的认知的局限性。换言之,人工智能对某一决策与其他社会影响之间难以建立因果联系,这在超级人工智能出现的条件下会导致人类的灭顶之灾。泰格马克举了人和蚂蚁的例子:尽管人并不是故意想要踩死蚂蚁,但是人因为不在乎蚂蚁的利益,经常会踩死蚂蚁。放在人和人工智能之间,因果联系难题在于人工智能并不“在乎”人的利益。尽管人工智能决策的目标并不是直接损害人,但完全可能对人产生间接损害,而后者对人可能是致命的。从蚂蚁的视角观察这个世界,类似于面对工业革命以后,人类对机器的恐惧:人操作的是一台开动起来就无法及时停下的机器,工人的手要是不小心卷进高速运转的机器,就会造成工伤。人对机器怀有一种根深蒂固的恐惧:机器只是重复机械执行人的命令,一旦开始就停不下来,会造成无法预料的后果(这种无法预料可能是因为设计者的疏忽,也可能是因为人的智力局限无法预料),如对人类肢体的伤害。这里我们看到机器区别于和人的特征是它缺乏随时随地进行的伦理判断的能力,而等到人介入的时候,为时已晚。
在当代,人工智能往往被用来解决一个具体问题,而且只能通过已有的有限数据来作出决策,往往无法像人一样理解更广的社会和伦理语境。例如,人可能给出的是获取食物的指令,带来的是宠物被人工智能杀死的结果。人工智能对结果的伦理意义无法完全理解,以致于执行了人没有想到的指令。故此,我们对人工智能缺乏对对决策后果的伦理意义的认知有恐惧,是完全可以理解的。在人工智能技术(机器学习)本身缺乏透明度(黑箱问题)时,我们更有理由忧虑人工智能对决策结果的伦理判断能力不足。人工智能往往因为算法的原因(例如机器学习)和在具体情形下总是会有算力的局限,无法回溯机器作出决定的具体机制。无法回溯会带来在事先预测后果和事后作出纠正的能力的局限,导致我们在是否应用人工智能技术的问题上踌躇不决。
终极准则难题来自于人工智能因没有已知的道德准则来指引其决策,难以在不同的决策结果之间进行比较。当人工智能能力很强大,它有潜力成为新的“上帝”,即人工智能成为人类全部决定的参与和影响者。但是,上述困境导致我们创造的“上帝”无力护理这个世界。”电车难题“淋漓尽致地表现了机器决策的困境:在发生事故时,无论自动驾驶汽车作出何种决策,都不是人类已有的共识。但其决策结果势必决定众多群体(如车内乘客和路上行人)的生死。这种困境让我们惊恐万分:当我们在发展一种强大的技术时,却没有能力找到它的终极控制方案,这让掌控技术的人承担了难以负担的责任。
这两大难题导致了在实践的层面人们对人工智能技术的影响有如下两方面的忧虑:1. 人工智能技术恶化(范围扩大和程度加深)了已有的问题(如歧视、财富不平等);2. 人工智能技术带来了新的问题(如让有些人智力超过其他人,产生新的不平等的渊源)。工业革命之后,当机器出现在人类生活中,人们也曾感到忧虑。但人工智能技术带来的忧虑远甚于当年。人工智能技术第一次让机器不仅比人强大、而且还可以不依赖于人进行自主决策。如果问题仅仅是人控制机器做坏事,我们还可以通过对人的教育、追责来进行预防;如果机器可能“自己决定”做坏事,我们如何应对?
面对人工智能伦理的终极困境,当我们真正谦卑地寻找这些问题的答案,我们应该回到历史中、社会变迁的背景下寻找新的起点。每当人们开始谈论伦理学,其背景总是社会上已经出现对伦理失范的恐惧。古希腊的修昔底德描述了希腊哲学开始探讨伦理学的历史背景。伯罗奔尼撒战争的第二年,雅典爆发了大瘟疫。瘟疫对雅典人道德的影响非常大。修昔底德写道:
人们在神庙当中的作为,对神谕的讨论以及类似举措,这一切都无济于事。事实上,最后人们完全被他们所遭受的痛苦所压倒,以至于根本没有多余的精力投入到这些事上……他们在无人照料的境地下死去;实际上在很多房屋里,屋中人在无人注意的情况下悄然离世…死者的尸体相互枕藉,随处可见奄奄一息的病人在街上蹒跚而行,或是因为干渴而成群地聚集在泉水边。神庙当中到处都是尸体,他们死在神庙当中。由于灾难是如此无法抵抗,不知道接下来自已身上会发生什么的人们对于一切宗教律令和法律规定都视而不见……无论是对神的恐惧还是人制定的法律都不再具有约束效力。至于神灵,无论是否崇拜它们,事情看起来都是一样的,当人们看到好运和厄运无差别地降临到人们身上的时候。[2]
面对日常存在的死亡威胁,有不少雅典人选择不再服从传统和习惯,开始整日纵欲享乐,因为即便是富人权贵也可能死于非命。荣誉对雅典人也不再有吸引力,法律也不能再约束雅典人。这让希腊的思想家们开始思考伦理究竟是什么。

马可・奥勒留(公元282年-公元283年在位)
类似地,罗马帝国的两次瘟疫是西方伦理学传统形成的关键时期。公元165年,在马可・奥勒留( Marcus Aurelius)统治时期,一场毁灭性的大瘟疫席卷整个罗马帝国。在瘟疫最盛行的时候,川流不息的大篷车和四轮马车不停的把尸体运出城外。一个世纪以后,罗马再次遭遇了大瘟疫。在此背景下,罗马社会迅速地被基督教伦理思想所影响,其最终结果是君士坦丁大帝顺应民情改宗基督教。迦太基主教居普良写道:
在这看似可怖和致命的瘟疫和灾难当中,寻找属于每个人的正义并检视人类的心灵是多么适合,又是多么必要;病人是否得到了妥当的照料,亲属是否如他们所应做的那样去负责地爱护他们的亲眷,主人是否对他们染病的奴隶展现出同情,医生是否不离弃染病者…尽管死亡对任何其他事都毫无益处,但它对于基督徒和上帝的仆人有进益之功,当我们学着不去恐惧死亡的时候,我们已经开始愉快地寻求殉道之路。这是我们的尝试性的锻炼,而非死亡;它们给心灵以拯救之荣耀;通过蔑视死亡,它们准备了王冠…我们的弟兄们因主的召唤而自这土地上挣脱出来获得自由,不应为此感到悲伤,因为我们知道他们并未消逝,而只是先走一步;在启程之时他们引领着道路;正如旅人惯于漂泊,他们不应得到悲悼……而异教徒由此而来的对我们的指责是不公平也不公正的,追根究底,我们是在为那些我们说仍然活着的人们而感到悲伤。[3]
在西方,早期基督教在文艺中面对死亡的伦理反思,大大影响了伦理学中对超验基础的强调。基督教伦理思考开始了“把人作为人来对待”这一伟大传统。类似地,当查尔斯.泰勒在追溯现代社会观念的产生时,在众多形形色色、纷繁芜杂的思潮中发现了自然法思想的独特。在过往的西方思想史研究中并不引人关注的国际法学家格劳秀斯、普芬道夫成了泰勒眼中现代性的真正开端:尽管一开始他们主张的自然法思想不过是国王统治秩序的新颖辩护,很快这种思想就成为批评旧秩序的思想来源。泰勒的追溯,为如何理解西方现代性的独特性提供了新鲜视角。[4] 自然法思想将个人权利建立在超验基础上时,才有了现代社会生活的可能性。在西方世界,人们以自然法为开端,把社会想象为(1)通过互相交换货物和服务而达到共同获益的经济,(2)在陌生人之间讨论共同关心话题的公共空间;和(3)无需共同接受的超验原则、通过某些世俗做法而形成一个国家。自然权利和自然法由此成为西方现代性的伦理基石。
在上述自然法和自然权利的语境下,人们将善恶、好坏的追问归结于主体或者客观世界,这是现代性生成中主体构建的过程。[5] 在技术革命又一次到来的今天,很多学者把人工智能技术比作蒸汽机,认为这是社会巨变的又一次肇始。我们有没有发现一种新的伦理思想框架?何种理论会成为伦理学的新起点?何为人工智能时代的“自然法”?本书正是对这些问题的初步思考。
如果我们回顾人类社会的发展历程,会看得很清楚,十九世纪和二十世纪工业革命和现代机器大工业的发展,让人们开始反思科技到底给人类社会带来了怎样的影响。一方面,现代科技帮助人类征服了洪水猛兽、干旱饥饿等等“外部敌人”;另一方面,在物质层面,科技发展打破了人与自然的原始平衡,带来了笼罩全球的环境和生态危机,在精神层面,技术在帮助人类征服自然方面的成功引发了工具理性的过度膨胀。工具理性所关注的是非人格化的逻辑关系,它以可计算的效率为主要追求目标,拒绝价值考虑的介入。而包括马克思在内的社会理论家提出的反思是,随着工具理性逐渐成为现代社会的主要模式,人本身也逐渐失去主体性而被对象化。
人工智能技术对人的主体性带来了更大的挑战:人工智能把人更彻底地带进了算法决策的技术规程之中,这会不会恶化已有的问题、让社会产生更多的新问题?这一点我们在目前的技术发展和应用中已初见端倪。随着人工智能技术的发展及其在自动驾驶汽车、医疗、传媒、金融、工业机器人以及互联网服务等越来越多领域和场景应用的不断扩大和深入,一方面带来了效率的提升、成本的降低,有助于解决诸如失业、贫困等社会性问题;另一方面,人工智能系统的自主性使机器逐步替代了人类的工作,并且这种替代有时非但没有解决已有的问题,还恶化了已有的困境,甚至带来了新的挑战,引发社会公正、安全以及责任界定等诸多问题。如何在机器决策范围越来越广、程度越来越深的同时,保持人的道德主体性,是我们提出解答的关键。

  
[1] 关于对道义论和功利论的批评,参见【德】朋霍费尔:《伦理学》,胡其鼎译,上海世纪出版集团2005年版,第39-41页。
[2] 参见:[古希腊] 修昔底德:《伯罗奔尼撒战争》,徐松岩、黄贤全译,广西师范大学出版社2004年版,第137-144页。
[3] 参见:[美]罗德尼·斯塔克:《基督教的兴起》,上海古籍出版社2005年版,第四章。
[4] 参见:[加]查尔斯·泰勒:《现代社会想象》,林曼红译,译林出版社2014年版,第14页。
[5] 参见:[加]查尔斯·泰勒:《自我的根源:现代认同的形成》,韩震等译,译林出版社,2012年版,第34-40页。
本文选自郭锐:《人工智能的伦理和治理》,法律出版社2020年版,第12-20页。
作者:郭锐  
来源:微信公众号——三会学坊
链接:https://mp.weixin.qq.com/s/oqVSLFzSFZHOKgNjr885iA
编辑:宋婷

436#
 楼主| 发表于 2020-9-26 17:56:12 | 只看该作者
【案例】
《人工智能的民事责任制度:欧盟增值评估》报告发布
作者:Dr. Tatjana Evas
摘要翻译: 李晨,澳门大学法学院博士生
欧洲增值评估(EAVA)的结果表明,欧盟对人工智能系统的民事责任制度的修订可能会产生实质性的经济和社会附加值。目前的初步分析表明,到2030年,欧盟的责任诉讼可能会产生548亿欧元的附加价值。如果还考虑其他更广泛的影响(包括减少事故,健康和环境影响以及对用户的影响),那么通过提高AI的研发水平为欧盟经济带来的价值将在4,983亿欧元之内。降低风险,提高安全性,减少法律不确定性以及相关的法律和诉讼成本,并增强消费者的权利和信任。这些要素可以共同促进AI的更快,更安全的吸收和传播。成员国尚未通过与监管AI责任相关的特定法律,但无人机,自动驾驶汽车和医疗AI应用除外。因此,在欧盟层面及时采取行动将减少监管机构的分裂并降低AI生产商的成本,同时还有助于确保对欧盟基本权利和消费者权利的高度保护。
以下是摘要:
民事责任制度肯定会影响人工智能系统(AI)的速度,方向和扩散。对欧盟采取常见的人工智能(AI)责任和保险行动的欧洲增加值的定量评估表明,通过加快研究水平,到2030年欧盟的责任行动可为欧盟经济创造548亿欧元的增加值。如果考虑其他更广泛的影响,包括事故数量,健康和环境影响以及用户影响的减少,则AI的价值将达到4,983亿欧元。
明确的事前责任规则和AI责任框架的主要经济功能是:阻止参与者从事危险活动,从而防止和减少事故发生,并促进产品或服务的安全标准和正确定价。通过减少诉讼过程中的不确定性来鼓励创新投资,并鼓励消费者传播和吸收技术。
这些重要功能意味着责任政策将对经济和社会产生重大影响,从而解释了欧盟共同行动可能带来的巨大附加值。除了直接减少风险和提高安全性外,责任政策还对创新,研发投资以及最终的商业竞争力产生动态影响。责任制度还具有相当大的社会影响,因为风险分配规则和损害赔偿机制决定了消费者对技术的接受程度,并且它们还与公平和正义相关。
当前的欧盟民事责任制度基于部分统一的产品责任制度。这种责任制度与成员国内责任制度相结合。同时,欧盟产品责任制度以欧盟产品责任指令(PLD)为基础。PLD提供了一个已经适用和将适用于AI的有效民事责任制度。但是,损害和例外有关的许多未解决的问题很可能在实体范畴中造成越来越多的不确定性,并可能给生产者甚至消费者带来负面影响。
一项对19个会员国的国家赔偿责任制度进行的比较法律分析表明,成员国之间在现行规则与适应AI相关新挑战的灵活性方面存在很大分歧。这项比较分析表明,在缺乏欧盟共同行动的情况下,成员国之间可能会出现非常不同的做法和解释。这在某些情况下可能会给内部市场的运作带来障碍。
欧盟必须就AI责任采取共同行动,因为这将带来成员国个别行动无法实现的附加价值。欧盟共同行动在促进人工智能技术的传播和采用以及欧盟经济竞争力方面发挥了很大作用,同时有助于合理利用资源和引入公平的风险分配机制,鼓励创新并降低所有经济参与者的不确定性成本,提振消费者信心以及为商业和公民减少不确定性。在以上基础之上,及时并连贯地在欧盟层面采用责任制度,有可能为欧洲经济带来巨大的附加值。
欧洲《人工智能的民法责任制度》报告目录
作者:李晨  
来源:数据法盟
链接:https://mp.weixin.qq.com/s/Ysrjc13zfJyt6jcICG6dhA
编辑:宋婷

4.jpg (405.89 KB, 下载次数: 13)

4.jpg
437#
 楼主| 发表于 2020-9-30 22:48:45 | 只看该作者
【案例】
我们人类与人工智能技术究竟是怎样的关系?

图片来自pixabay.com

摘要:
数字技术正在和人类文明协同进化。我们依赖技术而生存,技术也依赖我们,这种合作共生的趋势越来越明显。技术并不是所谓的“应用科学”,和发现相比,它更多地受到创造力的驱动。任何进化过程都需要随机变异,创造力让这种突变成为可能。软件已经成为了一种类似于新生命的基因序列的东西,与人类协同进化发展。
有关科学哲学的热门书籍大都会有引人注目的标题,比如“什么是时间”、“什么是物质”、“什么是能量”,或者“进化如何催生出意识”等。但如果你读一些这类的热门书籍,便会发现其中有不少关于人类社会如何从采集社会到农业社会,再到工业社会的论述。

计算机技术创造出了人工智能,并将改变未来工作的性质,我的书《柏拉图与技术呆子》,就是关于数字和计算机技术的一部作品。这一切与眼下正在发生的事情息息相关。书中的一个重要主题便是数字技术正在和人类文明协同进化。

我们依赖技术而生存,而技术也依赖我们,这种合作共生的趋势越来越明显。技术并不是所谓的“应用科学”,和发现相比,它更多地受到创造力的驱动。任何进化过程都需要随机变异,创造力让这种突变成为可能。

即便自动驾驶的汽车会出现追尾事故,会失控冲向人群,大多数汽车制造商今天仍在生产这样的汽车。

为什么?这是技术问题吗?还是经济问题?或是责任法和个人自由的文化议题?我相信后者是主要的。

技术发展和文化发展盘根错节、息息相关。如何看待人工智能技术的出现和使用?

谷歌、脸书、亚马逊、苹果,以及许多初创公司和非营利组织已经通过技术让我们变得更聪明、联系更紧密、也更易受到伤害。

我们把人类已经获得的知识放进口袋随身携带,而非放入大脑中。令人惊讶的是,维基百科已经成为了一种集体主义的智慧,这只“百科”甚至已经具有了生物的许多特征:它会对来自环境的刺激(通过网络传入的电信号)作出反应;会自动运行(至少可以维持一段时间,但长期看来仍需依赖于我们);需要营养补给(来自电网的电力);可以自我修复(故障监控,见《柏拉图与技术呆子》);甚至会做梦(通过后台索引为搜索提供便利,见《柏拉图与技术呆子》第5章)。

这些工具中,人工智能不仅替代了思维,也在改变着人类思维的性质。

我们人类正在设计这些技术吗?我们是“造物者”吗?这些技术是将科学的真知灼见付诸实践的结果吗?这些创新究竟是科学的发现还是文化的制品?

我的基本主张是,数字计算已经达到了一定的范围和程度,而新出现的体系太过复杂,无法用有逻辑、严密规整的方式加以总结。这其中最具代表性的,便是软件。

软件会取代我们吗?

软件已经成为了一种类似于新生命的基因序列的东西,与人类协同进化发展。一如上面提到过的,维基百科。

对于那些复杂的数字和计算行为,比如在维基百科、银行系统或智能手机中的行为,我们很难辨认出哪些认知体进行了组织严密的智能操作。

这些系统是通过许多部件和抽象层的结合而发展出来的,它们自身也同样在发展,经过数十年的反复设计和修正,其间也出现了不少失败和创造性的转折。

这是典型的协同进化、随机变异和适者生存的过程。用与理查德·道金斯同样跻身于“新无神论者四骑士”之一的哲学家丹尼尔·丹尼特的话来说,“适应度强就是生殖能力强”。软件的生殖能力源于它能为使用者提供具体的好处,如为使用者提供收入。

根据理查德·道金斯[1]和丹尼尔·丹尼特[2]的说法,人类文明是按照达尔文的方式进化的。文化的“复制因子”是“模因”,即思想和文字。但模因并不像软件那样像生物。原则上,软件能够在没有人类的情况下自主生存,这也是让人工智能如此可怕的一个重要特性。但是,如果未来出现的是一种共生关系而非单方面的毁灭,我们便都可以更好地生存。

以任何客观的标准来衡量,软件已经让我们的生活变得更好了。因为它们的出现和使用,我们的金融体系变得更加高效;我们能够对食物进行生产和分配,如今的我们甚至比过去的法国国王吃得更好;通讯系统更加普及;我们有了以信息为中心的经济活动新领域。

然而,软件会取代我们吗?我在《柏拉图与技术呆子》中指出,数字和计算的本质为软件的发展设下了局限,这些限制最终可能会使人类显得独特而灵活[3]

令人不安的是,文化和技术的变化似乎都在加速。快速的协同进化在本质上是不可预测的。快速进化依赖于生存的另一面——死亡。在我们的文化中,极速前进便是迈向死亡。而且,大多数软件在未能为其人类共生体提供足够的效用时就会死亡。

我调查了把发现置于发明之上、发明置于设计之上的文化价值体系,探讨了工程和科学之间的关系,探讨了它们协同进化的模因。我在书中指出,虽然工程师和科学家都在开发和使用模型,但他们在以不同的、互补的方式使用模型。


《柏拉图与技术呆子》,作者:爱德华·阿什福德·李

《柏拉图与技术呆子》提出了两种对立的观点:一种观点认为,知识和技术是由柏拉图式的理想构成的,这些理想独立于人类而存在,并被人类所发现;另一种对立的观点是,知识和技术是人类创造的,而不是被发现的,于是,标题中的“呆子”是一种创造性的力量,它是主观的,甚至是古怪的,不是客观的、被挖掘出的、已经存在的事实。

我不是哲学家,但从某种意义上说,这是一本哲学书。我很想让它易于理解,但我的部分论点如果不借助一点数学知识是无法得出的。例如,我推翻了当今在许多科学家中流行的一个理论,即物理世界中的一切都是数字和计算的结果,因此,我们的大脑就是计算机。我用了一点数学知识来说明,这并不是一个科学的命题(它是不可证伪的)。它只能靠信仰来支撑,而这种信仰几乎没有正当的理由。

抛开数学方面的内容,我一直在努力使这本书既具可读性,又能让懂数学的人文主义者和懂文化的技术专家都感兴趣,但这是我第一次尝试写这样的书,这本书的类型甚至也可能是独一无二的。故事一直在发展,虽然故事有结尾,但我希望在结尾向你展示,我们的探索没有尽头。



作者: 爱德华·阿什福德·李,现任伯克利工业CPS研究中心主任,曾任加州大学伯克利分校电子工程与计算机科学系主任,现为该系罗伯特·S.佩珀特聘教授。主要研究方向是嵌入式与实时计算系统的设计、建模和模拟。他是嵌入式系统领域的知名学者,也是CPS研究的倡导者和引领者之一。李教授分别于耶鲁大学、麻省理工学院及加州大学伯克利分校获得本科、硕士及博士学位。他共有《嵌入式系统:CPS方法》等专著8部。他是电气与电子工程师协会会员,获电气与电子工程师协会杰出技术成就与领导奖、美国国家科学基金会总统青年科学家称号以及弗雷德里克·特曼工程教育奖。


参考文献:

1.Dawkins, R. (1976) The Selfish Gene,Oxford University Press.

2.Dennett, D. C. (2017) From Bacteria toBach and Back: The Evolution of Minds, W. W. Norton and Company.

3.Lee, E. A. (2017) Plato and the Nerd: TheCreative Partnership of Humans and Technology, MIT Press.


来源:赛先生
作者:爱德华·阿什福德·李(加州大学伯克利分校教授)

编辑:冯梦玉

438#
 楼主| 发表于 2020-9-30 22:59:20 | 只看该作者
【案例】
GodsAnd Robots

Time-traveling back to antiquity might helpus think about the human transformations of the future.
According to Greek myth, after the creationof humans and animals, the gods assigned Prometheus and his younger brotherEpimetheus to allocate their capabilities. The brothers were Titans, a race ofdivine beings. Epimetheus requested the privilege of assigning the variouspowers and characteristics to the creatures on Earth, promising that Prometheuscould then inspect his work.
Epimetheus began sorting out the natures ofthe animals of land, sea and sky. So absorbed was Epimetheus in the task ofensuring their survival — with speed, strength, agility, keen eyesight andhearing, a superb sense of smell, venom, camouflage, wings, feathers, fur,scales, fangs, talons, hooves and horns — that he absentmindedly used up allthe abilities on non-reasoning beings. Just as his brother Prometheus, whosename means “forethought,” arrived to inspect the creatures — and on the veryday they were destined to emerge on Earth — Epimetheus, whose name means“afterthought,” realized with a start that there was nothing left for thenaked, defenseless humans.
Plato relates that Prometheus was“desperate to find some means of survival for the human race,” so heappropriated the technology of fire from the gods to bestow on puny mortals.With the gift of fire, men and women could make tools and figure out ways tocompensate for their pitiful physical shortcomings.
Prometheus and the Eagle.” (JamesSteakley, 1906)
In this ancient “speculative fiction” abouthumanity’s relationship with technology, the gifts bestowed by Prometheusrepresent the first human enhancements — the first attempts to overcome thelimitations of the human body by natural or artificial means. Prometheus’s giftto humanity keeps on giving, with potential for both positive and worrisomeramifications. It is techne — craft — along with intellect, imagination andaudacity that are the unique gifts that human beings rely on to survive in theworld. Technology makes up for our absurd frailty,” the Americanphilosopher of ethics and technology Patrick Lin has written. “We naked apescouldn’t survive at all, if it weren’t for our tool-making intellect andresourcefulness.”
“‘Technology makes up for our absurd frailty.’”
Patrick Lin
Facebook
Twitter
Email
Artificial improvements to overcome thelimitations of the human body and to expand natural strength, sensory apparatusand abilities — now known as human enhancement technologies — may seem like cutting-edgescience. We often hear both pessimists and proponents claim that our currenttechnology — including artificial intelligence and genetic engineering — isunprecedented, unique to modernity. Yet the concepts of augmenting humancapabilities are ancient, as are the qualms they evoke. Time-traveling back toantiquity might help us think about the human transformations of the future.
The very earliest tools — stone hammers,spears, the atlatl, the bow and arrow — can be considered the first human enhancementsbecause they extended a person’s reach and aim and exerted force. In classicalGreek antiquity, bows and arrows, even when wielded by great mythic heroes likeHercules and Odysseus, were sometimes criticized as cowardly weapons, akin toambush, because they allowed one to kill from afar or in an underhanded waywithout facing an adversary in hand-to-hand combat. Catapults, developed in thefourth century B.C.E., carried forward the trajectory of human enhancements forwarfare, which continues unabated. When he was shown one of the first torsioncatapults in action, the Spartan general Archidamus famously declared that theinvention marked the end of human valor in battle.
Greek myths envisioned borrowing theenviable powers of gods and animals to compensate for human vulnerability.These myths represent some of the earliest science fiction, and whereimagination leads, innovation follows. Besides archery and catapults, we havemany historical examples of human enhancement technologies in antiquity, fromprosthetics of surprising ingenuity to developments in military armor. Thedesire to enhance human capabilities is timeless, and it is striking to see howmythic and historical examples foreshadow modern advancements — and drawbacks —in trying to improve nature.
Human Enhancements In Myth
Plenty of myths and legends turn on thefolly of seeking immortality. But if turning back old age and postponingnatural death were impossible, then could mortals at least hope to enhancetheir physical capabilities? Humans were so feeble compared to the gods; evenbrute animals enjoyed more magnificent powers than the most robust men andwomen. In classical antiquity, a thought-provoking group of mythic tales aboutartificial life investigated whether “biotechne” — “life through craft” — couldbe used to upgrade nature and somehow engineer hyper-human abilities.
Today, human enhancements — includingvisual and hearing aids, titanium joints, artificial heart valves, bionicprosthetics and an array of medicines — are commonplace and welcomed. Butcontroversies arise over some human improvements and supernatural enhancementsslated for questionable uses. People start to worry when, for example,corporations create lip-reading and facial-recognition software and claim thatonly good uses will be made of them.
Serious concerns also surround scientists’ambitions to make “more than human” individuals through implants, artificialintelligence-enabled exoskeletons, human-machine hybrids, human-animal hybrids,gene manipulation, neuro-robotics, micro-robotics, powerful drugs,electro-pharmaceuticals and biomimetic technologies. A swarm of practical andmoral risks rises around attempts to “upgrade” the bodies of humans to developaugmented super-soldiers, military androids and cyborgs. The outlines of someof those quandaries were foreshadowed in ancient Greek times.
Hephaestus,the Greek god of fire and forges. (Benoitb/Getty)
In myths about the legendary inventorDaedalus, the techno-wizard Medea and the super-watcher Argus, we find theearliest records of how the Greeks imagined it might be possible to augmenthuman powers. Daedalus was a brilliant craftsman who famously fabricated wingsfor himself and his son Icarus to escape from King Minos’s labyrinth prison.Daedalus layered real feathers to make wings patterned on birds’ pinions. Hisreplica wings were successful — both men achieved flight, but at a terriblecost. Icarus plunged to his death, in an accident anticipated by his father,who had warned his son not to fly too high.
In the epic story of Jason and theArgonauts, the cunning sorceress Medea devised ways to help Jason defendhimself against superior deadly forces and overcome a series of obstacles towin the prized golden fleece. The first impossible task was to yoke a pair offire-breathing, bronze bulls forged for King Aeetes by Hephaestus, the god ofinvention. Aeetes commanded Jason to plow a field with the brazen bulls andplant a helmet-full of dragon’s teeth. The king was confident that even ifJason somehow managed to avoid being burned to death and planted the teeth, hewould be slain by the unstoppable automaton warriors that would spring up fromthe sown dragon teeth.
In search of ultra-powerful “pharmaka”(drugs) for Jason, Medea trekked to the high Caucasus Mountains, to the rockycrag where Zeus had chained Prometheus as punishment for stealing fire. Medeaknew that a rare flowering plant grew in the soil wherever precious ichordripped from Prometheus’s side as it was ravaged by the eagle. When cut, thestrange plant’s fleshy roots oozed a black sap containing the essence of theimmortal titan’s ichor. Ichor was the life-fluid of the immortal gods. Medeacollected the sap and compounded a potent drug known as “Promethean.” Theeffects of the ichor mixture were spectacular but lasted only a single day.
The ichor drug gave the passive and scrawnyJason incredible courage and stamina. As Medea promised, he suddenly sensed“terrifying powers entering his body.” He felt “unbounded valor and great mightlike that of the immortal gods.” His arms twitched and flexed, his handsclenching at his sides. “Like a warhorse eager for battle,” Jason “exulted inthe superhuman strength of his limbs.” As the ichor mixture coursed through hisbody, Jason “strode and leaped about, brandishing his spear and roaring like awild beast.” Medea’s special Promethean drug transformed Jason into the Hulk.It gave him souped-up physical aggression and mental fortitude to successfullywrangle the unnatural bulls and withstand their searing breath long enough tocomplete the mission.
These myths represent some of the earliest science fiction, andwhere imagination leads, innovation follows.”
Facebook
Twitter
Email
The effects of the imaginary potion onJason bring to mind the effects of synthetic psychoactive stimulants. There arereports of street drugs chemically related to but much stronger than cathinonefrom khat plants that can cause users to feel that they have superhumanstrength and goad them into ferocious acts. Meanwhile, military pharmacologistsare keen to develop complex human-enhancement concoctions that couldsupercharge soldiers mentally and physically, making them behave much like Jasonunder the influence of the Promethean ichor. Military-scientific projects seekdrugs and neuro-technological brain interventions that would allow troops toexceed normal aggression, feel no pain, erase negative thoughts, override moralqualms about torture or killing, and obliterate memories of wartime violence oratrocities. The Pentagon’s scientists are also seeking neuro-pharmacologicaltechnologies to allow troops to go forego sleep.
These pursuits have historical echoes: inHomer’s epic poem about the survivors of the decade-long Trojan War, Helen ofTroy mixed an elixir called nepenthe and gave it to the shell-shocked veteransto dispel their lingering rage, grief and traumatic memories of the battles andatrocities. There’s also the myth of Io, a young woman whom the goddess Herasought to protect from being raped by Zeus. Hera deployed a giant android namedArgus that possessed multiple eyes that never closed. In some ancient texts,Argus was called Panoptes (“all-seeing”). Argus Panoptes could watch in alldirections with his many eyes. Hera bestowed two more enhancements on Argus:perpetual physical strength without normal fatigue and eternal vigilance. Henever slept.
The English philosopher Jeremy Bentham, whodied in the 1830s, designed a building called the panopticon to be used inprisons and other institutions, and he named the design after thehyper-vigilant watcher that could observe from all angles. The myth of ArgusPanoptes also prefigures the proliferation of surveillance cameras and bodycameras so ubiquitous in the modern world. It is no surprise that numeroussecurity providers operate under the name Argus or Argos.
The human enhancement technologies soughtby military scientists to allow soldiers to go long periods without sleep andstill remain vigilant and able to carry out their duties ignores thestill-mysterious necessity for sleep for human wellbeing. Notably, the myth didnot end well for Argus, whose super-abilities were “hacked” by Zeus. Zeus senthis messenger Hermes to slay Argus. Hermes closed down each of the eyes with asecret code so that he could smash the sleeping giant’s head with a stone.
Human Enhancements In History
Replacement limbs and bionic body parts —the melding of human and machine — also have deep roots in mythology. In Celticmythology, for example, King Nuada of the Silver Hand had an arm fashioned bythe inventor god Dian Cecht. The Norse goddess Freyja was imagined as a kind of“organic cyborg” whose body combined both flesh and metal. In Hindu epictraditions, the heroine Vishpala lost a leg in battle and Vadhrimati losthands, which the gods replaced with iron and gold replicas. In classical Greekmyth, the inventor god Hephaestus made an ivory scapula to replace the missingshoulder blade of the hero Pelops.
The earliest historical record of aprosthetic body part was reported in the fifth century B.C.E. by the Greekhistorian Herodotus. Hegesistratus, a Greek soldier, lost part of his footunder torture by the Spartans. Hegesistratus managed to escape and had a woodenreplacement foot made. He went on to fight in the Battle of Plataea on thePersian side because of his hatred for the Spartans. Another historical examplewas recounted by Pliny, who wrote how M. Sergius Silus, a Roman veteran of theSecond Punic War against Carthage, wore an iron hand to replace the one he lostin battle.
Archaeological discoveries have unearthedsurprisingly early evidence of artificial limbs and other body parts, some ofthem aesthetic and others functional. A skull from a site in France dated to3000 B.C.E., for example, sported a false ear carved from a shell. Some of themost ancient prosthetic devices are quite sophisticated. In about 700 B.C.E., ahighly skilled artisan who clearly understood the biomechanics of walking madea finely carved artificial toe for a woman. Archaeologists who discovered hermummy in 1997 near Luxor, Egypt, reported that the replacement toe not onlyappeared realistic but was tailor-made for her foot and even shows evidence ofrefittings. It was constructed in three sections of wood and leather, with ahinge for flexibility. Worn barefoot or with sandals, the woman’s prosthetictoe likely allowed relatively comfortable mobility.
JonathanZawada for Noema Magazine
An intriguing bionic eye was discovered byarchaeologists in the ancient Burnt City site in Iran. The meticulouslyrealistic artificial eyeball was embedded in the left eye socket of a woman wholived about 4,800 years ago. The anatomical details are amazingly true to nature,with a convex surface, cornea, pupil and an interior with extremely fine goldenwires to mimic the capillary network inside the eye. It was the disquietingalmost-real quality of 20th-century prosthetics that inspired the roboticsengineer Masahiro Mori to describe in 1970 the eerie sensation known as the“uncanny valley” — the strange gulf in understanding a human-like object.
Metal body armor was another kind of earlyartificial human enhancement. Bronze armor was designed to make warriors’bodies less vulnerable to weapons, of course. But what stands out about thebronze armor of classical antiquity is its form. The main piece of Greekhoplite armor, the cuirass or chest plate, was molded to look like theidealized male physique cast in bronze. Notably, the first robot ever describedin Greek mythology (around 700 B.C.E.) was Talos, a giant android automatonthat was constructed entirely of bronze. Ancient vase painters of the fifthcentury B.C.E. depicted Talos’s bronze body in the same way — using ayellowish-white color and indicating seams and rivets — that they used toportray the bronze chest armor of hoplite soldiers.
Anatomical” bronze chest armor, also called “heroic” or “muscle”armor, first appeared in archaic Greece (seventh century B.C.E.) and becamewidespread by the fifth century B.C.E. The bronze cuirass was cast in twopieces, front and back, and attached by leather straps. Skilled smiths hammeredthe cuirass to fit over a man’s upper body, with realistic details in relief tomimic the naked torso of a superhero, with nipples, navel and impressivelysculpted pectoral and abdominal muscles resembling those of the mythicstrongman Heracles. The greaves (bronze leg armor) were also shaped todelineate well-defined shin and calf muscles.
Sophocles cautioned that this same bold ingenuity ‘sometimes leadsto good but sometimes to evil.’”
Facebook
Twitter
Email
A Greek hoplite in bronze chest and legarmor was essentially wearing an exoskeleton that replicated the outerappearance of a nude, heroic statue. The muscle-bound bronze chest plate andgreaves transformed every soldier — no matter what his body type — into anidealized warrior, a living Talos, a man of bronze. An advancing, clankingphalanx of Greek hoplite soldiers clad in muscle armor would present the enemywith what appeared to be a wall of superhuman warriors.
Today, U.S. military scientists arereviving a highly advanced exoskeleton idea inspired by the mythic figure ofthe bronze automaton Talos. Designated by the acronym T.A.L.O.S. (TacticalAssault Light Operator Suit), the special suit is to be augmented withartificial intelligence software, sensors, and offensive and defensive weaponssystems. The design even features multiple “eyes” like Argus, the all-seeingguardian of myth, or Lynceus, the look-out on Jason’s ship Argo, whoseextraordinarily sharp eyes could see in the dark and penetrate walls, trees,skin, and the ground.
In the fifth century B.C.E., the tragicplaywright Sophocles wrote that we humans are formidable, for no othercreatures have the skill and daring to navigate the stormy seas, plow theearth, tame horses and oxen, hunt and fish, devise laws, make war and build andgovern cities. What other creatures have the facilities of language and“wind-swift thought” of “all-resourceful” humans, “ceaselessly contriving waysto escape the forces of nature”? Humans’ skills and inventive arts, Sophoclescontinued, are what drive us to achieve wonders and allow us to surpass nature.Yet we need to be mindful, Sophocles cautioned, that this same bold ingenuity“sometimes leads to good but sometimes to evil.”
Parts of this essay are adapted from theauthor’s recent book, “Gods and Robots: Myths, Machines and Ancient Dreams ofTechnology.”

作者:ADRIENNE MAYOR
编辑:冯梦玉

439#
 楼主| 发表于 2020-11-11 23:13:58 | 只看该作者
【案例】已贴网站
韩国首个AI女主播诞生:可24小时工作

原标题:韩国首个AI女主播诞生:可24小时工作 网友感慨“以假乱真”

图为韩国首个AI女主播

海外网11月10日电 11月6日,韩国MBN电视台推出韩国首位人工智能(AI)主播,并顺利播报了当天的主要新闻和若干条快讯。据悉,这位AI女主播以该电视台主持人金柱夏为原型,并取名“金柱夏”。刚一亮相,“金柱夏”就引发舆论关注,许多网友看完新闻后感慨,“能以假乱真了”“厉害了”。

图为AI女主播与真人男记者
据韩国《中央日报》10日报道,MBN电视台表示,使用AI主播播报新闻,可以在发生灾难等紧急情况时,迅速向观众播报新闻内容,而且可以一天24小时持续工作。可以节省大量人力、时间和费用成本,用来尝试制作新的节目,可以有效节约资源。

韩国AI女主播

“金柱夏”是如何诞生的呢?报道说,“她”是在对金柱夏实际主持的《综合新闻》视频进行10小时录制,并对金柱夏的动作、声音和播报过程进行长时间深度学习后诞生的产物,最多可以在一分钟内快速生成1000字文本的播报视频。
金柱夏本人与AI主播

记者将当日发生的新闻做成广播稿后,经过节目编导的字幕和视频编辑后将新闻画面上传,“金柱夏”就可以根据深度学习的数据,模仿金柱夏的实际播报声调、语气和口形进行新闻播报。

金柱夏

据了解,“金柱夏”AI主播由MBN电视台和人工智能开发公司“MoneyBrain”共同研发。该公司研发的人工智能视频合成技术集人工智能、深度学习、卷积神经网络(CNN)学习技术于一体,可以逼真还原真人说话的样子,令人难以区分。

来源:海外网
作者:刘强
编辑:冯梦玉

440#
 楼主| 发表于 2020-11-11 23:53:05 | 只看该作者
【案例】

专家担心当前人工智能道德准则制定工作恐将徒劳无功


近期,MIT技术评论网站发表专家文章,探讨人工智能道德准则问题,指出各大国际组织和企业都在竞相制定全球人工智能(AI)道德准则,各种宣言、声明和建议遍布网络。然而,如果在制定准则时没有考虑到AI应用的文化和地域背景,这些努力将会徒劳无功。


事实一再证明,AI系统造成的问题会不同程度地影响被边缘化的群体,只有少数特权阶层才能从中获益。全球现有数十项AI道德准则,目的是让这项技术惠泽全民,避免造成伤害。一般来说,这些指南和准则是对开发者、出资者和监管者的行为进行约束。例如,建议开展例行的内部审计,或要求保护用户的个人身份信息等。


我们相信,这些团体无一不是用心良苦,工作意义非凡。AI界的确应该在全球范围对合乎道德的AI形成统一定义和概念。但是,如果没有地域区分,这将变成全球统一的AI道德愿景,仅体现了世界上少数地域(尤其是北美和西北欧地区)人们的看法。


这项工作艰难曲折。“公平”、“隐私”和 “偏见 ”在不同的地方代表不同的含义。人们根据自己的政治、社会和经济现实,也对这些概念抱有不同期望。AI带来的挑战和风险也因地域差异而有所区别。


如果制定全球AI道德准则的组织并未意识到这一点,则最好的情况是出台对全球各地都毫无意义的标准。而最坏的情况下,这些残缺标准将导致更多的AI系统和工具延续现有偏见,忽视当地的文化背景。例如,2018年,Facebook因对在缅甸散播的不当消息响应不及时,最终导致了侵犯人权行为。为此,Facebook专门进行了付费评估。结果发现,造成疏忽的部分原因是由于Facebook的社区准则和内容适度性政策并未考虑缅甸的政治和社会现状。


为了避免再次出现这种不当使用,专门为AI系统和工具制定道德准则的公司需要让世界各地的用户充分参与,从而帮助制定管理这些系统的适当标准。他们还必须清楚如何在不同场景中运用这些政策。


尽管存在风险,但一些国际组织委任的许多人工智能咨询委员会、专家小组和理事会仍然明显缺乏地域多样性。例如,联合国儿童基金会针对儿童的AI项目的专家咨询小组中就没有来自中东、非洲和亚洲地区的代表,而恰恰这些地区聚集了大量的儿童和年轻人。


很遗憾,就目前来看,整个AI道德领域都存在语言、思想、理论和挑战方面的局限,主要偏重北美、西欧和东亚等少数地区,这存在着严重风险。


这种地域多样性的缺乏恰恰体现了目前AI研究的集中态势:在2018年AI会议上发表的论文中,有86%的论文的作者来自东亚、北美或欧洲地区。而在这些地区发表的AI论文所列出的参考文献里,只有不到10%来自其他地区的论文。除此之外,专利也高度集中:2018年发表的人工智能专利中,51%的专利来自于北美。


我们在制定AI道德准则的过程中,如果任由缺乏地域多样性的问题误导工作,最终结果将弊大于利。如果我们不谨慎对待,可能会将人工智能的历史性偏差带进准则,扭曲未来几代人的技术。因此,我们必须开始重视来自中低收入国家(尤其是“南营”)和历史上被边缘化团体的声音。


技术进步往往让西方国家受益,从而进一步加剧其他地区的经济不平等、政治压迫和环境破坏等问题。因此,要避免重蹈覆辙,最好要在制定AI道德准则时考虑非西方国家。


令人欣慰的是,许多来自代表性不足的地区的专家和领导人可以加入这种咨询小组。然而,许多国际组织似乎并没有极力争取这部分力量。例如,新成立的全球人工智能道德联盟(Global AI Ethics Consortium)的创始成员中就没有代表中东、非洲或拉丁美洲的学术机构或研究中心的成员。这种缺失是殖民模式重演的一个鲜明例子。


如果要建立道德、安全且包容的AI系统,而不是简单的“道德洗礼”,我们首先必须与那些曾经被上述因素所伤的人们建立信任关系。而第一步就需要让他们切实参与其中。


蒙特利尔AI道德研究所(Montreal AI Ethics Institute)试图另辟蹊径。其举办了数字AI道德见面会,任何具备互联网连接或电话的人都可以参与此次公开讨论。这些活动让不同人群能够进行交流。与此同时,诸如AI合作伙伴(Partnership on AI)之类的团体,更加清楚地意识到AI缺乏地域多样性,因此建议修改签证法,并提出一些便于研究人员出差交流工作的政策。Maskhane是一个汇集非洲自然语言处理人员的草根组织,致力于对忽视非主流语言的机器翻译工作进行改善。


一些国际组试图在AI讨论中积极吸纳更多不同观点,这种情况令人鼓舞。我们必须记住,任何关于AI道德的讨论都要重点考虑地域和文化差异性。如果错失无权利或影响力人群的观点,负责任的AI规范也会成为一纸空谈。


来源:微信公众号:新一代信息科技战略研究中心
作者:张娟
编辑:冯梦玉

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表