传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
261#
 楼主| 发表于 2019-10-13 12:01:43 | 只看该作者
【案例】
AI时代还想笑出声来,请记住这三分钟
导语:
过去几年我一直关注数字化转型、未来国民职业、工作职业技能结构化改变,过程中阅读了大量海外的同行研究以及我个人的田野调查。希望通过系列文章给小伙伴提个醒,我们一起来探讨和面向未来。
一、群情激奋开展迎接未来,你不可发呆啦
人工智能的时代正在颠覆各行各业工作。随着公司开始认真使用智能技术,许多低头干活的员工猛然发现风险已陷入迷茫困惑中。埃森哲对未来劳动力的调查,超过60%的员工对人工智能对其工作的影响持肯定态度。三分之二的人承认他们必须发展自己的技能才能使用智能机器。
麦肯锡人工智能时代人才问题报告指出,新的技能再培训变得更加重要。到2022年,至少有54%的雇员,需要学会新的技能来提升自己。批判性思维、创新能力、想象力、以及服务导向意识,会变得更加重要。作为领导人,精心构建公司内部的终身学习体系,也将变成企业的重要任务。
20181115日,德国联邦政府正式发布了其人工智能(AI)战略,口号是“AI Made in Germany”,国家拨出专门资金用以解决“AI时代国民职业技能结构化改变、迁移”
大公司与员工不在同一个层面上。领导层认为,只有大约四分之一的员工为人工智能的采用做好了准备。埃森哲调查报告发现只有3%的企业高层计划大幅增加培训预算,以应对人工智能带来的技能挑战。
美国著名管理学家汤姆·彼得斯(Tom Peters)代表作,包括《追求卓越》等。在《向50位顶尖管理大师学领导》(Dear CEO: 50 Personal Lettersfrom the World's Leading BusinessThinkers)本书里,汤姆·彼得斯给出了他给企业管理者的几条建议。特别提到核心能力问题。工作的是人、创造成长与利润的也是人,真正重要的是人。对于人工智能将给白领带来的失业风险,汤姆·彼得斯主张,企业领导者要明确企业的道义责任,
“做为领导人,你最大的道义责任就是竭尽所能帮助麾下每一名员工发展未来核心能力,包含‘软性’与‘硬性’能力。这也是最高明的中期至长期的利润最大化策略!”
二、不会被人工智能取代的工作,现在你可去排队!
从变化的角度和现实的角度来看如果存在生命的竞争优势的壁垒,
那么观点一:CHM暂时安全的
•创造类(Greativity)     对应右脑优势
•经营管理类(Management)    情商
•服务类(Hospitality)    同理心、共情力
"C"(创造类)指的是写小说、拍电影、发明创造、新产品、科学研究等工作;"M"(经营管理类)指的是管理工厂、商店、项目及经营公司等工作;"H"(服务类)指的是护理人员、保育员、辅导师等工作。
未来相对安全的职业,海外共识观点二:
首先是真正的创造力类,例如艺术家,科学家,制定新的商业战略的工作。就目前而言,人类仍然擅长创造力。
第二个领域是涉及与人建立复杂关系的职业:例如,护士或要求您与客户建立密切关系的业务角色。
第三个领域是高度不可预测的工作。例如,如果你是一名水管工,被召唤到不同地点处理紧急情况。
三、能力结构化改变,那些能力更重要?
未来的员工将花更多的时间在人工智能能力欠缺的活动上,比如管理人员、应用专业知识和与他人交流。人所需的技能和能力正在改变,需要更多的社交和情感技能,以及更高级的认知能力,比如逻辑推理和创造力。
需求将转向更高的认知技能。从仅需要基本认知技能的活动转向使用更高认知技能的活动。对创造力,批判性思维,决策制定和复杂信息处理等高级认知技能的需求将突飞猛进。然而,基本认知技能(如基本识字和算术)、基础数据输入和处理技能的工作活动将会减少。
专家通过美国劳工部的O * Net数据库分析了美国职业要求的100多种能力图谱发现:创造力、解决复杂问题能力、人际关系能力的重要性都急剧上升。除了学习未来工作场景所需要的新技术,员工的新的职业技能中尤其要加强“人机+机器”交互,协同工作的能力。
每个有脑子的员工应根据人工智能新环境要求调整自己的技能
关键在:确定AI时代新任务和执行这些任务所需的技能。然后将公司现有的内部能力映射到新角色,并确定培训和新技能的必要性。
原文链接:https://mp.weixin.qq.com/s/lS4HQOGSLsgsDZhIG3YXMg
编辑:陈茗

262#
 楼主| 发表于 2019-10-14 18:38:20 | 只看该作者
【案例】
最新发布:我国人工智能产业创新趋势与百强解析(可免费获取)


河北石家庄
12 Oct 2019
2019中国国际数字经济博览会“新一代人工智能高峰论坛”今日举行。本次论坛由2019中国国际数字经济博览会组委会主办,中国电子信息产业发展研究院承办,人工智能产业创新联盟协办,会上,赛迪顾问股份有限公司副总裁宋宇,对中国人工智能产业创新趋势与百强企业进行了解析。

近年来,人工智能发展势头强劲,与其他产业加速融合,在产业和资本的对接下,涌现出了大批极具发展前景的人工智能企业,正确理解人工智能目前的竞争能力、发展状态,成为行业的重要任务之一。

赛迪顾问人工智能产业研究中心通过建立指标体系,对700余家中国人工智能主流企业进行定量评估,评选出2019赛迪人工智能企业综合实力百强榜。


以下是论坛现场的PPT:

原文链接:https://mp.weixin.qq.com/s/C-csWfmi_XlsDoieytL4cw


编辑:董莉

263#
 楼主| 发表于 2019-10-15 18:51:17 | 只看该作者
【案例】
正确看待人工智能应用前景

党的十九大报告提出,加强应用基础研究,拓展实施国家重大科技项目,突出关键共性技术、前沿引领技术、现代工程技术、颠覆性技术创新。人工智能就属于其中的“颠覆性技术”。人工智能会不会“碾压”人类?它将给人类社会带来哪些巨变?
人工智能从技术角度通常可分为三个阶段,即计算智能、感知智能和认知智能。在计算智能方面,机器已绝对超过人类;感知智能就是让计算机能听可看会说,现在基本上可以与人媲美,在医学影像读片等特殊任务中甚至超过人类;认知智能是指对知识的理解、推理、应用,目前机器在阅读理解等方面的能力已接近人类。人们不禁要问:这样发展下去,人工智能是不是很快会全面超越人类?
专家给出的答案是否定的。人工智能的发展前景不可限量,但离赶超人脑还有非常漫长的距离。人类的行为和社会生活复杂多变,不可能用简单的规则来概括、描述,目前还没有通用的人工智能技术,所有人工智能应用都被限定在特定场景中。人工智能目前的发展阶段,相当于当年蒸汽机火车刚推出的时候,离赶超人脑还非常漫长。应理性看待人工智能的广阔前景,不要过分热捧,否则可能导致又一个寒潮期。
人工智能现在已经被应用到越来越多的行业中。比如,工厂里的机器手臂,餐厅里的送菜机器人,智能家教,等等。越来越多的人工智能应用出现在我们的身边,并且开始进入一些和我们生活息息相关的行业领域。一部分人工智能应用开始创造新的生活方式:结账不用掏钱包,过安检不用拿身份证,回家不用找钥匙……这一切,都可以靠“刷脸”解决。这些解放双手的操作,依赖于人工智能的人脸识别技术。不得不说,这的确让人们的生活更丰富、更便捷了,这是时代的进步,我们应该为之感到庆幸。
毋庸置疑,人工智能会取代一些工作岗位,但也会创造新的工作岗位,只是工作方式不一样。人工智能可以显著提高人类的工作效率。原来依靠人工去识别、审核图片和视频,工作量很大、速度很慢,现在则完全可以交给机器,能快速过滤掉大部分无用信息,节省人力和时间。国内不少电商平台和快递公司在物流领域布局人工智能,配备了智能机器人进行快递分拣,有的机器人只需充电几分钟就能工作几小时。这些智能机器人能识别出快递的面单信息,然后设计出最优分拣路线。利用人工智能帮助医生识别医学影像,寻找其中的病根症结,是很多人工智能公司近年来开发的新技术。
人工智能可以拓展人类的感知。人的感官只有耳朵、眼睛、鼻子、嘴巴等,人工智能可以拓展人类的感知能力和行动能力。少数人天生就有听觉障碍、视觉障碍等,人工智能可以弥补这些缺陷。人工智能还可以帮助人类探索新的未知领域。人脑是如何持续学习、积累知识的,人是如何产生情绪和意识的,目前还不太清楚。有了先进的算法之后,结合数据做快速分析和跨领域综合比较,有望探索人类认知和心灵层面的东西。人类可借助人工智能探索浩瀚宇宙和深邃海洋。
人工智能正在深刻改变通信产业。通信网络优化是一项改进延迟、带宽、设计或架构的技术,是能以有利方式增加数据流的技术。对于通信服务提供商来说,优化可以直接转化为更好的客户体验,除了带宽不足之外,运营商面临的最大挑战之一是网络延迟,像手机上的AR、VR等应用,只有极低的延迟才能达到最佳效果。运营商将基于AI的解决方案集成到5G无线技术中,利用边缘计算减少带宽限制,并与云进行通信。
我国在人工智能人才储备和数据研发上有优势,但在制造业应用方面的基础技术还不够成熟,同时,人工智能在制造业应用场景中也需要创新。理性看待人工智能行业发展,避免非理性炒作,有利于人工智能的整体发展。落实人工智能国家战略,必须打造人工智能“人才矩阵”,形成基础能力、源头创新、产业研发、应用开发、实用技能等多类型人才并重并用的局面。
总之,人工智能把人类从单调低级的劳作中解放出来,人们可做更有创意、更有价值的事情。人工智能给人类社会带来的影响将是全方位的,会让我们的生活越来越美好。

原文链接:https://mp.weixin.qq.com/s/tJKFGo2amNl_Pe7yakH7FQ


编辑:董莉

264#
 楼主| 发表于 2019-10-15 23:02:18 | 只看该作者
【案例】
王坤宇:脑机接口与人工智能影像

内容摘要

近段时间以来,有关脑机接口技术这一重要人工智能技术突破的信息不绝于耳,虽有媒体夸大之嫌,但不可否认的是,这种技术通过与话语、影像形成的双向互动形塑着当代人的想象。一方面,脑机接口技术的发展为如《神经漫游者》等在人工智能技术及相关话语影响下产生的文艺作品注入了新的创意——本文作者王坤宇便基于大量电影文本(如《攻壳机动队》、《阿丽塔:战斗天使》、《黑客帝国》、《我,机器人》等),从三个叙事维度进行分析,强调脑机接口所带来的三个重要的创意潜力:人机互联的身体奇观、后人类新伦理语境以及赛博世界观的影像化呈现。另一方面,作者虽然强调人工智能技术对当代人类社会的建构所起到的重要性,但同时又强调,我们需要意识到我们的认知正是被影像、话语和技术共同型塑而成。这不仅拓展了人们的想象空间,也同时为人类思考当下处境提供契机。这些都是此类影像的价值,也是对人类未来发展方向的警醒。


本文原刊于《文艺论坛》2019年第5期,感谢作者王坤宇授权文艺批评转载!


大时代呼唤真的批评家


王坤宇


脑机接口与人工智能影像

近段时间以来,有关脑机接口技术(BCI,Brain Computer Interface)取得突破的消息不绝于耳,这引发了笔者的好奇。忙向长期致力于神经心理学研究的一位著名学者求证,她的回答很耐人寻味:梦想照进推文。继而又连续强调“任重而道远”。也许当前的媒介环境夸大了脑机接口技术的进步,但是在科幻小说和科幻电影中,这一概念和意象不断复沓却是不争的事实。惯常开脑洞的埃隆·马斯克甚至已经成立了一个名为Neuralink的公司,试图将科幻电影中的人机互联的情节变成现实。这不得不让我们思考以下的几个问题:第一,脑机接口技术到底是什么?第二,叙事、影像何以热衷于这一技术的呈现,二者之间具有何种关系?第三,科幻是否会照进现实,如果可能,意味着什么?本文试图在对脑机接口技术的探索和相关科幻文本的勾陈中回答这几个问题。


从霍金的轮椅谈起



著名物理学家、宇宙大爆炸学说的提出者史蒂芬·霍金患有渐冻症,他的后半生均在轮椅上度过。而他的轮椅被认为是一个典型的脑机接口的案例。



斯蒂芬·威廉·霍金
(Stephen William Hawking,1942.1.8-2018.3.14)

霍金在1985年就失去了口语表达能力。一位电气工程师为他设计了一个电脑程序,而后这个程序又被升级为记录霍金语言的设备。它可以每分钟“翻译”出物理学家的15个词汇,通过文字显示出来。20年后,霍金的肢体全部僵化,戈登·摩尔为他设计了升级版的轮椅。通过霍金的面部肌肉的动作来和系统互动,生成备选的语词,并进而用眼球控制红外线发生器以选定具体的词汇。六年后的2011年,霍金的眼球也不能动了,于是程序再次升级,具有了预测功能。但是霍金似乎与这一版本磨合地并不是很成功。


在霍金的案例中,我们清晰地看到人脑与计算机之间的交互,或者抽象一点说是碳基与硅基之间的交互。为了更加具体地了解这个技术,我们首先应该对其内涵和外延稍作了解。脑机接口技术是一种涉及神经科学、信号检测、信号处理、模式识别等多学科的交叉技术。[1]这种交互可以有三个不同的类型:人脑对程序的指令,程序对人脑的作用和二者之间的主体间性的作用。这一技术以脑科学和计算机科学为基础,通过对脑侵入、半侵入和非侵入式的电极介入来实现对神经信号的记录、破译,从而可以对残障人士的辅助治疗,并可以在军事领域实现对人有机肢体的机械化加强等应用。侵入式脑机接口主要用于重建特殊感觉(例如视觉)以及瘫痪病人的运动功能。此类脑机接口通常直接植入到大脑的灰质,因而所获取的神经信号的质量比较高。但其缺点是容易引发免疫反应和疤痕,进而导致信号质量的衰退甚至消失。非侵入式的神经成像术作为脑机之间的接口,记录到的信号被用来加强肌肉植入物的功能恢复被试的部分运动能力。虽然这种非侵入式的装置方便佩戴于人体,但是由于颅骨对信号的衰减作用和对神经元发出的电磁波的分散和模糊效应,记录到信号的分辨率并不高。很难确定发出信号的脑区或者相关的单个神经元的放电。埃隆·马斯克的Neuralink公司走得更远,追求用一种叫做“neural lace”(神经织网)的技术,通过经静脉传输在大脑皮层中植入一层人工智能内壳来将人类大脑与计算机连接起来而可以上传或者下载思想。马斯克的终极目标是彻底改变大脑和机器的沟通方式,让人类与软件能够进一步融合而跟上人工智能(AI)的发展脚步。总体而言,脑机接口技术虽然取得了一定的成果,例如使部分残障人士重获语言、视力和运动能力等,但是离人们预想的状态还相差甚远。其可能对人的加强工作也尚处在非常初级的试探阶段。但是在艺术领域,通过对现有技术的点染和想象,已经将这种技术的可能性延伸到了登峰造极的地步。


脑机接口题材的叙事潜力



有关脑机接口的电影有《攻壳行动队》(Ghost In Shell)系列,《机械战警》(Robocop)系列,《黑客帝国》(Matrix)系列等,最新的电影有《阿丽塔:战斗天使》(Alita: Battle Angel),此外还有《环太平洋》等更加概念化的制作。如果我们向前推溯,这一题材电影都可以在威廉·吉布森的划时代性科幻小说《神经漫游者》中找到创意的基因。但是这种创意并不是孤立存在的。脑机接口创意往往和人工智能电影的其他创意共同构成错综复杂的奇观体系。在深入探讨这一题材之前,我们首先要对其上一级种属人工智能电影有一个较为清晰的认识。



《神经漫游者》  [美] 威廉·吉布森
(江苏文艺出版社2013年版)

人工智能电影是在人工智能技术以及相关话语影响下产生的一种科幻电影亚类型。以控制论、生化技术、数据的无界流动等作为整合影片的高概念。以人机关系、伦理蜕变、末日核爆、人机战争等作为叙事主题。以未来装置、后人类身体、末世黑色美学等作为美学建构的基础。这种亚类以其对未来人工智能世界的世情呈现区别于时空穿越、外星接触等其他科幻亚类。是一个由想象力和技术话语联袂合成的,有关人工智能和人类存在反思的符号体系世界。[2]


从这个定义可以看出,存在一个递归的逻辑关系:脑机接口创意—人工智能亚类—科幻电影类型。脑机接口创意是人工智能电影最为重要的意象之一,为人工智能电影带来三个方面的叙事空间:人机互联的身体奇观、后人类伦理冲突和新的赛博宇宙观。



《阿丽塔:战斗天使( Alita: Battle Angel)》

超越肉体身体的局限是人类一直以来的冲动。麦克卢汉将自己的《理解媒介》的副标题定为“身体的延伸”。人类自从开始使用工具就不断地通过具象(工具)和抽象的媒介(符号、技术)在延伸着自己的身体。从这个意义上讲人兽(自然物)转换、灵魂出窍等原始创意无不源自于人的这种冲动。我们可以发现人类的想象力很容易被其所处的科技阶段所框定。例如《弗兰科斯坦》中的科学怪人的身体事实上是一个将机械化思维类比人类身体,并辅之以电力来驱动这一人肉机械。而到了《大都会》对于拼接身体的想象则与大工业和资本主义对人的异化共振。脑机接口带给人工智能电影的创意首当其冲地是对身体的加强,《阿丽塔:战斗天使》是一个较为典型的案例。主人公阿丽塔一方面具有人类中美丽少女的外表,另一方面除了大脑之外又都是机械加强的存在。这一点和更早的机械战警是相似的。所不同的是机械战警是一个男性的形象,而这部电影的主人公则是一个软萌的少女形象。通过对人脸-机形的这种拼接,创造出奇特的身体景观。而这种拼接还可以有很多其他元素的排列组合。例如丑陋男人的脸与强劲的机械身体,漂亮女性的脸与章鱼似的机械臂等。但是无论如何,这种拼接还是皮相的、机械式的。一定程度上也可以说,与科学怪人式的拼接具有很强的继承关系。而这类电影叙事中的脑机接口事实上与科学怪人身体上的缝线的叙事功能是相似的,并没有深入到人工智能概念的深层。


脑机接口创意的另一个重要的意义是创生了一个人机互联的后人类新伦理语境。后人类话题由来已久,从福柯在《词与物》的结尾喊出了:“人是近期的发明,并且正接近其终点……人将被抹去,如同大海边沙地上的一张脸。”[3]之后就不绝于耳。目前最有代表性的是《人类简史》和《未来简史》的作者尤瓦尔·赫拉利,他认为自由、平等、博爱的精神将被“算法”所取代。在人工智能电影方面,《攻壳行动队》系列是一个典型。这部影片也仍然沿用着《大都会》式的人形设定,真人版电影女主角由好莱坞最当红的性感影星斯嘉丽·约翰逊担任。但是与其他类型的人工智能电影不同的是,“少佐”素子脖子上的接口不断被特写。除了充电接口之外还有数据接口。“素子”是一个拥有人类大脑和机械身躯的“义体人”。这枚大脑曾经随着年龄的增长数次更换义体,并逐渐和义体之间完成了相互的驯化。影片的英文名(Ghost In Shell)具有很强隐喻意。Ghost(灵魂)代表着人文主义的价值传统。而Shell(壳)则是后人类时代可以被替换的身体。这个隐喻暗示着以下的几重伦理关系的重审:灵魂与身体、人与物、义体人与人类,义体人与义体人、人与数据等。这使得既有的人类伦理体系不再够用。这多重关系为此类电影的叙事打开了繁复的空间。正如《攻壳行动队》系列所塑造的那样:政治与资本的张力、人性与物性之间的抉择、数字与实体之间的转换等令人目不暇接。



《攻壳机动队》 《黑客帝国》



脑机接口的第三个重要的创意潜力是赛博世界观的影像化呈现。典型的案例是《黑客帝国》系列。赛博空间(cyberspace)是一个已经被用烂了熟词,但这个词却远不止我们今天网络空间这个简单的含义。《黑客帝国》开创了一种数码与肉身之间转换的哲学。我们可以仿照“道成肉身”来将其设定为“码成肉身”。而这个转换的关键在于插入主人公尼欧和其团队脑后的探针这一意象。影片并没有详细交代这种转换功能是如何获得的。而是着力地展示了赛博空间内部的博弈。而这种博弈包括三个方面的指涉,一是大脑的潜意识感知,二是赛博空间与现实之间的转换,三是对于现实和存在的不可靠性的揭示。或者说,人类的生活也许是一种代码化的生存,只是自己不自知罢了。尼欧第一次看到仓中的监视员盯着电脑屏幕上的代码目不转睛地观看、并意识到那就是自己刚经历的惊心动魄的一幕时,感到非常惊诧。但是对于这种状态,监视员却轻描淡写地对他说:已经习惯了。对于那位监视员来说,这些代码就是尼欧刚刚经历的居室、电话亭、打斗或者爱情。


换一个角度看这个问题,这种以身体形式展现在屏幕上的形象和故事也正说明了接受者认知的局限性。我们习惯于用身体想象和思考,电影也用身体来呈现抽象的数码故事。后人类身体美学在人工智能电影中的呈现一定程度上是一种后人类时代的影像的拟人形态。


技术、话语与影像的关系



伴随着人工智能技术的博兴,有关人工智能的各种话语甚嚣尘上。无论是有商业炒作之嫌的alphago、alphazero、alphafold, 沙特的索菲亚,小冰;还是各类人工智能的论坛、会议;以及各级行政部门出台的鼓励发展人工智能的文件,都一再复沓着这一概念的炙手可热。而对这一技术缺乏深刻认知的大众(哲学家、文学家、剧本创作者、相关社科人文研究者、批评者、公众等)正是在懵懵懂懂、半知半解的状态中被拉扯进入了这一话语场域,开始面对人工智能的智力、人工智能美学、各行各业(法律、伦理、教育等)可能受到的冲击等似是而非的问题。在这样的语境中,人工智能电影大热在情理之中。而与此呼应地,人工智能电影反映、点染着这一技术,直至在想象的层面上将其推向极致或不可能之域。面对着这一现象,我们需要厘清技术、话语和影像之间的关系。


人工智能技术是型塑当代社会的重要力量,作为一种工具理性和实践技术,成为建构人类社会的刚性存在。人工智能电影作为一种典型的类型电影,也正是对这种社会热点技术和话语的呼应。但这种呼应并非是被动的,而是一种多维度、多向度的延异。[4]这种延异构成了瑰丽多彩的人工智能电影的人物(怪物)形象和故事情节。人工智能电影对于接收者具有激发性、启蒙性,其所塑造的形象,探讨的伦理、哲学问题有可能成为思维的质料,从而回哺人工智能话语。



《我,机器人 (I, Robot)》

技术、话语和人工智能影像之间的关系体现为双向互哺的特征。人工智能技术是人工智能电影点染的原点,电影提供了一种对于技术和话语的可能性的影像符号化路演。人工智能电影中展现和想象的世界又大大地超越当前的人工智能技术。人工智能的社会热点话题处于二者之间,起到一个桥梁的作用。话语对技术做了放大处理,而影像则在话语的基础上对于这一问题进行展现和表现。这类探讨是否会对技术人员产生一定的启示作用呢?这个问题已经被很多科学家的“夫子论道”所回答。爱因斯坦认为:“想象力比知识更重要,因为知识是有限的,而想象力概括着世界上的一切,推动着进步,并且是知识进化的源泉。严格地说,想象力是科学研究中的实在因素。”[5]在2017年世界机器人大会8月24日的主论坛上,意大利比萨圣安娜大学生物机器人教授帕奥罗·达利欧(Paolo Dario)发表了《机器人伙伴:科幻如何变为现实》的主题演讲。特别提出了《我,机器人》的例子,和爱因斯坦一样,他也指出科幻电影里包含很有价值的观点,甚至是很现实的东西。[6]从这个意义上来说,技术、话语和电影之间体现出了双向互动的关系,而电影主要提供了一种对于技术和话语的可能性的路演。这种路演朝向不同的人工智能发展的向度,甚至是人工智能理论话语的向度。因此其可能是对这种技术的较为科学的延展,也可能是以话语为出发点的虚妄的想象。从实际的情况来看,越是早期的人工智能电影越倾向于“异想天开”,而越是晚近的,则越倾向于以科学技术为其原点展开想象。


一定程度上,我们的认知正是被影像、话语和技术所共同形塑而成。而影像对于大众文化的作用无论怎么强调都不过分,正如美国佛蒙特大学阿德里安·伊瓦克耶夫在他的《运动影像的生态学:电影、情动、自然》中所说的那样:“我们所生活和运动的世界是一个不断激荡着视听图像质料之流的漩涡。照片、电影和电视节目、录像和电脑游戏——这些以及其他的运动影像和来自于国内外一系列的全球化工具生产出来的影像搅拌、混合。”[7]这种搅拌和混合正是当前人工智能话语和艺术所使用的人工智能观念的主要特征。


但我们也应该注意到,类型电影根植于社会热点,因此人工智能电影与媒体和社会中的人工智能话语一定程度上是由人们所关注的话题而生发出来的“噱头”。但光有噱头难免沦为杂耍似的笑剧,这就需要在有了相关的话题之后还需要以情节、人物和美学建构来使得整个故事能够具有一以贯之的叙事逻辑,这就是某种类似于“高概念”(High Concept)的锻造过程,脑机接口就是其中之一。而人工智能电影不可能原封不动地展示人工智能技术,也不可能毫无选择地采纳人工智能话语。人工智能电影事实上是征用概念和话语,用来为故事服务。脑机接口正是一个人工智能电影下面一个典型的题材。



埃隆·马斯克(Elon Musk)

脑机接口题材除了拓展了人们的想象空间之外,一个重要的价值在于为正在转型中的人类提供了一个反思的意象和空间——在这样的时代人类应该如何自处?换言之,我们应以怎样的方式成为后人类(post-human)。关于这个问题,致力于Neural lace(神经织网)研究的埃隆·马斯克似乎给出了一种答案:人类与新技术笔立进化。惟其如此,人才能继续保持其主体性,从而不被扫入历史的垃圾堆。


本文原载于《文艺论坛》2019年第5期



注释:
[1] [印度] 拉杰什 P.N.拉奥 著,《脑机接口导论》,陈民铀 译,机械工业出版社,2016。
[2] 目前,人工智能电影已经有了一定的研究热度,但是全面地描述这一研究场域的论文还很少见。笔者在《人工智能电影概念:一个亟待厘清的元命题》(1.8万字)中尝试做了如上定义,仅供参考。本文将于近期发表于上海大学学报。
[3][法] 米歇尔·福柯,《词与物:人文科学考古学》,莫伟民译,上海三联出版社,2001。
[4] 本文使用这一德里达的术语,意在指出技术、话语和影像之间的混有时间维度的错综复杂的交互关系。
[5] Albert Einstein, On Cosmic Religion: With Other Opinions and Aphorisms, Covici-Friede, Inc., New York, 1931, p. 97.
[6] 笔者参加本次机器人大会的主论坛,现场聆听了该演讲,Paolo Dario是生物机器人领域专家。他认为互联网之后,将是机器人时代,正如《我,机器人》片头中的情景一样。医疗机器人“达芬奇”现在已经在西方被大量应用,而陪护机器人也将会在不久的将来成为现实。
[7] Adrian Ivakhiv,Ecologies of the Moving Image : Cinema, Affect, Nature, 2013, Wilfrid Laurier University Press Waterloo, Ontario, Canada. p.8.


原文链接:https://mp.weixin.qq.com/s/fhLWyN4mAKqvlEN-cK_5og



编辑:董莉

265#
 楼主| 发表于 2019-10-16 14:11:13 | 只看该作者
【案例】
智能边缘计算:计算模式的再次轮回

编者按:人工智能的蓬勃发展离不开云计算所带来的强大算力,然而随着物联网以及硬件的快速发展,边缘计算正受到越来越多的关注。未来,智能边缘计算将与智能云计算互为补充,创造一个崭新的智能新世界。本文中,微软亚洲研究院系统与网络研究组首席研究员刘云新将为大家介绍智能边缘计算的发展与最新研究方向。
智能边缘计算的兴起
近年来,边缘计算(Edge Computing)在学术界和工业界都成为了一个热门话题。事实上,边缘计算是相对于云计算(Cloud Computing)而言的。在云计算中,所有的计算和存储资源都集中在云上,也就是数据中心(Datacenter)里;在终端设备上产生的数据通过网络传输到云上,计算任务和数据处理都在云上进行。而在边缘计算中,计算和存储资源被部署到边缘上(边缘服务器或者终端设备),可以就近对本地的数据进行处理,无需把数据传输到远端的云上,从而避免网络传输带来的延迟

虽然边缘计算成为广受关注的热门话题的时间并不久,但边缘计算的概念并不新。早在2008年,微软研究院的 Victor Bahl 博士邀请了学术界和工业界的知名学者,包括卡内基·梅隆大学的 Mahadev Satyanarayanan 教授、AT&T 实验室的 Ramón Cáceres博士、兰卡斯特大学(Lancaster University, U.K.)的Nigel Davies教授、英特尔研究院(Intel Research)的 Roy Want 博士等,一起探讨云计算的未来时 [1],就提出了基于 Cloudlet 的边缘计算的概念;并于次年在 IEEE Pervasive Computing 期刊上发表了广为人知的名为 “The Case for VM-based Cloudlets in Mobile Computing”的文章 [2]。
此后,越来越多的研究人员开始关注边缘计算。值得一提的是,2016年,首届专注于边缘计算的学术会议 The First IEEE/ACM Symposium on Edge Computing 在美国华盛顿特区召开 [3]。目前,边缘计算已成为相关顶级学术会议(比如MobiCom)的重要专题之一。在工业界,2017年微软公司 CEO 萨提亚·纳德拉就将边缘计算和云计算并列成为全公司的战略之一。之后,各大云计算公司和运营商都纷纷推出了自己的边缘计算服务;边缘计算相关的创业公司更是不断涌现。
在人工智能时代,边缘计算不仅仅只是计算,更是智能+计算,我们称之为智能边缘计算(Intelligent Edge Computing)
计算模式的轮回:在集中式和分布式之间的摇摆
唯物辩证法指出,事物的发展总是曲折、循环往复,并在波浪中不断前进的。计算模式(Computing Paradigm)也不例外。如图1所示,如果我们回顾计算模式的发展历史,就会发现一个简单的规律:计算模式是在集中式计算和分布式计算之间不断摇摆,往复式发展前进的。
图1:计算模式的发展历史
在大型机(Mainframe)时代,计算资源稀缺,很多人共享一台主机,计算是集中式的;到了个人计算(Personal Computing)时代,硬件变得小型化,价格低廉,人们可以拥有自己的个人设备,计算成为了分布式的;在云计算时代,通过高速网络,人们可以共享云上的海量的计算和存储资源,计算模式又回到集中式的。此时,人工智能蓬勃发展,云上提供的众多智能服务带来了智能云计算。而随着边缘计算的出现,计算模式再一次成为分布式的。现在,我们不仅有智能云,还有智能边缘。
智能边缘计算的出现当然不仅仅是满足表面上的简单规律,背后有其必然性和强大的驱动力,是计算机软硬件和新应用新需求不断发展的必然结果。
首先,随着物联网特别是智能物联网(AIoT)的发展,各种新型智能设备不断涌现,产生了海量的数据。比如,监控摄像头已经无处不在(据统计,在伦敦每14个人就有一个监控摄像头 [4]),每天产生大量的视频数据。而每辆自动驾驶汽车每天更是会产生多达5TB的数据。把所有这些数据都传输到云上进行处理是今天的云和网络无法承受的。
其次,新的场景和应用需要对数据在本地进行处理。比如,自动驾驶和工业自动化对数据处理的实时性有很高的要求。数据传输带来的网络延迟往往无法满足实时性的要求,如果网络发生故障可能带来灾难性后果。再如,人们对个人隐私越来越关注,而很多数据(视频、图片、音频等)都包含大量的个人隐私。保护个人隐私的最好的方法就是在本地进行数据处理,不把个人数据传到网络上去。
另外,同样重要的是,硬件的快速发展使得智能边缘计算成为可能。随着 AI 算法的日益成熟,人们开始设计制造专用的 AI 芯片,特别是专门用于深度学习模型推理的 AI 芯片,这些 AI 芯片不仅数据处理能力强大,而且尺寸小、功耗低、价格便宜,可以应用到各种边缘设备上,为智能边缘计算提供了坚实的硬件基础。
需要指出的是,智能边缘计算并不是要取代云计算,而是和云计算互为补充,一起更好地为用户提供服务。云计算和边缘计算会不断融合;智能计算分布在不同的地方,但又相互连接,协同合作。
智能边缘计算中的关键问题研究
在微软亚洲研究院,我们致力于研究智能边缘计算中的关键问题,更好地将 AI 赋能于边缘设备(包括终端设备和边缘服务器)和应用,提高智能边缘计算的系统性能和用户体验。具体来说,目前我们主要关注以下几个研究方向:
针对不同设备的模型压缩和优化。高精度的深度学习模型通常都十分庞大,由数百万甚至以亿计的参数构成。运行这些模型需要耗费大量的计算和内存资源。虽然智能边缘设备的处理和存储能力大幅增长,但仍远远比不上云计算设备。因此,如何把深度学习模型在资源受限的边缘设备上运行起来是一个巨大的挑战。传统的模型压缩和优化(比如剪枝、量化等)主要关注的是在如何把模型变小的同时尽量少损失模型精度。然而,边缘设备的特点是类型多、差异性大,处理器类型性能和内存大小千差万别。我们认为,没有一个统一的模型能够适用于所有的边缘设备,而是应该结合硬件的特性,为不同的设备提供最适合的模型,不仅考虑模型大小和精度损失,更要考虑模型在设备上的执行性能,比如延迟和功耗等。
基于异构硬件资源的系统优化。即使有了一个可以运行的模型,如何提高模型的运行效率仍是一个值得深入研究的课题。我们需要一个高效的模型推理引擎,把系统性能提高到极致。这不仅需要软件层面的系统优化,更要有软件和硬件的协同设计,能够充分利用底层硬件的能力。边缘设备往往有着各种异构的硬件资源,比如智能手机拥有大小不同的 CPU 核(ARM big.Little)、DSP、GPU、甚至 NPU。而现有的系统往往只能利用其中一种计算资源(比如 CPU 或者 GPU),还不能充分发挥硬件的性能。我们的工作致力于研究如何充分利用同一设备上的异构硬件资源,深度优化系统性能,大大降低模型执行的延迟和能耗。
隐私保护和模型安全。如前所述,用户隐私数据保护是一个重要的课题。在边缘设备无法运行高精度模型的情况下(比如在低端的监控摄像头上),利用云计算或者边缘服务器来执行深度学习模型就不可避免。在这种情况下,我们就需要研究如何利用远程的计算资源的同时还能不泄露用户的隐私数据。另外,在边缘设备上运行模型还带来了一个新的问题——模型的安全。训练一个好的模型需要花费巨大的人力、物力。因此,模型是重要的数字资产。在云计算模式下,模型的存储和运行都在云上,终端用户无法直接接触模型数据。而在边缘计算中,模型是部署到本地设备上的,恶意用户可以破解终端系统,复制模型数据。所以,如何在智能边缘计算中保护模型的安全就是一个新的重要研究课题。
持续学习和合作学习。智能边缘计算还带来了新的改善模型的机会。目前的模型训练和模型使用通常是割裂的。一个模型在事先收集好的数据集上进行训练,然后被部署到设备上进行使用。然而,模型使用中的数据通常是和训练时的数据集不一样的。比如,每个智能摄像头由于其位置和光线的不同,它们看到的图像内容和特征都不尽相同,从而导致模型精度下降。我们认为,模型被部署到设备上以后,应该根据设备上的输入数据进行适配和优化,而且随着设备处理越来越多的新数据,它应该从中学习到新的知识,持续不断地提高它的模型,这就是持续学习(Continuous Learning)。此外,多个设备还应该把它们学习到的不同的新知识合并到起来,一起合作来改进完和善全局的模型,我们称之为合作学习(Collaborative Learning)。与主要关注如何利用多方数据集进行模型训练而不相互泄露数据的联邦学习(Federated Learning)不同,持续学习和合作学习的重点是如何在模型部署后从新获取的数据中学习新的知识。
此外,我们还关注智能边缘计算中的各种新场景和新应用,比如视频分析、VR/AR、自动驾驶、AIoT 等,特别是随着 5G 的到来,如何构建更好的智能边缘+智能云的系统,为这些场景和应用提供更好的支撑。
在过去两年,我们和国内外的高校紧密合作,在这些研究方向上取得了一系列的进展,也在相关学术会议上发表了多篇论文。其中,我们和北京大学和美国普渡大学关于如何利用缓存技术(Cache)提高卷积神经网络(CNN)执行效率的工作发表在 MobiCom 2018上 [5];和哈尔滨工业大学等学校合作的关于如何利用模型稀疏性(Sparsity)加速模型执行的工作发表在 FPGA 2019和 CVPR 2019上 [6] [7];和韩国 KAIST 等学校合作的关于如何利用 SGX 保护用户隐私的工作发表在 MobiCom 2019上 [8];和美国纽约大学和清华大学合作的关于合作学习的工作发表在 SEC 2019上 [9]。
未来展望
智能边缘计算之后是什么?计算模式会沿着既有历史路线继续轮回吗?未来会是怎样的?
我们无法准确预测未来,但我们相信世界一定会变得越来越数字化、智能化,一定会变得更加美好。在微软看来,整个世界正在成为一台巨大的计算机 [10]。不管你是在家里、在办公室、还是在路上,不管是在工厂、在商场、还是在各行各业,借助分布在各处的强大计算能力,我们可以利用人工智能处理由无处不在的传感器采集到的数据,创造出丰富多彩的工作和生活体验。未来的计算一定是以用户为中心的,智能环境和设备随时随地感知用户的状态和需求,将用户所需的数据和信息准确推送给用户,为人们提供更好的服务
这是一个技术创新的黄金时代,有无数令人兴奋的问题等待我们去解决。希望有志于计算机系统研究的同仁能够加入我们,一起为建设更加美好的未来贡献自己的一份力量。简历请投递至邮箱:[email protected]
来源:沈向洋博士在2018微软人工智能大会上的演讲 [10]
参考文献
[1] V. Bahl, "10 years is an eternity in the tech world, but we are just getting started," 19 10 2018. [Online]. https://www.microsoft.com/en-us/research/blog/10-years-is-an-eternity-in-the-tech-world-but-we-are-just-getting-started/
[2] M. Satyanarayanan, P. Bahl, R. Cáceres and N. Davies, "The Case for VM-Based Cloudlets in Mobile Computing," IEEE Pervasive Computing, vol. 8, no. 4, pp. 14-23, 2009.
[3] "The First IEEE/ACM Symposium on Edge Computing," 27-28 10 2016. [Online].http://acm-ieee-sec.org/2016/
[4] J. Ratcliffe, "How many CCTV Cameras are there in London 2019?," 29 5 2019. [Online]. https://www.cctv.co.uk/how-many-cctv-cameras-are-there-in-london/
[5] M. Xu, M. Zhu, Y. Liu, F. X. Lin and X. Liu, "DeepCache: Principled Cache for Mobile Deep Vision," in Proceedings of the 24th Annual International Conference on Mobile Computing and Networking, 2018.
[6] S. Cao, C. Zhang, Z. Yao, W. Xiao, L. Nie, D. Zhan, Y. Liu, M. Wu and L. Zhang, "Efficient and Effective Sparse LSTM on FPGA with Bank-Balanced Sparsity," in Proceedings of 27th ACM/SIGDA International Symposium on Field-Programmable Gate Arrays, 2019.
[7] S. Cao, L. Ma, W. Xiao, C. Zhang, Y. Liu, L. Zhang, L. Nie and Z. Yang, "SeerNet: Predicting Convolutional Neural Network Feature-Map Sparsity through Low-Bit Quantization," in Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2019.
[8] T. Lee, Z. Lin, S. Pushp, C. Li, Y. Liu, Y. Lee, F. Xu, C. Xu and L. Zhang, "Occlumency: Privacy-preserving Remote Deep-learning Inference Using SGX," in Proceedings of the 25th Annual International Conference on Mobile Computing and Networking, 2019.
[9] Y. Lu, Y. Shu, X. Tan, Y. Liu, M. Zhou, Q. Chen and D. Pei, "Collaborative Learning between Cloud and End Devices: An Empirical Study on Location Prediction," in Proceedings of the Fourth ACM/IEEE Symposium on Edge Computing, 2019.
[10] 沈向洋, "让云计算和人工智能帮助每一个人," 2018 微软人工智能大会. [Online].https://www.microsoft.com/china/events/ArtificialIntelligence2018.aspx




原文链接:https://mp.weixin.qq.com/s/U9vnEzumNgGlYFR-lEPfhw



编辑:董莉

266#
 楼主| 发表于 2019-10-16 14:14:20 | 只看该作者
【案例】
图灵测试还重要吗?

1
我们正在步入人工智能时代。随着人工智能程序越来越擅长像人类般行事,我们也越来越多地面临这样一个问题:人类的智能是否真有什么特别之处?还是说我们只是另一种类型的机器?有一天,我们所知道和所做的每件事,是否有可能被一个安装在足够复杂的机器人上的复杂计算机程序所复制?1950年,计算机先驱和战时密码破译者图灵(Alan Turing)做出了最有影响力的尝试来解决这个问题。在一篇具有里程碑意义的论文中,他提出,通过一个简单的测试,就可以消除人类和机器智能之间的模糊性。这个“图灵测试”评估计算机模仿人类的能力,由另一个看不见机器但可以问它书面问题的人来判断。在过去几年里,有几款人工智能软件宣称已经通过了图灵测试。这使得有些人认为,这个测试太过于容易,以至于无法用作为人工智能的有用判断。但我认为那些软件根本没有通过图灵测试,甚至在可预见的将来都不会通过。但是如果有一天,人工智能真的通过了一个设计恰当的图灵测试,那么我们就有理由开始担心我们的独特地位。图灵测试实际上一项是针对语言流利性的测试。如果理解得当,它可以揭示的是人类最独特的方面——我们不同的文化。文化的不同导致我们在信仰和行为上表现出巨大的差异,这种差异在动物或大多数机器身上是看不到的。事实上,我们可以在计算机程序中编写这种差异,这正是赋予了计算机模仿人类能力的潜力的程序。在判断模仿的流畅性时,图灵测试让我们可以通过了解计算机在社会环境中对语言的掌握,来判断它们在人类文化中的分享的能力。2.图灵测试的基础是“模仿游戏”。假定在游戏中有三个人(如下图):男A、女B,以及询问者C。C独自呆在一个房间中,C与A、B的交流只能通过两个连接A、B所在房间的传真机来完成。C需要通过和A 、B进行对话,判断他们哪个是男人、哪个是女人。A的目的是模仿女人,尽量扰乱C的判断;B的目的是尽量让C相信自己是个女人。

现在,如果我们将A换成一台机器,再按照如上规则重新进行游戏,那么C在进行判断时的准确率是否与当A是一个男人时一样?在1950年那个时期,图灵没能制定出可以让我们来评判今天人工智能软件的必要协议。首先,他建议测试可以在五分钟内完成。但他没有发现,判定者和人类玩家必须共享同一种文化,而计算机必须能试图模仿这种文化。这才导致了有的人声称已经通过了测试,而还有一些人则称测试过于简单,或者应该将物理能力的模拟包含在内。3
在随着计算机科学家Joseph Weizenbaum在近50年前创建了名为ELIZA的程序后,这一点变得很明显。ELIZA被用来模拟一种被称为罗杰斯式(或以人为中心)的心理治疗师。几个与这个程序接触过的病人都以为它是真实的,从而形成了最早的关于图灵测试已被通过的说法。但Weizenbaum很清楚,ELIZA实际上就是个笑话。这个设置甚至没有遵循图灵提供的协议,因为病人并不知道它们可能不是真的,也没有一个真正的心理治疗师同时做出反应。此外,在那项测试中并不涉及文化,因为罗杰斯治疗师需要说得尽可能少。而任何有价值的图灵测试都必须让判定者和玩家尽可能像人类一样行事。基于这是一个关于理解文本的测试,计算机需要根据前百分之几的文字编辑的能力来进行判断。如果提的问题正确,它们可以表明计算机是否理解了其他参与者的物质文化。4正确的问题类型可以基于1975年的“Winograd模式”,即两个句子之间的差别仅为一两个单词,但需要具备关于这个世界的知识才能理解。这样的人工智能测试被称为Winograd模式挑战,它于2012年首次提出,是对图灵测试的一种改进。举个简单的例子,想想下面这句有两个可能结尾的话:“这个奖杯放不进这个手提箱,因为它太小/大了。”如果最后的形容词是“小”,那么“它”指的就是手提箱;如果最后的形容词是“大”,那么“它”指的就是奖杯。若要能理解这一点,你必须了解奖杯和手提箱的文化和现实世界。你还必须了解奖杯和手提箱的物理世界,以及你是否真的触碰过这些事物。因此,采用了这种方法的图灵测试将会使那些包含了对人工智能模仿人类身体能力的评估的测试变得多余。这意味着一个基于Winograd模式的图灵测试比简单的五分钟对话更能评估计算机的语言和文化流利性。与此同时,它也设立了一个更高的标准。在2016年的一场相关比赛中,所有的计算机都惨败给了这个测试,没有任何来自大型人工智能公司的竞争者参与这场比赛,因为他们知道自己注定会失败。如果把图灵测试设置为一系列对人类创造和理解文化的独特能力的严峻考验的话,那么那些所谓的已经通过了图灵测试的说法都变得毫无意义。有了恰当的协议,测试才能达到要求。再一次,图灵又是对的。而且就我们目前的情况来看,并没有明显的途径可以创造出能够充分深入参与人类文化,并通过正确的语言测试的机器。
原文标题为“Turing Test: why it still matters”

原文链接:https://mp.weixin.qq.com/s/j2tz3NekBDUZL5TS9i9DBw




编辑:董莉


267#
 楼主| 发表于 2019-10-16 21:45:34 | 只看该作者
【案例】
人工智能伦理如何设定,从种群层面看人类的知识积累和进化

前言:9月份中宣部出版局《中国图书评论》对《崛起的超级智能》进行了推荐和评论,对其中阐述的种群知识库扩展观点给予了重点关注。应该说种群知识库扩展是互联网大脑架构不断发展的抽象推论,这个推论对于人工智能及其伦理的建立也应有相应的价值,这篇文章将对介绍《中国图书评论》的推荐评论,《崛起的超级智能》一书中关于种群知识库的内容进行介绍。
第一部分,《中国图书评论》:从种群的层面来看人类的知识积累和进化
推荐书籍:2019年7月《崛起的超级智能:互联网大脑如何影响科技未来》,刘锋著,中信出版社。
本书主要是在探索互联网进化的若干规律性问题,归纳出了互联网的诸多“类脑”特征,其中一些很有启发性的观点也让人惊叹。
比如作者提到“种群的知识库”这样一个概念,即一个种群所拥有的知识库容量和使用知识改造世界的能力。纵观人类对知识的掌控状况,时至今日我们最常见的传统的知识存储方式,在规模上从一本一本的书籍、学有专长的个人,再到大型的综合性图书馆、专家智囊团,在知识协作上发挥了巨大的作用。
而互联网蓬勃发展以来,各种专业的数据库在信息资源上带来的效率提升,更是有目共睹。本书作者通过对一个种群所拥有的全部生物基因信息、发现的自然界现象和运行规律、掌握的改造自然的技术这三方面来考察评估,认为种群的知识和智能是生命进化的核心。
由此,更进一步前瞻性地探讨在人类的大脑、互联网、人工智能这三者融合以后,所形成的超级智能的进化前景。正是因为互联网使人类的知识协作更普遍、更深人,这种全景视角也逐渐变得易于接受。人类种群作为一个命运共同体,在知识的积累与进化上,由此有了明确、一致的方向,而这种积极面向未来的乐观态度也会增强人们探索的信心和勇气。
第二部分,《崛起的超级智能》书摘:种群知识库与人工智能伦理的设定
人工智能先驱尼尔逊教授曾经对智能下了这样一个定义:“智能是关于知识的学科,怎样表示知识以及怎样获得知识并使用知识的科学。“,从上面的探讨中可以看出,无论是脑的进化、互联网的进化、智能系统的智力等级划分,知识和智慧的提升都是生物进化的核心。
恐龙是生活在距今大约2亿3500万年至6500万年前、能以后肢支撑身体直立行走的的一类动物,恐龙支配全球陆地生态系统超过1亿6千万年之久,但在6500万年前白垩纪结束的时候,恐龙突然几乎全部消失。一种主流的观点是一颗珠穆朗玛峰大小的陨石撞击地球,引发特大火山爆发,进而导致恐龙的大范围灭绝。无论在体型上还是活动区域上,恐龙都进化出种类繁多的种类,包括体型巨大的地震龙,能在空中飞翔的翼龙,令所有恐龙恐惧的暴龙。但在大脑发育和智力提升上,恐龙一直没有大的进展,没有创造出属于自己的科技文明,当危机来临时只能被动的接受大自然安排的命运。
另一个典型的案例是熊猫,大熊猫的历史可谓源远流长。迄今所发现的最古老大熊猫成员——始熊猫的化石出土于中国云南禄丰和元谋两地,地质年代约为800万年前中新世晚期。在长期严酷的生存竞争和自然选择中,和它们同时代的很多动物都已灭绝,但大熊猫却坚持了下来,成为“活化石”保存到了今天。
但是在21世纪的今天,大熊猫确同样面临着灭绝的危险,这次不是因为自然灾害,而是由于食物来源单一,只吃竹子,一旦竹子遭到破坏,其生存就会受到影响,同时大熊猫本身的繁殖能力降低,其生殖系统受到某些细菌的感染,雌性的产卵率降低,雄性的交配欲望降低。作为活化石的大熊猫虽然存在了至少800万年,但同样在智力发育和自身科技上一直处于非常低的水平上,这样当遇到生存危机时,它同样无法利用智能和技术来解决。
与此同时,人类在近200万年里,在知识和智慧上不断扩展和加速,首先掌握了制造工具和使用火的技能,从此在自然界有了更强的竞争力;20万年前,人类掌握了用语言进行交流的能力,由此知识和技能从此可以快速在种群内传播。英国牛津大学遗传学专家安东尼·玛纳克教授领导的研究小组发现,对人类产生语言起决定作用的“FOXP2基因突变”发生在大约12万至20万年前,恰恰与现代人人口迅猛增加的时间相一致。
大约4-5万年前,这时的人类的进化出现了明显的加速,在形态上已非常象现代人,在文化上,已有雕刻与绘画的艺术,并出现装饰物。通过雕刻和绘画,人类的知识第一次通过外界媒介进行保存和传播。加大了人类种群知识库的容量和稳定性。这是之前任何生物都不具备的。这一进程在经历了造纸术,印刷术的发明得到了进一步加速。
50年前,互联网的诞生让人类又一次经历了巨大的智能飞跃,这次革命应该说不亚于200万年前人类第一次使用工具,也不亚于20万年人类第一次开口交流。
互联网的发展让人类拥有了容量更为庞大,反应更为快速的外部知识库,同时由于互联网的类脑化变化,让众多前沿科技以更高的效率为人类进化提供保障与支撑,在互联网的帮助下,人类进一步确立了在自然竞争中的绝对统治地位。
从恐龙、熊猫、人类的例子可以看出,生物种群知识库的膨胀速度是生物进化的焦点,很多生物的知识库停滞,走向死胡同,在千万年里没有进一步的变化,往往在面临巨大自然灾害时,由于生存环境的变化导致灭绝,或在地球的生命圈中处在越来越低的地位。而人类的种群知识库在过去10万年间发生了飞跃性的提升,由此在自然界处于绝对的统治地位。
从上面的案例可以看出,一个种群拥有的知识库容量和使用知识改造世界的能力,把它们合称为这个种群的知识库(PKB),这将是判断生物进化方向和生物高低等级的基础(如图9.4)。我们可以从该种群拥有的全部生物基因信息(GENE)、发现的自然界现象和运行规律(SCI)、掌握的改造自然的技术能力(TECH)三个方面考察种群知识库的发展
我们可以尝试用这个图示和公式对人类、恐龙、熊猫、鲨鱼、狗等生物的种群知识库(PKB)进行研究,绘制近200万年来他们种群知识库的变化过程。
由于缺乏人类和相关生物在远古时期的具体知识库和能力运用数据,我们用常识分析和假设估计的方法进行示范,表明人类的种群知识库是如何在进化中脱颖而出的,更为科学和可靠的数据研究留待未来深入。(详细阐述文字请阐述请参阅《崛起的超级智能》一书相关内容)
人类、鲨鱼、狗、和熊猫的种群知识库曲线图
大脑、人工智能、互联网在21世纪的融合,形成一个前所未有的超级智能。这个超级智能的发展与进化,使生命共同体第一次有了一致和明确的进化方向。
无论是大脑近十亿年来的进化、人工智能的最新发展、还是互联网大脑模型的形成,无一不在提醒我们,种群的知识和智慧是生命进化的核心,当一个种群的知识和智慧趋近于无穷大时,生命进化终极目标“全知全能”将因此产生。
法国著名进化论哲学家德日进20世纪上半叶在《人的现象》一书中提出人类进化的终极状态是全知全能,也被称作Ω(欧米伽)点,“上帝”之点。由此可见,人类或其他种群知识库到达”全知全能”时,德日进的预言就实现了。
人类的伦理是指在处理人与人,人与社会相互关系时应遵循的道理和准则。是从概念角度上对道德现象的哲学思考。它不仅包含着对人与人、人与社会和人与自然之间关系处理中的行为规范,而且也深刻地蕴涵着依照一定原则来规范行为的深刻道理。
由于伦理的设定往往与文化、宗教、地域、价值观、世界观有关,在人类数千年的文明史,至今我们也没有一个统一的、标准的、明确的伦理体系,仅有一些大部分人承认的大体的原则。新时代关于机器人和人工智能的的伦理冲击,因为这个领域的不完善导致争议变得更为突出。
从上面的讨论看,知识和智慧的提升是生物进化的核心,可以用种群知识库变化判断生物进化的方向和生物的高低等级。当时间趋于无穷大时,种群知识库将实现全知全能,从而到达“上帝之点”。
这说明生物的进化存在方向和终点。由此我们可以得出判断标准,在生命进化的过程中,那些促进和保护种群知识库发展的行为,可以看过正向的伦理标准;那些阻碍和危害种群知识库发展的行为,可以看做是负面的伦理行为(如图9.11所示)。
通过种群知识库判断伦理规则的示意图
依照这个标准,我们可以从生物进化方向的角度对人类、机器或者人工智能伦理涉及的问题进行判断和回答。
“扳道工困境”中,能否判断一个小孩或者一车厢人类哪一边对人类未来的知识和智慧贡献大?在没有第三种选择和无法判断的情况下,选择让人数更多的一车厢人类存活下去,应为无奈之举。
泰坦尼克号出现的紧急逃生问题,在无法判断乘客身份的紧急情况下,选择优先逃生的为妇女和儿童,主要是因为她们更多代表了人类繁衍的继续和人类发展的未来。
在2012电影中,总统选择让科学家乘坐飞机到达安全之地,并表达 “一个科学家比几十位官员更重要“,除了总统对国家的忠诚之外,也是基于科学家对人类未来知识的创新更重要的判断上。
对于波士顿动力机器人在进行科学实验时,受到测试科学家的攻击,导致站立不稳摔倒的问题,这并不涉及对生命的虐待问题,因为从标准智能模型的构造和生命进化的本质看,机器人和人工智能系统还不能看做与人类同权的生命体,甚至根本就不在生命的范围内,这主要是因为机器人目前既没有自动进化的动力,也没有判断是否正确进化的能力,机器人或AI分担了人类的部分知识和智慧功能,但在创造性和评审创造性价值方面无法替代,更为重要的是AI无法确定自己的进化方向和进化目标,也没有正确进化的自然动力,它的进化动力来源于人类,因此机器人和人工智能依然是辅助人类进化的工具。
应该着重指出,在非紧急情况下对应对个体利益应进行特别保护,不能以群体利益侵占个体利益,发挥个人探索的能动性对种群知识库的提升应是非常重要的方式。
这一点首先在基础科学的探索中体现特别明显。纵观科学发展史,哥白尼、牛顿、门捷列夫、爱因斯坦等科学巨匠们,主要是靠个人探索时“灵光闪现”做出的伟大贡献,是靠自由的探索,而非有组织有目的规划。


原文链接:https://mp.weixin.qq.com/s/XrJsybpCHU8Ma7Cu2Umylg


编辑:董莉

268#
 楼主| 发表于 2019-10-16 21:46:12 | 只看该作者
刘海明 发表于 2019-10-16 21:45
【案例】
人工智能伦理如何设定,从种群层面看人类的知识积累和进化
前言:9月份中宣部出版局《中国图书 ...

9月份中宣部出版局《中国图书评论》对《崛起的超级智能》进行了推荐和评论,对其中阐述的种群知识库扩展观点给予了重点关注。应该说种群知识库扩展是互联网大脑架构不断发展的抽象推论,这个推论对于人工智能及其伦理的建立也应有相应的价值

269#
 楼主| 发表于 2019-10-18 22:30:53 | 只看该作者
【案例】





编辑:董莉

270#
 楼主| 发表于 2019-10-20 23:46:35 | 只看该作者
【案例】
刘艳红:人工智能法学研究中的反智化批判

人工智能法学研究中的反智化批判

作者:刘艳红,教育部“长江学者奖励计划”特聘教授,东南大学法学院教授、博士生导师。
来源:《东方法学》2019年第5期。本文与发表版本的内容略有不同,并已略去注释,引用请以原文为准。

内容摘要:人工智能技术热潮的再度兴起,使得人工智能法学研究空前繁盛,但当前研究出现了违反人类智力常识的反智化现象概念附会现象严重,不少成果只是基于“AI+法律”的任意性组合,“泛人工智能化”研究正在产生大量学术泡沫制造人工智能研究中的“假问题”或误将司法适用问题当作人工智能法学研究中的元问题,理论创新方向值得怀疑;将对策与科技问题当作理论与学术问题,离开法教义学的基本立场与方法,使得人工智能的研究日益滑向不可知论人工智能并未对法律基础理论、法学基本教义提出挑战,受到挑战的只是如何将传统知识适用于新的场景。法学研究应该避免盲目跟风,走出对AI的货物崇拜,回归学术研究的理性轨道。

二十世纪七八十年代,人们曾一度对人工智能的研究充满热情,随着真正有用的AI程序未能面世,这种热情被漫长的挫败感所冲淡,而如今人工智能技术再次“引起了越来越多的兴奋和焦虑……涉及人工智能的未来图像(futuristic imagery)在大众媒体中日益流行”。

在这种氛围的笼罩下,我国法学理论和实务界也对人工智能(机器人)保持着巨大的好奇,对法律引导人工智能发展的技艺充满着强烈的自信。不可否认,为包括人工智能在内的一切技术问题设计法律规则,是法律人不可推卸的时代使命,因而这种研究风潮是“法学作为致用之学”的当然表现,一切“热衷”似无可厚非。但也正因为法学研究本应具有观照现实的特性,这要求我们时刻注意合理选择参与前沿技术讨论的现实契入点,在正确理解人工智能技术应用场景的前提下确定法学研究的问题意识,避免盲目追求“时髦”的学术虚假繁荣。以刑法学为例,或许得益于国家《新一代人工智能发展规划》的政策信号,本领域内的研究成果从2017年开始呈现爆炸式增长,“人工智能刑事责任论”等俨然成为最为耀眼的知识增长点。面对席卷而来的人工智能法律问题的法学研究,面对“定分止争”的法律本性,不得不让人产生怀疑:法律学者们是否已经找到了规制AI技术发展的理性方向?当前的热烈研究究竟能走多远,它究竟只是“先一哄而上再一哄而散”还是能够持续到强人工智能到来之日?空前兴盛的人工智能法学是否积累了有助于学科发展的智识,抑或仅仅是法学理论工作者们为了追踪热点并出于各自目的比如引用率高低等而亦步亦趋的“学术秀”?对此,本文将审视当下人工智能法学研究的格局及其问题,并在此基础上就其发展进路谈几点看法。


一、人工智能法学研究中的概念附会
当前法学界存在无处不在的“人工智能+”,在人工智能的大招牌之下开启了各个论域的话题研讨新模式。究竟什么才是人工智能?学者们所言的人工智能只是借用了一个似是而非的流行语以吸引阅读兴趣,还是它确实挑战了千百年形成的法律知识体系?通过观察可以发现,人工智能其实并没有取得如此巨大的飞跃,一些所谓的“人工智能法学”研究题目仅仅是在顺势包装、借壳上市,这种“盛名之下其实难副”的概念附会已经吹起了不少学术泡沫。
人类最初在制造计算机之时就已幻想能够研发出会思考的机器,那时人们无法给予它一个特定的可理解的准确称谓,因而便将之命名为“Artificial Intelligence”,简称AI,以表明其不同于人类自然智慧的人工智慧。迄今为之,科学家们也给它撰写过不同的定义,甚至用各种思想实验如著名的图灵测试、中文房间理论等验证这种人工智能存在与否。本文不想详细例举这些定义,事实上关于计算机科学、哲学、法学等学科内的很多基础概念都没有取得过一致的意见。或许如美国最高法院大法官斯图尔特(Potter Stewart)曾说的那样,我们难以成功描述这些概念如无法定义什么是淫秽物品,但“当看到它时我就知道了”(I know it when I see it)然而,当人们因自身的不求甚解而误解曲解研究对象时,准确提炼出相关概念的核心要素就显得十分必要,毕竟不同定义之间还存在着相当的共识。整体而言,人工智能概念核心要素自1950年代产生以来就是恒定的,人们尚没有超脱对AI的原始认知——像人类一样理性地思考和行动。这并不是说人工智能系统的智力水平与人类持平,事实上人类在很多方面也早已大大超越了这个目标,而是涉及一些像人类一样能够“自主的选择和决定:自我管理(self-governing)”。“自主或自治(Autonomy,源自希腊语auto:自我,nomos:法律)与自动化(automation)不同,自动化是指由一台机器不断重复一个过程。自主则要求……AI可以做出自我的选择,即便它在做决定时与人类有过互动”。可以说,“机器是否具有自动化”是一种外部信号反射式的事实判断,而“机器是否具有自主性”则还涉及到自然科学之外的关于机器是否具有自我意志和自我行动能力的“(类)人性”判断。有鉴于此,有学者认为一个可被称为“智能”的实体应至少具有五个基本构成属性:①沟通交流能力(communication),即能够与人类或其他物种相互动,这并不单单代表着智商水平而是一种社会交际潜能;②内部知识(internal knowledge),即对自身的认知,它等于“自我意识”,一个有智慧的实体应该知道自己的存在、自己以某种方式运作、将自己融入现实等;③外部知识(external knowledge),即关于外部世界和真正现实的数据收集分析能力,这是人类累积生活经验的方式,也是人类学习的方式,如果把任何事件一次又一次地当作全新的,那么就很难表现得像一个有智慧的实体;④目标驱动行为(Goal-driven conduct),这指的是一种意图,它制定和执行计划来实现相关目的;⑤创造能力,即指找到新的理解或行为方式的能力,反复尝试完全相同的行为并不是创造力的表现。所以,真正的人工智能是极为复杂的,认定条件也颇为苛刻,这些定义标准限制了概念上的泛人工智能化。
反观我国法学界,很多学者常常将人工智能要求的“自主性”与寻常的“机械自动化”相互混淆。例如,致力于人工智能法学研究的学者大多以“机器人伤人事件”等为起点,比如2015年德国大众汽车制造车间内发生的所谓“首起机器人杀人案”。但是,本案中产生故障的机器人只是普通机械设施,它根本没有独立思考的能力,它之所以会杀死这名工人,是因为触发了该设备的自动处理程序;它只是自动化的普通机器,远没有达到所谓人工智能的水平。与无处不在的生产责任事故相比,该事件也没有本质不同,无非该设备的自动化系统更为精密而已。如果说这也能够成为人工智能法学研究的问题来源,那么可能早在工业革命推广开来之时就该去研究“人工智能”了,或许农业社会耕田的拖拉机伤人也该划入人工智能法律问题的话题范围了。生活经验常识告诉我们,任何机器都会存在风险,即便一把毫无自动性的菜刀在人类不当使用时也会划伤手指。以所谓的“机器人杀人案”导出人工智能的发展风险,进而得出应追究人工智能之物法律责任的观点,是对人工智能根本性的误解和非常低级性的错误。那些讨论对机器人追究刑事责任的学者可能忘记了刑罚的功能,“在判处刑罚的情况下,法官对再犯罪可能性的预测不可能是绝对准确的,犯罪人的行为态度、规范意识等也是不断变化的,因此,刑法特别规定了减刑制度与假释制度。”针对机器人,这些刑罚制度显然没有任何意义,刑罚的报应或者预防目的也都无从实现。
再如,银行的自动取款机(ATM)是为了节省人工成本而发明的旨在引导人们从银行自助取款的机器,虽然它也被叫做“自动柜员机”,但它只是银行人类柜员的一种替代设施,它只有自动化而没有自主性。但是,有学者在人工智能中讨论利用拾得或盗窃他人银行卡在ATM上取款等案件的处理,将之归入“人工智能作为侵财对象的侵财犯罪”,并以此提出了“人工智能时代侵财犯罪刑法适用的困境”问题。事实是,中国第一台ATM机早在1987年就已经启用,它与人工智能之间没有丝毫关系。“通过ATM实施侵财犯罪”“机器能否被骗”等话题根本不用借助于所谓的人工智能就已被讨论过了,当法学重要期刊上的论文将自动取款机、手机银行、支付宝第三方支付平台等统统纳入人工智能范畴时,恰恰表明概念附会的严重性已经到了让人失去底线的地步。果真如此,我们这个人口大国的人工智能普及率早已世界遥遥领先。自动取款机、手机银行、支付宝等可能会出现系统故障,但它们并没有社会沟通能力、创造能力,它们也没有自主性;我们对它们的应用再熟悉不过,常识告诉我们,这种研究正是泛人工智能化的突出表现。

又如,我国法律界对“司法人工智能”持有极高的期待,并随着一些软件如法律信息系统、法律咨询检索系统的司法便利而大大增强了法律人研发人工智能的决心和信心。但是,这些所谓的“司法AI”或“法律AI”是十分低端的自动化计算软件,至多属于对人类智慧的“智慧增强”即(Intelligence Augmentation),它与“人工智能”尚扯不上关系。当前的“司法人工智能”如通过语音技术将庭审声音转化为文字、进行法律信息检索、撰写法律文书等,仍然是一种简单的资料统计、文字处理的模型,是人类编码时设计的模板或套路,只不过随着司法信息公开数量扩增,这些法律软件可以借用不同于以往“小数据”的“大数据”。这些法律应用软件可能利用大数据扩大外部知识,可大数据不只是实现人工智能某种或某些特征的条件;人工智能的实现也不仅仅靠大数据,这些软件只是一些电脑程序(连“物”都算不上),它们更没有沟通能力、内部知识、目标驱动行为等,甚至没有丝毫深度学习能力。那些旨在实现量刑规范化的司法软件仍然局限在十多年前“电脑量刑”的框架内,办事机关大厅内能够做到语音交互、人脸识别的各种法律机器人也只是大量法律业务中的自动化玩具。如果说这些产品由于让法律人喜出望外而被视为“人工智能”的话,那么谷歌AlphaGo-Zero、波士顿动力机器狗这种“弱人工智能”恐怕就是神一样的存在。当机器“像人一样思考”尚不可预期的情况下,让它“像法律人一样思考”更是一种奢望,所谓的“智慧司法”也绝对不是司法的人工智能化,盲目追捧吹嘘“司法人工智能”也绝不是司法体制改革的初衷和方向
综上可见,我国人工智能法学研究中存在着明显的概念附会,将不属于人工智能的研究对象强行贴上人工智能的标签,相关研究演变为“AI+法律”的任意性组合,不少研究者只是打着人工智能的旗号攫取话语权、提升自我身价,法学家们一夜之间变成了人工智能专家,仿佛让自然科学家都望尘不及。这种“泛人工智能化”不是真正的学术研究,而是制造学术泡沫。

二、人工智能法学研究中的伪问题替代真问题

“问题意识”是一个常谈常新的话题,提出正确的问题是任何研究过程的开端,如果没有针对真实的问题进行讨论,即使论述再精妙、方法再多样、观点再前卫、著述再等身,都只是徒有一身浮华的外表,根本不具有任何实际意义。当前法学研究中,应特别注意甄别“伪问题”。尤其在“乱花渐欲迷人眼”的人工智能领域,问题意识更具有欺瞒性,一些法学家似乎总能够发现连科学家都难以察觉的“宇宙级难题”,可静心观察就会发现不少问题的讨论意义仅仅在于占领了更多期刊版面而已,所谓的理论创新可能只是一场空欢喜。

其一,不断制造、跟风、放大“假问题”,导致法学研究误以人工智能发展中的夸张、炒作、娱乐为前提。我国人工智能法学研究主要始于学者们对人工智能技术的各种忧患意识:人工智能的发展前景不可限量,必然会出现具有自我意志的(超)强人工智能,人工智能甚至可能会取代人类、机器算法会取代人类法律;人工智能引发的风险足以产生毁灭性打击,因而主张法律甚至刑法积极应对和规制人工智能的发展,等等。这种“居安思危”“未雨绸缪”的精神确实让人感佩,可这些忧虑只是依靠无数假想拼凑起来的幻影,只是在用别人的“噱头”吓唬自己。

例如,世界上第一个获得公民资格的表情机器人索菲亚(Sophia),在2017年10月被沙特阿拉伯授予公民身份之后,尤其它曾在与设计者汉森(David Hanson)的对话中冒出一句“我想毁灭人类”,法学家们开始变得躁动不安。不少学者将索菲亚的公民身份作为一种AI技术发展的国家制度回应,视之为AI挑战现行法律体系的范例以及检验某个法律人格理论是否合格的试金石,认为法律若不承认机器人的法律主体地位就不能满足这种社会现实。然而,索菲亚早已遭到包括人工智能科学家在内的各方观察者的极大怀疑:“索菲亚之于AI,就像变戏法的之于真正的魔法,我们把它称作‘AI崇拜’‘假冒AI’或者‘远程操控AI’可能比较好。”所谓具有公民身份的索菲亚不过是一个公关噱头而已,而不是人性、尊严或人格的展现。“‘女性’属性的索菲亚究竟能享有哪些权利,还真不好说。因为在事发地点沙特,女性连单独驾驶权都未得到法律认可。”对于这样一个女性只配拥有有限权利的国家来说,索菲亚更像是一个营销玩物。这种以国家权力为支撑的机器人营销策略淡化了沙特在妇女权利方面的不光彩记录,其实索菲亚主要的新颖性在于身体和面部表情,而不是它的会话方式、主体认知或智能程度,“当以真实的人类互动标准来衡量时,它便仓皇失措、‘智商不在线’”。其实,类似于索菲亚的人形机器人在世界范围内还有很多,它们之所以不被人们津津乐道,是因为它们的包装实力不及索菲亚。AI技术的拥护者李开复曾公开评论,索菲亚“丝毫没有人性、人的理解、爱心、创造力。授予这样一台只会模式识别的机器‘公民’,是对人类最大的羞辱和误导。一个国家用这种哗众取宠的方式来推进人工智能科研,只会适得其反”。既然人们对于索菲亚之于人工智能发展的意义远没有形成共识,我们更没有必要放大索菲亚等类似机器人对现有法律体系的影响,索菲亚的所谓“公民身份”是国家、企业、新闻媒体等各方利益的联合演出,它既与沙特本国的法制传统相龃龉,也受到了AI专业科学家的批评。因此,法学家完全没有必要从索菲亚那里获得什么问题意识,也不必为它的公民身份感到欣喜或恐慌,由索菲亚引出的人工智能法律人格问题是个彻底的伪问题,没有任何法制建构和法学研究上的借鉴性;那些经由公民机器人的诞生而产生的将索菲亚“修坏了会被追究法律责任吗?把‘她’拆解其不等同于谋杀?等问题,正是伪人工智能法学问题的典型代表。

其二,将司法适用/使用问题作为人工智能法学的“元问题”,“AI乐观主义+法律工具主义”盛行,从而不甄别真风险真挑战、陷于表象式研究氛围。当前的研究主要集中于两个方面一是推进司法人工智能以提升“智慧司法”乃至“智慧法治”,克服人类裁判思维的片面与恣意;二是探究人工智能对传统法律权利义务的挑战,最终落脚于人工智能的司法处遇如“人工智能创生成内容”的著作权保护、自动驾驶致人损伤的刑事责任等。如果将研究对象限定在弱人工智能,则不仅AI的作用有限,而且它对法律体系的挑战也十分微弱,以人类为中心的现有法制系统仍具有顽强的适应力;如果将研究对象拓展至强人工智能,则不仅完全跨越了时代,而且忽视了一系列尚未深入讨论的前提性问题。

如前所述,当前的“司法人工智能”只是提高司法工作效率的便利工具,如语音输入取代书记员电脑打字记录、裁判文书上网以及自动识别搜索等,这种变化与书记员告别古老的手写记录没有实质区别,其他应用如海量判例筛选、辅助量刑规范化、电子取证技术等至多属于增强同案同判等人类司法智慧的AI。“司法人工智能”这一现代科技的使用还面临很多难题,若不对此加以重视而盲目上马各种“智慧司法项目”,最终也只沦为一场“司法秀”。例如,当前中国的司法公开指数虽然有提升,但远未能构成真正大数据,大量司法文书没有公开或没有及时公开、案外因素或规范外因素对司法结果依旧产生隐形决定力,数据的不完整、不真实直接影响各种“司法人工智能系统”的效用。又如,司法体制改革的重中之重是凸显程序正义,而人工智能的“算法黑箱”将加剧人们对裁判过程不透明的怀疑,这使得那些致力于摒弃人类法官弱点的智慧软件系统变得苍白无益。更重要的是,当前的人工智能法学研究者几乎都不是计算机科学专家,各种软件系统的研发也依赖于法律人与专业技术人员、技术公司的合作。当我们质疑人类恣意时,也更有理由怀疑这些系统研发者会借着算法黑箱写入法学家的偏见、科学家的武断、企业的经济利益等,它们仍无法摆脱商业、政治、强势价值观等力量操控,这种“算法歧视”已经在多种领域出现,使得人们对这种由于尖端技术导致的不公正性的救济难度将直线上升。因此,当前司法人工智能实际仍停留在“为何要用”的原始阶段,当类似元问题没有得到充分讨论而径直将其乐观地投入司法使用,那么所谓的智慧司法将会引出更多棘手的法治难题,对于“法律AI”大可不必亦不能急于求成。

再如,著作权法保护的客体是“作品”即文学、艺术或科学领域内的独创性表达,即“只有具备相应独创性的智力创作成果才可成为著作权客体,受著作权法保护”。“人工智能生成内容”的生产过程并不属于创作、不符合独创性要求,不是著作权法中的作品,所谓“人工智能生产内容”的著作权保护就成为一个伪问题,不能以此否认现有法律的应对能力。“作品”源于独立的、个性化的思想创作,是某种情感、审美的表达,计算机软件可能具有越超人类大脑的某些组合能力,但最关键的是它缺少人类之间的共情心、同理心而完全根据算法、模板机械生成结果,没有发挥智力创作的空间。比如机器所写的诗只是利用了内部词库和一些文字搭配技巧,它根本无法理解爱情、童趣、寂寞、悲悯等诗歌创作内在思想,甚至它呈现出来那堆文字(在其内部是一堆数字代码)连诗歌的皮囊都没有,也注定不会得到文化上的流传。人工智能不能改变著作权法中“作品”的构成要件,对这种毫无创造情境、毫无智力活动的“生成内容”进行著作权保护毫无必要,更不能承认机器的著作权主体资格,否则人工智能将率先在艺术创作上严重冲击人类文明理念,这才是人们最需要担忧的。事实上,即便当下热议的法律大数据与人工智能在司法场景的应用,也还只是停留宏观层面概述,根本还未深化到具体的细分领域。所以,那种所谓“新技术、新风险对司法适用提出新挑战”毋宁是不假思索的命题套路。法学研究应该走出对AI的货物崇拜,[ “货物崇拜”,是指与世隔绝的原住民将外来先进科技物奉若神明的行为。]回归学术研究的理性轨道,研究法律领域的真问题。

三、人工智能法学研究中的对策论代替教义论


人工智能只是无数新技术发展背景下的某一个领域,法教义却是法学研究不可抛弃的立场和方法,当下对人工智能法律问题的研究停留在对策论,离开法教义学的精耕细作和理论共识探讨必将使人工智能法律问题研究难以沉淀。

每个部门法都存在问题性研究和体系性研究,前者以解决个别问题为导向,后者则以各种原则、规则的体系推进为导向,二者在整体知识系统内相辅相成,共同保证法律制度对实践问题的适应性和稳定性。如前所述,人工智能法学研究兴起的原因是研究者认为法律对AI问题的应对能力不足,因而这首先是问题性研究;同时,研究者提供的解决方案如赋予人工智能法律主体地位等均是对现有体系的突破,因而也就天然牺牲了体系性。概言之,人工智能法学研究的现状是问题性研究林立、体系性研究阙如。虽然法学不能像自然科学那样建立起严密的公式体系,但法教义如同公式一样,提供了逻辑关系建立起来的知识体系,保证了各部分知识之间的兼容性,按照这些公式体系来完成判断可以节省大量审查精力。体系性研究的这种优势荡然不存,会导致我国法学研究转型中的所谓知识创新实际上走向了“回头路”:对策论优先。法学家的对策论与国家制度层面的政策论共用一套逻辑,它特别看重的是法律工具主义,当失去了体系性研究之后,这种对策论容易违背原理、抛弃原则、颠覆法秩序,产生的不是工具理性而是“工具不理性”。
人工智能法学研究中对策论的极端表现就是主张赋予人工智能法律人格,甚至人工智能可以作为独立的犯罪主体存在,这是一种“以新(立法)制新(问题)”的路径,往往仅仅是就事论事、毫无体系。例如,权利义务能力是定义法律主体的唯一标准,但人工智能在权利义务根本不可能实现统一性原则。即便人工智能享有了著作权等呼声较高的权利,但它当其研发者、使用者将AI创作物据为己有时,AI是否能够就发表权、署名权的救济独立提起民事诉讼?除此之外,它还能拥有哪些权利?智能机器人有无数个种类、程序也极为复杂,如何判断某些AI具备而某些不具备权利能力?研发者、使用者为自身之目的对人工智能运行程序进行删改时,是否也要经过AI的同意?他们对这些智能产品还能够享有“物”权?这都是牵一发动全身的问题。在义务能力上,当AI致人损害而产生责任时,它如何承担赔偿责任?法学家目前设想的方案是像机动车强制保险那样为人工智能进行投保或设置某种基金,但这种责任是仍然是人类的财产责任而不是AI的独立责任。因此,“主张人工智能具有主体资格……不具有现实性意义”人工智能达到权利义务相统一的法教义要求几乎不可能,体系性思考的缺失只会顾此失彼、不可能拼凑出一个法律上的新主体。


再如,断言人工智能可以承担刑事责任的观点根本违背了人类制定刑法的目的理性。刑法教义学对刑罚的认知是:“刑罚作为国家对犯罪行为的否定评价与对犯罪人的谴责的一种最严厉的形式,当然地对犯罪人具有身体的、精神的、财产的剥夺性、限制性痛苦”。不少刑法学者对人工智能承担刑罚责任念念不舍,可这种所谓的“刑罚”根本就不可能成为一种“痛苦”,不可能实现对AI犯罪的预防效果。首先,诸如删除数据、修改程序、彻底销毁等手段根本谈不上任何“谴责性”,这些手段早已在当今畅通无阻。电子产品售后服务中心对出售的产品进行数据程序的删减、替换、修正或者按照用户意愿进行置换、报废是无比寻常的维修方案,这何曾需要以它们构成犯罪主体为前提,这些维修手段的正当性根据只在于技术有效性——以“能修好”为标准。人类对自由刑、死刑的痛苦感是来自天然的肉体和心理上的,机器人的痛苦感则来自于人的设计而非其自身,它没有痛感;在这一点上AI连一只有触觉的蚂蚁都不如。因此,人类为AI设计的“刑罚”根本不具有任何刑罚的属性。其次,正因为刑罚属于最严厉的制裁措施,人类更加注重法治国刑法的最后手段性、谦抑性、法益保护辅助性。除刑法之外还有道德规范、伦理规范以及其他前置法,如诸多风化犯罪之所以受到质疑正是因为相关行为属于纯粹道德或伦理调整范围。法学家从来没有考虑过人类是否能够为机器人成功搭建起道德或伦理的规范体系,而只是简单粗暴地动用刑罚,面对人工智能等高端技术时总是如此急不可耐;法学家似乎也没有注意到,上述那些所谓的刑罚方式其实单纯依靠官方或非官方的AI技术管理规范就能够顺利实现,这些技术指南只需要针对AI研制者、使用者等人类主体即可。可以说,以上问题的“很多部分根本就不是‘对法律的挑战’”,人工智能并未对法律基础理论、基本法学教义提出挑战,受到挑战的只是如何将传统知识适用于新的场景,如技术的发展如何影响人类自身的注意义务等。

迄今为止,人们没有放弃过对法律风险预防功能等问题的迷恋,很多措施如刑罚前置化、抽象危险犯、行政犯的增设等或许还能被理解,毕竟它们针对的都是人类行为,至少这种立法客观上会引起一些自然人或单位的心理威慑。但若将法律的预防功能指向不知何年何月才会出现的“假想主体”,则根本错解了预防主义,一如英明睿智的秦皇汉武也不可能以“展望未来”的姿态为醉酒驾驶机动车的立法浪费笔墨,这与他们的想象力无关而是由于这一时代根本不存在这种“定分止争”的需求。更值得指出的是,很多法律人自以为富有远见卓识、想象力丰富,可他们是否想过:强人工智能的整体智慧高于人类且又拥有自主意识、行动自如,那么这种比人类高一等级的物种届时还会接受今日法学家的方案吗?纵然今日设计了无比完美的框架,可那时人类将失去框定人工智能的资质,那时反倒是“人工智能在思考如何为人类立法”,所以,“冥想式的法学研究”里充满着神奇的悖论,人工智能法学的愿景可能是一场空。

四、结语

法学不是玄学、不是科幻主义,也容不得太多不切实际的浪漫情结。如果说“我们即将迎来人工智能时代”、自主思考的强人工智能就在“明天”,那么我们离这个“明天”究竟有多近?连科学家都不知道这个“奇点”何时来临,法学家又具有何种特异功能参透AI的未来禅机?对人工智能相关事务的法律规制尚需要我们积累更多的生活样本,创建一些只适用于遥远未来的理论、制定一些只沉睡在法典里的条文将比当前的“象征性立法”更加浪费资源,因为这种“立而不用”是名副其实的“空谈”。研究者总是相信AI技术的强大远非常人想象,那么是否有朝一日人类也会发现智力超群的外星人?或者基因技术也会让科幻电影里的钢铁侠变成能独立思考、会说话的真正人类?如果法学家总是秉着“宁可信其有”“未雨要绸缪”的态度——反正也没什么害处,那么我们现在是否也该为外星人、为钢铁侠去制定属于它们的规则?如果法学家连如何将违法行为归责为个人的问题都没有参透,却对人工智能是否拥有主题资格的问题喋喋不休,这不是在浪费学术资源又是什么?法律人若接连不断地随着人工智能等新潮科技一哄即上,那么他们也将随着自然科学的挫败或低落一哄而散,或许也将像三十年前那批AI研究先驱者一样只愿承认自己是“计算机(法学)专家”而对“人工智能(法学)专家”的头衔避之不及。当以异于常人的想象力从事法学研究时,研究者的判断力也会一并“异于常人”:概念附会、伪问题替代真问题、政策论替代教义论等一系列现象表明,一贯理性的法律人也会丢掉人类智力本该坚守的常识,人工智能法学研究中的如此反智化现象,令人深思并需要警醒。


原文链接:https://mp.weixin.qq.com/s/X2LBKxWV8a66aJ4BuFws6A



编辑:董莉


发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表