传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
331#
 楼主| 发表于 2019-11-26 11:04:54 | 只看该作者
【案例
伦理是智慧的内核驱动
又红又专,这在中国曾一度是用人的标准,现在又渐渐日益得到重视。为什么?很简单,人无信不立,德不配位,才能越大,危害就越大,思想品质、伦理道德是方向性的大,而才学智能是过程性的小,正可谓:失之毫厘,谬以千里。
当前,许多人有意、无意把信息化当成智能化,许多人有心、无心把自动化称为智能化,其结果不得而知,但很少有人把这些称为智慧化,为什么?缺“德”使然,智慧是融入了道、德、伦、理的智能,没有仁义道德岂敢论及智慧?!
仁,通人;义,为应;道,是路;德,同得。仁义道德就是“人(通过)应(当走的)路(获)得”。这也是智慧的内核和驱动:智能+伦理。伦理主要涉及的是人与人、人与社会之间所共同认定的思想行为规范关系,是对一定群体中事实和事物的分类、分析、分解,涉及安全、隐私、偏见、取代、不均等价值问题,也是是非、同情、同理心产生的人道基础,机(器之)道,即人的程序化知识表征对此还很无奈。
智慧是beingshould的综合体,它弥合了事实与价值、主观与客观、伦理与智能之间的鸿沟,这也是通用智能或强智能领域的重要标志,也是反思智能和洞察智能的体现。世上许多道理或许是圆的,当你以为的正确时,或慢慢地或突然间变为错误,反之也成立,智慧之所以比智能更重要、更聪明,就是因为她可能预见到这些智能也无法述说的事、物反转和出乎智能的意料之外。


一个地方不在大小,关键看有无灵气,剑桥就是这样一个神奇的地方,不但有山有水,还有剑有桥。那里的山其实就是一个小土坡,一个罗马人的兵营城堡(camp castle)遗址,但站在那里可以俯瞰整个剑桥的景色,让
人久久不愿离开。那里的水就是流淌了数千年的康河(Cam River),不深不宽,流过几座著名学院的石桥、木桥、铁桥(bridge),山水由桥相连,“cam+bridge”,自然就构成了剑桥(Cambridge)。有山有水有桥的地方多
了,为什么就此处那么有名呢?对,原因是这里有剑,还不是罗马人的剑,而是英国人的剑,英国人用这把锋利的剑为人类开辟了一个新的世界,认识到了宇宙和人类的秘密,本书就是试图发现发现这些秘密的秘密,同时也试
图延续这些发现,让那棵苹果树在肥沃的东方土地上不断地开花结果,生生不息,绵绵不断,进而铸剑建桥,使得东西方取长补短,相得益彰……
本书是笔者 2012 10 月~ 2013 10 月在剑桥大学访学时的所看所感所思所悟,结合科学哲学、艺术宗教等方面的观察思考;回国后针对起源于剑桥的人机交互技术、智能科学历史渊源,进行深入细致的梳理和分析,并结合自己正在进行中的人机融合智能研究展开本质性探讨和思考,比如在自主系统、人/机器学习、深度态势感知、人 - - 环境系统、智
能哲学、人机交互、群体智能、机器人、智能传播、伦理道德等方面进行了总结与反思,初步勾勒出了人工智能未来发展的趋势和变化。这些思考有的与剑桥有关,有的表面上虽看不出有直接关系,但也有某种内在的联系,可谓弦外有音、言外存意吧!总之,写作本书的目的实在是单纯:师夷长技以治己!正应了那句歌词所唱:我和我的祖国,一刻也不能分离…,无论走到哪里……
来源:人机与认知实验室  
链接:https://mp.weixin.qq.com/s/G6-eAwPR7zpmzQjEiEdT-w

332#
 楼主| 发表于 2019-11-27 23:16:50 | 只看该作者
【案例
Deepfake,深伪、AI换脸技术。当AI换脸技术发展至毫无破绽,你还相信自己的眼睛吗?时报视频节目The Weekly播出了一段被改过的视频,并披露其制作过程。Deepfakedeep learning(深度学习)和fake(伪造)的合成词,指利用AI改变人脸的图像合成技术。
来源:纽约时报

333#
 楼主| 发表于 2019-11-27 23:23:21 | 只看该作者
【案例】
为什么我们对deepfake技术又爱又恨?
原创: S. ai  
Deefake到底是什么?即便你对这个近来AI界频频出现的热词不够了解,对「AI换脸」也一定不陌生。从国外的恶搞奥巴马、盖尔加朵,到国内的朱茵换脸杨幂、以及ZAO App的昙花一现。这项脑洞大开的技术在2017年由Reddit网站用户「deepfakes」提出并开源,便在论坛炸了锅。随即衍生出FakeApp等视频合成工具和一系列伪造影片。
这种源自人工智能生成对抗网络(GANgenerative adversarial network)的伪造技术,可以实现用另一张人脸图片替换掉原始视频中的原始人像。基于GAN算法的博弈优化原理,最终生成逼真度极高的伪造视频,目前已可以以假乱真。
一方面,deepfake技术应用在影视文化行业的想象空间极大,另一方面,恶搞与色情影片对人性的耸动,使其从诞生之初就伴随着肖像权、版权和伦理层面的纷争。deepfake被滥用究竟有何威胁?造假之风日盛,打假军团也逐渐诞生。用AI打假AI,成为一场「军备竞赛」。而我们会获胜吗?  
01Deepfake被滥用对我们究竟意味着什么?
■ 近来的一项研究表明,目前网上有14678DeepFake视频,其中96%是色情视频。大部分都是著名女演员的脸,被转移到色情明星的身体上。(Deep Trace Lab)作为主要目标之一的女演员斯嘉丽就表示:「这对我的影响没有那么大,因为人们知道色情视频里的人并不是我......但是对于那些因此可能丢掉工作的人来说就不同了。」 (机器之心)
对于普通人或知名度较低的女性而言,deepfake技术让造假色情视频变得十分容易,基于报复或其他目的的色情视频,可能让女性面临更高的名誉风险而难以自辩。  
■ 技术的革新也让「欺诈产业」不断改头换面。基于deepfake的合成人像、合成语音乃至合成笔迹,让欺诈活动变得更加隐秘而难以侦查和防卫。
今年 3 月,犯罪分子成功模仿了一家英国能源公司的德国母公司CEO的声音,欺骗了多位同事和合作伙伴,一天内诈骗了 220,000 欧元(约合 173 万元人民币)。(Deeptech深科技)6月,间谍使用 AI 生成了一个并不存在的个像和资料,在职场社交平台LinkedIn上欺骗了包括政治专家和政府内部人士的众多联系人。(新智元)   
■ 除了已爆发的安全风险,Deepfake的潜在效应还将蔓延到大众的信息获取和社会信任层面。
「如果一个信息消费者不知道该相信什么,他们不能从虚构中辨别事实,那么他们要么相信一切,要么什么都不相信。如果他们什么都不相信,那就会导致长期的冷漠,这对美国是有害的。」(外交政策研究所研究员Clint Watts/新智元)
02AI对抗AI,会是好的解决方案吗?
■ 正如中国科学技术法学会李晟教授所言,deepfake的真正问题在于,「传统意义上「真实」与「虚假」的界线会被打破」。既然能用技术造假,可否利用更强有力的技术来检测假视频?这种AI对抗AI的思路成了过去两年内不少机构关注的方向。
纽约州立大学教授Siwei Lyu和学生发现,使用AI技术生成的假脸极少甚至不会眨眼,因为它们都是使用睁眼的照片进行训练的。美国国防部研究机构 DAPRA 据此研发出了首款「反变脸」的AI刑侦检测工具。(新智元)Hao Li 所在的团队通过追踪每个人特有的面部微表情来做到这一点。这些标记(微表情)被称为「软生物特征」,它们对 AI 来说太微妙了,目前还无法模仿。(机器之心)
■ 不过无论是Lyu还是Li都认为,这项技术可能没多久就没用了。「在伪造视频的后期处理中手动添加眨眼并不是一个巨大的挑战」,随着鉴别技术的提升,假视频的质量也会进一步提高。开发这种算法,「至少有助于阻止和延迟创建伪造视频的过程。」(Siwei Lyu网易)生成式对抗网络的原理就是让两套神经网络在相互博弈中学习,长远看来,两者永远处在不断的对抗当中,谁也无法彻底打败谁。(爱范儿)
■ 即便是当前十分有效的检测技术,也难以完美捕获所有的造假信息。人工智能基金会的研究副总裁Delip Rao 表示,「近期公布的 deepfake 检测算法据说可以达到 97% 的准确率。但考虑到互联网平台的规模,这剩下的 3% 仍然具有破坏性。假设 Facebook 每天要处理 3.5 亿张图像,即使是 3% 的错误率仍然会导致大量错误识别图像被放出。」(Delip Rao/机器之心)   
■ 另一个问题在于,「打假研究」与「造假研究」的规模和声量很不成比例。「2018年,全球加在一起,也只有25篇有关识别合成图像的论文发表。对比一下,GAN902篇。算下来,136。」(量子位)对于此,FacebookGoogle等巨头公司已开始调整思路,采用奖金竞赛、搭建数据集等方式,期望集众力填补这一缺口。9月,Facebook宣布与数家公司和高校合作发起Deepfake检测挑战赛。(cnBeta
这种规模化的行动能否帮助打假技术实现飞跃?我们尚需等待。   
03除了AI反制,还有什么应对思路?
■ 在不明确技术泛滥后果的前提下,合理地释放技术成果成为了一些企业的选择。比如OpenAI前段时间推出的无监督语言模型GPT-2,就没有按照行业惯例进行开源,只发布了简化版,不发布数据集、训练代码以及模型权重,目的就是避免「这一技术被人恶意利用」。(脑极体)      
■ 由于AI打假存在漏网之鱼,Hwang认为最有可能的解决方案是,在自动检测工具(可以扫描数百万个视频)和人工审查(可以关注更棘手的案件)之间取得平衡。例如,记者、事实检查员和研究人员可以收集视频内容的支持证据。对于经过特别打磨的deepfake作品尤其有用。(前瞻网)   
■ 美国弗吉尼亚州和加州都在deepfake技术的立法监管层面有所尝试。今年5月,我国民法典人格权编草案二审稿提出,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。「如果正式通过,这意味着即便没有营利目的和主观恶意,未经本人同意的AI换脸同样有可能构成侵权。」(北京大学法学院副院长薛军/新华网)
■ 「在我看来,最重要的是,公众必须意识到现代技术在视频生成和编辑方面的有很大的能力。这将使他们更批判性地思考自己每天消费的视频内容,尤其是在没有来源证明的情况下。」(斯坦福大学访问助理教授Michael Zollhofer/新智元)   
   
编者小结
正如这项技术的缔造者「deepfakes」所言:任何技术都可能被邪恶的动机利用。Deepfake诞生不久,就引发了诸如色情视频泛滥、更隐秘的欺诈手段、乃至身份识别和社会信任的挑战。如果我们想要拥抱这种能让Paul Walker在《速度与激情7》中复生的美妙技术,就更应当积极地参与到防止技术滥用的努力之中。
目前看来,依靠技术制衡技术、开发好的AI算法来检测虚假内容,依然是最可行的解决办法。虽然这条路径无法通向100%的成功率,并且面临造假技术更新带来的持久「军备竞赛」局面。这场竞赛已从最初的大小机构各自为阵,转向了巨头公司利用奖金竞赛、搭建数据集等方式,鼓励更广泛的关注和参与。
但在技术博弈之外,依然有很多重要的路径值得探索。例如:人工查证如何聪明地参与到技术侦测之中,起到四两拨千斤的作用?在能够驾驭之前,这类敏感技术是否应该有限度地开源?配套的监管政策如何不妨碍技术的正向发展?
回到最初的问题:deepfake出现将对大众如何定义真相将产生冲击。因而,对抗技术滥用并不只是行业和监管等一小部分人的事;当这一问题获得更广泛的关注,人们对造假的免疫力才会更强,更懂批判性思考和吸收,社会对「假象」的风险才有了最坚实的根基。
动态 MUST READ
1. AI+BCI脑机技术帮助瘫痪失语者用意念「书写」:每分钟可输入66个字符——AI使破解大脑秘密成为可能?
10月下旬,芝加哥的研究团队基于BCI脑机技术研发出能够帮助完全瘫痪的病人控制意念在屏幕上「写字」的AI系统。志愿者脑中的特定位置被植入电极,当他们使用大脑来控制光标移动时,神经网络会捕捉大脑活动的生物电信号规律,跟踪学习想象中笔尖的预期轨迹,显示出相应的字母。据该团队的最新成果显示,该神经网络能够以每分钟66个字母的速度进行识别,准确度高达约95%
2. Facebook开发视频脸部微调AI技术以躲避人脸识别系统——用AI欺骗AI
为了解决当下人脸识别技术滥用所产生的问题,Facebook AI Research创建了一种机器学习系统,能够对视频中的个人进行「去身份识别」,这一AI技术使用编码器-解码器体系结构生成蒙版和图像,能自动将视频(包括实时视频)中的人脸替换为略微变形的版本,以使最先进的人脸识别技术也难以识别。
3. DeepMind推出考古AI助手以破译古希腊碑文:识别率远超人类专家——AI又一次打败人类了吗?
谷歌旗下的DeepMind公司近日推出Pythia考古AI助手,它能够通过算法预测字母的排列位置,帮助考古学家破译残破缺字的古希腊碑文。开发团队请来常年破译古希腊碑文的牛津大学博士生与Pythia进行对比。结果显示人类专家破译的准确率为43%,而Pythia则接近70%。不可忽视的是,Pythia73%的正确预测来自于前20次破译时人类专家给出的修正建议。
4. 美国加州出台法律打击Deepfake的滥用——肆意AI换脸恐违法
10月初,美国加州通过两项新法令遏制Deepfake换脸视频的负面影响。一是禁止在选举后60天内发布使用竞选人头像的Deepfake视频,有学者担心美国版权法对政治言论的保护力度之大可能会影响新法的实行;二是当加州民众发现自己的肖像被Deepfake技术用于色情片,即可提起诉讼并获得一定的费用救济。
来源:腾讯研究院
链接:https://mp.weixin.qq.com/s/14r9oJHW73AlnXXcwj5a7A

334#
 楼主| 发表于 2019-11-27 23:51:45 | 只看该作者
【案例
新华智云发布媒体大脑3.0
在国内首次推出并应用了
30余款媒体机器人
中国最大的媒体机器人生产商
和服务商新华智云科技有限公司
(下简称新华智云
又发大招了!
26
新华智云正式发布
媒体大脑3.0融媒中心智能化解决方案
据了解
这是国内第一个
面向融媒中心的智能化解决方案
媒体大脑3.0”
以区块链技术和AI审核为显著特征
基于媒体大脑已有的30余款媒体机器人
为内容工作者提供
策、采、编、发、审、存全流程赋能
能为媒体机构、宣传部门、企业单位
各类融媒体中心提供服务
究竟有多智能?
我们来划重点:
特征一
版权+区块链,盗版洗稿维权不再难
媒体大脑版权区块链
是首个被互联网法院认可的版权区块链
并首批获得网信办境内区块链信息服务备案
可以说是最具公信力的版权区块链
而它的底层技术
来自蚂蚁金服的蚂蚁区块链技术
得益于智能化的一站式版权保护平台
内容创作者可以
轻松将自有版权作品进行确权
而通过新华智云全网监测系统
用户可以便捷高效地知道自有作品的传播情况
一旦发现侵权
内容创作者可以使用电子取证工具进行证据固定
一系列的行为都将在区块链技术支持
可信任的环境下执行
关键环节数据实时上链
形成不可篡改的有效证据
在发生纠纷时
经过授权
法院可直接调取相关证据
快速审判
特征二
AI内容风控:攻克视频审核难关
在融媒体时代
单纯的文字审核排查
早就不能满足媒体工作的需要
而视频审核一直是个难题
媒体大脑3.0”AI内容风控服务
基于深度学习多模态理解
涵盖人脸核查类、敏感标识类
色情、恐怖、暴力类等
可以显著降低内容风险
节省审核人力
作为新华社和阿里巴巴集团共同投资成立的
大数据人工智能科技公司
新华智云关于媒体大脑的每一次发布
都在直击内容制造行业的需求痛点:
20171226
新华智云在成都首次发布
中国第一个媒体人工智能平台媒体大脑
20181227
新华智云发布
媒体大脑2.0 MAGIC 短视频智能生产平台
使媒体人产出大批量的短视频新闻报道成为可能
此次升级为3.0版本的媒体大脑
提供一套完整的融媒中心智能化解决方案
新华智云联席CEO傅丕毅表示
媒体融合已经进入了智能化时代
这要求融媒体中心必须
向智能化升级、向智能化转型
人工智能将作为驱动融媒业务创新的核心引擎
新华智云联席CEO徐常亮认为
针对不同融媒中心的需求
媒体大脑支持多种部署方式
既可以整体新建融媒中心,也可以化整为零
以模块化的方式
对已有的融媒中心进行智能化升级和改造
以智能媒资为例
媒体大脑目前已覆盖700余万机构实体
1.4万余地点实体,300余万人物实体
可以将实时的新闻热点一网打尽,自动匹配关联媒资
还能实时追踪热点路径
并综合算法模型评估热点价值
保障热点榜单内容的高质量呈现
新华智云媒体大脑3.0”方案
目前已在
江西省融媒体中心、齐鲁智慧媒体云
等平台进行落地
并在不断迭代完善中
大众报业集团融媒体中心副主任李雪修
是切身感受到智能生产
为媒体业态带来巨大变化的人之一
山东省互联网传媒集团有限公司
媒体大脑合作打造的齐鲁智慧媒体云
运用了数据新闻、智能拆条、智能会议
网页一键转视频、虚拟主播
主题集市等多个智能化模块
其内容生产能力被业内形容为开挂
图说:大众报业集团旗下的海报新闻通过虚拟主播机器人制作的新闻视频全国医保电子凭证来了!挂号、看病、结算、查询可刷手机
李雪修说
我们团队不足十人,不到半年时间
以人机协作和机器智能合成的方式
已经生产了5000条以上的高质量视频
光是在我们的客户端一端就推送了1300多条视频新闻
我们还研发出符合党媒需求的智能推荐算法
集合用户画像
根据受众阅读偏好推荐新闻稿件列表中
自动放大主流价值观稿件推荐的比值

图说:智能生产核心系统
来源:传媒茶话会
链接:https://mp.weixin.qq.com/s/vFQopPmKdA3AHZgCua4VEA
编辑:马晓晴

335#
 楼主| 发表于 2019-11-28 20:01:48 | 只看该作者
案例突破屏幕的边界,AR/VR还能否将虚拟照进现实?

原文来源:全媒派

提及AR/VR,你首先会想到什么?感官升级、技术泡沫还是那一个又一个略显笨重的头戴式仪器?

2016年,所谓的“AR/VR元年”,资本大量注入相关产业,科技公司跃跃欲试,抢滩技术前沿。2017年,超过一半的AR/VR企业倒闭,行业似乎迅速进入寒冬蛰伏期,真假风口的争论,至今仍在延续。

而近期,AR/VR又现回暖之势。结合5G、AI的加持,微软、谷歌等公司今年相继发布了AR相关产品,“VR+”在B端、C端的应用,也再度受到关注和期待。

迂回发展的背后,AR/VR+数字内容的前景究竟有多大?沉浸式体验设备何时能像笔记本电脑一样实现高覆盖率和迅速迭代?本期全媒派(ID:quanmeipai)将围绕哥伦比亚大学计算机图形和用户界面实验室主任Steven K. Feiner的AR/VR研究实践展开,在这位“技术宅”眼中,AR/VR依然蕴含无穷潜力。

Steven K. Feiner 图片来源于网络

从小众到普及,AR之父与他的实验室

“我是一个非常记不住别人脸的人,你给我名片,下一秒我已经忘了你是谁。有了AR技术,设备就能告诉我你是谁,技术带来的便捷性不可想象。”被业内誉为“AR之父”的Steven K. Feiner,绝对符合他对自己贴的一个身份标签——“工科男”。

Feiner作为哥伦比亚大学计算机图形与用户界面实验室主任,同时拥有布朗大学的音乐学学士学位以及计算机科学博士学位,是《计算机图形学:原则与实践》的作者之一,主攻研究方向包括人机交互、增强现实和虚拟环境、3D用户界面、基于知识的图形和多媒体设计、移动和可穿戴计算、计算机游戏和信息可视化等。

凭借在AR/VR领域近30年的研究实践,Feiner已成为国际上AR/VR领域的代表人物。他曾获得IEEE VGTC 2014虚拟现实成就奖,和学生一起赢得过ACM UIST深远影响力奖,并在多个平台上获得过最佳论文奖。

在AR/VR技术的应用之路上,Feiner扮演着重要角色。早在1968年,世界上第一台AR/VR设备“达摩克利斯之剑”便已诞生,但受制于其笨重的外表,该产品在当时除了得到大量科幻迷的热捧外,并没有在普通消费者群体中引发关注。

世界上第一台AR/VR设备“达摩克利斯之剑”

1997年,Feiner带领实验室团队发布首个室外移动增强现实系统——Touring Machine,包括一个带有完整方向追踪器的透视头戴式显示器,成为将AR/VR从室内延展到室外的先驱。

随后,团队于1999年发布MARS(Mobile Augmented Reality System),这是第一个真正实现了允许用户穿戴着各种AR设备自由行走的系统,大大开拓了AR的实际应用领域,如旅游、新闻、维护和建设等。一定程度上,也影响了当前的智能手机户外增强现实应用的发展。

从陌生到热捧,爆发绝非偶然

技术乃驱动力,人的态度更重要

在2016年前,AR/VR在大众眼里仍十分陌生,但其实早在20世纪90年代,具备商用价值的AR/VR产品就已成型,只是因为成本过高,它们在早期市场上的表现并不尽如人意。从概念的提出、设备的成型到应用的爆发,技术走过了半个世纪。蛰伏如此之久,为何突然取得突破?Feiner指出,“2016年的突破,主要得益于电脑跟踪技术、光学技术和智能手机技术的突飞猛进。”

和今天主流的Oculus Rift、HTC Vive、Playstation VR等设备相比,过去的设备有如PC时代来临前的计算机。但即便是到了现在,Feiner仍认为AR/VR领域有待更深层次的挖掘。

一方面,这其中面临许多需要花大量时间去解决的技术问题。比如,身体头部移动会造成延迟,这严重影响了VR系统的真实性。又比如视频内容的清晰度问题和在各种设备上普遍存在的眩晕问题。

另一方面,“人的态度”对于应用普及起着决定性作用。Feiner回顾了AR/VR在2016年的火爆,他认为,这两项技术被公众广泛知晓的一个关键要素来自于“社会”。例如,2016年爆火的游戏Pokemon Go将AR与娱乐内容结合得恰到好处,借助这一经典IP,普罗大众迅速了解了AR/VR这些原本只会出现于科技报道中的高门槛词汇。在口碑裂变之下,一款游戏彻底打破了AR/VR在大众市场的“高冷”形象。

来源于网络

“我是一个工科男,我自诩对科技方面了解甚深,但很多年前我就意识到,只凭研究者自身对科技的预言来推测人类对科技的运用是不现实的。”在Feiner看来,科技的运用与人为因素有很大关系。

人机交互新范式

在第一届全球虚拟现实大会上,Feiner曾分享过几项AR/VR技术的应用场景,其中相当一部分内容是关于虚拟呈现的计算机图像进行协作和学习工作。

他对比了新旧两种交互的差异化:在传统情境中,任务指令和使用的设备会分开呈现,用户需要左顾右盼,在思考指令内容时还需要观察实际设备,以便对号入座。而借助AR技术,用户可以直接观察任务对象,指定按钮会以高光标出。让人们直接把目光集中在任务对象上,能关注到更多的任务相关信息。

在涉足AR领域之前,Feiner就曾研究过任务指令,在这方面投入了大量精力,AR的出现使得整个过程变得相对轻松。“如果人们把显示设备戴在头上,双手就得以解放,在不用手持资料的情况下,人们就能实现边看边做,这是AR赋予交互的一项优势。”

网络上引发围观的AR智慧城市模型图

交互应用的另一个重要领域是工业。实际上,大多数人对AR的认知还集中在游戏等娱乐领域,毕竟AR/VR的爆发始于游戏、旅行、教育等门槛相对较低的C端。而当下,从AR支出层面来看,工业领域大有赶超C端领域之势,应用向企业劳动力培训、工厂车间生产指导等迈进。且据市场分析机构IDC的数据显示,到2023年,工业领域支出将是消费者支出的三倍。


Feiner指出,关注改进企业的现有运作方式也是AR/VR的重要用途之一,从业者应积极向研发效率更高的设备努力,以帮助人们更好地完成日常任务。

比如,他的团队曾开发出一种气囊AR穿戴装备,借助该装备,现场技术人员可以在远程专家的指导下去执行精准安装。当技术人员到达正确位置的时候,他们可以看到虚拟安装点和方向,即专家制定出的具体安装的位置。

内容探索亟待加强

在与内容行业的连接上,AR/VR设备可以被用于帮助内容受众高效感知辅助性信息、弥合代际及跨文化差异、提升受众的享受和理解水平等多种类场景。自2016年以来,在对于增强现实和虚拟现实的应用需求上,内容市场也保持着比较热烈的氛围。

但整体来看,AR/VR+内容的应用落地之路依然可以用“道阻且长”来形容。用户普遍感觉到,市面上的设备很多,但优质的内容实在太少了。

Feiner也认为,业界还需要建立内容制作系统,降低AR/VR内容生产门槛,让人们制作、体验AR/VR内容更加容易、便捷。

从界面到沉浸,多变技术下不变的交互初心

2016年,我们看到投资人和创业者跑步入场,然而好景不长,AR/VR技术热迅速遭遇冷空气,市场跳水、企业倒闭……

追捧与争议的拉扯中,AR/VR近年来始终处于风口浪尖之上。但在Feiner教授看来,AR/VR在外界舆论中遭遇的低谷似乎并没有影响这一技术的正常发展。

“VR/AR的意义在于:其为真实生活于三维世界中的人们打开了另外一个维度的空间,这是一场从一维文字、二维图片到三维影像的‘人物交互’进化。基于VR/AR技术架构的内容模拟产生三维空间世界,给使用者提供了视觉、听觉、触觉等感官的模拟,让使用者如同身历其境,沉浸其中。”

的确,即便是众多涉猎AR/VR的科技企业遭遇寒冬,聚焦此方向的研究及应用开发仍然步履不停,众多企业在AR/VR落地方面的进展尽管低调,但依旧如火如荼。
2018上半年全球AR产业格局

目前,微软官网上展示的HoloLens应用已接近150个,囊括游戏、生活应用体验、3D虚拟打印、全息图像等众多方面……与此同时,微软还与惠普、联想等主要合作伙伴联合推出了VR平台。

此外,Facebook于2017年发布的首款VR社交应用已宣布于2019年10月25日停止运营,取而代之的将是社交应用Horizon,其将于2020年登陆Oculus Quest和OculusRift。作为Facebook Spaces的替代品,该应用允许用户自定义虚拟角色,构建属于自己的世界和活动。

除了设备制造企业和科技巨头外,媒体机构也在持续进军该领域,内容信息传播已走在从平面到空间的变革上。

例如,酷爱VR的BBC在继2018年推出VR纪录片之后,又在今年将VR体验引入了英国40多个图书馆,对此,BBC VR Hub主管Zillah Watson表示:“VR装备太贵了,只有极少数人购买,我们希望通过将VR体验投放到英国各地的图书馆,让每个人都有机会体验。”

同样作为内容行业试水VR的先驱,《纽约时报》在相关业务上也从未停歇,继推出NYT VR应用之后,又推出了日更VR视频新闻产品The Daily 360°,这也是主流新闻媒体第一次尝试日常360°沉浸式报道。

再看国内,在今年的两会报道中,新华社新媒体中心首次启用智能AR直播眼镜。借助独特的注意力捕捉技术,记者用眼神即可指挥摄像机与人体眼动同步拍摄视频画面。无独有偶,央视网也推出了《全景沉浸看报告》,运用“VR+AR”的创新形式,生动具象地展现出2019政府工作报告主要议题及重点数据。

来源于央视网新闻

长远来看,AR/VR技术在内容生产和消费上的需求依然旺盛,尽管硬件限制、内容缺乏、应用前景不明确等痛点也长期存在,但随着5G技术的到来与普及,低延时、大速率的特性或将有助于解决AR/VR技术本身的诸多短板。

当然,距离“元年”已经过去3年,AR/VR的确并没有朝着所有人期待的方向顺利发展。

未来的我们与眼前世界如何交互?
怎样克服现阶段用户体验的不适感?
设备价格何时能降低到大众可消费层面?
内容制作与创新如何赶上用户的期待与想象?

12月3日,哥伦比亚大学计算机图形和用户界面实验室主任Steven K. Feiner教授将现身2019腾讯ConTech大会,为我们详述新技术背景下AR/VR的应用进化论,探讨未来沉浸式交互的更多可能性。

编辑:吴悠

336#
 楼主| 发表于 2019-11-28 20:11:53 | 只看该作者
人工智能】【法规案例人脸识别应用"边界"何在 法律完善势在必行

原文作者:杜晓、邓清月
原文来源:法制日报

  ● 刷脸支付仍处于试行阶段,若要大范围地运用,不仅需要对软硬件设备加大投入,更需要一系列安全措施来保障用户安心使用

  ● 面部采集技术的各个环节都需要得到保护和确认,具体包括采集主体是否有权采集;采集后的管理是否安全、使用是否合法;被采集者的授权是否得到保障等

  ● 对于面部信息滥用的类型、方式、主体都应该在法律上有所界定,从而进行相应的判定和处罚。对于人脸识别,需要完善立法和强化监管,让这项技术更加规范、恰当地得到应用

  近日,因为拒绝使用人脸识别系统升级年卡,浙江理工大学特聘副教授郭兵将杭州野生动物世界起诉至法院,这被认为是国内消费者起诉商家的“人脸识别第一案”。

  近年来,人工智能发展迅速,特别是人脸识别技术,被越来越广泛运用到人们的日常生活中。在人脸识别技术给社会带来种种便利的同时,人们对于这项技术在安全性方面的担忧也逐渐增长。

  人脸识别遍地开花

  隐私问题引发关注

  如今,各大手机厂商推出的新一代手机中,刷脸解锁已经替代了指纹解锁,一些支付系统也都纷纷采用了人脸识别技术。在现实生活中,人脸识别已经被应用得越来越广。

  近日,《法制日报》记者来到一家便利店,发现不少人在自助结算机前买单。在扫描商品二维码后,机器上出现了包括刷脸支付在内的三种支付方式。

  《法制日报》记者注意到,半个小时内,付款的将近20多名顾客中,没有人选择刷脸支付。

  一名购物者对《法制日报》记者说,“便利店刷脸支付,这不就是把自己的照片上传到网络?感觉不太安全。万一被人拿去盗用呢?其他支付方式已经很方便了,不一定非要使用刷脸支付。况且还涉及财产安全问题。”

  便利店店员称,之所以开通刷脸支付,是为了最大化节省客户的时间。

  近年来,一些高校也陆续开始启用人脸识别系统。

  来自北京一所高校的学生马瑞(化名)告诉《法制日报》记者,学校在没有征求过学生与教职员工意见的前提下,今年寒假期间就安装了具有人脸识别功能的门禁设施。

  “学校在大门口安装带有人脸识别功能的门禁,主要还是为了尽可能保护学生们的安全,可以理解。”马瑞说,“安装人脸识别系统后,校园里外来人员大为减少,更加安全,出入校园也更加方便,不必每天都携带校园卡或学生证。”

  对于人脸识别带来的安全隐患,马瑞告诉《法制日报》记者,到目前为止,自己还未考虑过与人脸识别有关的隐私权或个人信息泄露问题,“如果是学校使用人脸识别系统,应该问题不大”。

  一位不愿透露姓名的教师说,学校在安装人脸识别系统前从未征求过教职员工意见。“虽然我也意识到了自己的隐私权问题,但学校本来就掌握了包括照片在内的大量信息,很多隐私学校都知道,没必要提出反对意见。”

  安全意识亟须增强

  警惕信息采集滥用

  郭兵提供给《法制日报》记者的民事诉讼状称,原告于2019年4月27日从被告处购买了杭州野生动物世界年卡,向被告支付年卡卡费1360元。原告办理年卡时,被告明确承诺在该卡有效期一年内(自2019年4月27日至2020年4月26日)通过同时验证年卡及指纹入园,可在该年度不限次数畅游。然而,2019年10月17日,被告在未与原告进行任何协商亦未征得原告同意的情况下,通过短信的方式告知原告“园区年卡系统已升级为人脸识别入园,原指纹识别已取消,即日起,未注册人脸识别的用户将无法正常入园。”为了确认该短信的内容是否属实,原告于2019年10月26日专门驱车前往被告处进行核实。被告的工作人员明确告知原告,短信所提及的内容属实,并向原告明确表示如果不进行人脸识别注册将无法入园也无法办理退卡退费手续。

  民事诉讼状提到,被告园区升级后的年卡系统进行人脸识别将收集原告面部特征等个人生物识别信息,该类信息属于个人敏感信息,一旦泄露,非法提供或滥用将极易危害包括原告在内的消费者人身和财产安全。根据消费者权益保护法第二十九条规定,被告收集、使用原告个人信息,应当遵循合法、正当、必要的原则,明示收集、使用原告个人信息,应当公开其收集、使用规则,不得违反法律、法规的规定和双方的约定收集、使用信息。原告认为被告在未经原告同意的情况下,通过升级年卡系统强制收集原告个人生物识别信息,严重违反了消费者权益保护法等法律的相关规定,损害了原告的合法权益。

  《法制日报》记者从杭州野生动物世界官网了解到,杭州野生动物世界的成人票价为220元,若办理1360元的年卡,可全年365天无限次入园。其电子购票协议上显示,在网上预订后,使用者本人需至现场办理年卡,还需拍摄照片和录取指纹。

  此前,郭兵在接受媒体采访时说:“像动物园这样的商业组织,如果在没有征得游客或消费者知情同意的情况下,擅自使用人脸识别技术是涉嫌违法的。商业组织在征集消费者面部信息时,应该告知消费者使用目的与风险,以此保障消费者的知情权。”

  据中国科学院信息工程研究所、信息安全国家重点实验室主任林东岱介绍,计算机识别人脸的准确率可达99.15%,而肉眼识别的准确率大概在97.52%。从目前情况来看,人脸识别技术是较为精确的活体检测,但仍属于一种模糊匹配。因此,人脸认证技术还不能在所有场合做到非常成熟,在涉及个人隐私、财产等重要信息的场景下,建议启用多重认证方式。

  林东岱认为,对于整个支付行业而言,刷脸支付仍处于试行阶段,若要大范围地运用,不仅需要对软硬件设备加大投入,相关科技进一步成熟,更需要一系列安全措施来保证用户在使用中放心、安心。刷脸支付在很多情况下是一种商业选择,商家和顾客应该有所协商,商家要对客户的支付安全有所保障,顾客也能对自己的支付方式有所选择。

  “相关机构要对个人信息搜集数据库进行妥善管理与维护,这些信息一旦泄露,被不法分子所利用,将会造成十分恶劣的社会影响。”林东岱说,在任何情况下,无论是人脸识别还是其他个人信息录入,大众都应该对这些信息的采集与使用目的保持警惕。如何培养大众的信息安全意识,尤其是喜欢上网的年轻一代的信息安全意识,是当今社会发展的重要课题。

  科技发展无可厚非

  法律完善势在必行

  此前,在接受媒体采访时,杭州野生动物世界一名负责人称,主要还是为了方便消费者快速入园。年卡用户入园必须比对身份,指纹识别偶尔会出现迟滞情况。从试行期的统计来看,人脸识别确实有效提升了消费者的入园效率。杭州野生动物世界工作人员则称,从10月17日起,陆陆续续已经有年卡用户来录人脸识别了,遇到个别不理解的用户,便将人脸识别能快速通行的好处告知对方,他们也都同意了。

  林东岱认为,人脸识别这项技术本身是没有问题的,也给人们生活带来了很多便利。发展人工智能等相关技术需要大量数据,必然会涉及个人信息。

  “值得注意的是,在当今社会,人们的个人信息被过度采集了。”林东岱说,目前面部采集技术发展还不够成熟,其各个环节都需要得到保护和确认,具体包括采集主体是否有权采集;采集后的管理是否安全、使用是否合法;被采集者的授权是否得到保障等。比如,在一些酒店办理入住,大部分人都会被要求录入个人信息。对于这些信息的后续使用人们不得而知,即使酒店将个人信息用于贩卖,当事人也无能为力。

  林东岱认为,目前来看,信息技术发展得太快,其背后的伦理道德规范以及法律法规还没有及时跟上。

  “建立人脸信息和其他个人信息数据库是有必要的,但这些数据库如何管理、运用,还需要明确的法律规范与约束。人脸识别技术应该应用在哪些领域,在使用该技术的过程中又该遵循哪些规则,这些都亟待法律制度进一步界定。”林东岱说。

  亚太网络法律研究中心主任、北京师范大学法学院教授刘德良认为,技术是中性的,需要管住的是使用技术的人,对于人脸识别技术不能消极看待,否则对于科技进步是一种阻碍。

  “有些时候,人脸识别的负面性被过度炒作了,现在人们容易被各种各样的信息影响,从而对类似人工智能这样的先进科技产生非理性思考。人脸识别技术的本质是存储人类面部信息,从而进行精准有效的身份验证。人脸识别技术的使用能提高整个社会运行的效率,并不会对人们造成什么伤害,真正威胁到个人信息安全的是对于人脸信息的滥用。”刘德良说。

  据刘德良介绍,人脸识别并不是特别新的技术,多年来人们一直在使用。近年来,随着科技进步人脸识别的精确度得以快速提升,尤其是智能手机的广泛普及和云计算快速发展的今天,新一代人脸识别技术不仅比过去更加精准,运用范围也得到极大拓展。对于人脸识别,人们真正担忧的不是自己的面部信息被采集,而是被如何使用。近年来,面部信息滥用问题越来越受到关注。

目前,刘德良正在参与防止个人信息滥用的立法工作。他认为,对于面部信息滥用的类型、方式、主体都应该在法律上有所界定,从而进行相应的判定和处罚。对于人脸识别而言,需要通过完善立法和强化监管,让这项技术更加规范、恰当地得到应用,造福于社会。

编辑:吴悠

337#
 楼主| 发表于 2019-11-29 23:45:27 | 只看该作者
【学术经纬】【人工智能】论文推介|社交机器人也有政治倾向吗?

原文来源:京师计算传播学

在Facebook、Twitter、微博等社交媒体中存在着一定数量的社交机器人,他们在账户个人资料的填写、社交网络的构建、发布动态的规律及内容的特性等方面都较好的模拟了人的行为,那么社交机器人是否与人一样,也具备政治倾向呢?如果有,那么他们发布内容、转发内容的行为是否基于其政治倾向呢?

本文将介绍以2018年美国中期选举为案例,去探寻社交机器人的政治倾向及其行为。该内容源自2019年发表的论文《Red bots do it better : comparative analysis of social bot partisan behavior》。

研究过程

一、数据收集
筛选时间:
2018年美国中期选举(2018/10/6~2018/11/19)
筛选机制:
在Twitter上,以“2018中期选举”、“2018中期”、“选举”、“中期”、“中期选举”等关键词进行筛选,并删除无关词语,最终得到文本信息260万,涉及到的推特账户近100万。”利用botometer对每个账户进行测量,将bot score(机器人得分)大于等于0.3的账户判定为社交机器人账户。

二、数据处理

第一步:判定社交机器人是否具有政治倾向
1、 采用第三方机构(例如:AllSide and Media Bias、Fact Check)对美国媒介的倾向所做的评定,将媒介分为自由派和保守派两类,每个媒介对应一个媒介网址(即url)
2、 对每个机器人账户中的url进行收集,将机器人账户引用的自由派媒介url数量与保守派媒介url数量进行对比,哪个派别媒介的url数量更多,就判定此机器人账户的政治倾向是什么。(注:若两派别媒介的url数量一样多,则将该样本从数据集中删除)


研究结论:社交机器人具有政治倾向。在有效样本数据集中,自由派机器人账户的数量大约是保守派机器人账户的2倍,但是数量较少的保守派机器人账户发布的推特数量却大于自由派机器人账户。这表明,保守派机器人账户在社交媒体Twitter中更加活跃。

第二步:检测社交机器人的转发行为是否基于其政治倾向
构建10核分解图和25核分解图


图示:
(1)每个节点代表一个Twitter˙账户
其中,蓝色节点是自由派机器人账户,青色节点是自由派人类账户;红色节点是保守派机器人账户,粉色节点是保守派人类账户;
(2)每条连边代表账户的转发行为。
(3)节点的大小代表账户度的大小。节点越大,表示该账户的转发行为越多。

研究结论:
从图片可看出,根据政治倾向可以分为两个社区,大多数转发行为发生在社团内部,这表明机器人账户与人类账户一样,其转发行为是基于已有的政治倾向。除此之外,对比10核分解图和25核分解图可以看出,蓝色社区逐渐分散,红色社区仍旧保持一定的聚合状态,这说明,保守派机器人账户与社团内部的联系更加紧密,并且保守派机器人在社交网络中居于更集中的位置,其影响力也更大。

文章探讨了关于社交机器人政治倾向的问题,这一切入点启发我们去思考:对于政治倾向不同的选民,如何设定社交机器人的转发行为或传播策略会取得更好的传播效果。

编辑:吴悠

338#
 楼主| 发表于 2019-12-1 19:27:39 | 只看该作者
【案例】科大讯飞人工智能多语种语音合成技术获2019中国应用新闻传播十大创新案例奖
原文作者:iFLYTEK  
原文来源:科大讯飞集团

11月30日,2019中国应用新闻传播论坛暨“应用新闻传播十大创新案例”颁奖大会在广州举行。科大讯飞人工智能多语种语音合成技术荣获“2019应用新闻传播十大创新案例”。

“应用新闻传播十大创新案例”评选始于2017年,本届论坛由中国新闻史学会应用新闻传播学研究委员会、广东外语外贸大学主办,广东外语外贸大学新闻与传播学院、广州国际城市创新传播研究中心承办,《新闻与写作》杂志为本次论坛提供学术支持。

会“说”多语种的虚拟主播“小晴”

据了解,获奖的十大案例经由学界和业界专家提名和两轮推荐评审评出,反映了国内媒体在媒介融合和技术创新中的最新探索,具有很强的代表性和引领性。

获此殊荣的还包括人民日报抖音、新华网融媒体未来研究院、广东广播电视台触电新闻、财新传媒“财新通”、网易新闻“人间”、喜马拉雅FM、南都大数据研究院、浙江安吉传媒集团“爱安吉”、微信公众号“秦朔朋友圈”。

依托于科大讯飞的人工智能多语种语音合成技术,今年3月,科大讯飞推出的首个多语种虚拟主播“小晴”在两会期间亮相,为大家带来两会资讯播报。“小晴”不仅展示出自然的表情和精准的口型,还具备中、英、日、韩、泰、以及陕西话、粤语等30多种语言播报能力,充分体现了人工智能技术不断优化迭代的成果。

2018年5月,科大讯飞将A.I.应用于央视新闻《直播长江》栏目中,演示了以康辉的形象和声音为原型的虚拟主持人“康晓辉”;2019年2月,中央广播电视总台联合科大讯飞打造的虚拟主播“央小广”于春节“亮声”……目前,学习强国平台中的语音播报功能,也是由科大讯飞提供技术支持。

在广东省内,2018年3月,科大讯飞与南方财经全媒体集团跨界合作,打造了中国首个虚拟主播“俎江涛”。像这样能够惟妙惟肖模仿真人形象和声音的虚拟主播,已经正在成为真人主播的得力助手,不仅可以辅助真人主播完成新闻播报,提高工作效率,也丰富了新闻报道的形式和内容,同时也为未来媒体报道的方向拓展了新的思路。

未来,A.I.与媒体的每一次碰撞,都将为新闻报道带来更多可能。

编辑:吴悠

339#
 楼主| 发表于 2019-12-3 23:25:26 | 只看该作者
【案例】
跨文化协作下的人工智能全球治理
近年来,全球许多机构都围绕人工智能领域搭建了诸多产、学、研高端交流平台,将人工智能领域的顶级专家、学者和产业界优秀人才汇聚一堂,推动人工智能研究领域的快速崛起。在2019北京智源大会(BAAI)召开期间,北京大学博古睿研究中心协办了“人工智能伦理、安全与治理专题论坛”。与会各国专家学者围绕人工智能基础研究现状及面临的机遇和挑战、人工智能技术未来发展的核心方向等话题展开交流和讨论,共同探索人工智能前沿科技发展趋势。博古睿研究中心首席运营官李潇娇主持会议。
对人工智能伦理专家来说,此次会议所提供的跨文化交流渠道尤为重要。具有多元文化背景的特邀主讲人分享了他们各自的想法,尽管大家的观点与内容有所不同,但是他们都在演讲中传递出一条共同的信息:如果想要确保众多人工智能原则中反复出现的和谐、透明、多样等目标得以实现,人类必须承担起精心设计人工智能的责任。
众所周知,科林里奇困境提出了著名的“速度问题”,即技术创新的速度正在日益超越其所需监管的完善与跟进速度。有鉴于此,与会专家认为,不论是学者还是政治家,商业人士还是公众,都有义务承担起“设计未来”的责任,使得未来人工智能可以造福全人类,而非仅仅为少数人服务。
耶鲁大学生命伦理中心主任温德尔·瓦拉赫(Wendell Wallach)在开幕词中强调了合作与协作的重要性。他认为,当前人类已经走到了技术发展的转折点——由确定性向不确定性的转变。如果想要从伦理上为这种不确定性找到正确的解决方向,就需要灵活克服科林里奇困境所揭示的技术决定论。
北京大学哲学系副主任、博古睿研究中心联席主任刘哲认为,工程师与哲学家对自主性的定义不同。因此,我们需要解释能够作为价值载体的智能设备的自主性含义。用瓦拉赫的话来说,在面对人工智能技术发展带来的伦理风险和挑战中,工程师、伦理学家和立法者必须澄清“功能道德”的含义和基础。由此,我们才能找到一套强有力的决策参数与指导各级责任的工具。如果想要缩小原则及其实现之间的差距,就需要为全球人工智能的治理机制建立一套具有整合力的伦理框架。
荷兰代尔夫特理工大学教授范德霍文(Jeroen van den Hoven)同样十分关心如何设计适用于21世纪的伦理体系的问题:
“面对21世纪,我们怎样才能避免这样一个情境,即在当下使用某些复杂的技术,从而在遥远的未来共同帮助那些与我们‘截然不同’的人们,并让那些我们所不熟悉的标准有利于他们?”
根据最新指南对新手册进行的概念化尝试,范德霍文在构建新方法时,提出“责任”这一关键要素作为所有法律和伦理框架的基石,必须始终占据核心地位。
“信任”与“信心”不能混为一谈,与会专家呼吁人们认清两者在哲学范畴上的差异。范德霍文认为,信任本质上是一种人类系统,如果对人类责任毫无所知,就会在技术系统参与决策时,避免对责任进行说明,从而在道德上推卸责任给人工智能。但由于人工智能是否可信取决于其制造者或设计者,因此在道德上将人类的责任推卸给人工智能并不能充分地分散风险。

目前关于人工智能的许多争论大都围绕着人工智能对人类生存的威胁,有人认为,我们终将成为算法的奴隶,人类终将被人工智能取代。范德霍文在发言中对安全系统的自动部署提出批评。他认为,如果给予不太完美的算法系统以不恰当的完全信任,即使操作员认为系统的判断是错误的,他们也无法断开系统。但如果将责任转移到机器身上,人类就必须服从并承担难以接受的、巨大的道德风险。相反,虽然算法可以推荐人类采取某项决策,但是操作员应保持自主性,并对最终结果负责。
博古睿学者、中国科学院自动化研究所研究员、智源研究院人工智能伦理与安全中心主任曾毅列举了两个例子:
第一是,深层神经网络。它被认为是有效的图像分类器,然而正如一项研究所显示的那样,如果改变关键像素,算法就会将海龟误认为步枪。为了避免此类错误分类在现实世界中造成后果,人类必须再次承担起调节机器判断的责任。
第二是,反对放弃道德责任、支持保留人类责任的最好例证也许就是脑—机接口的发展。
如果不认真地将风险归到不同行为者身上,一旦出现机器臂杀人的情况,应该为此负责的究竟是与其相连的人、设计出该项技术的机器人专家还是机器人本身?为了避免出现这种情况,人类与人工智能之间的“优化共生”需要负责任的伦理治理。
*本文内容由北京大学博古睿研究中心秋季实习生、北京大学燕京学堂在读研究生柯玫瑰(Hannah Rose Kirk)采写。
(杨嘉琪、蓝天蒙/编辑)
原文链接:https://mp.weixin.qq.com/s/itwc6zf2-5wu_JuZAYPJqA
编辑:陈茗

340#
 楼主| 发表于 2019-12-4 13:51:29 | 只看该作者
【案例】
AI向善之前,人类有勇气先改变自己吗?
人类掌握改造人性的科技,并使之向善发展,这就相当于“人类抓住自己的头发离开地面”。但是,happy ending不是没有可能的。
怎么才能实现?
刘永谋
中国人民大学哲学院教授、博士生导师
*本文为刘永谋在2019腾云峰会的分享
AI向善”是一个非常有趣的说法,值得认真咀嚼。
为什么不说“让AI善良”呢?当我们说“AI向善”的时候,意思是AI是个活物,它有向善的意欲,也就是具有“意向性”。
当然,你可以说我们是在隐喻的意义上来说“AI向善”,并非在绝对意义上断定AI是个活物,更没有断定AI是人类意识层面上的活物。
但是,无论如何,“AI向善”的说法暗示AI具有很强的自主性,以至于我们可以说“AI想要向善”或者“人类可以引导、规范或逼迫AI向善”。
01  
AI究竟有没有自主性呢?
在当代技术哲学当中,技术自主性是一个基础的、争议性非常大的问题。一般说来,我们可以将各种观点划分为两种,即技术的工具论和技术的实体论。
技术的工具论认为,技术仅仅是一种工具,是实现目标的手段,本身并没有善恶,所谓技术的善恶实际是使用它的人的善恶。比如说,一把菜刀可以用来切菜,也可以用来杀人。如果菜刀杀人了,你不能怪菜刀。
技术的实体论认为,技术可不是简单的工具,而是负载着价值的。它有自主发展的方向,最终会实现它的目标,这是不以人的意志为转移的。比如,很多人认为互联网天然就是反权威、去中心的,还有一些人认为区块链必然会推动公开和诚信。
显然,“AI向善”的基本立场是技术的实体论,按照这种观点,AI具有自主性。既然如此,AI要向善或者向恶,我们如何可能左右它、控制它呢?
当然,除了这两种二元对立的观点外,有些哲学家尝试提出调和的观点,比如技术哲学家Andrew Feenberg提出了“技术设计”的观点,意思是技术发展是同时协调技术要素和社会要素的结果。
举个例子,在我们小时候,自行车主要用来载物载人,要有车筐、有后座,男人都骑着二八自行车,非常结实。而现在很多人骑自行车是为了锻炼身体或者远足骑行,所以要很漂亮,能上坡。目前流行的共享单车,主要解决从家到地铁站所谓“最后一公里交通”的问题,设计就非常简单。这些自行车在技术要素上是大同小异的,区别就在于融合的社会要素不一样。
我怎么看技术的自主性的争论?
第一,工具论向实体论的变迁,越来越多的人从工具论转向实体论,是技术发展得越来越复杂的结果。
当技术相对比较简单的时候,人们比较容易相信工具论。而当技术变得越来越复杂,一般人难以理解或者完全理解不了,单个的人无法驾驭或操纵复杂技术系统的时候,人们比较容易相信实体论。这一点从前面的菜刀和区块链的例子就可见一斑。
第二,技术的自主性争论根源于如何理解人与技术、人与机器关系的问题。
有人认为机器帮助人类,也有人说人机是对抗关系,而现在越来越多的讲人与机器是协同进化的。人机协同进化论很有道理,但这是一种“上帝视角”或“宇宙视角”,站在非常超脱的位置看人机关系。
的确,人与机器必然是协同进化的,但是协同进化的最终结果也可能是人类灭绝。有意义、有价值的是人类视角,在人机协同进化中,人类应该选择应对方案,以确保人族福祉。
从某种意义上说,AI出现让人类面对“新无知之幕”,即不知道人机协同进化的最终结果而要做出选择。政治哲学中讲的“无知之幕”,粗略地说是有关国家如何建构的:大家聚在一起商量建成一个国家,结束人与人之间野蛮暴力状态,但是每个人都不知道在建成后国家中自己将处于哪一个阶层、哪一种角色,在这种对未来无知状态中来讨论应该如何安排新国家的社会制度。
如果你是社会中最弱势的群体,你会不会给穷人提供必要的制度保障和救济措施呢?“新无知之幕”是一个隐喻,在盲人摸象中应对未来与拟主体、能力超强的AI共同的生活。
第三,无论是工具论、实体论还是技术设计论,它们都是哲学观念,而并非自然科学意义上的客观理论,不能说在科学意义上哪一个对或哪一个错。哲学观念是不能用实验或观察来检验、证实或证伪的。
我以为,工具论与实体论的争论,在实践中直接指向的是技术能不能控制的问题。这个问题的答案不应该从技术中寻找,而在于人类的选择。这一想法也可以称为“技术控制的选择论”。
我们有没有决心和勇气控制技术的发展?更重要的是,为达成对技术的控制,我们愿意做出何种付出甚至牺牲?比如,手机很好玩,让人上瘾,以至于有人说:为什么要找女友找男友呢,难道是手机不好玩了吗?你想控制手机上瘾,本质上是控制从手机上获得的感官刺激。
因此,AI要向善,根本上是使用AI的人类的选择问题,是人类能不能向善的问题,是人类能不能为了向善而努力、付出、牺牲的问题。
02  
善良从来都不是一件容易的、好玩的、赏心悦目的事情,所以老话说:人善被人欺,马善被人骑。相反,沉沦却是一件非常随性、舒适甚至感觉到“躺赢”的事。
现在的问题变成了:人类可不可能向善?如果你相信人性的观念,相信所有的人从根本上都有着同样的本质即人性的话,这个问题就会变成“人性可不可能向善”。
在思想史上,对于人性善恶的问题,哲学家们也是争论不休,莫衷一是。有人说人性本善,有人说人性本恶,有人说人性一半善一半恶。后现代主义兴起时,一些人认为人与人是不一样的,没有什么大家都一样的所谓人性,不管它是善是恶。
言下之意,有的人善,有的人恶,有的善多一点,有的恶多一点,有的坏人变好人,有的好人变坏人,不一而足,因此治人并不存在人人都适用的办法。
仔细考察,你就发现人性善恶问题与人类向善问题是有差别的。你可能是恶的,也可能是善的,但是现在的问题是:你可不可能向善,变得更善良呢?
如果你坚持人性不变,你就会给出否定的回答。因此,想要人性向善,首先就要相信人性是可以改变的、可以被改造的,就是要相信人性是历史变化的。
我个人恰恰相信——第一,人性是不定性的,是不断在发生变化的;第二,人性是可以被改造的,但是这极其困难。
因此,我认为,“AI向善”是可能的,实现的终极方法只能是“人类向善”,当然在操作层面,“人类向善”可以是逐步的、一点一滴前进的。我并不相信某种一蹴而就的人性提升方案。
先说第一个问题:没有什么不变的人性。
我用一个“Lucy隐喻”来说明我的观点。
现在主流古人类学研究认为,人类起源于同一个非洲的古猿,还给她取了一个名字叫Lucy。我的故事是:Lucy从树上下来的时候,知道什么是人,或者她要走向何方吗?当然,她不知道。也许,她只是扫视了一下身边的其他古猿,心里说了一句:我不做猿猴了!也许她心里还说:我要做人!
可是,她并不知道什么是人。她所决定的不过是:我不要做猴子了!
我讲这个隐喻,是为了说明人类的真实状况是既不知所来、亦不知所往的。
今天,我们离开猿猴已经很远很远了,但仍然不知道自己将去向何方。
实际上,猿猴进化论只是诸多人类诞生理论中的一种,不过是今天的主流观念而已。生物学研究有一种说法,在隔绝状态下只需要四五百年就会演化出新物种。而人类已经有百万年的历史,智人也有数万年的历史,显然人类在不断进化。如果有人性,那么它应该也是不断变化的。
再说第二个问题:人性可以被改造,但是很困难。
人性如果在变化,这种变化只能是自然选择的吗?如果是这样的话,所有有目的人性提升都是徒劳的,我们只能听天由命、靠天吃饭。然而,自然选择是没有善恶指向的,没有证据表明最善者最适应环境,也没有证据最善良的人群在遗传上最有竞争力。
于是,要想相信人类会向善,就必须相信人性是可以通过有目的的改造而提升的,我称之为“人性改造论”。
在我看来,人性改造在过去人类历史上并不成功。大家知道,人性提升工程过去主要靠文化改造,尤其是宗教活动和教育活动。有文字的八千字文明史,我不否认人性有了一些变化,我们与山洞里砸碎其他其他人的头盖骨吸食脑髓的山顶洞人、与五胡乱华时以“两脚羊”为军粮的人有了一些区别。
但是每当我看到、听到各种当代发生的骇人罪行的时候,比如暗网上的人口贩卖、器官贩卖的故事,我对文化提升人性的功效感到沮丧。
过去一百年中,随着现代科学技术的发展,一些人想到可不可以用科技方法对人性加以向善改造,比如科幻小说家H.G.威尔斯对使用生物学和心理学的方法提升人性就非常赞同。
基因编辑技术的发展,催生了用它塑造完美人类的念头。对屡教不改的强奸犯可以进行化学阉割;对那些不诚信的家伙,是不是也有类似的科学方法从身体层面完成彻底的、一劳永逸的改造呢?
对此,我认为不能过于自信。首先,科技方法有无改造人性的效力,并无一致的结论。其次,就算此种效力成立,开展了国家或社会的制度性人性改造,结果是人人向善,还是一批人被改造为奴隶、另一批人成为生物学意义上的主人?就像威尔斯名著《时间机器》所预言的恐怖结局,人族最终分化为两个对立物种。
我认为后一种可能性更大,因为以目前的人性状态,人类掌握改造人性的科技,使之向善发展,就相当于抓住自己的头发离开地面。但是,happy ending不是没有可能,但想不付出努力和牺牲就得到happy ending是不可能的。
当然,我并不否认人性可能进化,只是已知数千年的人类文明史并没有人类大幅度高尚化的明显迹象或证据,因此对人性改造论的乌托邦必须予以足够的警惕。从既有人类史看,人性进化可能会耗费数十万甚至百万数量级的时间,而在这之前,人类很可能已经自我毁灭。
但是,即便如此,人类应该勇敢地选择尝试着改善人性,还是选择坐等悲剧发生呢?这正是面对AI突飞猛进的时候,人类必须要做出的选择。
你们看到,我是一个极其悲观的乐观主义者。
编辑:陈茗

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表