传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
461#
 楼主| 发表于 2020-12-25 21:18:01 | 只看该作者
【案例】
聚焦人工智能,今年最后一次全国政协双周会信息量很大!
如果要列出能够改变世界格局与历史进程的要素,人工智能必居其一。
作为引领新一轮科技革命和产业变革的战略性技术,人工智能是时代发展的巨大机遇,也给科技伦理和法律带来挑战,它的“未知”远远大于“已知”。在政协这个“揽八方才俊、集各界精英”的平台上,探讨“人工智能发展中的科技伦理与法律问题”这样前沿、跨学科的课题,可谓适得其所。2020年12月23日,全国政协今年最后一场双周协商座谈会,探讨的是一个关于“未来”的话题——人工智能发展中的科技伦理与法律问题。来自不同界别、代表不同利益诉求的委员和专家对人工智能潜在风险进行预判,研究构建伦理规则和法律规范的可能性,并与职能部门的交流中释疑增信。
“技术之手”会加深社会不公的沟壑吗?
上世纪30年代,喜剧大师卓别林自导自演了一部经典电影《摩登时代》,描绘了第二次工业革命后底层工人被“机械化”洪流裹挟的无奈。
在历史长河中,每一次重大科技变革都会对既有社会秩序构成冲击,人工智能也不例外。
会上,张大方常委表达了自己的担忧:“由于数据质量和算法的原因,很多人工智能软件蕴含性别、年龄、种族歧视,很难发现也很难消除。一些掌握先进人工智能技术的企业或个人可能会利用优势地位获取更多的资源,影响社会公平。”
这当然不是危言耸听。
前不久,一篇《外卖骑手,困在系统里》的文章在网上刷屏。为提高配送效率,骑手们在平台算法的控制下疲于奔命。这一报道击中了很多人的痛点:我们会不会也被算法操纵?
与骑手困境形成对比的是平台企业由此获得的丰厚资本红利,李迎新委员由此提出疑问:巨型网络交易平台获得价值密度极高的“大数据”,进而以“精准营销”等方式获取商业利润,这种分配机制是否公平?是否可能导致收入差距的进一步加大?
其实,如果把问题放在当前的历史节点中审视,就能更深切地理解这种担忧。
刚刚结束的十九届五中全会首次提出把全体人民共同富裕取得更为明显的实质性进展作为远景目标。这意味着我们要继续把“蛋糕”做大,还要进一步把“蛋糕”分好。显然,任由技术的无形之手加深社会不公平的沟壑,不是这个时代应有的价值观。
“上限不能过,底线不能破,红线不能踩。”张大方说,应强化政府引导、行业自律、企业自觉及公民共识,让每一个人都能成为人工智能受益者。
“任何一项新技术的出现都可能带来就业、收入分配等方面的社会问题。”会上,相关部委负责同志回应了委员的担忧并表示,问题确实存在,但无需过虑,因为技术导致的公平问题是可以在发展过程中得到克服的,这已被历史所证明。
“既不要把人工智能看成洪水猛兽,也不能放任不管,要用发展的眼光看待发展中的问题。”汪鹏飞委员说。
也许,相对于简单的道德审判,我们更需要做的是完善相应的制度设计。守住现实社会的公平底线,“算法偏见”就不会有机可乘。
“弱人工智能时代”的数据安全
1951年,计算机之父阿兰·图灵(AlanTuring)曾提出:"如果机器能思考,那么它很可能比我们更加明智……这种新的危险当然让我们焦虑。”
危险有多远?这是很多非业内人士共同的问号。
为筹备这次会议,全国政协调研组赴安徽、江苏、北京开展专题调研。调研中,大家看到了人工智能在交通、家居、医疗、媒体等诸多领域的应用场景,也由此深化了一个认知:我们仍处于“弱人工智能时代”。
弱人工智能指的是只能解决特定领域问题的人工智能,它还不具备自主意识。强人工智能的“奇点”到来还有多久,在科学界依然没有最终定论。因此,王小川委员建议,“讨论伦理及法律问题,‘长远’和‘眼下’要分开看。”
前景不明朗,就不能过早“画地为牢”,委员与部委负责同志一致认为,要“让子弹飞一会儿”。
与其忧心尚未发生的威胁,不如聚焦业已存在的风险。现实中人工智能技术应用的突出风险是什么?不少委员谈到了数据隐私与安全。
疫情期间,“刷脸”成为大多数人通行必不可少的步骤。“人脸、指纹、DNA等生物特征数据,个人医疗档案数据等都具有唯一性,一旦被采集到不安全的网络上,极有可能引发巨大社会风险。”从事网络安全技术行业的谈剑锋委员指出了问题的关键。他建议采取负面清单模式,限制企业自行采集收集和垄断数据,同时对不可再生数据进行统一管控。
会上,黄爱龙委员谈到App个人信息被过度采集,姜伟委员谈到数据的权属不明确,黄锦辉委员谈到要监管企业所使用数据的质量,虽意见各有不同,但立场都是一致的:保护数据安全刻不容缓。
对于数据安全要明确法律上的红线,这项工作已经开始——今年出台的民法典对收集、处理个人信息作出了明确规定,全国人大也把个人信息保护法、数据安全法列入了国家五年立法规划第一序列。会上,相关部委负责同志的积极回应又给大家吃下一颗定心丸:数据权属的界定与更严格的数据隐私保护规范已纳入决策层的考量范围。
当一个问题反复出现在社会公共议题之中,往往就是问题得到解决的契机。对于保护数据安全,我们或许可以抱有更多信心。
抢占制高点
前沿和关键领域的技术创新,向来是传统工业强国的主战场。幸运的是,在人工智能领域,中国已跻身国际“第一方阵”。
人工智能依托大数据而生,以应用场景为核心,而中国庞大的互联网体量和丰富的场景应用,是人工智能发展最丰沃的土壤。
我们探索建立人工智能发展“规则”,不仅是防范潜在风险的需要,也是抢占国际竞争制高点的必然选择。
现在,美欧等国家以“共同价值观”划界全球人工智能治理版图的趋势日盛。“伦理法律问题已成为全球人工智能话语权和主导权竞争的焦点。”会上,相关部委负责同志如是说。
好在,研究探索伦理法律问题的“中国实践”已经拉开帷幕。全国政协社法委副主任陈智敏认为,应充分利用我国人工智能发展的比较优势,在人工智能治理的国际规则制定上占据主动、拥有更多话语权。
会上,陈群常委建议在国家层面上加快相关制度创新,布局建设人工智能认证体系和全球赋码系统,以我国超大规模应用市场为牵引,对全球人工智能产品开放登记和提供法律保护,推动我国相关法律法规更多成为国际通行规则。对此,清华大学法学院院长申卫星建议构建综合性立法和具体场景立法相结合的“总-分”式立法体系,他说,这种设计将有利于增强国内外对于中国人工智能技术的信任度,提升人工智能国际竞争中的软实力。
1818年,英国的玛丽·雪莱创作了世界上第一部科幻小说《弗兰肯斯坦》,以远超时代的想象力虚构了一个“人造人”的悲剧。当时20岁的玛丽大概不会想到,两百余年后,一个万亿级人工智能市场已蓬勃兴起。
勇敢拥抱技术变革,是因为听到了潮水的声音。我们正在闯过布满暗礁的蓝海,与未来迎面相逢。
来源:谢靓 人民政协报
链接:https://mp.weixin.qq.com/s/7XS0rYuhowmMKey2KU32aA
编辑:李佳怿

462#
 楼主| 发表于 2020-12-26 22:55:56 | 只看该作者

【案例】


圣诞节:英国电视台Channel4制作“深度仿冒”女王致辞


使用深度仿冒技术合成的女王看上去非常像女王本人。

英国电视台第四台(Channel4)每年都有制作“另类女王圣诞致辞”的传统。今年他们的另类圣诞致辞将由一个“深度仿冒”(deepfake)的女王发表。

女王的传统圣诞致辞将会在BBC及独立电视台(ITV)上播放,而在第四台上将会有一名合成的“她”分享她的“思绪”。

白金汉宫向BBC表示,他们对此不予置评。

· 圣诞节:英国人“过年”的七大讲究及其轶事

· 英国女王遭内贼 白金汉宫工作人员窃取珍贵物品上网贱卖

第四台称,他们的初衷是针对数字化时代的假新闻提出一份“严正警告”。

深度仿冒技术可以用于制作让人深信不疑但其实完全伪造的视频,这一手段经常在散播虚假信息时被使用。

在这次致辞中,第四台的仿冒女王还将进行一项TikTok舞蹈挑战。

跳过 YouTube 帖子, 1视频加注文字,告知:第三方内容可能包含广告

结尾 YouTube 帖子, 1

“无数的模仿”

这段致辞时长五分钟,其中将提及多个有争议的话题,比如塞萨克斯公爵哈里王子及公爵夫人梅根(Duke and Duchess of Sussex)离开英国,同时还将影射约克公爵(Dukeof York)安德鲁王子今年早些时间卸下王室职责的决定。安德鲁王子此前在与BBC的采访中谈及了他与性侵者杰弗里·爱泼斯坦(Jeffrey Epstein)的关系。

BBC王室事务记者维切尔(Nicholas Witchell)对第四台的做法并不以为意:“已经有针对女王的无数模仿了。这并不是特别好的一个。”

“声音听上去就说明一切了,这是一个并不成功的尝试。问题出在他们使用视频技术去尝试让她的嘴唇和所说的内容同步。”

虽然目前的技术可以制作深度仿冒的声音,但第四台的深度仿冒视频由英国演员黛布拉·史蒂芬森(Debra Stephenson)配音。

史蒂芬森曾在2020年复播的英国时政木偶讽刺节目《Spitting Image》中用声音出演木偶女王。

她表示:“作为一名演员这让人激动,但一想到这可能会被用于其他情况,这同时也让人感到害怕。”

这条深度仿冒视频由奥斯卡获奖团队VFX studio Framestore制作。

深度仿冒的检测

深度仿冒技术最早是在2018年开始崛起的。

当时一名程序员使用尖端的人工智能技术创造了一种软件,可以把一个人的脸换到另一个人身上。

然而随后这个方法变得更容易被更多人获得使用。

现在已有无数个应用程序可以做到只需要一张照片,就可以把一名好莱坞的脸换到用户身上。

本年早些时候,微软发布了一个可以发现深度仿冒技术的工具。

微软称,他们希望可以帮助抗击不实信息,但专家警告称,由于深度仿冒技术的进步,微软的工具可能很快会面临过时风险。

Deep Fakes andthe Infocalypse》一书的坐着尼娜·史克(Nina Schick)向BBC表示,目前有越来越多的人担心,深度仿冒技术还可能被用于其他恶意用途。

“虽然它提供了巨大的商业和创作机会,改变了从娱乐业到通讯业等整个行业,但同时这也是一个可以被武器化的技术。”

“如果被恶意使用,人工智能生成的合成媒体,或者说是深度仿冒内容,就是智能形式的视觉化的不实信息。”

第四台的“另类圣诞致辞”(TheAlternative Christmas Message)将于格林尼治标准时间(GMT12251525播出。


来源:BBS

链接:https://www.bbc.com/zhongwen/simp/uk-55435659



编辑:李佳怿

463#
 楼主| 发表于 2020-12-27 12:18:51 | 只看该作者

【案例】


别再误解Deepfake


2014年,对抗生成网络(GAN)被发明,由AI打造的虚拟世界大门初现。此后,“AI深度合成”(Deep Synthesis)逐渐从实验室飞入寻常百姓家,成为普通人数字生活体验的一部分。朋友圈中刷屏的换脸军装照、以假乱真的虚拟主播以及导航软件中响起的明星语音都是这项技术的应用形式。AI深度合成带来新奇体验的同时也激起了众多疑虑,“深度伪造”(Deepfake)的阴云挥之不去。有了“Deepfake, “眼见为实”成为过时的经验,人们担心这项技术会带我们进入一个“真假混淆”的世界,其中个体安全感和社会信任都岌岌可危。

我们如何理解这项技术的现在和未来?深度伪造之忧如何破解?深度合成技术如何向善发展?“腾讯对话”邀请到腾讯研究院院长司晓与四位专家展开对谈,他们为回答上述问题提供了参考。





对话嘉宾

     腾讯玄武实验室负责人

     腾讯计算机视觉中心负责人 / 杰出科学家

张文生  中科院自动化研究所副总工程师,中科大首席AI专家

    《大圣归来》出品人


主持人

     腾讯研究院院长


合成=伪造or创造力?

司晓:深度合成技术在我们身边有哪些应用?

刘威:在很多人的印象里,合成和伪造是天然联系在一起的,但实则不然。我们有很多积极的应用形式,譬如图像修复,也是一种合成。腾讯AI Lab与敦煌、故宫都在讨论,怎么去用人工智能技术,确切来说是用对抗生成网络的技术,去还原一幅古画,用AI的想象修补残缺。

路伟:深度合成在电影里面的应用是越来越多了。以《大圣归来》为例,电影中有一百多个角色,很多故事情节,我们要让它们在虚拟场景里影像化呈现。我们还用到了AI音效,建立角色的虚拟人格。老片《上甘岭》的重映用到了AI去做色彩还原,效果还不错。像中国电影资料博物馆有非常多老片资源,今后都可以通过技术还原手段重获新生,能达到2K、甚至4K的清晰度。

张文生:现在大家重视的都是一些语音和图像的深度合成,实际上能合成的东西还有很多。比如一个城市系统的智能交通,本身也是在做合成,它是我们物理空间和数字空间的合成。

司晓:埃隆·马斯克在一段访谈里面讲我们人类可能生活在仿真世界中,因为按现在通过技术去仿真的能力的提升速度,我们总有一天能够去用完全数字化的方式去还原或者模拟一个对人类来说真假难辨的世界。大家来开一下脑洞,大胆预测一下深度合成的未来?

路伟:现在的电影仿真技术已经能以假乱真。我们现在做电影,也在用一切办法让观众进入一个虚拟的真实世界,从环境、灯光、空气密度、照度、色温,然后角色的运动、拥抱、谈笑,全部都要让观众觉得它是真的。虚拟主播也开始出现,比如洛天依和初音未来是虚拟角色1.0版本,接下来肯定会有2.03.0版本。在未来的五到十年,我认为虚拟明星的市场要远远大于真实世界的市场。

我认为未来会出现“无边界”的概念。特别是在AIVR的时代,观众感受到的不只是感官的视觉、听觉、味觉,还有情感的感受,它应该是更加真实、入心的,有时候我认为在未来真实的虚拟世界里,虚拟和真实的边界会慢慢模糊。我觉得现在的CG(计算机图形)技术和计算能力,在不断拓宽我们对世界的认知。

张文生:我们对深度合成的“深度”要求是与审美水平同步提高的。比如我们看到的AI主播,一开始是二维的,然后语音和图像结合了,慢慢地把口型什么都做得很好了。我想未来的三年,它有可能变成三维的、立体的一个场景。

只要有需求,有应用场景,这项技术就有市场。以电影制作为例,当我们拍一些危险场景,就可以使用深度合成技术来完成,减少演员受伤。或者一些“大场面”,实拍成本非常高,有时根本实现不了,比如想展现成千上万只羊在山上跑。但是用深度合成就可以连羊胡须这样的细节都展现出来。另外,一些想象层面的内容,比如把动物的动作附加到人身上,也可以通过技术实现。只要这些需求存在,技术一定会有大的突破。十年前,我们就在做裸眼3D,现在看,裸眼3D技术如果与深度合成技术结合,我相信市场会更大。

司晓:我们看到的这些合成动作离真人的动作差距点在哪?目前存在哪些瓶颈?

于旸:我想到的最重要的其实是感情。大家看一些电影,或者电视剧,有时会有这种情节:角色的亲人故去之后,他可能去找一个巫婆、法师,把亲人的魂魄招回来,让我能再看他一眼,再跟他说一句话。现在,技术让我们可能拥有这种魔法。未来肯定会有人有这种想法,有这种需求,这对技术就提出了新的要求。

刘威:我们目前称之为“深度合成”的技术使用的是深度神经网络,在此之前的合成用的是统计的方法,严格意义上不能叫做“深度合成”。统计的方法就是根据我们想合成的东西去收集跟它很像的一些样本,然后用统计手段去“猜”一下,把这些样本拼在一起。2014年对抗生成网(GAN)被发明,自此以后,相关应用的发展突飞猛进。

但是,拿产生图像来说,虽然这六年间技术发生了巨大的进展,但是仍然离我们想象的那种高度自动化、高度自由度有很大的距离。何为高度自动化?举例来说,我们要产生一个非常逼真的人脸图,当然需要这个人脸图像分辨率越高越好。但是分辨率一大,你需要的算力就会很大,大到在手机上是完成不了的,必须在云上做,用若干块GPU才能做出来。

同样,对于自由度来说,我们现在的合成技术也有很大局限。通俗地说,自由度就是我想让它产生什么样,就产生什么样,这个仍然很难。在对抗生成网络发展的早期,我们是用一个噪音来产生一张人脸,最后产出的结果是无法把控的。直到今年,我们才能对生成的人脸的属性有要求。背后我们要训练的神经网络模型参数是海量的,训练方式也是非常复杂的。

尽管我们会遇到各种技术难点,我坚信未来用人工智能技术去自动产生的影像,会越做越好,日臻完美。


“深度合成本身应该是赋能的技术”

司晓:目前深度合成技术面临污名化,“深度伪造”问题突出,我们怎么样保障我们这个技术不被用在造假、诈骗上?

于旸:假的影像或者声音,能不能骗过人?能不能骗过机器?这其实是两个话题。有些场景下人比机器好骗。比如,骗子给你打电话冒充你的同学,你一听口音,我这个山东同学怎么是福建口音?但可能未来就不一样了,骗子先打给你这个同学,录一段你那个同学的声音,根据那个声音合成一下。你一听,十几年没见,这好像就是我老同学的声音,你就信了。

关于能不能骗过机器,在技术维度上,就是单纯的机器造假和机器鉴别的较量。可能攻守双方谁都不会特别确信能取得百分之百的优势,但落地到具体业务里面的时候会发现,有时候需要让步。这个其实会给造假者提供便利。

刘威:在国内,腾讯在数字鉴伪——或者稍微学术一点,在信息辩论术上取得了不小的突破。我们对语音、图像、视频鉴定的准确率比较可观。当然,魔高一尺道高一丈,合成的技术变强,我们的防御能力也得增长,这就像双手互搏。

以目前的图像鉴伪技术为例,我们有一个步骤,先用对抗生成技术去制造高逼真的样本,再把数据给计算机去判定,让它多轮反复学习。我对鉴伪技术的发展保持乐观。可以看到,即使在国际上的数字鉴伪比赛中,面对非常复杂的数据集、测试集,大家最后夺冠的那些方法也不外如此。而造假的成本远远比鉴伪要高,也就是说,有人挖空心思造了假,我们一下就解决了。

张文生:这个可能还关乎商业模式,就是如何从经济上激励“打假”相关技术的开发。此外,从打假的思路来说,如果我们要加上语义识别,可能会更容易,成本也更低。比如在电话诈骗这个场景下,骗子用了合成的语音,我马上问一个涉及隐私的问题,对方就答不上来了,这就是语义。  

司晓:我们这个行业还需要做哪些事情,才能真正保障深度合成这个技术在一个向善的轨道上快速运行?

于旸:我们看整个人类发展历史,其实就是个体所拥有的力量——不管是建设力也好,还是破坏力也好——越来越大的过程,这是不可避免的。任何情况下,冒然抑制技术发展我认为都是不对的。法律不是禁止发展技术,而是规范如何把技术用在好的方面。我觉得这个是最关键的。

刘威:我个人希望从政策上鼓励人工智能技术创新,尤其是影视内容层面应用的创新,来提高效率,降低制作流程的成本。同时我希望要能有一些文教方面的创新,包括老照片、老电影的上色、复原,在线教育领域的应用等等。这些都是正确的引导。在立法和技术鉴别手段逐渐完善的情况下,我觉得技术造假应该是小概率事件,整体上深度合成技术还是应该向善的。

张文生:人工智能本身是赋能的技术。我们做技术实际上是围绕人们的生活、社会的进步。深度合成会发展成一个新业态,全世界技术人员都会为它贡献自己的力量。同时,我们也需要相关的规范来约束违法的、不利于社会发展的技术使用方式。做技术的人,要考虑怎么样在这个“魔高一尺,道高一丈”的情况下更新技术,帮助政府和公民,用技术来解决问题。

路伟:对影视业来讲,有关深度合成的核心关切是版权保护,虚拟资产、虚拟人物的版权归属都需要法律来界定。在科技发展之外,加上对版权的管理和尊重,这个行当会越来越健康。


“用人性的温度推动AI持续向善”

司晓:各位对深度合成的发展还有哪些期待?

于旸:在有现代科技之前,大部分人类生活的世界其实很小。但是以互联网为代表的现代科技让我们每个人都能够和全世界发生联系。再往后发展,类似深度合成这样的技术,可以在我们已有的基础上,再更进一步。这种技术可以把物理世界中不存在的美好创造出来,让我们去感受,它必然会把人类生活的美好推到下一个境界。

刘威:我期待深度合成技术能够便利文教、文创事业,孕育出更好的数字鉴别技术。我们今天谈到的所有一切,无论是合成、鉴伪,最后驱动的都是人脑,人的创意。我希望AI里面会有越来越多有温度的东西,这样我们才能让AI持续向善。

张文生:我希望科技企业能够把深度合成技术推动变成一个商业模式,来吸引更多做技术的人为之服务,做出来更好的产品。科技企业也有责任和政府一起关注深度合成技术的发展,保障它在正确的、向善的轨道上。

路伟:我希望通过深度合成,通过计算机网络,能够让我们未来做电影、影视、虚拟世界越来越简单,让我们的作品越来越有温度,让更多的人能够把自己扫描进虚拟世界。我希望在这个世界里,人性的光辉照到更多角落里面。



来源:腾讯对话  腾讯研究院



编辑:李佳怿





464#
 楼主| 发表于 2020-12-27 12:21:22 | 只看该作者

【案例】


深度造假(第116期)


★深度造假的概念及发展历程★


★深度造假的技术原理★


★深度造假的典型应用★


★深度造假的主要特点★


★深度造假带来的危害★


★应对深度造假的举措★




来源:郭英  赛迪智库

链接:https://mp.weixin.qq.com/s/jTBGtzHKyi8xMorpxpFraA


编辑:李佳怿





465#
 楼主| 发表于 2020-12-27 12:25:43 | 只看该作者

【案例】


英国电视台AI换脸恶搞女王圣诞讲话!吐槽火力全开,全程高能!!


话说每年1225日圣诞节这天,英国君主都要发表圣诞致辞,这是从1932年开创的老传统了,

昨天下午3点很多英国人守在电视机旁,收看女王伊丽莎白二世发表2020年圣诞致辞,通过BBC播出。


今年情况有些特殊,女王只和丈夫菲利普亲王两人一起过圣诞,没能像以往一样一大家子团聚,

或许是因为这个原因,女王今年致辞时桌上只摆放了老伴菲利普亲王的照片。


今年圣诞致辞的主题为“你并不孤单”(You are not alone),主要围绕疫情下的英国展开,

她提到今年是南丁格尔诞辰200周年,南丁格尔曾是希望的明灯,而现在一线医护人员就是这盏明灯,照亮黑暗的夜晚,

女王不但对一线抗疫工作者表达了谢意,也为人们面对新冠的沉着和坚韧而感动,

她还不忘督促人们坚持隔离,并表示每个人都不孤单。



这边,女王的圣诞致辞一如既往的庄重大气又不失温情。


那边,却出现了另一篇以假乱真的女王圣诞致辞,让人大跌眼镜。


原来,英国Channel4电视频道利用“Deep FakeAI换脸技术,制作了一位AI版女王,

让她在真女王致辞后25分钟,发表了一通恶搞版圣诞致辞,全程无尿点高能吐槽,


从让人不省心的孙子哈里一家,到丑闻缠身的儿子安德鲁,全吐槽个遍,

还学年轻人玩起来TikTok,伴着音乐跳起舞来,把人都看傻了......


这段恶搞版圣诞致辞视频一开始,先是一个白金汉宫的航拍镜头


接着镜头切换到白金汉宫室内,女王坐在桌前,身后是漂亮的圣诞树,

桌子上左边摆着查尔斯卡米拉夫妇、威廉凯特夫妇和女王的柯基爱犬三张照片,右边摆着哈利梅根夫妇以及而安德鲁王子的照片,

看这室内场景还原得还挺像那么回事儿。


视频里女王穿了一条皇家蓝连衣裙,带着标志性的三层珍珠项链和一只蓝宝石胸针,

发型、长相、神态乍一看让人分不出真假,就连一些微小的表情都模仿得惟妙惟肖。


从致辞开头,这位AI版女王的吐槽就开始了。


她说之前这些年在BBC发表致辞,总不能说心里话,

感谢这次Channel 4给了她一个机会畅所欲言,而不是说别人强加给她的话。


她今天致辞的主题是“信任”(Trust),什么是真正的信任,什么不是(划重点,请记住这个主题)。

接下来AI版女王就开喷了。



她说2020年对所有人来说都是充满挑战的一年,

多亏厕纸危机,让人们了解了在王座(马桶)上的窘境是啥样的。

很明显,这句话吐槽的是英国疫情期间民众抢购厕纸,造成厕纸短缺、市场大乱的“厕纸危机”。



接着AI版女王把矛头指向家人,她说很多人是靠家人维系自身的,

因此哈里和梅根离开才让她那么难过,没什么比有人更喜欢加拿大人的陪伴更让人伤心了;


好在还有挚爱的儿子安德鲁(就是深陷爱泼斯坦丑闻的那位),看样子他最近是去不成北美了。

说完了家人,AI版女王开始调侃英国首相Boris


她说2020年也是英雄的一年,比如英勇的NHS医务工作者中,很多人冒着风险工作,

比如在明知随时可能被搞怀孕的情况下救治Boris


这里是吐槽Boris今年把未婚妻肚子搞大,又喜得一子,此前他已经有4个子女和一名私生女,英国人经常拿他的风流韵事调侃。


为了显示与时俱进,AI版女王说她只要不跟老公约炮,就会去Tik Tok上练舞,

虽然菲利普亲王不让她那么做,但她还是想秀一把。


她把手机交给工作人员,播放了一段动感十足的音乐,

AI版女王站到桌子上,煞有介事跳起舞来,又是扭腰、又是踩点,跳得很起劲,连旁边的柯基爱犬都看呆了,


她老人家自信地说,如果这都上不了《舞动奇迹》,那真不是的还什么节目能上了。

视频最后AI版女王又回到桌前坐下,重新拉回“信任”这个话题,

她说现在一切都能通过屏幕了解,但屏幕里所见所闻就都是真的吗?



这是视频好像出现卡顿,屏幕闪烁,AI断断续续失效,屋子里的陈设消失,背景绿幕露了出来,

女王的脸也消失了,坐在桌前的人变成了扮演女王的女演员Debra Stephenson

的确,这段视频里的所见所闻都是虚构的,真的很不可信,当真你就输了。


拿女王开涮,胆子可不小,这究竟是怎么做到的呢?

其实这已经不是公众人物第一次遭遇AI换脸了,美国前总统Barack Obama也被人制作过AI换脸视频,

从技术层面讲是完全可行的。



恶搞版圣诞致辞的制作组公布了一段花絮,记录了制作过程。

他们在一个摄影棚里搭了绿幕背景,视频里华丽的房间,现实中只有三面绿幕墙和一片绿幕地板,房间是后期电脑合成的,

房间陈设中真实存在的东西只有圣诞树、女王坐的椅子、桌子以及桌上的圣诞花艺跟几个相框。





当然视频中最重要的还是女王,演员Stephenson扮演女王读出事先写好的演讲稿,

她此前一遍又一遍观看女王去年的圣诞致辞,模仿女王的神态表情和姿态,

必须模仿女王说话的神态表情姿势,这样才能方便后期换脸。


那段跳舞片段,也是Stephenson当场学习,亲自上阵跳的,后期再把女王的脸换到她的身体上。


据该视频导演William Bartlett介绍,AI换脸技术比很多人想的要简单,

他们会提前写好脚本,就像创造一个新角色一样,

在拍摄的视频中插入所需素材,把女王讲话时的面孔一张张换到演员脸上,

不过里面的人脸是镜像的,素材需要翻转一下。


扮演女王的演员Stephenson表示,她一直对Deep Fake很感兴趣,

多年来她为了表演一直在模仿别人,现在的技术能让她真的“变成”其他人了,

“作为一名演员这很让人激动,但如果想想会在什么情况下使用它,也挺让人害怕呀。”


这就引出了这段视频的意义,

据制作人James Hatcherhe和导演William Bartlett,他们制作这个视频的目的在于讨论未来的AI技术发展方向。

如今已经假消息横行,随着技术发展,虚假新闻也会看起来越来越真实,未来将何去何从?


AI技术普及全球,是设计人员掌握的一项强大技术,但也可能成为歪曲事实和欺骗的工具,

他们拍摄这个视频,是想告诉大家眼见也不一定为实。



制作组说希望这段恶搞视频能在圣诞节博观众一笑,但播出后不但没达到娱乐效果,反而被批评惨了,

推特上一片骂声,很多观众都说视频“是垃圾”、“让人恶心”、“内涵别人”,


英国政治家Nigel Farage评论:“他们怎么敢这样。”


真恶心。女王坚持履行她的职责并始终保持坚强。上帝保佑女王。



我对Channel 4内涵满满的编排女王圣诞致辞感到很生气,我打算去看真的了,即使我平时不看。

我们今年过得够难了,真没必要这样了。


探讨技术发展的前景和方向,思考技术发展对信息传播的影响,这些做法本身并没错。

这段AI换脸女王的恶搞视频之所以犯众怒,是因为AI和真人之间有一个最大的差别——人情味,

圣诞节听女王致辞已经成为很多英国人的习惯,听得是个情怀,

又赶上今年疫情,大家都过了个很不一样的圣诞节,女王的致辞也是一剂温暖人心的良药,充满人文关怀。



ref

https://www.dailymail.co.uk/news/article-9087843/Outraged-viewers-attack-Channel-4s-woke-rubbish-deepfake-Queens-speech.html

https://twitter.com/Channel4/status/1342491540715802625

https://www.youtube.com/watch?v=alc6R_UfPkc


--------------------------------------

TeacherZ需要睡:女王要是在乎就不会这么长寿了


转角47号:再仔细想想,这个技术应用,一点都不好笑,甚至让人觉得后背发冷。。。


靡不有初19:之前不是有推女生被换脸到H片,然后被死亡威胁的事儿嘛


刘公简:掐头去尾我觉得很多英国人会真的相信


engic:所以特意找了口音不对的人来配音,一听就不是真的,要不估计就真有人该信了


来源:英国那些事儿

链接:https://mp.weixin.qq.com/s/PmhyyQk8WiGUXUtTyG4dEw


编辑:李佳怿


466#
 楼主| 发表于 2021-1-2 16:54:04 | 只看该作者
【案例】
新华社智能化编辑部如何创新新闻报道
人工智能赋能新闻报道创新
——新华社智能化编辑部拓展人工智能应用场景
要:新闻传播与人工智能相结合,其应用场景多样多变。本文以新华社智能化编辑部为例,介绍 AI 合成主播生产平台、人工智能生产加工平台“媒体大脑”等实践探索。人工智能赋能新闻业,推进媒体融合向纵深发展。
关键词:新华社智能化编辑部;人工智能;创新;应用场景
本文著录格式:陶一萍 . 人工智能赋能新闻报道创新——新华社智能化编辑部拓展人工智能应用场景 [J]. 中国传媒科技, 2020(10):7-8.
作者简介:陶一萍(1989-),女,江西南昌人,编辑, 中级职称。
作者单位:新华社新媒体中心
导语
进入人工智能时代,新闻业将会如何演进?2019 年12 月 12 日,在新华社新媒体中心试点建成新华社首个智能化编辑部,实现人工智能再造新闻生产全流程。
新华社智能化编辑部持续追踪人工智能技术前沿成果,创造性地研发新闻应用场景,初步形成全流程技术创新体系。[1] 尝试从顶层逻辑出发,打造人工智能新闻的应用场景生态,探索全媒体发展的新方向。[2] 人工智能技术赋能媒体行业,将新闻工作者从大量简单重复性的劳动中解放出来,去从事创意策划、采写、编辑,大幅提升工作效率。
1. 科技引领媒体融合转型,技术推动智能媒体建设
1.1 AI 合成主播生产平台
早在 2018 年 11 月,新华社联合搜狗公司发布全球首个 AI 合成主播。随着 AI 合成技术日新月异,AI 合成主播的“大家庭”迎来新成员的加入。在今年全国两会开幕前夕,全球首位 3D 版 AI 合成主播“新小微”亮相。
作为首位由人工智能驱动、3D 技术呈现的 AI 合成主播,“新小微”在报道今年全国两会期间表现不俗。“新小微”不会生病、不受情感因素影响,能做到每天 24 小时投入工作,量化生产新闻播报视频,提高制作新闻产品的效率,降低制作成本,提升报道的时效性。
AI 合成主播应运而生,一方面反映出人工智能技术迭代给传媒业带来利好,助力媒体搭上科技的“快车”, 驶入融合发展的“快车道”;另一方面,它预示着主播、主持人等传统媒体工作岗位或将面临被重新定义。伴随着技术的不断突破,人工智能技术与新闻媒体的融合将会实现更多可能性。
1.2 人工智能生产加工平台“媒体大脑”
由新华智云自主研发,新华社和阿里巴巴集团合资打造的“媒体大脑”是媒体与人工智能结合的产物。“媒体大脑”将人工智能、大数据、云计算、物联网等时下新兴技术相融合,其所具备的多项功能助力新闻场景下的应用和服务更加智能化。[3]
根据不同主题、场景、语境等,自动选取信息高效生产新闻是新闻工作者的美好希冀。如今,“媒体大脑” 将愿景变为现实。因为“媒体大脑”能够将新闻业务全流程拆解为类似工业生产的流水线,通过智能算法进行调配组装,在一定程度上可以实现对海量信息的处理和应用。[4]
新华社智能化编辑部集成应用“媒体大脑 3.0 融媒中心智能化解决方案”,打造央媒直通省、市、县的三级融媒体供稿专线。  
                  
“媒体大脑”在一定程度上改变了传统信息传播的机制、路径和形态。机器自动生成新闻成为传统媒体新闻业务的有效补充,可以预见人工智能将在未来的传媒业态中发挥更重大的作用、承担更重要的职能。
2. 人工智能迭代不断升级,应用场景拓宽亮点频现
媒体融合发展与技术迭代更新息息相关。从纸媒、电视媒体,到移动互联网,信息传播方式发生转变。紧追技术发展趋势,主动积极融合,媒体才能焕发新生, 抢占舆论制高点;媒体从业者的观念思维跟上科技发展的节奏,才能挖掘新潜能,创造新优势。
许多传统媒体的新闻从业者习惯人工找素材、编辑、手动发布,整个流程在客观上存在采集源少、采集量小、发布耗时长等弊端。
面对各类媒体对新冠肺炎疫情的报道需求,新华社智能化编辑部“媒体大脑”提供在线化短视频生产平台, 并紧急研发上线疫情报道机器人,帮助编辑记者提速疫情报道,深挖数据背后的故事,快速传播有效信息。
该款疫情报道机器人能为编辑记者做些什么?它能通过人工智能技术以细颗粒度快速识别、分析和拆条, 力求满足大量用户对疫情的报道需求。编辑记者利用疫情报道机器人可以梳理疫情实时数据,进而生成可视化数据视频。此外,疫情报道机器人能够提供各地新冠肺炎疫情防控发布会的直播流、智能拆条工具等,并且快速处理直播,生成海报视频。
面对突如其来的新冠肺炎疫情,公开的信息传播和优质的媒体报道能够帮助公众增强防控意识。在报道全球疫情的过程中,新闻工作者利用“媒体大脑”能够事半功倍,将更多精力投入议题设置和创意策划中。
当前媒体融合正向纵深推进,传统媒体和新兴媒体都很重视向智能化的转型。伴随着转型过程中的一次次实践,一些疑问随之而来。人工智能技术在新闻内容生产上占多大比重合适?新闻从业者是否有必要成为人工智能技术专家?人工智能技术还将如何赋能新闻行业?很多媒体都在积极探索,但是无论从技术层面还是实践案例解析,业内都还没有出现针对疑问的标准答案。
3. 人工智能赋能无限可能,智能媒体发展方兴未艾
高科技与传媒业碰撞出火花,未来可期。除了 AI 合成主播生产平台和“媒体大脑”,新华社智能化编辑部正在不断拓展人工智能应用场景。
制作播发物联网新闻。新华社智能化编辑部进行尝试,创新制作物联网新闻。今年 4 月 10 日,新华社微信公众号播发《这是一条物联网新闻!“穿透式”辟谣中国粮食危机》。为制作该条物联网新闻,编辑记者调用数千个传感器和监控探头的大数据,运用“媒体大脑” 深度分析,辟谣中国粮食危机。在“万物互联”的当下, 人工智能技术解读分析大数据的能力,无疑将为新闻产品推陈出新带来更多可能性。
增强沉浸式新闻体验。将人工智能与 VR、AR 技术结合,为沉浸式新闻带来更具身临其境的沉浸式感受和交互式体验。同时,通过虚拟技术模拟各类新闻现场,可以开发和培养新闻机器人应对突发事件报道的应变能力。
在人工智能技术的助攻下,媒体机构所拥有的文字、图片、视频、音频、数据等资源将被盘活。人工智能将丰富新闻从业者的认知“视界”。
结语
当今,国内国际舆论场、传媒业态都正在经历变化, 媒体融合向纵深推进,人工智能已经渗透到新闻行业的各个领域,智能媒体发展方兴未艾。智能化内容生产为媒体融合量产优质内容、留存用户受众,进一步做大做强影响力提供有效途径。
在通向未来的道路上,传媒业从未停下前行脚步, 时刻以开放姿态拥抱未来。在高效处理日常工作之外, 新闻工作者将更多的时间和空间用于拓宽认知边界,努力探索传媒业与人工智能结合的无限可能。
参考文献:
[1] 陈凯星 . 新华社打造智能化编辑部的初步探索与实践 [J]. 中国记者,2020(3):65-68.
[2] 齐慧杰,何强,文晶 .“基模”视角下主流媒介智能化发展逻辑——以新华社智能化编辑部建设为例 [J]. 新闻战线,2020(4):11-12.
[3] 葛素表 . 运用新理念新技术打造媒体新生态——新华社新媒体中心融合发展的新探索 [J]. 传媒,2019(8):14- 16.
[4] 李仁虎,毛伟 . 从“AI 合成主播”和“媒体大脑”看新华社融合创新发展 [J]. 中国记者,2019(8):38-41.
作者:陶一萍
来源:中国传媒科技
编辑:宋婷

467#
 楼主| 发表于 2021-1-3 11:28:00 | 只看该作者
【案例】
大脑研究表明,我们可能无法用理性战胜标题党
https://www.hu-berlin.de/en/press-portal/nachrichten-en/december-2020/nr-201221编译:文龙柏林洪堡大学(HU)的研究人员进行的神经认知研究表明,即使我们认为某个新闻来源是不可靠的,也会受到其带有情感倾向的标题的影响而对他人的评判产生偏差。在互联网发达的今天,谣言、片面事实和错误的资讯触手可及,并在不断地被人们分享和消费。尽管其真实性值得怀疑,但它们对个人意见和公众话语都会产生重大影响。然而,直到现在,人们对这种信息在大脑中的处理方式以及神经的处理过程在多大程度上影响我们的判断知之甚少。神经认知心理学的新发现表明,即使我们认为新闻来源不可信,带有情感倾向的新闻标题也会对我们处理信息以及对他人判断的形成产生重大影响。
来自可靠来源和非可靠来源的新闻标题根据新闻来源的可靠性来判断或分类信息的真实性似乎是一种简单而有效的做法。但是,这样的分类是否能使我们免受带有情感倾向的新闻标题的影响呢?为了对此进行调查,柏林洪堡大学心理学系的研究人员让被试者们阅读刊登在德国知名媒体的特定在线版中有关虚构人物的新闻标题,这些标题或带有社会情感倾向或含相对中立的信息。例如,一个人被报道贪污了税收,另一个人被报道表现出了杰出的公民勇气。短暂休息过后,研究人员根据他们的脸部表情去观测他们在评判这些虚构人物时的大脑活动。
情绪会影响我们的判断,而媒体来源的可信度不会尽管受试者认为媒体来源具有不同的可信度,但这些评分在他们的意见形成过程中并未发挥作用。相反,新闻标题的情感倾向对他们的判断有很大的影响:即使受试者不信任该新闻来源,他们也会对头条报道的负面或正面行为的人做出极端的判断。受试者对被描述为负面的人的评价为不喜欢和负向的,而对因好行为而成为头条新闻的人的评价为非常喜欢和正向的。
大脑活动展示了情绪化标题带来的影响在对个体进行评判时,研究人员使用脑电波图(EEG)来记录受试者的大脑活动。通过这种方式,快速、无意识的脑反应可以与较慢、更受控的脑反应区分开来。研究人员之前假设情感只在早期和非自愿的反应中占主导地位,而后期除了情感之外还应考虑来源的可靠度,因此可以得出可靠度会影响人们的判断力的结论。然而,后期和早期大脑反应均表明了人们会受到标题情绪的主导而非可信度。这些新的研究发现表明,即使来源的可信度被认为是低的,引发兴奋或愤怒之类的情绪的新闻内容也不会轻易地改变我们的态度。相反,当情感内容支配我们的判断时,对来源可靠性的原有态度就没有了影响。了解并进一步探索带有感情色彩的新闻标题所带来的影响,是防止谣言,片面事实和错误讯息可能造成破坏性后果的重要第一步。
来源:微信公众号-别闹了机器
编辑:宋婷

468#
 楼主| 发表于 2021-1-4 17:18:57 | 只看该作者
【案例】
机器意识:人工智能的终极挑战——前言
20世纪90年代以来,人们再次高度关注意识问题并有众多的哲学家、心理学家与神经科学家在此领域开展深入的研究工作(Zelazo2007)。与此同时,人们也开始使用计算方法试图让机器装置拥有意识能力。这类研究逐渐被称为机器意识Machine Consciousness)研究,有时也常用人工意识Artificial Consciousness)或偶然地用数字觉知Digital Awareness)来称名这一领域。
早期有关机器意识的研究比较初浅,研究工作较少得到学术界的认同,甚至早些年提到机器意识还有不合时宜的顾虑。比如,2003Drew McDermott采用电子邮件方式对AAAI在世的207位会士(Fellow)非正式调查发现,对于机器意识解决的可能性有不同的观点,分布如下:不感兴趣3%认为是病态问题11%浅薄问题8%(合计19%),不是解决的时候7%认为需要超越目前所有的全新观念才能解决的占32%认为目前的方法就可以解决的占3%认为基本上可以大致解决的占11%,其他无关观点占25%Zelazo2007120)。
但是随着研究工作的不断深入,尽管哲学上有着不同观点的争论,一些有远见的专家学者开始充分认识到开展机器意识研究的重要意义,并专门撰文进行了系统论述。比如英国伦敦帝国学院电子工程系的亚历山大教授通过追踪从20世纪90年代的怀疑到21世纪的态度转变,以及目前不断得到的阵地巩固,指出机器意识的影响与日俱增;并预计了机器意识对科学与技术发展的潜在影响,特别是改变人们对意识的理解、对改进计算装置与机器人方面的概念贡献,以及机器作为人类伴侣等,意义更为重大(Aleksander2009a2017)。
无独有偶,美国伊利诺伊大学哲学系海柯南教授则专门撰文强调机器意识是新一代信息技术产业发展的一个新机遇,认为新产品与系统的发展机会起因于信息技术发展的下一步;而现有的人工智能基于预先编程算法,机器与程序并不能理解其所执行的内容。显而易见,不考虑意识就没有对自身行为的理解,而机器意识技术的涌现可以弥补这一短处,因此机器意识技术可以为信息技术产业的发展提供新的契机(Haikonen2009a)。意大利巴勒莫大学机器人实验室的车勒教授则指出,开展机器意识不仅是一种技术挑战,也是科学和理论上开展那些人工智能和机器人尚未得到满意解答主题的新途径(Chella2009)。
还有,斯图尔特认为机器意识是对人类的一种基础挑战(Stuart2011)。土耳其中东技术大学的宫科和沙颜两位学者进一步认为,开展机器意识的计算建模研究还有助于推进对人类意识现象的理解,推动构建更加合理的意识理论(Gök2012)。这无疑说明,机器意识研究不但对于深化人工智能的研究有着重要的推动作用,即使对于科学解释神秘的意识现象也同样具有重要的推动作用。
正因为有着如此重要的科学意义和推动未来信息技术革新的潜在价值,随着最近十年的研究发展,机器意识现在已经成为广泛关注的热点研究领域,并形成了数量相当可观的研究成果和实验系统,有些成果已经被运用到实际的认知系统的开发之中。
遗憾的是,机器意识在我国却少人问津,从事机器意识研究工作的国内学者寥寥无几,几乎处于空白状态,也没有引起有关研究机构、高等学校和科技管理部门应有的重视。希望国家能够出台扶植政策,鼓励支持此类对未来信息技术会产生根本性影响的基础性研究工作,未雨绸缪,占领高端信息技术发展先机。
笔者之所以孤独地开展机器意识的研究工作与两位学术前辈的引导是分不开的。一位是中国科学院生物物理研究所研究员汪云九先生,另一位是中国科学院高能物理研究所院士唐孝威先生。汪先生是笔者博士论文的答辩委员会主席,早在笔者读博士期间就与之相识了的,后来我们成为了忘年之交。唐先生是在20世纪90年代多次参加香山科学会议期间经汪先生引见而相识。
两位老先生在国内20世纪90年代率先积极倡导意识科学研究,在他们的带领下,笔者自然也就义无反顾地参与了他们的研究工作,后来还形成了一些合作成果(周昌乐,19992001b2003cZhou2003;汪云九,20012007)。在这样的学术背景下,笔者也第一次开始思考机器意识问题(周昌乐,1999),迄今刚好有20个年头了。纵观笔者这20年的机器意识研究,以项目为驱动大致可以分为三个阶段。
第一个阶段,笔者于2002年申请到了国内第一个机器意识研究的国家自然科学基金项目意识的理论模型及其机器再现(项目批准号:60275023)。这个项目能够获得批准立项,应该说完全是汪云九先生作为项目组成员参与的结果,如果没有他的大力支持,这个项目是不可能获批的。
在历时三年的研究过程中,随着研究文献梳理工作的不断深入,发现意识问题并非笔者一开始想象的那么简单,其中涉及众多哲学问题。为此,笔者还专门与哲学界的学者们,特别是北京师范大学哲学系刘晓力教授、北京大学哲学系周北海教授与刘壮虎教授、汕头大学刘西瑞教授等一起,组织哲学界、脑科学界、心理学界、语言学界及人工智能学界等一批学者,于200410月在厦门大学举办了第一届人工智能与哲学研讨会,希望通过学科交叉研究来推进对于意识问题的深入了解,为我们机器意识研究奠定理论指导。另外,研讨会与会代表商定,更名为心灵与机器研讨会,每年均举办一届,迄今已经举办了十六届,后来成为国内为数不多的交叉学科纯学术研讨会典范(刘晓力,2014)。
遗憾的是,由于对机器意识研究的难度估计严重不足,加上项目研究时间紧迫,尽管我们努力试图能够建立起一种机器意识的量子计算模型(周昌乐,2003eZhou2003),但终因时机还不成熟,结果并不尽如意。其中主要原因是,当时量子计算还处于理论研究阶段,没有实体量子计算装置可以使用,也没有量子计算仿真实验平台可以验证我们的模型。因此可以说,到项目结束的200512月底,第一阶段的研究工作并未达到预期目标。
第二个阶段,吸取了第一个阶段的教训,笔者开始着想从具体的意识问题入手,结合视觉动态计算模型的构建,来开展视觉选择性注意机制的计算建模研究。所申报的国家高技术研究发展计划(863计划)项目引入觉知机制的视觉动态计算模型及其应用实现(项目编号:2006AA01Z129)也获得批准并正式立项。该项研究工作尽管推迟了一年时间才正式结题,但研究工作比较顺利,完成了我们预期的目标。研究成果构成了我们这部书的第2章内容,可以说为学术界做出了有意义的贡献,特别是为视觉动态计算模型的发展,起到了重要的促进推动作用。
第三个阶段,在第二阶段结束后,由于有其他科研任务急待完成,有关机器意识的研究工作便中断了三年之久。到了2012年,笔者的科研重心又回到了机器意识的核心问题之上,开始自我意识的计算建模研究。申报的国家自然科学基金项目针对涉身行为的自我意识机器人构建方法及其实现获得批准立项(项目批准号:61273338),开启了为期四年的、又一次艰辛的探索历程。
2012年北京"心灵与机器"会议上, 周昌乐教授作"机器能够拥有意识能力吗?"的报告
在项目研究期间,适逢心灵与机器研讨会走过了十年历程,因此在笔者的建议下,第十一届心灵与机器研讨会安排在厦门召开,主题之一就是机器意识。会上我们充分讲述和报告了研究设想与成果,听取与会专家学者的不同意见。然后进一步反思我们的研究方案,不断调整我们的研究思路,使得后来课题进展得以顺利展开。
于是,经过四年及其结题后的继续研究,在项目研究经费的大力支持下,我们不但探索了自我意识的心脑机制、自我意识的计算建模,而且还探讨建立了自我意识的异步自省理论,以及通过量子计算如何使得机器也能够拥有体验意识的尝试性研究。研究成果构成了我们这部学术著作的第3章和第4章的主要内容。
图片
机器意识是一个任重道远的研究领域,也是容易招来非议的研究课题,这在国际学术界也同样如此。这就是为什么开展机器意识研究的专家学者常常是凤毛麟角的根本原因。但笔者在此还是要呼吁,希望有更多的国内同行,能够加入到机器意识研究的队伍里来,为加快人工智能前沿性基础研究的步伐,做出原创性的学术贡献。
这部学术著作的内容关联结构如图A所示。虚线的上部分属于开展机器意识研究时必要的前导性知识,其中1.1节属于意识哲学的概要分析,包括意识哲学观点(1.1.1)、功能意识分析(1.1.2)和现象意识分析(1.1.3);1.2节属于意识科学的成果介绍,对开展机器意识研究有直接的参考作用。
图片
虚线的下部分则是我们开展机器意识研究的主要内容总结,其中1.3节分别给出了机器意识研究的三种方法途径,分别为第2章、第3章和第4章提供研究方法依据。其中,第2章给出我们在视觉注意计算方面的研究工作介绍,第3章给出我们在自我认知计算方面的研究工作介绍,第4章给出我们在情感体验计算方面的研究工作介绍。另外,第5章给出了我们对机器意识的分类评估、哲学反思和未来展望三个方面思想观点的总结。
最后,对我们在机器意识研究中取得的这些初步成就,首先要感谢曾经共事的福建省仿脑智能系统重点实验室的全体同仁,感谢当时担任厦门大学校长朱崇实先生对实验室建设和发展的支持。该实验室2009年正式成立,是我国最早开展仿脑(类脑)智能研究的研究基地,后来却因未能为地方经济建设做出贡献,于2017年被福建省科技厅撤销了。尽管如此,实验室的研究条件与经费还是为我们机器意识的研究提供了极大的帮助,在此要对福建省科技厅表示衷心感谢。
还要感谢国家自然科学基金委、国家科技部的项目经费资助。尽管像我们这样的自由探索课题研究,更需要的是超越名利的科学探索精神,但是前沿科技的研究探索,也离不开科研经费支撑。因此,希望国家层面的科学基金,以后可以多多支持此类前沿性、貌似没有实用价值的、自由探索性的基础研究工作。
当然,我更要感谢直接参与机器意识研究的,笔者在计算机科学系、智能科学与技术系和哲学系招收的历届研究生们,其中博士生有刘江伟、何孟杰、游均(以上哲学专业)、郑灵翔、陈嘉威、唐超、张学彦、陈硕、秦瑞琳、孙晓明和薛蔚(以上人工智能基础专业);硕士生有刘晓东、金剑秋(浙江大学)、张克志、尤志宁、张俊俊、曾志宏、肖庆云和李华珍(厦门大学)。特别是其中的陈嘉威、郑灵翔、张学彦、陈硕、秦瑞琳、游均和薛蔚七位博士生,都有实质性的研究贡献。应该说,没有他们的辛勤努力,也就不可能有这部专著的出版,感谢他们任劳任怨跟随我开展这类吃力不讨好的科学研究工作。
目前这项持续了二十年的研究工作终于告一段落了。我们的研究结晶——这部《机器意识》也终于要出版了。应该说,这部学术专著的出版对于跟随开展这项研究工作的学生们也是一份交代。另外,感到非常欣慰的是,本书出版适逢其会,正好可以作为202146日厦门大学成立100周年校庆的献礼!
周昌乐,202046
作者:周昌乐  
来源:微信公众号丰乐亭
链接:https://mp.weixin.qq.com/s/SlaOBR6PUwZng7Vvd0sMHw
编辑:宋婷

469#
 楼主| 发表于 2021-1-29 20:54:50 | 只看该作者

【案例】



人工智能伦理与治理:我们尚未取得的进展



作者:曾毅 中国科学院自动化研究所研究员、中英人工智能伦理与治理中心主任;北京智源人工智能研究院人工智能伦理与可持续发展中心主任;清华大学人工智能国际治理研究院首席专家。国家新一代人工智能治理专委会委员;联合国教科文组织人工智能伦理特别专家组专家


从艾萨克·阿西莫夫的机器人三定律、斯蒂芬·霍金对人工智能与人类生存风险的预见,到诺伯特·维纳对自动控制系统安全的担忧,近五年来各个国家、科研机构和企业相继提出的人工智能发展、伦理与治理原则,相关的思考与行动见证着人类为推进人工智能向对人类有益的方向发展所做出的努力。当人工智能的进展如此深入地与人类社会深度融合时,一方面,我们看到的是人工智能作为赋能技术推进社会的进步;另一方面,人工智能发展中的隐患与不确定性使得我们无法完全脱离彷徨与担忧。也正是因为这种不确定性与风险、挑战的存在,才凸显出人工智能伦理与治理研究、实践的现实和长远意义,更需在人类负责任的创新与呵护下推进人工智能以更稳健的方式向未来探索前行。


我在此借旷视AI治理研究院与人民智库组织的“2020全球十大AI治理事件”评选中的部分案例进行回顾与讨论,并再补充年底发生的一例事件。回望过去,并非仅仅去看走过的路,更是为了反思我们尚未取得的进展。


隐私保护:从意识到行动


针对“欧美、韩国相继出台AI 治理新规,严格限制、甚至禁用相关人工智能技术在某些场景的发展和应用”事件。我仍然认为在国家与社会安全等特殊的需求下应用人脸识别等技术有其意义,仍然应当鼓励人脸识别等技术在十分必要的场景进行合理使用,例如应用于追踪嫌疑人和打拐寻亲。但同时应当指出,人脸识别的潜在风险确实存在,不可忽视,甚至解决其风险仍迫在眉睫。首先,从技术的角度讲,生成对抗网络的进展使得人脸作为加密技术不再绝对安全。其次,从隐私的角度讲,由于人脸等生物特征的相对稳定性,一但泄露即面临终身风险。不仅如此,从人脸图像和视频中甚至有研究尝试可以部分提取出心跳、健康状况、基因缺陷、性取向等隐私信息。此外还应当指出:人脸识别潜在的性别偏见、种族偏见等广泛存在于其他类型的生物特征识别技术中,例如指纹识别、步态识别、虹膜识别、声纹识别。由于人脸识别应用部署最广泛,得到公众普遍关注引发的担忧相对更多,为此,现在部分国家和相关企业出台了暂时性的禁令。然而如果对其他类似技术中的风险与隐患不采取行动尽可能避免潜在问题,将与人脸识别技术一样遭受到同样的挑战。禁用不能完全解决问题,积极采用技术和非技术手段解决隐患才是真正负责任的创新。


针对“技术预警独居老人水表及校园暴力行为”事件。虽然通过水表监测实现对独居老人健康状况的关注是一个另辟蹊径的设计。然而在其实现设计初衷的探索中,我们仍然要进行谨慎地讨论。在这个应用中除了实现对老人身体状况的关注,是否仍然泄露了老人的部分隐私?例如除了呵护健康,似乎也可以基于相关数据推理出老人何时在家,是否外出旅行、探亲,何时回来等信息,这些信息应该被谁掌握?可否确保这些信息不被泄露?倘若是为了防止校园暴力,无论是视觉识别还是语音侦测设备,都有其不同场景的意义。然而这样看似“善用”背后的细节仍然是值得关注的。没有采集人脸和动作等视觉信息就保护了隐私是一种误区,视频和声音信号都可能包含隐私信息。只要是监测设备,可否在没有暴力事件的情况下尽可能地保护隐私?这是人工智能服务的技术创新者应当探索的疆域。


年终:大量明星核酸检测照片在网络传播这一事件引发广泛关注。“只要知道姓名和身份证号,就可以查看他人核酸检测素颜照”引发公众对健康宝系统安全性的担忧。通过这一事件可以看到:一方面,某些承接政府机构信息系统建设的企业并没能很好地实现对公民关键隐私数据的有效保护。另一方面,相关政府机构和企业对包含公民隐私数据的应用,特别是政府委托的相关应用服务,在数据保护方面应需加强管理和监督。之所以通过输入部分信息就可以获取他人核酸检测相关细节信息,从系统设计角度而言存在不严格的伦理设计。虽然他人代查这项功能仍具有现实意义,例如子女和朋友帮助老年人等非手机用户代查这样的需求仍然存在,但是如何确认代查结果经过当事人授权,确保其知情同意,是在系统设计与实现过程中必须思考清楚并通过技术实现的。


从隐私风险到身份认同的挑战:脑机接口伦理研究需跟上步伐


针对“⼈⼯智能可以翻译⼤脑想法将⼤脑信号转化为⽂本数据,让隐私⽆处遁藏”案例。现代脑机接口相关技术的发展使得有可能采用一些映射模型解码部分人类思维的模式,借助脑机接口设备实现打字、遥控玩具与机械臂等“读脑术”的应用已日趋商用。虽然从20年前借助核磁数据解读人脑思考的语义概念到这次基于脑电模式进行文本解码的工作都还是一种端到端的模式分类。但是我们必须未雨绸缪,为其中潜在的伦理问题做好准备。人类的记忆及其激活过程从抽象的层次讲可以认为是特定模式的存储、关联和提取。如果训练的数据以及做的任务类型足够丰富,加以脑机接口算法的改进,我们无法确保人脑中的隐私不会被解读出来。当我们看到“读脑术”有进展时,更希望学术界能够同步产生负责任的创新,研究在算法、实验步骤、应用约束等各方面如何尽可能地保证被试者的隐私得到保障。但仅此而已吗?在“读脑”的过程中是否会产生“误读”?如果是实验性的文本解码甚至是做遥控玩具游戏,似乎风险是有限的。然而如果是用脑机接口操作机械臂,“误读”将有极大风险会引起后果严重的“误操作”。由脑机接口引起误操作伤及受试者、用户本人或者周围的人和环境都是极有可能发生的事情。此外脑机接口技术可能会对人类的能动性产生负面影响,这甚至是会影响到用户对自身的身份认同乃至责任的划分。然而其在医疗、民用领域的意义仍然是积极和广泛的。我们是否能够做到一方面受益于以脑机接口为代表的智能增强技术,另一方面需要让技术发展与应用同步甚至是先一步,采取行动尽可能避免其“侵犯隐私”,消除“误读”导致后果严重的“误操作”等隐患。


来自人工智能的利益:权力与责任并存


针对“全国首例:法院认定人工智能生成文章构成作品,拥有著作权”案例。这让我回想起2019年“欧盟专利局拒绝AI发明专利申请”的案例。正如我对“发明专利”案例的评价:“人工智能在某种受限的领域和场景下确实有可能进行一定程度的发明创造,未来人工智能最重要的探索方向之一就应当是使人工智能真正具备发明和创造的能力”。在“专利”案例中,我不支持人工智能作为专利申请者。原因是权力与义务共存。如果参照人工智能设计的专利研发的产品存在缺陷、风险和安全隐患(如人工智能用于制药),若发生事故,由于人工智能尚不是责任主体,并不能实质性承担责任。与此类似,如果人工智能生成的文章构成著作权,并由作品自动生成系统的使用人员享有这个著作权,那么文章可能对社会产生的负面影响及相关连带责任也应当由著作权享有者承担。在赋予“著作权”的同时,我们是否合理强调了责任和义务?在人工智能还不能成为责任主体的情况下,倘若我们要享有使用人工智能带来的利益,就必然同时要做好为此承担责任的准备。


从企业诚心自律到政府与社会多方治理


针对“AI 成监工:算法下外卖骑手挑战交通规则,助手可能变杀手”案例。有两件事情可以确定:一是目前的人工智能只有处理数据的能力,没有真正理解的能力。在这个案例中,配送规划算法做的只是基于统计的优化,而对于这种所谓的“优化”过程骑手将如何去执行以及可能导致的后果没有任何理解能力。1950年的“图灵之问”围绕“机器是否能思考”,我认为没有真正的理解何谈思考。在对“交通违规”“生命危险”直至“生”“死”这些对于个人存在具有深刻意义的概念没有真正理解的情况下,骑手却被算法“操控”。算法的设计者和服务提供者可曾认真想过算法“操控”的是人?二是我很难相信相关的算法设计者和服务提供商从未想过“助手”可能变“杀手”。然而什么使得他们做出选择仍然这样做,直至得到社会强烈的反弹?同行之间的恶性竞争使得企业在道德选择上彷徨,直接将风险从服务提供商转到了骑手身上,牺牲掉的是那些将风险与几元配送费反复较量的生命。通过这个案例,我们当然能够得到企业需要反思以及做出改变的结论,但我们能寄希望于所有的人工智能研发、应用、服务企业完全做到自律自治吗?社会舆论的关注、监督与政府的顶层监管必不可少。


军用人工智能:即使无可避免,也要正视风险


针对“人工智能首次控制美国军用系统,或将开启算法战新时代”案例。世界上很多国家都致力于发展军事人工智能,然而人工智能给军用设备与武器带来能力提升的同时,更带来了诸多隐患。如果这已经是不可避免的发展趋势,各国政府、学者及相关机构务必携手应对,尽可能避免由于人工智能的现存风险引发的灾难。人工智能模型存在设计缺陷、难于抵御不可预期类型的外部攻击,这只是人工智能内部、外部安全的冰山一角。现代人工智能技术的进展几乎难以确保系统实现的目标与人类真正的意图完全一致。加之人工智能模型目前普遍缺乏可理解性,并对真实世界不具备理解能力,如果我们不能确保实质性有意义的人类控制,加之复杂多变的战场环境,使用军事人工智能将不可避免的增加不必要的风险。此外,已有研究指出军事人工智能可能的衍生品有可能发展为攻击社会的工具的可能性,我们如何确保这样的事情不会发生?至于致命性自主武器,更应该是全人类联合禁止使用的。


长远人工智能的伦理风险:未雨绸缪,防患于未然


针对“人工智能技术突破现有边界,具备‘自主意识’,可实现独立研发、自我修复等功能”案例。生物机器Xenobot的进展是通过算法重塑干细胞的组织方式,使其能够按照程序设定的方式生成身体形态,能够实现一定的功能并且具有可修复能力。它将在医疗与环境保护领域具有广泛应用潜力,但却远远不能说明Xenobot是一种新的生命,更不能说明其具有“自主意识”。没有繁衍和演化能力的Xenobot实际上仍然是一台信息处理机器。Xenobot的自我修复能力来自于原始的干细胞的分化再生能力。而细胞间的自组织使得Xenobot获得一定移动能力,却不具备从自我视角整合身体自身及环境信息的能力。倘若未来人工智能模型能够实现真正意义的“自主意识”,并具有理解能力,那么首先需要做的事情就是发展其认知共情能力,让其在理解和共情的基础上遵循(演化中的)人类伦理道德。这几乎是人类与通用人工智能和谐共生的唯一方式。有人指出通用智能和超级智能可能几十年甚至更长时间之后才能实现,然而我却认为为保证通用智能与超级智能不给人类带来生存风险,我们从现在开始准备也未见得来得及。对于长远人工智能可能带来的伦理风险及可能的解决道路,我们必须未雨绸缪,防患于未然。


人工智能技术与应用日新月异,发展中的不确定性也日益凸显。人类在各种可能性和新奇发展中不免彷徨。聚焦近年来全球相关典型事件,科技界、公众与政府已然意识到人工智能风险、伦理与治理的重要性。未来,如何将对风险、安全、伦理的思考转化为通过技术与社会手段的务实治理,不仅需要全社会的关注和实践,更需要在全球视野下深度协作、长远布局,确保人工智能负责任地前行,为人类的未来保驾护航。



来源:人民论坛网        

作者:曾毅

链接:http://www.rmlt.com.cn/2021/0129/606792.shtml



编辑:王雅欣

470#
 楼主| 发表于 2021-2-7 18:47:50 | 只看该作者
【案例】
报告:人工智能 美国遥遥领先 中国正在追赶
一份研究报告显示,美国在人工智能的研发与使用上仍遥遥领先,中国正在迅速发展,欧盟则有所滞后。
(德国之声中文网)由信息技术与创新基金会(Information Technology and Innovation Foundation)发布的这份研究报告是用了30个衡量指数,其中包括人才、科研活动、商务发展、软硬件投资等。
报告显示,美国以44.6分(满分100分)居首,中国得分32位居第二,欧盟得分23.3。
报告作者发现,美国在初创企业投资以及研发的资金支持这样的关键领域领先。
不过,中国也在数个领域向前追赶,比如在超级计算机方面,去年中国所拥有的数量为214台,超过其它国家,比如美国(113台)和欧盟(91台)。
报告的首席作者、该智库的数据创新中心负责人卡斯特罗(Daniel Castro)向法新社表示:“中国政府将人工智能作为头号优先事务,结果正在显示出来。”
卡斯特罗说:“美国和欧盟应关注中国在这方面的动作并作出回应,因为在人工智能研发使用方面领先的国家将塑造未来,并显著提高其经济竞争力,落后者则将在关键工业领域有失去竞争力的风险。”
欧盟主要在风险资本和私募投资方面有所落后,不过,在科研报告的发表方面则表现更佳。
此份报告显示,中国2018年发表24929份人工智能科研报告,这是可得的最新数据。欧盟则为20418份,美国16233份。
不过,报告称, 美国的科研平均质量仍高于中国和欧盟。
报告还得出结论,在人工智能系统的芯片设计上,美国仍领先全球。
报告称,为保持竞争力,欧盟需要加强对科研的税务优惠,并扩大公共研究机构对人工智能的科研。
而对美国而言,为了保持领先地位,须加强对人工智能研发使用的支持,在利用本国人工智能人才的同时,吸引世界各地的顶尖学者。

原文来源:法新社
原文链接:https://amp.dw.com/zh/%E6%8A%A5%E5%91%8A%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%BE%8E%E5%9B%BD%E9%81%A5%E9%81%A5%E9%A2%86%E5%85%88-%E4%B8%AD%E5%9B%BD%E6%AD%A3%E5%9C%A8%E8%BF%BD%E8%B5%B6/a-56345206?maca=zh-Twitter-sharing&__twitter_impression=true


编辑:刘佳莹

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表