传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
221#
 楼主| 发表于 2019-9-27 20:15:33 | 只看该作者
【案例】
刘永谋:技术治理不等于“机器乌托邦”
中国人民大学教授博导刘永谋首发于微信公众号,保留一切知识产权,侵犯必究。本文节选自刘永谋:试析西方民众对技术治理的成见,中国人民大学学报,2019(5):143-153,并删除了注释。
技治主义(technocratism)主张将现代科学技术运用到公共治理和政治事务当中,以提高社会运行的科学程度。在当代西方社会,对技治主义的负面看法在普通民众中非常流行,人们普遍把技术治理(technocracy)等同于所谓“机器乌托邦”(machine utopia)。为什么会如此呢?应该说,原因错综复杂,至少包括:第一,“科学敌托邦”(scientific dystopia)式的科幻文艺作品在当代西方的流行;第二,激进技治主义者给西方民众留下了极其深刻的坏印象;第三,反科学思潮在西方的兴起,最终引发科学大战(Science Wars)。实际上,某种程度的技术治理自20世纪7080年代以来就日趋成为当代政治中最显著的全球性现象,在西方发达国家更是如此,西方民众把技术治理简单等同于“机器乌托邦”是错误的,妨碍了对技治主义的深入研究,使技治主义和技术治理问题在英语世界成为重大但缺乏足够建设性研究的“客厅中的大象”(elephant in the room)。
机器乌托邦
技治主义的想法一经提出,在西方学界就受到了各种各样的批评,包括西方马克思主义者、自由主义者、人文主义者、后现代主义者、历史主义者、相对主义者和卢德主义者等的批评。大致来说,对技术治理的批评在第二次世界大战之后愈演愈烈,尤其是在20世纪90年代和21世纪初达到了顶峰。倒是最近十年来,渐渐有了一些重新思考技术治理的呼声。但长期以来,西方主流舆论对技治主义和技术治理已经形成了某种负面成见——最著名、最流行的具体意象是电影《摩登时代》中流水线和小说《1984》中的电幕。当然,笼统地说“西方成见”是不严谨的,一是不同国家地区、不同时期的社会观念状况不一样,比如在法国,圣西门是技治主义的鼻祖,在19世纪乃至20世纪上半叶支持技术治理的理论家很多,如孔多塞、傅里叶、孔德等,围绕巴黎综合理工学院一直有一批活跃的技治主义者(technocrat),在20世纪曾形成了计划主义(planism)思潮,尽管20世纪70年以来,法国后现代主义者福柯、利奥塔和德里达等人猛烈批判了科学技术在法国的强势地位,直至今天工程师和专业人员在法国仍占有政治地位较为优越的精英位置;二是不同人群对技术治理的理解差异不小,比如在知识阶层中存在如斯诺所谓的“两种文化”对立,人文知识分子对技术治理持负面看法的占大多数,而可能对技治主义持好感的科学家、技术人员和工程师在公众舆论上往往属于“沉默的大多数”,又比如中国普通工人农民与大学文科教授相比可能更倾向于支持科学技术。无论如何,在北美和西欧,对技治主义反感、憎恶乃至极端敌视的人随处可见,尤其是当与西方之外的其他地方如中国、拉美、俄罗斯和非洲等相比较,西方对技术治理的成见就显得更加明显。
在西方成见之中,技术治理基本上等同于要走向某种“机器乌托邦”——整个技术治理社会目标就是成为一架完整、严密和强力的大机器,每个社会成员均沦为社会机器上的一个随时可以更换的小零件,和钢铁制造的零件没有实质的差别。概括起来说,“机器乌托邦”包括如下对技术治理的标志性理解:
第一,总体主义,即技治主义者坚信自己发现了类似自然规律的社会历史规律,进而按照规律设计某种总体化的终极理想社会的蓝图,并以此为根据彻底颠覆现实社会,运用科学技术对整个社会运行方式包括国家政党、社会制度、风俗习惯乃至个人生活等实施全面改造。在技治社会中,将无一人一物能逃脱总体化社会工程的控制,或者说,乌托邦忽略的地方在社会学意义上实际是不存在的。最近30年来,信息和通信技术(ICT)、物联网(IoT)和大数据技术急速推进,更是给社会公众无处藏身的感觉,《1984》的电幕在技术上完全成为可能。
第二,机械主义,即技治主义者不仅将自然界和动植物视为机器,也将社会和每个人视为机器,将人类自以为独特的情感、意志、心灵和信仰等还原为物理学、生物学和心理学等自然科学事实,而各个机器零件之间如钟表一般紧密啮合、精密运转,必须对整个社会进行事无巨细的精确物理学测量,进而以数据为基础、按照科学原理和技术方法进行机器操控式的社会运转,才能保证社会机器稳定运行而不步入歧途。卓别林主演的电影《摩登时代》中对人成为机器零件的影像呈现广为传播,机器在现实中异化的现象很普遍,而第二次世界大战之后,系统论、信息论、控制论和协同论等横断学科大规模的传播,越发加深了社会公众对社会控制的精密性和不可理解性的印象,社会理解中“专家阴谋论”越来越盛行。
第三,极权主义,即技治主义者反对民主和自由,主张国家至上,由专家掌握所有国家大权,实行公开的等级制,权力最终集中到少数寡头手中,掌权者以科学技术成果为工具、按照数字方式冷酷地统治整个社会,以知识和真理的名义剥夺普通民众的政治权利,对社会成员实施行为和思想两方面的监视和控制,以保证社会稳定运行。的确,当代科学技术的不断发展,在增加人类福祉的同时,也给专制者和独裁者提供了极权主义的利器。法国哲学家福柯对知识-权力改造个体行为的规训技术的抨击,极大地影响了当代通俗文化和艺术,比如获奥斯卡奖的电影《飞跃疯人院》就很好地诠释了福柯对精神病院和精神病学的批评。技术治理思想控制的恐怖,则在布莱伯利的“科学敌托邦”小说《华氏451》中得到具象呈现(“思想消防员”到处搜查并焚毁书籍),它被改编为电影、电视剧和舞台剧广泛传播。一些极端反对技术治理的普通公众甚至认为,先进的科学技术发明出来就是为国家和独裁者监控人们服务的。
第四,经济主义,即技治主义者均主张效率第一和唯一,科学技术是最为有效和有力的方法,专家们为了经济效率必须牺牲其他人类价值目标,否认文学、艺术、风俗和宗教等的价值,社会运行最高的目标应该是越来越发达的科学技术、越来越丰裕的物质财富和人类文明不断地扩展——越出地球,殖民月球、火星、太阳系……著名好莱坞科幻影视系列作品《星际迷航》就是这种不断星际殖民梦想的最著名的通俗表达之一。
敌托邦科幻文艺
当代西方通俗科幻文艺作品,流行对科学技术发展及其对自然界和社会的应用进行质疑和嘲讽,换言之,敌托邦态度在当代西方科幻文艺作品中占据了主流,这对西方民众技术治理的成见形成产生了最重要的影响。乌托邦写作在西方由来已久,可以追溯至柏拉图的《理想国》。在批判和否定社会现实的基础之上,乌托邦对完美社会进行理想规划和理性设计,属于一种社会思想实验。乌托邦可以粗略地分为人文乌托邦和科学乌托邦,前者比如莫尔的《乌托邦》,把通往完美社会的希望寄托于人性转变和道德提升;后者比如培根的《新大西岛》,主张以科学技术为基础建构理想社会。科学乌托邦作品大量出现和流行,成为现当代西方文学的特色之一。科学敌托邦是一种悲观主义的乌托邦写作,是科学乌托邦的对立面,构想的是科学技术发展导致未来社会落入全面异化、自由丧失、极权专制和冷酷无情的悲惨境遇。总的来说,科学乌托邦与敌托邦均相信科技决定论,即自主发展、人无法控制的科学技术决定人类社会的未来命运。
从历史维度上看,西方乌托邦写作在20世纪总体上经历了从乐观到悲观的转变。早期的科学乌托邦小说多数将科技进步等同于社会进步,将科技进步等同于乌托邦本身,将社会治理问题还原为科学技术问题,这种乐观精神在19世纪末20世纪初达到了顶峰。但是,两次世界大战爆发,极权主义国家的兴起,原子弹爆炸,之后环境、能源、人口和气候等全球性问题爆发,科学技术发展的负面效应日益彰显出来,西方公众对科学技术主导的未来之想象逐渐走向了悲观的另一极。可以说,“敌托邦叙事很大程度上是20世纪恐惧的产物”。
美国公众对技术治理的想象很明显就经历了如此转变。美国人一直相信人类社会进步依赖于民主与科学的组合,对将科学技术应用于社会治理和公共事务是持欢迎态度的,这正是技治主义在欧洲产生却大兴于美国、并在20世纪3040年代率先掀起实践技治主义的北美技术治理运动(American Technocracy Movement)的重要原因。彼时美国人民对技术治理的支持态度,在亨利·乔治的《进步与贫困》(1879)和爱德华·贝拉米的《回顾:公元2000—1887年》(1888)的畅销中得到佐证。亨利·乔治指出,科技和工业的飞速发展在现实中没有缓解而是加剧了贫困,说明问题不在于生产而在于分配,应该在对分配规律实证研究的基础上设计科学分配,就能消除贫困。虽然他给出的土地公有并征收全部地租的方案明显有问题,但以科学原理和技术方法解决贫困问题的进路却是应者云集。《回顾》是美国最著名的技术治理小说之一,影响了美国技治主义理论集大成者凡勃伦。它想象了波士顿未来一百多年的发展,凭着直觉指出以彼时美国的科技生产力,如果更科学地设计社会制度,所有的社会个体就可以过上舒适的物质生活,而在经济安全基础上,人类可以创造完美而辉煌的新生活——“从那时开始,人类进入了精神发展的新阶段,一种更高的智能的进化过程。”然而,第二次世界大战之后,美国民众开始怀疑科学与民主是自然同盟的假设,要求认真思考科学和科学家在民主政治和宪法体制中的地位问题。以艾森豪威尔的告别演讲为标志,他提出要警惕科学与军工的共谋,人们开始怀疑科学发展能否与美式代议制政府兼容。这与当时更大的文化背景有关,即美欧学界对包括理性与自由政府结盟等各种启蒙信念产生了怀疑,美国科学家则对技术治理的兴趣不大。
与此形成鲜明对比的是,第二次世界大战之后苏联主流思想对于将科学用于政治领域非常乐观,认为共产主义体制是唯一能让政治建基于科学方法的路径。关于这一点,作为当代科学乌托邦写作的最典型代表、美苏科幻小说基本旨趣的差异可以作为佐证:苏联科幻多为进步幸福的乌托邦式的,尤其是以别利亚耶夫的《跃入苍穹》为代表的太空探索小说,而美欧科幻多为专制暴政的敌托邦式的。并且,苏联官方哲学坚持马克思主义和辩证法是科学,认为不仅政治而且自然科学如物理学均必须接受辩证法的指导。在此背景下,苏联很多科学家对于技术治理是支持的。“更近的是,苏联征服太空变成了把马克思主义哲学传播至太空的方法。”在A.托尔斯泰的科幻小说中,苏联红军甚至借助火箭登上火星,通过革命推翻了火星人的统治。而在当代中国,马克思主义也被赋予科学的称号,坚持马克思主义的思想指导中国特色社会主义建设,实际兼容着某种用科学技术治理社会的意味。
当代西方好莱坞式科幻影视极尽渲染“机器乌托邦”之能事。正如美国科幻大家阿西莫夫(IssacAsimov)指出的,当代美国科幻小说不是乌托邦的,而是反乌托邦的。电影的主人翁要不出生复杂,比如是不知道自己真实身份的克隆人(《冲出克隆岛》)或者克隆人与人繁殖的第一个人(《银翼杀手2049》),要不遇到罗曼蒂克的挫折,比如爱上机器人(《机械姬》)或人工智能(《她》),要不就是为所居住的社会制度感到深深的不安(如《华氏451》《高堡奇人》),要不干脆就是在一个即将毁灭或已经毁灭的世界中挣扎(如《我是传奇》《机器人瓦力》《9》),所有的痛苦都指向科学技术的发展以及控制科学技术的科学家、政客和狂人。在西方科幻敌托邦文艺作品中,目前最流行的有三种:赛博朋克与机器朋克文艺(机器、怪物和幻境横行的未来世界)、极权乌托邦文艺(以科学技术为手段的残酷等级制社会)、AI恐怖文艺(机器人对人类的冷血统治)。
与技术治理形象塑造最为相关的文艺作品,当属流传极广的“反乌托邦三部曲”:扎米亚京的《我们》(1921)、赫胥黎的《美丽新世界》和奥威尔的《1984》(1950)。“建基于技术而非迷信之上的社会,变成了最貌似有理的暴政体制。”举《美丽新世界》为例:新科技与专制在未来的“世界国”中紧密结合为极权主义技术治理体制,成为自由最凶恶的敌人。在其中,科学技术的极权应用包括:(1)用生物科技造成社会个体的先天生物性状差别,以此为基础形成后天的社会等级制度;(2)用反射、催眠等心理学方法在婴幼儿时期对社会个体进行意识形态“洗脑”;(3)用传媒技术对每个人进行监控,将艺术异化为控制个体情绪的工具,用色情艺术消解爱欲的反抗力量;(4)用精神病学、化学和药物学对所有社会成员进行精神控制,用药物缓解和抹除潜在的威胁性个体精神状态;(5)全面异化科学技术,将全面控制作为科学研究的唯一目标。而最新的著名科学乌托邦作品是美国心理学家斯金纳的小说《瓦尔登湖第二》,这部行为工程幻想小说虽然创作于1948年,但开始流行却是在20世纪6070年代,在现实中甚至一度引发行为主义社区在美国各处的尝试性实验。《瓦尔登湖第二》初衷是描述以行为主义心理学为基础的理想社区运行蓝图,但它的核心主张即用行为工程对每个社员从一出生起就进行心理学改造、消除妒忌心、竞争心等斯金纳认为的非合作情绪、心理和个性,引起反对者对自由侵害和极权控制的极大忧虑,因而被很多人视为实质上的科学敌托邦作品。总之,科学敌托邦文艺作品盛行,对西方普通公众技术治理西方成见的形成影响最大。
激进技治主义者
  
“机器乌托邦”的形成与激进技治主义者的表现有直接的关系。技治主义者均主张两条基本原则即科学管理与专家政治,激进与否的关键在于是否彻底推翻既有社会制度、是否与既有政府合作而在一定程度上施行技术治理,激进派完全拒绝与现政府合作,拒绝任何改良主张。实际上,绝大多数的技治主义者属于温和派,如圣西门、贝拉米、加尔布雷思、纽拉特、丹尼尔·贝尔等,而类似凡勃伦的激进派是极少数。但是,极少数激进分子的观点和行动在西方社会具有非常高的显示度——这符合传播学中“激进获胜、另类传播”的规律,尤其相比理论家、思想家,激进的技术治理社会活动家的表现对于公众对技术治理的看法影响更是巨大。
比较北美技术治理运动中“双雄”激进派领袖斯科特(Howard Scott)和温和派领袖罗伯(Harold Leob),作为例子。罗伯出身豪门,却拒绝继承家族银行和投资业务,选择成为作家和艺术家,创办文艺杂志,与海明威等人并称美国文学史上“迷惘的一代”(TheLost Generation)。在旅欧期间,他接触并被技治主义所吸引,随即回国投身技术治理运动。而斯科特出身寒微,却极力想给人给人一种掌握高深技术的专业人员与先知的印象。实际上,他并没有接受过系统的高级工程教育,但有过丰富的工程经验,开办过工程公司。他具备卡里斯玛(charisma)人格,极富领袖才能,但性格过于严厉、极端和揽权,和媒体关系不好。后来,两人分道扬镳与斯科特过于独裁也有很大的关系。在运动中,斯科特领导的技术治理公司制订徽章,统一制服,严明纪律,甚至发动所谓的“总征兵”,组织技治主义者的“部队(army”,给不了解具体情况的公众以冷酷、阴森和可怕的印象,甚至被一些人视为纳粹。斯科特死的时候,几乎没有什么重要媒体发讣告;而罗伯死的时候,美国诸多重要媒体都发布了讣告。
一开始,罗伯的技治主义思想就带有自由主义和审美主义的烙印,与斯科特思想鲜明的机械主义和物理主义特点颇为不同。两人对技术治理的基本理解是相同的,都是从北美技术治理运动的“导师”凡勃伦那里借鉴和发展出来的,主要包括如下方面:(1)丰裕(abundance)、工业系统与高能社会。人类社会可以从能量使用角度来理解,之前社会是主要使用人力、畜力、水力和风力的低能社会,工业革命之后进入主要依靠机器的高能社会。高能社会主干是工业系统,它是一台精密运行的大机器。自从社会生产力发展到丰裕阶段,以机器生产的能量完全可以满足所有人舒适生活所需,而现实并非如此是因为社会制度设计不科学。(2)能量券与社会测量。高能社会必须实行技术治理制度,核心是围绕能量券建立全新的分配制度。废除货币,代之以反映物质资料真实运动状况的能量券。以能量券为单位,对整个国家的物质生产和生活需求进行物理学的精确测量,在此基础上,通过国家统一计划来实现完全平等的按需生产和按需分配。(3)生产最大化与经济自由。工业生产系统由专家、技术人员和工程师掌握,企业目标不再是利润而是提供更多的社会必需品,因而将在既有科技水平上开足马力生产。社会产品极大丰富,人人都免于经济压迫,并得益于科学技术对生产率的大幅度提高而享有大量闲暇。(4)有限的技术治理政府。技治社会工业高度垄断,每种基本工业只有一家大企业,每家挑选最能干的人组成政府。也就是说,技治社会的政府是工业系统的延伸,实际是工业联合体。政府成员包括主席在内,都是从劳动者中逐级晋升和提拔上来的,都是科学技术和管理的专家。技治国家以科学原则行政,需要投票表决的事情很少,并且主要管理经济事务,以宽容和自由的态度对待社会成员的其他活动,因而政府职能极大地减少。
斯科特与罗伯对技术治理理解的差别主要在于:(1)技术治理实现的时机。斯科特认为,“大萧条”(Great Depression)就是资本主义灭亡而技治主义上台的征兆,因而拒绝与美国政府合作挽救危机,而是组建资本主义价格制度崩溃之后接管权力的“部队”,准备非布尔什维克的“工程师革命”。而罗伯认为,技治主义要实现首先要经过一个漫长的垄断过程,当垄断达到极大程度时技术治理自然就会实现,因此技治主义者应该与政府合作,运用专业知识帮助资本主义度过危机,并加速垄断向技术治理转变的过程。实际上,罗伯加入了罗斯福政府,被斯科特称为“叛徒”。(2)对文化和艺术的看法,或者说对人性提升的态度。斯科特只关心工业系统的改革,认为能量券制度解决了所有的问题,并声称所有的方案都是科学的、可计算的和可控制的,而不依靠人性、情感、意识形态文化等不可测的东西来决策。罗伯则认为,实现经济安全并非技术治理最大的价值,最重要的是经济自由之后人们可以从事更有价值的事业,即文化和艺术活动,而文化和艺术的繁荣将从根本上提升人性。
在北美技术治理运动中,给美国公众印象深刻的是斯科特而非罗伯,即使今天提起该运动的领袖,人们能想起的也是斯科特。当时斯科特的激进观点和形象一开始很快引起了美国和加拿大公众的很大兴趣,但很快就转变成极大反感,技术治理公司也曾被加拿大政府封禁。在北美技术治理运动从急速崛起到突然受挫的关键点上,斯科特所做的“皮埃尔旅馆演讲”(Pierre Hotel Address)甚至被很多人认为它应该为整个运动由盛转衰负责,因为当时收音机刚刚普及,通过电台面向全国广播第一次实现一个人同时向所有人说话。“皮埃尔旅馆演讲”是斯科特第一次全国电台广播,但激进的“首秀”造成了完全不可挽回的负面公众印象。在演讲中,斯科特夸张地宣布技术治理思想前无古人,颠覆了数千年人类社会思想史,这完全不符合思想史的事实。他还宣布资本主义很快就必然被技治主义全面代替,不管普通民众是否接受,这是物理学铁律;只有专家和智者才能理解技术治理,才能运行技术治理制度,现有的执政者智力和能力都不够;技治主义者放弃合法选举和民主参政,只需等18个月资本主义价格制度就会全面崩溃,美国人民届时将不得不求助于技治主义者来挽救美国;技术治理不是社会主义、共产主义和资本主义,也不是纳粹主义、凯恩斯主义和自由主义……不是之前的所有主义,技术治理不是愚蠢的民主制,而是真正的精英用科学方法运行社会。总之,他宣称其他人对“大萧条”危机根源理解都是错误的,提出的主张都是错误的,只有技治主义才是美国人唯一的出路。很难想象这种狂妄的救世主腔调不激起听众的极大反感,尤其是斯科特对资本主义18个月崩溃的危言耸听很快就被事实所否证。北美技术治理运动在当时对美国造成的实际影响有限,但它导致了技治主义思想向全世界的快速传播,斯科特等人的激进观点和形象也随之被西方社会公众所认识,促进了西方民众技术治理成见的形成。
文章来源:微信公众号“不好为师而人师者”
原文链接:https://mp.weixin.qq.com/s/Y3gsuWXTpZVju6rO3CXftA
作者:buhaoweirenshi
编辑:高杰

222#
 楼主| 发表于 2019-9-27 20:18:03 | 只看该作者
【案例】
马斯克发推警告:“高级AI”将很快操纵社交媒体平台
据外媒报道,马斯克称,社交媒体将很快被“先进的人工智能”所操控。马斯克推文写道,匿名机器人群体应该得到更密切的关注。机器人是一种自主的程序,经常试图在社交媒体上玩游戏,要么转发一条特定的推文,在整个平台上推广它,要么在整个平台上散布虚假信息,让它看起来就像成千上万的人在推特上发布同样的(假)新闻一样。(腾讯科技)
编辑:高杰

223#
 楼主| 发表于 2019-9-27 20:47:04 | 只看该作者
【案例】
国广东方王明轩:大数据、人工智能为传统媒体带来颠覆性改变
2019924日,由众视AsiaOTT主办的“GFIC2019全球家庭互联网大会在上海隆重开幕,GFIC是国内唯一覆盖内容、平台、网络、终端、服务专注于家庭场景的Top盛会,本次大会以【万象连接】为主题,围绕家庭场景为核心,以客厅经济为话题。大会邀请了广电总局、工信部、VerizonShemarooTATA电信、阿里云、京东云、百度云、芒果TV、国广东方、南方新媒体等200+垂直行业公司、2000+专业听众和50+合作伙伴共同深度参与。
5G商用的落地,势必将带来应用场景的质变式升级,对于家庭场景产业链而言,也将影响到方方面面,无论是终端的呈现形式,终端与终端之间的局域网连接,或者在视频内容分发的形式上,甚至是电视大屏广告与数据统计之间的结合,都会发生形式上的转变。这就意味着5G的出现不仅仅是物理连接形式的创新,而是对于整个行业的商业模式变革。
file:///C:/Users/le/AppData/Local/Temp/ksohtml2384/wps120.png
925日上的大屏领袖峰会上,国广东方副总经理王明轩就《从视频发展趋势,看大屏未来》带来精彩的演讲。
1
传统媒体迎来颠覆性改变
自从视频制作技术门槛不断降低,包括手机都可以进行非常复杂的视频制作以来,很多人都认为传统的媒体人将会迎来更大的发展空间。事实上,这是错误的判断。
我们可以类比一下文字,早期的文字刻在甲骨、竹简上,后来随着纸张的普及,有了课本、书信、账本,于是职业的刀笔匠就失业了。视频也一样,它将不是产业,而是人人都可以使用的记录再现符号,是全社会的工具。这就导致整个视频将向三个方向发展:
1天气、饮食信息、路况信息、时尚信息等等,这些需要双向互动、实时更新的内容全部变成互联网上的应用,王总认为这些内容大约占据现在媒体内容的40%左右,将都会从媒体中剥离出去,留下来的主要是新闻和影视剧。
2、就像造纸术等书写技术的进步导致了文字领域文化形态的不断演进,视频领域的技术进步和成本降低也将导致视频内容的形态发生翻天覆地的变化。不要以为现在视频内容太多了,那是传统视频节目形态的内容太多了,而充分发挥视觉优势的新形态的内容几乎是空白。这才是视频内容爆发性增长的所在。
3前面说的40%去了哪里?都将进入垂直领域,所有的垂直领域几乎都可以用视频来表现,比如饿了么上的图片文字可以换成视频符号,还有教育、健康等等,视频可以表达文字无法表达的东西,其中的市场空间十分庞大,只是过去门槛太高。
2
一切都是建立在数据之上的人工智能
整个视频领域的变化趋势如此,互联网趋势又会怎么样?互联网趋势严格讲就是往人工智能上走,一切围绕着人工智能展开。比如今日头条、一点资讯等应用所采用的智能推荐就具备了这样的人工智能的雏形。当他们成熟后,将为每个人提供一个机器人,其实就是他们的账号。这些人工智能将促使人类在的社会管理、文化、道德、组织结构等方面发生我们所意想不到的深刻变化,鉴于时间原因,王总重点介绍了它目前就已经体现出来的经济价值。
比如央视某频道一天有两亿人收看,一条广告售卖150万。如果换作今日头条会怎么操作呢?由于采用了智能推荐系统,它可以把这两亿人分成一两千组,每组售价仅仅一万元,就可以获得一两千万的收入。而且,还具有售价低、精准度极高、每个受众看到的都是首页等特点。
这就是为什么传统电视的代表央视用了三四十年才超过二百亿收入,而今日头条仅用四、五年,收入就超过了五六百亿。机器以超越人脑千万倍的运算能力提供了巨大生产力。
王总认为,未来电视人做的传统节目一定会萎缩,大屏将成为信息枢纽、操控中心。最后结果是在人工智能的引领下,形成一大一小,一静一动的格局,一大就是大屏,一小就是移动终端;一静就是大屏,一动就是移动终端。在这样的格局里,现在的影视节目内容只占了一部分,甚至是较小的那部分,大部分是各种垂直领域双向互动的应用。
3
国广东方将打造新型媒体集团
目前,国广东方就是基于对媒体和视频大趋势的认识来打造新型媒体集团的,时间所限,王总重点介绍几个项目。
县级融媒体中心是党和政府治国理政的抓手,建设县级融媒体是总局和国网责无旁贷的责任和使命,也是未来广电5G的信息高速公路上优质的车队。国广东方作为国网控股的企业理应承担起这方面的责任。国广东方的融媒体中心将具备以下特点:
1它是一个能够同时方便自如地对文字、图片、语音和视频四种记录(再现)符号,甚至包括H5进行编辑制作,灵活运用的体系。
2对于生成的内容,它能够便捷地一键式将这些内容分发到自有平台和微信、微博、头条等公众平台。
3它拥有一套复杂的,采集颗粒细致的数据系统,能够胜任日常运营和舆情监控。同时,它将拥有完备的数据管理和使用机制,以及可控的数据发布、呈现规则,大数据是讲政治的。
4在大数据的基础上,它拥有内容分类和用户画像相结合的精准的智能化推荐系统。由此,将使客户端推送的内容不是泛滥的堆砌,而是用户喜欢的内容,大大提高用户粘性。
5专门开辟中央党校和求是杂志的党建专区,为基层党建服务。
关于国广东方的教育项目,王总认为,人类的现代教育是工业文明的产物,工业文明的科技进步才有了今天数理化、文史哲,以及在此基础上衍生出来的各学科细分。
于是,为了实现庞大知识体系的传授,人们便把工业化大生产的方式引进到教育中,建立了现代学校。其实,一座学校就是一座工厂,一个年级就是一个车间,一个班级就是一个大 模具,构成了人类劳动力的社会化大生产流水线。这种教育的最大特点是效率高,但每个班都是一个模子出来的,其致命弱点是无法实现教育资源的地域公平和阶层公平,也无法实现个性化的因材施教。
国广东方的教育项目就是要通过远程的双向互动、人工智能教育体系,构筑出新的公平的教育形态。更重要的是它将结合每个人的性格特点、思维特性、身体特质真正实现因材施教、按需学习,让受教育者成为他自己想要成为的人。
文章来源: 众视AsiaOTT  
原文链接:https://mp.weixin.qq.com/s/nkg4xypSrB2Rr47yXdL1eg
编辑:高杰

224#
 楼主| 发表于 2019-9-28 22:50:02 | 只看该作者
【案例】
人工智能与“西式民主的未来”
01
FLAUNT
您能否在创新选民信任的机制方面举一些例子呢?
中川黎明
其中很多因素都与我们自身的期望及其变化有关。现在许多人并不确定在今天最信任什么,比如当你在互联网查阅一家新的餐馆时,也许最重要的信息来自社交媒体的评论。虽然大多数人并不知道社交媒体对西方民主的全部评论,但我们要做的就是研究整个社会的变化趋势、创新方向,以及思维改变的过程。
以美国陪审团制度立法为例,如果公民有机会深入了解一项立法工作并有权发声,既然他们有担任陪审员的义务(编者注:美国法律规定,每个成年美国公民都有担任陪审员的义务),那么就应当对相应的立法责任做出体现。
少部分精英坐拥权力的状况应当得到改变。当前,我们的确实需要一些能够解释权力合法性原则和动态的机构,以及能够围绕这些主题做出改变的组织
02
FLAUNT
您是如何理解权力分散和效率的关系呢?
中川黎明
西方社会的政治发展目前仍处于早期阶段。随着权力结构不断演变,地方政府权力日趋增加,这将导致产生一个多样化、更加分散化的新型西方民主制度,也将产生不同种类与程度的民主形式。在这个过程中,必将伴随国家权力的减弱。
03
FLAUNT
当选民无法获得有效的信息,或者没有时间或兴趣获取全面的信息,再者受到民粹主义、娱乐化风气的影响,那么怎么能确保西方民主发展得到一个良好的结果呢?
中川黎明
这是一个关键的问题。如果你读过尼尔·波斯特曼(Neil Postman)的书,就会发现他强调了美国早期移民搭乘五月花号来到这里,带来的书籍比其他任何东西都要多。他探讨了文本作为媒介及其促使人类思考的强制性功能、神经的发育过程及其构成要素。时至今日,我们已经拥有了电视、社交媒体、博客等众多媒介形式,那么应当思考这些不同的媒介与环境怎样塑造和改变了大家的认知?
从这一方向开始入手,我们会看到如果越来越多的人从社交媒体获取信息,而社交媒体也按照这些规则运作将会产生巨大的影响,因此我们需要严肃探讨这些问题。随着社会的进一步发展,我们的问题变成了——我们能否在多样态的媒介形式中,发现西式民主的未来呢?目前,人们不能确定他们所接收到的内容是真实可信的,也对大部分信息保持怀疑态度,那么现行体制又怎么让民众从海量信息中所获取呢?
这仍然是一个关键问题。在我看来,只要人们依然信任这个系统,就一定能发现与之相应的价值理念。一些创新观念、机制,可以促进公平,弥补当前西方民主制度的缺陷,并维持政府的良好运作。
04
FLAUNT
人工智能是否会在未来的治理中发挥重要作用?
中川黎明
在人工智能技术广泛应用的情况下,越来越多的人对人为错误的容忍度将会越来越低。纵观历史,每当社会有变革需求与技术条件时,技术通常会替代人类的一部分工作。因为我们认为,新技术的运用会带来更好的结果,并减少更多的错误。当我们进入一个以这样的趋势为主导的社会以后,政府部门的治理水平将大幅提高,并且大部分工作都将由人工智能系统管理和落实。
file:///C:/Users/le/AppData/Local/Temp/ksohtml7744/wps8.png
目前,在司法和经济系统中已经有所体现,这使得我们距离更大范围的人工智能应用并不遥远了。一旦人工智能系统变得非常出色,那么,人们就不会放弃对它的选择。这就是研究院西式民主的未来项目所亟需面对的问题,同样这也是与人类变革项目相关联的地方。
(杨嘉琪/编辑)
*  中川黎明(Nakagawa),现任博古睿研究院执行副院长,系2010年研究院成立时的第一位雇员。任职期间,她负责制定战略、开发项目、监督财务和运营管理,以及组建工作团队。
* 英文原文《THE PAST IS ALWAYS TENSE, THE FUTURE PERFECT》发表在美国时尚文化杂志Flaunt201888日。Flaunt杂志获得过许多奖项,拥有大量数字资源,在世界各地的重要节日、时装周和艺术聚会、私人活动中具有广泛影响的媒体平台。
文章来源:博古睿研究院
原文链接:https://mp.weixin.qq.com/s/prmsgWHX19Fq_8b8fezO5A
作者:西德·费德玛
编辑:高杰

225#
 楼主| 发表于 2019-9-28 23:02:21 | 只看该作者
【案例】
听声辨人,找宠物……生物识别站上风口,却引发隐私之忧
早晨起床第一件事就是拿起手机,3D人脸解锁的同时也完成了当天的第一次身份识别;购买早餐、购买车票,习惯性地掏出手机指纹支付……每一天,不同的解锁方式贯穿着生活的方方面面。
除了人们熟知的人脸识别、指纹识别,还有如声纹、虹膜、静脉识别,甚至还有远距离心跳识别等,它们都有一个共同的名字,即生物识别技术,它们正成为普遍的认证方式。近日,由芯智讯主办的“融合·创新——2019生物识别技术与应用高峰论坛”在深圳举行,多位业内人士共同探讨生物识别的前沿技术,助力行业的创新与变革。
然而,个人的生物特征具有唯一性,而且终身不能更改,一旦某个特征被滥用,也可能存在隐私泄露的后果。对此,会上多位业内人士呼吁,加强生物识别技术的监管,强化技术应用的边界。
凭声音辨人、微整形美容,生物识别朝向细分应用
对很多人来说,生物识别技术并不陌生,最常见的是人脸识别,但其应用远不止于此。
“家用机器人在与主人交互时,如果它能知道是哪位主人发出的号令,那么它就可以有针对性地提供个性化服务,而凭借声音,可以很好地分辨不同的主人。”声扬科技首席科学家张伟彬介绍说,把这项技术拓展开来,智能语音会议系统可以解决日常开会中“谁说了什么”,形成自动化会议纪要并节省人力。
声纹技术还可以面向金融、IoT、政企等不同企业和行业提供相应解决方案。在印尼,岛屿众多交通不便,以前数以百万的退休人员在领取养老金时,经常要去当地银行窗口现场认证,而声扬科技提供的远程身份认证解决方案,让退休人员在家就可通过声纹技术进行身份认证。“语音包含了很多个人信息,除了内容,还包括情感,我们希望通过挖掘更多语音价值。”
小优科技则将人脸识别技术应用于美容微整形术前行业,副总经理代启强介绍,一张人脸数据在50万-100万点之间,通过提取额部、两眼之间、鼻额交界、鼻尖、人中沟等方面的数据,可以对人的颜值进行评分,扫描出来的真实三维数据还可以方便地对鼻尖、唇部等部位微调,顾客可看到自己想要的结果。
通过指纹或面部识别来解锁手机已经是再平常不过的事,而现在,汽车领域也在引入更多的生物识别技术,例如,指纹或人脸解锁开门,免去了遗失钥匙的苦恼;进入汽车内,汽车会验证你是谁,并根据你的喜好进行个性化设置温度、音乐等;在行驶途中,3D传感器检测疲劳驾驶程度,以提高驾驶安全;在通过高速公路收费站时,还可以无感支付。
用于城市管理,辨别动物特征找回丢失宠物
当你养的宠物狗走失了,你该如何找到它?是满大街贴宠物狗的照片,并悬赏高额奖金?
其中的难题在于宠物无法拥有自己的专属身份,旷视科技选择鼻纹作为识别的关键特征。旷视科技副总裁谢亿楠告诉南方日报记者,与人类指纹类似,犬类鼻纹具有唯一性与稳定不变性,即不存在鼻纹完全相同的两只犬,而且不容易被毛发遮挡,因此鼻纹成为了犬只身份认证的“密钥”。
中科院深圳先进技术研究院集成所研究员陈巍也谈到,包括深圳市城管局也希望在犬只管理上作相应识别,目前研究的方向是采用虹膜识别的方式。眼睛结构由巩膜、虹膜、瞳孔晶状体、视网膜等部分组成,而虹膜识别技术则基于眼睛中的虹膜进行身份识别。
“同样,这个技术还可以用于在牛、马、猪等动物的生长溯源,在深山老林设置监测点用声纹技术了解真相物种数量,等等。”陈巍说,不过面临的难题是要先建库,搜集相关动物的“身份”以便后期进行匹配。
安全和便捷兼具,多种技术融合成趋势
目前,基于人体的指纹、声纹、掌形、人脸、虹膜、静脉(指静脉及掌静脉)等特征,开发出了相关的生物识别技术,每一种技术的精度、稳定性、安全性、便利性和成本都有较大差异,在此次高峰论坛上,多位业内人士认为,将多种生物识别技术融合成为新的发展趋势。
例如,在手机、智能门锁等智能硬件上,已经搭载了诸如3D人脸解锁、指纹解锁、声纹解锁等方式。“晚上买菜回家时,我们可能不太方便用指纹解锁,这时只需刷脸或喊一句‘我回来了’。”芯智讯创始人杨健表示,单一生物识别技术可能还不够安全,但几种方式组合下也可能达到近乎虹膜识别的安全等级。
陈巍介绍,虹膜识别技术的特征点比人脸多得多,例如,地球上有10的72次方的人才有两个相似的虹膜,而一年掉落地球雪片总数是10的23次方。从这个角度来说,虹膜作为稳定的生物识别特征相比人脸更灵敏,相比指纹识别在日常中有更大的优势。
例如,在矿井中,一些工人只剩下眼睛和牙齿是白的,人脸识别很难分辨,而且长年累月劳作中甚至把指纹磨掉了,这时虹膜技术的优势凸显,但虹膜成像距离非常近,近一点或远一点都可能难以识别,此外,如果背景光太强、过曝也难以拍清楚,总之,多种技术的结合可让识别更精准。
■纵深
生物特征具有唯一性
业内呼吁立法保护隐私
越来越普及的生物识别技术,对用户来说,隐私问题也成为关注焦点。杨健举例说,一些商业组织、连锁商店通过人脸识别追踪客户,以便了解用户购物习惯、消费能力,只要顾客在其中一家店购买,下一次走进连锁品牌其他商店,导购员马上就能知道,消费者买过什么、购物偏好是什么,等等。
他说,从商家的角度,生物识别技术为他们创造了很多价值,但与此同时,消费者的个人信息也在很大程度上被滥用,商家由此更加了解消费者的行为习惯,让消费者掏更多的钱。
生物识别技术还存在被“攻破”的风险。前不久,一位男子使用了手机购买火车票,在填写车票信息后,手机跳转到支付宝的付款界面,并出现人脸识别窗口。他使用了一个以自己为原型的3D打印人头,顺利支付。
“我们任何人的生物特征只有一个,而且终身不能更改,一旦这个特征被滥用后,会造成连锁反应,甚至涉及社会问题、人身安全和金融安全。”掌静脉识别技术研发者于巧红说,技术也一把双刃剑,哪些地方能用,哪些地方不能用,都需要规范和明确使用环境。
优点科技总经理孟勤海则关注到信息的存储安全。他说,与隐私相关的信息应该用最安全的方式存储起来,比如大数据存储在服务器上,其所在的机房是不是被严格管控,机房的出入是否有严格登记,等等。
“指纹等信息存储的区域,应该是外界获取不到的。”思立微高级产品经理孙云刚也认为,什么样的企业可以获得核心数据,应该有相应的资质。代启强建议,可效仿电影分级制度,生物识别领域针对公众安全和商业应用划分不同等级。
信息安全也引发了监管部门的关注。就在近日,央行科技司负责人在金融网络安全论坛上表示,包括生物特征等看似与金融无关的信息现在已变得与金融安全密切相关,隐患持续增多,个人金融信息保护面临严峻挑战。他强调,加强个人信息保护刻不容缓。
【记者】郜小平
原文链接:https://static.nfapp.southcn.com/content/201909/27/c2662742.html?colID=2147483647&code=200&msg=%E7%99%BB%E5%BD%95%E6%88%90%E5%8A%9F&evidence=f776fb7a-9e59-4291-990f-e9865feb6cdc&appversion=5250&firstColID=653&layer=3&share_token=ODA2OWNmODQtMTY4NC00YjdkLTllZjQtODNjY2JiYTkxMjFj&from=singlemessage&isappinstalled=0&date=bnVsbA%3D%3D
文章来源:南方周末
编辑:高杰

226#
 楼主| 发表于 2019-9-28 23:28:14 | 只看该作者
【案例】
马斯克警告:聊天机器人正在进化 或操控社交网络
9月27日消息,据外媒报道,美国当地时间周四,电动汽车制造商特斯拉与太空公司SpaceX的首席执行官埃隆·马斯克(Elon Musk)在两条推文中发布警告称,社交媒体平台很快就会被“先进的人工智能(AI)”所操纵。
file:///C:/Users/le/AppData/Local/Temp/ksohtml7744/wps103.png
在第一条推文中,马斯克警告说,匿名聊天机器人应该得到更密切的关注。聊天机器人是一种自主程序,经常试图欺骗社交媒体。它们要么通过转发特定的推文来在整个平台上推广它,要么通过让它看起来像成千上万的人在推特上发布同样的(假)新闻,从而在整个平台上散布虚假信息。
马斯克说,如果发现聊天机器人正在迅速进化,这是个很明显的信号,意味着有些事情正在发生。目前还不清楚马斯克是否能够获得相关研究或信息,表明聊天机器人确实在“快速进化”。
在随后的第二条推文中,马斯克详细阐述了他的第一个警告,称虽然“先进的AI”(即超越常规机器人能力的AI)还没有被应用于操纵社交媒体,但这种情况不久后就会成为现实,尽管他没有给出确切时间表。
当谈到AI话题时,马斯克经常被认为是个末日预言者,但他今天的主张并未超出可能发生的事情范围。
当马斯克提到操纵社交媒体的“先进AI”时,这并不意味着AI需要有知觉,而且需要自己主动这么做。不那么先进的AI可以由拥有足够资源的支持者在社交媒体上释放出来,它们会欺骗这些平台,以借机传播它们想要的信息,或者说是虚假信息。
文章来源:Science科学
原文链接:https://mp.weixin.qq.com/s/mHPkJ__afCjAV9_b_Dpi7w
编辑:高杰

227#
 楼主| 发表于 2019-9-29 21:31:26 | 只看该作者
【案例】
什么?!有人模仿你的脸,还有人模仿你全身?
以下这项发展中的合成媒体技术分支具备商业用途,但也有可能被用来扰乱选举和散布谣言。
译者 | 王婕
作者 | DJ PANGBURN
来源 | Fast Company
编辑 | 蒲蒲
俄罗斯小说家维克多·佩列文(Victor Pelevin)的赛博朋克小说《Homo Zapiens》中,一位名叫Babylen Tatarsky的诗人在苏联解体,俄罗斯经济面临崩溃之际,被一位在莫斯科的大学老友聘为广告文案撰稿人。
Tatarsky凭借着巧妙的文字天赋一路水涨船高,而他也逐渐发现了这样一个事实:时任俄罗斯总统的叶利钦等政要和当时的重大政治事件,实际上都是虚拟仿真的产物。放眼现在,随着日益纯熟的“深度换脸”技术出现,佩列文的想象似乎正在慢慢变为现实。


(数据观注释:【赛博朋克小说】赛博朋克小说属于科幻小说的类型,兴起于上世纪七十年代的美国,这一类故事里有大量对新兴信息技术和生物科技的描写,常常涉及跨国财团垄断高新技术,故事的主角一般会设定成游走在社会主流之外的边缘人,他们活在未来社会的阴暗面,喜欢修改电脑的软硬件配置,崇尚改造身体,拒绝融入主流体制,靠着合法或者非法的技术手段铤而走险,有时不惜与超级大公司对抗。这种高与低并存产生的反差,造成了一种特殊的美学效果,被概括为“高科技、低生活”六个字。)


“深度换脸”(亦或被研究人员称之为“合成媒体”)的领域内,众人的注意力主要集中在可能对政治现实造成严重破坏的“虚假面孔”上,以及那些刻意模仿人写作风格和声音的深度学习算法。
然而,如今合成媒体技术的另一个分支——“深度换身”正在迅速发展。
2018年8月,加州大学伯克利分校的研究人员发表了一篇题为《人人都在跳舞》的论文和视频,展示了深度学习算法如何将专业舞者的动作转移到业余舞者身上。虽然这一研究成果还有待完善,但已表明机器学习的研究人员正在着手更具挑战的任务——“深度换身”。
同年,德国海德堡大学的比约恩·奥默博士领导的一个研究团队发表了一篇关于教会机器逼真还原人类动作的论文。
今年4月,日本人工智能公司Data Grid开发了一种人工智能技术,可以自动生成不存在的人体全身模型,并证实了它在时尚和服装领域中的实际应用。
显然,“深度换身”的确可以打造部分有趣的商业应用,比如换脸舞蹈应用程序,或者被应用在体育和生物医学研究上,但恶意应用的案例在如今充斥着谣言和假新闻的政治背景下也愈发受到关注。
虽然眼下“深度换身”还不能完全掩人耳目,但就像任何深度学习技术一样,它也终将进步,“深度换身”想要鱼目混珠,只是时间问题。
人体合成
为了实现深度换脸,计算机科学家使用了生成式对抗网络(GAN),它由两个神经网络组成:合成器/生成网络,以及检测器/鉴别网络。这些神经网络在精细的反馈回路中运行,生成真实的合成图像和视频。合成器从数据库创建图像,而检测器则在另一个数据库工作,用以确定合成器制造的图像是否准确可信。
“深度换脸”的首次恶意应用出现在Reddit(一个社交新闻站点)上,当时斯嘉丽·约翰逊等女演员的脸被移植到了色情电影演员的脸上。
Fast.AI公司联合创始人瑞秋·托马斯表示,在目前已存在的“深度换脸”成品中,95%都是想通过“虚假”的不雅素材来进行个人骚扰。托马斯说:“其中一些深度换脸视频并不一定就使用了非常精细复杂的技术。”
然而,这种情况正开始转变。
法里德(新罕布什尔州汉诺威达特茅斯学院计算机科学教授)指出,中国的“深度换脸”应用程序“Zao”就很好地说明了这项技术在不到两年的时间里发展得有多快。
“那些来自Zao的换脸视频看起来真的非常棒,而且这些人造品有很多就跟在电影版本当中呈现的画面一样。”法里德认为,“这无疑是一个进步,要知道想让这款app大规模应用且有数百万人的下载量并不容易。这是‘深度换脸’技术走向成熟的标志。”
“通过深度换脸的图像和视频,我们基本上实现了CGI技术(通用网关接口,是一种重要的互联网技术,可以让一个客户端,从网页浏览器向执行在网络服务器上的程序请求数据。CGI描述了服务器和请求处理程序之间传输数据的一种标准)的大众化。”他进一步表示,“我们把CGI技术从好莱坞的电影公司中带出来,交到了YouTube视频制作者的手中。”
海德堡大学图像处理(HCI)和跨学科科学计算中心(IWR)计算机视觉教授比约恩•奥默领导了一个研究和开发人体合成媒体的团队。与该领域的大多数研究人员一样,该小组的总体目标是理解图像,并教会机器如何认知图像和视频。最终,他希望团队能够更好地了解人类是如何理解图像的。
“我们已经看到了人体合成的化身不仅为游戏行业,还有许多其他领域都创造了营收,”奥默表示,“尤其是对我的团队来说,我们考虑的是完全不同的领域,比如生物医学研究。我们希望更详细地了解人类甚至动物随着时间的推移,在残疾等类似情况下,身体姿态的演进。”
人脸合成与人体合成的过程有着巨大的差异。奥默表示,当前人们已经对人脸合成进行了更多的研究,这其中有几个原因。
首先,任何数码相机或智能手机都有内置的面部检测技术,这种技术可以用于检测像微笑这样的任务,也可以用来识别观众的目视对象。这样的应用程序能够在产生营收的同时带动更多研究。但正如奥默所说,它们也导致了“大量的数据集合、数据整理和人脸图像获取,而这些都是建立深度学习研究的基础。”
其次,对奥默来说更有趣的是,虽然每个人的脸看起来都不一样,但当把脸和整个身体放在一起相比时,变化其实并不大。“这就是为什么我说面部研究已经到了一定阶段,与整个人体相比,它创造了非常好的结果,因为人体的可变性要大得多,处理起来更加复杂,如果你朝着这个方向前进,还需要学习更多”,奥默说。
奥默也不知道人体合成何时才能够达到他和研究人员想要的标准。然而,纵观那些不怀好意的深度换脸日益成熟,奥默指出,如果没有通过深度学习计算机视觉智能、人工智能或其他技术制造的伪造品来一窥究竟,人类可能早就上当了。
“但是,如果你想让它在更大的社会层面上被接受,那还需要几年的时间,”奥默说,“深度换身”和其他深度造假将变得更加低廉和更普遍。“研究界本身已经朝着一个好的方向发展,这一点得到了许多研究团体的高度赞赏,且这些团体对我们能够更加方便地获取算法这一进程的稳定发展发挥了很大的作用,比如github等。所以,你可以从一些论文上下载最新的代码,然后在不太了解隐藏内容的情况下,直接应用它。”
感到“力不从心”
不是每个人都能创造出“轰动一时”的深度换脸。然而,奥默认为,随着时间的推移,金钱将不再成为获取计算资源方面的阻碍,软件的适用性也将变得容易得多。法里德说,有了“深度换身”,不怀好意的人就可以利用深度换脸技术中的典型静止图像直接在录像中开口说话,让“目标对象”为所欲为。
VRT电台(佛兰德广播公司)的调查记者兼驻外记者汤姆范德韦赫担心,记者、还有人权活动人士和持不同政见者们,都有可能被“深度换身”武器化。
file:///C:/Users/le/AppData/Local/Temp/ksohtml1828/wps63.png
file:///C:/Users/le/AppData/Local/Temp/ksohtml1828/wps64.png


汤姆范德韦赫(图片由本人提供)


2016年大选期间假新闻的激增,以及2017年“深度换脸”的兴起,激发了范德韦赫对合成媒体的研究。2018年夏天,他在斯坦福大学开始了一项旨在对抗恶意使用“深度换脸”的方法研究。
“受威胁最大的不是大人物、政客和名人,”范德韦赫表示,“只有普通人——像你、我、女记者,以及那些可能成为或已经成为深度换脸受害者的边缘群体。”
两周前,荷兰新闻主播迪翁·斯塔克斯发现自己的脸被“深度换脸”技术映射到了一名色情女演员的身上,该视频还被上传到PornHub网站(全球最大的色情视频分享类网站之一)并在互联网上广泛传播。尽管PornHub很快就删除了这段视频,但范德韦赫表示,她的声誉已经受到了损害。
为了更好地想象“深度换身”是如何工作的,范德韦赫提到了2018年CNN首席白宫记者吉姆·阿科斯塔的镜头。在阴谋论网站Infowars,编辑保罗约瑟夫沃森上传了一段视频:阿科斯塔似乎咄咄逼人地推着一名试图拿他麦克风的白宫工作人员。
这与C-SPAN(美国一家提供公众服务的非营利性的媒体公司)播出的原始片段有明显不同。Infowars的编辑声称他并没有篡改视频,并将所有差异都归因于“视频压缩”。
但是,正如《独立报》对视频进行的时间轴编辑分析显示,沃森的视频的确缺少了原视频的其中几帧。“深度换身”就像编辑视频时对帧数进行改动一样,可以改变事件的真实性。
成立于2018年的Deeptrace Labs是一家网络安全公司,正在开发基于计算机视觉和深度学习的工具,以分析和理解视频,尤其是那些可以被任何人工智能操纵或合成的视频。
该公司创始人乔治•帕特里尼曾在阿姆斯特丹大学德尔塔实验室从事深度学习的博士后研究。他表示,几年前自己开始研究技术如何预防或防范未来合成媒体的滥用。
帕特里尼认为,由人体合成、人脸合成和音频合成组成的恶意深度造假,将很快被用来攻击记者和政客。
他提到了一段深度换脸的色情视频,视频中印度记者拉娜·阿尤布的脸被换成了一名色情女演员的身体,作为这场虚假信息运动的一部分,这一行为的目的就在于抹黑她的调查报道。
此前,她公开要求对强奸和谋杀一名8岁克什米尔女孩的行为进行司法审判。今年3月,Deeptrace Labs对加蓬总统阿里·邦戈的“深度换脸视频”进行了调查。
尽管这个非洲国家的许多人,包括加蓬军队在内都认为邦戈一动不动的脸、眼睛和身体暗藏着一个深度骗局,并基于此发动了一场不成功的政变,帕特里尼仍向《琼斯母亲》杂志表示,他不相信总统的视频是合成的。
“我们找不到任何理由相信这是深度换脸的结果。我认为总统还活着,这一猜想随后也被证实,不过他实际上是中风了。”帕特里尼说:“我想在这里指出的重点是,问题不在于视频到底是真是假,重要的是人们很清楚它会在公众舆论中引发怀疑,在某些地方还可能引发暴力。”
file:///C:/Users/le/AppData/Local/Temp/ksohtml1828/wps66.png


(图片由Deeptrace Labs提供)


最近,范德韦赫了解到,一名政党人士正在接触“深度换脸”最受欢迎的创造者之一,并要求其运用这项技术来中伤某人。这种定制的“深度换脸”可能会成为一门大生意。
“‘深度换脸’会成为人们谋利的工具,”范德韦赫说,“人们会为它买单。所以,政府并不需要亲自上阵,他们只需要联系一个专门干这行的人就可以了。”
《华尔街日报》最近的报道称,一家英国能源公司的首席执行官被骗,将24.3万美元转入了一家匈牙利供应商的账户。这位高管说,他相信自己是在和老板谈话,而且他的老板似乎也已经批准了这笔交易。
现在,这位首席执行官已经意识到他遭遇了一种名为“网络钓鱼”的深度换音造假。法里德认为,深度造假技术,甚至包括“深度换身”技术,在金融领域的欺诈很有可能呈肆虐之势。
“我可以制作一个杰夫·贝佐斯的深度换脸视频,让他在里面说亚马逊的股票正在下跌。”法里德说,“想想看,做空亚马逊股票能赚多少钱。当你控制它的时候,伤害已经造成了……现在再想象一下,当你看到一个民主党候选人说一些非法或漠不关心的话的视频时,你还认为你不能在选举前一天晚上左右成千上万选民的投票吗?”
法里德认为,社交媒体和深度造假视频的结合,无论是“深度换脸”还是“深度换身”,都很容易产生极大的不良影响。社交媒体公司经常无力或不愿调整他们的平台和内容,因此深度换脸可以像野火一样蔓延。
“当你把深度换脸的能力与在全球散布和消费这些内容的能力结合起来时,麻烦就来了。”他表示,“出于很多原因,我们生活在一个高度分化的社会,也因此人们常常会把意见相左的人往坏处想。”
但对于Fast.AI公司联合创始人瑞秋·托马斯来说,在新的网络冲突中,深度换脸对政治进程产生的负面影响几乎可以忽略不计,因为政府和行业已经在与书面形式的虚假信息作斗争。
她说,这些风险不仅与技术有关,还与人为因素有关。社会两极分化背景下,美国和其他国家的大片地区不再有可以完全信任的事实来源。
这种不信任可能会让有政治动机的“深度换脸”制造者有机可乘。正如隐私学者丹妮尔•西特龙所指出的,当深度换脸被揭穿时,它可以向那些相信谎言的人暗示,谎言是有一定道理的。西特恩称这是“说谎者的红利”。
法里德认为,“深度换身”技术的进步将在整体上使这类恶意深度造假的问题变得更糟。这项技术如今正在快速发展,很有可能在诸如《人人都在跳舞》等高校研究和“Zao”APP开发商的教唆下,将“深度换脸”合法化。
“一旦能对全身动作进行合成模仿,那时画面上就不再只是出现一个讲话的脑袋了,你甚至可以假装成别人做不雅事或杀人。”法里德说:“是不是已经可以这样操作了?目前可能还不能实现。但一两年后,人们就能做到全身深度模仿,这一猜想并不是没有道理的,而且一旦实现会发挥非常强大的作用。”
行业回应
目前,科技行业还没有达成根除深度换脸的共识,许多不同的技术正在研究和测试中。
例如,范德韦赫的研究团队创造了各种内部挑战,并探索了不同的方法。其中一个研究小组研究了胶片的数字水印以识别深度换脸。另一个团队则试图使用区块链技术来建立信任,这也是区块链技术本身的优势之一。另外,还有一个团队通过使用与最初“深度换脸”相同的深度学习技术来识别赝品。
“Sherlock AI是一个自动检测深度换脸的工具,由来自斯坦福大学的辍学生开发,”范德韦赫介绍,“因此,他们取样了一些卷积模型,然后在视频中寻找异常。这一过程也被其他深度换脸检测器使用,比如Deeptrace Labs。他们使用名为FaceForensics++的数据集,然后对其进行测试,其准确率高达97%,对人脸的识别效果也很好。”
Deeptrace Lab基于API(应用程序接口)的监控系统可以监测到深度伪造视频的创建、上传和共享。自2018年成立以来,该公司已经在互联网上发现了超过1.4万个虚假视频。
Deeptrace Lab的系统收集到的信息可以告诉公司及其客户,深度伪造品的制作者在做什么,伪造品来自哪里,他们在使用什么算法,以及这些工具的可访问性如何。
帕特里尼说,他的团队发现,95%的深度伪造品都是虚假色情类的“深度换脸”产品,大多数视频来自于一小撮名人。到目前为止,Deeptrace Lab还没有看到任何在野外应用的全身合成技术产品。
“你不能用单一的算法或想法来总结这些问题的解决方案,”帕特里尼表示,“这与建立一些能告诉你合成媒体不同情况的工具有关。”
范德韦赫认为反深度换脸技术的下一个重大发明将是软生物特征识别技术。每个人都有自己独特的面部表情——扬起的眉毛、嘴唇的动作、手部的动作,这些都可以作为某种个人特征。
加州大学伯克利分校的研究人员施卢蒂·阿加瓦尔使用了软生物计量模型来确定一些画面里的面部抽搐是否是为了视频效果而人为的结果。(阿加瓦尔的论文导师是深度造假视频专家、达特茅斯大学教授哈尼·法里德。)
“基本思路是,我们可以建立有关这些世界各国领导人的软生物识别模型,比如2020年总统候选人,然后倘若视频开始失真,我们可以对它们进行分析,来确定它们的真实性,”阿加瓦尔今年6月向伯克利新闻表示。
尽管考虑到不同的人在不同的环境下可能会呈现不同的面部抽搐,阿加瓦尔的模型并不完全可靠,但范德韦赫认为公司将来可以提供用于身份验证的软生物特征签名,这种特征可能是众所周知的眼睛扫描或全身扫描。
“我认为这是我们前进的方向:与学术界和大型科技公司合作,以创建更大的数据集。”范德韦赫表示,“作为新闻人,我们应该努力帮助媒体加深对深度伪造的了解。”
最近,Facebook和微软与大学联手发起了深度换脸检测挑战。另一个值得注意的努力是国防高级研究计划局的目标,即用语义鉴证法来处理深度换脸赝品,寻找造成错误的算法。
例如,一个人在深度换脸视频中戴了与其不相配的耳环。而在2018年9月,人工智能基金会筹集了1000万美元,通过机器学习和人类调解员创建了一个识别深度换脸和其他恶意内容的工具。
但是,托马斯仍然怀疑技术是否能完全解决深度换脸的问题,不管它们采取什么形式。她认为建立更好的系统来识别深度换脸是有价值的,但她重申,其他类型的错误信息也很猖獗。
托马斯说,利益相关者应该探索社会和心理因素,因为这些因素也会导致严重的深度换脸和其他错误信息。
为什么对深度换脸的监管难度很大?
托马斯、范德韦赫和法里德一致认为,政府将不得不介入并监管深度换脸技术,因为放大此类煽动性内容的社交媒体平台要么无力监管,要么不愿意监管自己的内容。
今年6月,众议院情报委员会主席、民主党众议员亚当·希夫就深度换脸技术造成的虚假信息和虚假信息威胁举行了首次听证会。希夫在开场白中指出,科技公司对此前的假视频做出了不同的反应。
YouTube立即删除了这段慢速播放的视频,而Facebook将其标注为假,并限制了它在整个平台上的传播速度。这些不同的反应导致希夫要求社交媒体公司制定政策,纠正深度换脸视频的上传和传播。
“在短期内,推广虚假信息和其他有害的、煽动性的内容对这些平台来说是有利可图的,因此我们的激励机制是完全错位的。”托马斯表示,“我不认为这些平台应该对它们所承载的内容承担责任,但我确实认为它们应该对它们积极推广的内容承担责任(例如,YouTube将亚历克斯•琼斯的视频推荐给那些甚至没有在寻找他的人160亿次)。”
托马斯补充道:“总的来说,我认为,考虑一下我们如何通过立法来处理那些将巨额社会成本外部化、同时私下要求利润的其它行业(如工业污染、大型烟草和快餐/垃圾食品),是有帮助的。”
帕特里尼表示,对合成媒体的监管可能会变得很复杂。但是他也认为,目前的一些法律,比如那些涉及中伤、诽谤和版权的法律,可以用来监管恶意的深度换脸。
帕特里尼说,出台一项全面禁止深度换脸的法律将是错误的行为。相反,他主张政府支持有利于社会的合成媒体应用,同时资助研究开发检测深度换脸的工具,并鼓励初创企业和其他公司也这么做。
  “政府还可以教育公民这种技术的存在,因此我们需要重新训练我们的耳朵和眼睛,不要相信我们在互联网上看到和听到的一切。”帕特里尼说:“我们需要给人们和社会先打好预防针,而不是在可能两年后因为滥用这项技术而发生非常灾难性或有争议的事情时才亡羊补牢。”
奥默表示,计算机视觉研究人员很清楚深度换脸技术的恶意应用。他认为政府应该为如何使用深度换脸技术建立问责制。
“我们都看到了图像理解的应用,以及它可能带来的好处,”奥默说,“但其中一个非常重要的部分是要明确承担哪些责任,以及谁将承担这一责任?采访过我的政府机构等显然看到他们也负有这一责任。公司也许为了股东的利益,他们可能也不得不表示他们看到了自己的责任;但是,到目前为止,我们心里都很清楚他们是如何处理这一责任的。”
“这是一件很棘手的事情,”奥默接着表示,“只是希望这一切都会过去……但是我们知道它将愈演愈烈。”
file:///C:/Users/le/AppData/Local/Temp/ksohtml1828/wps68.png
You’ve been warned: Full body deepfakes are the next step in AI-based human mimicry
This developing branch of synthetic media technology has commercial applications—but also has the potential to disrupt elections and spread disinformation.
In Russian novelist Victor Pelevin’s cyberpunk novel, Homo Zapiens, a poet named Babylen Tatarsky is recruited by an old college buddy to be an advertising copywriter in Moscow amid post-Soviet Russia’s economic collapse. With a talent for clever wordplay, Tatarsky quickly climbs the corporate ladder, where he discovers that politicians like then-Russian president Boris Yeltsin and major political events are, in fact, virtual simulations. With the advent of ever-more sophisticated deepfakes, it feels as if something like Pelevin’s vision is slowly coming true.
Within the field of deepfakes, or “synthetic media” as researchers call it, much of the attention has been focused full body deepfakes.
In August 2018, University of California Berkeley researchers released a paper and video titled “Everybody Dance Now,” demonstrating how deep learning algorithms can transfer a professional dancers’ moves developed an AI that can automatically generate whole body models of nonexistent persons, identifying practical applications in the fashion and apparel industries.
While it’s clear that full body deepfakes have interesting commercial applications, like deepfake dancing apps or in fields like athletics and biomedical research, malicious use cases are an increasing concern amid today’s polarized political climate riven by disinformation and fake news. For now, full body deepfakes aren’t capable of completely fooling the eye, but like any deep learning technology, advances will be made. It’s only a question of how soon full body deepfakes will become indistinguishable from the real.
SYNTHESIZING ENTIRE HUMAN BODIES
To create deepfakes, computer scientists use Generative Adversarial Networks, or GANs. Comprised of two neural networks—a synthesizer or generative network, and a detector or discriminative network—these neural networks work in a feedback loop of refinement to create realistic synthetic images and video. The synthesizer creates an image from a database, while the latter, working from another database, determines whether the synthesizer’s image is accurate and believable.
The first malicious use of deepfakes appeared Scarlett Johansson were mapped Fast.AI says that 95% of the deepfakes in existence are pornographic material meant to harass certain individuals with fake sexual acts. “Some of these deepfakes videos aren’t necessarily using very sophisticated techniques,” says Thomas. But, that is starting to change.
Farid points to the Chinese deepfake app Zao as being illustrative of how quickly the technology has evolved in less than than two years.
“The ones that I saw [from Zao] looked really, really good, and got around a lot of the artifacts, like in the movie versions where the face flickered,” says Farid. “It’s improving. Getting this as an app working at scale, downloading to millions of people, is hard. It’s a sign of the maturity of the deepfake technology.”
“With deepfake images and videos, we’ve essentially democratized CGI technology,” he says. “We’ve taken it out of the hands of Hollywood studios and put it in the hands of YouTube video creators.”
Björn Ommer, professor for computer vision at the Heidelberg University Collaboratory for Image Processing (HCI) & Interdisciplinary Center for Scientific Computing (IWR), leads a team that is researching and developing full body synthetic media. Like most researchers in the field, the group’s overall goal is to understand images and to teach machines how to understand images and video. Ultimately, he hopes the team gains a better understanding of how human beings understand images.
“We’ve seen synthetic avatars that have been created not just in the gaming industry but a lot of other fields that are creating revenue,” says Ommer. “For my group, in particular, it’s entirely different fields that we are considering, like biomedical research. We want to get a more detailed understanding of human or even animal posture over time, relating to disabilities and the like.”
There are critical differences between the processes of synthesizing faces and entire bodies. Ommer says that more research into face synthesis has been carried out. And there are a few reasons for this. First, any digital camera or smartphone has built-in face detection, technology that can be used for tasks like smile detection or to identify the person a viewer is looking at. Such applications can generate revenue, leading to more research. But they have also led to, as Ommer says, “a lot of data set assembly, data curation, and obtaining face images—the substrate upon which deep learning research is built.”
Secondly, and more interesting to Ommer, is that while each human face looks different, there isn’t much variability when the face is compared to an entire human body. “That is why the research on faces has come to a stage where I would say it is creating really decent results compared to entire human bodies with much more variability being there, much more complicated to handle, and much more to learn if you head in that direction,” says Ommer.
Ommer isn’t sure when full synthesized bodies will be of the quality that he and researchers want. Looking at the maturation of malicious deepfakes, however, Ommer notes that humans can already be tricked quite easily without fakes created by deep learning computer vision intelligence, artificial intelligence, or other technologies.
“But, if you want to make it appealing to larger society, it will take a few more years,” says Ommer, who says full body and other deepfakes will become cheaper and more prevalent. “The research community itself has moved in a direction—and this is very much appreciated by much of the community that is responsible for a lot of this steady progress that we see—where the algorithms are easily available, like on Github and so on. So, you can just download the most recent code from some paper, and then, without much knowledge of what’s under the hood, just apply it.”
FEELING “POWERLESS AND PARALYZED”
Not every person will be able to create a “blockbuster deepfake.” But, given more time, Ommer says money will no longer be an issue in terms of computational resources, and the applicability of software will also become much easier. Farid says that with full body deepfakes, malicious creators will be able to work deepfake technology’s typically stationary figure talking directly into the camera, making targets do and say things they never would.
Tom Van de Weghe, an investigative journalist and foreign correspondent for VRT (the Flemish Broadcasting Corporation), worries that journalists, but also human rights activists and dissidents, could have footage of them weaponized by full body deepfakes.
The explosion of fake news during the 2016 election, and the rise of deepfakes in 2017 inspired Van de Weghe to research synthetic media. In the summer of 2018, he began a research fellowship at Stanford University to study ways of battling the malicious use of deepfakes.
“It’s not the big shots, the big politicians, and the big famous guys who are the most threatened,” says Van de Weghe. “It’s the normal people—people like you, me, female journalists, and sort of marginalized groups that could become or are already becoming the victims of deepfakes.”
Two weeks ago, Dutch news anchor Dionne Stax discovered her face “deepfaked” onto a porn actress’s body, after the video was uploaded to PornHub and distributed on the internet. Although PornHub quickly removed the video, Van de Weghe says that the damage to her reputation had already been done. He also points to China’s AI public broadcasters as proof that the Chinese government has the capability to pull off realistic deepfakes.
To imagine how a full body deepfake might work, Van de Weghe points to 2018 footage of Jim Acosta, CNN’s chief White House correspondent. In a video clip uploaded by Paul Joseph Watson, an editor at conspiracy theory site Infowars, Acosta seems to aggressively push a white house staffer trying to take his microphone. The original clip, broadcast by C-SPAN, differs markedly from Watson’s. The Infowars editor claimed he didn’t doctor the footage and attributed any differences to “video compression” artifacts. But, as The Independent demonstrated in a side-by-side analysis of the videos in an editing timeline, Watson’s video is missing several frames from the original. A full body deepfake could, like editing video frames, alter the reality of an event.
Deeptrace Labs, founded in 2018, is a cybersecurity company that is building tools based on computer vision and deep learning to analyze and understand videos, particularly those that could be manipulated or synthesized by any sort of AI. Company founder Giorgio Patrini, previously a postdoc researcher on deep learning at the DELTA Lab, University of Amsterdam, says that a few years ago he started investigating how technology could prevent or defend against future misuse of synthetic media.
Patrini believes that malicious deepfakes, made up of a combination of synthetic full bodies, faces, and audio, will soon be used to target journalists and politicians. He pointed to a deepfake porn video that featured Indian journalist Rana Ayyub’s face swapped >told Mother Jones that he did not believe the video of the president had been synthesized.
“We couldn’t find any reasons to believe it was a deepfake, and I think that was later confirmed that the president is still alive but that he’d had a stroke,” says Patrini. “The main point I want to make here is that it doesn’t matter if a video is a deepfake or not yet—it’s that people know that it can spark doubt in public opinion and potentially violence in some places.”
Recently, Van de Weghe learned that a political party operative approached one of the most popular deepfake creators, requesting a deepfake to damage a certain individual. Such custom, made-to-order deepfakes could become big business.
“There is money to be earned with deepfakes,” says Van de Weghe. “People will order it. So, a government doesn’t have to create a deepfake—they just have to contact a person who is specialized in deepfakes to create one.”
The Wall Street Journal recently reported that a UK energy company CEO was fooled into transferring $243,000 to the account of a Hungarian supplier. The executive said he believed he was talking to his boss, who had seemingly approved the transaction. Now, the CEO believes he was the victim of an audio deepfake scam known as vishing. Farid believes other fraudulent deepfake financial schemes, which might include full body deepfakes, are only a matter of time.
“I could create a deepfake video of Jeff Bezos where he says that Amazon stock is going down,” says Farid. “Think of all of the money that could be made shorting Amazon stock. By the time you rein it in, the damage has already been done. . . . Now imagine a video of a Democratic party nominee saying illegal or insensitive things. You don’t think you can swing the vote of hundreds of thousands of voters the night before an election?”
Farid thinks a combination of social media and deepfake videos, whether of faces or full bodies, could easily wreak havoc. Social media companies are largely unable or unwilling to moderate their platforms and content, so deepfakes can spread like wildfire.
“When you pair the ability to create deepfake content with the ability to distribute and consume it globally, it’s problematic,” he says. “We live in a highly polarized society, for a number of reasons, and people are going to think the worst of the people they disagree with.”
But for Fast.AI’s Thomas, deepfakes are almost unnecessary in the new cyber skirmishes to negatively influence the political process, as governments and industry already struggle with fake information in the written form. She says the risks aren’t just about technology but human factors. Society is polarized, and vast swaths of the United States (and other countries) no longer have shared sources of truth that they can trust.
This mistrust can play into the hands of politically motivated deepfake creators. When a deepfake is debunked, as privacy scholar Danielle Citron noted, it can suggest to those who bought the lie that there is some truth to it. Citron calls this “the liar’s dividend.” Farid thinks advancements in full body deepfake technology will make the overall problem of this type of nefarious deepfakery worse. The technology is evolving fast, spurred by university research like “Everybody Dance Now” and private sector initiatives such as Zao to monetize deepfakes.
“Once you can do full body, it’s not just talking heads anymore: you can simulate people having sex or killing someone,” Farid says. “Is it just around the corner? Probably not. But eventually it’s not unreasonable that in a year or two that people will be able to do full body deepfakes, and it will be incredibly powerful.”
INDUSTRY RESPONSE
Currently, no consensus approach to rooting out deepfakes exists within the tech industry. A number of different techniques are being researched and tested.
Van de Weghe’s research team, for instance, created a variety of internal challenges that explored different approaches. One team investigated digital watermarking of footage to identify deepfakes. Another team used blockchain technology to establish trust, which is one of its strengths. And yet another team identified deepfakes by using the very same deep learning techniques that created them in the first place.
“Some Stanford dropouts created Sherlock AI, an automatic deepfake detection tool,” says Van de Weghe. “So, they sampled some convolutional models and then they look for anomalies in a video. It’s a procedure being used by other deepfake detectors, like Deeptrace Labs. They use the data sets called FaceForensics++, and then they test it. They’ve got like 97% accuracy and work well with faces.”
Deeptrace Labs’ API-based monitoring system can see the creation, upload, and sharing of deepfake videos. Since being founded in 2018, the company has found over 14,000 fake videos on the internet. Insights gleaned by Deeptrace Labs’ system can inform the company and its clients about what deepfake creators are making, where the fakes came from, what algorithms they are using, and how accessible these tools are. Patrini says his team found that 95% of deepfakes are face swaps in the fake porn category, with most of them being a narrow subset of celebrities. So far, Deeptrace Labs hasn’t seen any full body synthesis technology being used out in the wild.
“You cannot really summarize a solution for these problems in a single algorithm or idea,” says Patrini. “It’s about building several tools that can tell you different things about synthetic media overall.”
Van de Weghe thinks the next big thing in anti-deepfake technology will be soft biometric signatures. Every person has their own unique facial tics—raised brows, lip movements, hand movements—that function as personal signatures of sorts. Shruti Agarwal, a researcher at UC-Berkeley, used soft biometric models to determine if such facial tics have been artificially created for videos. (Agarwal’s thesis adviser is fake video expert and Dartmouth professor Hany Farid.)
“The basic idea is we can build these soft biometric models of various world leaders, such as 2020 presidential candidates, and then as the videos start to break, for example, we can analyze them and try to determine if we think they are real or not,” Agarwal told Berkeley News in June of this year.
Although Agarwal’s models aren’t fullproof, since people in different circumstances might use different facial tics, Van de Weghe think companies could offer soft biometric signatures for identity verification purposes in the future. Such a signature could be something as well-known as eye scans or a full body scan.
“I think that’s the way forward: create bigger data sets in cooperation with academics and big tech companies,” Van de Weghe says. “And we as newsrooms should try and train people and build media literacy about deepfakes.”
Recently, Facebook and Microsoft teamed up with universities to launch the Deepfake Detection Challenge. Another notable effort is the Defense Advanced Research Projects Agency’s (DARPA) goal of tackling deepfakes with semantic forensics, which looks for algorithmic errors that create, for instance, mismatched earrings worn by a person in a deepfake video. And in September 2018, the AI Foundation raised $10 million to create a tool that identifies deepfakes and other malicious content through both machine learning and human moderators.
But, Fast.AI’s Thomas remains skeptical that technology can fully solve the problem of deepfakes, whatever form they might take. She sees value in creating better systems for identifying deepfakes but reiterates that other types of misinformation are already rampant. Thomas says stakeholders should explore the social and psychological factors that play into deepfakes and other misinformation as well.
WHY IT’S TOUGH TO REGULATE DEEPFAKES
Thomas, Van de Weghe, and Farid all agree that governments will have to step in and regulate deepfake technology because social media platforms, which amplify such incendiary content, are either unable or unwilling to police their own content.
In June, Rep. Adam Schiff (D-CA), chair of the House Intelligence Committee, held the first hearing on the misinformation and disinformation threats posed by deepfakes. In his opening remarks, Schiff made note of how tech companies responded differently to the fake Pelosi video. YouTube immediately deleted the slowed-down video, while Facebook labeled it false and throttled back the speed at which it spread across the platform. These disparate reactions led Schiff to demand social media companies establish policies to remedy the upload and spread of deepfakes.
“In the short-term, promoting disinformation and other toxic, incendiary content is profitable for the major platforms, so we have a total misalignment of incentives,” says Fast.AI’s Thomas. “I don’t think that the platforms should be held liable for content that they host, but I do think they should be held liable for content they actively promote (e.g. YouTube recommended Alex Jones’ videos 16 billion times to people who weren’t even looking for him).”
“And, in general, I think it can be helpful to consider how we’ve [legislatively] dealt with other industries that externalize large costs to society while privately claiming the profits (such as industrial pollution, big tobacco, and fast food/junk food),” Thomas adds.
Deeptrace Labs’ Patrini says regulation of synthetic media could prove complicated. But, he believes some current laws, like those covering defamation, libel, and copyright, could be used to police malicious deepfakes. A blanket law to stop deepfakes would be misguided, says Patrini. Instead, he advocates government support for synthetic media applications that benefit society, while funding research into creating tools to detect deepfakes and encouraging startups and other companies to do the same.
“[Government] can also educate citizens that this technology is already here and that we need to retrain our ears and eyes to not believe everything we see and hear on the internet,” says Patrini. “We need to inoculate people and society instead of repairing things in maybe two years when something very catastrophic or controversial might happen because of misuse of this technology.”
Ommer says computer vision researchers are well aware of the malicious applications of deepfakes. And he sees a role for government to play in creating accountability for how deepfakes are used.
“We all see applications of image understanding and the benefits that it can potentially have,” says Ommer. “A very important part of this is responsibility and who will take a share in this responsibility? Government agencies and so on who have interviewed me obviously see their share in this responsibility. Companies say and probably—in the interest of their stockholders—have to say that they see their responsibility; but, we all know how they have handled this responsibility up until now.”
“It’s a tricky thing,” Ommer says. “Just hoping that this will all go away . . . it won’t.”
文章来源:数据观
作者:王婕
原文链接:https://mp.weixin.qq.com/s/xHeZanjuDPw-OFPyBzBXsw
编辑:高杰

228#
 楼主| 发表于 2019-9-30 17:18:00 | 只看该作者
【案例】
技术、伦理与商业:克隆猫们有未来吗?
克隆猫“大蒜”(左)和代孕猫(右)
采访 | 王承志 汤佩兰
撰文 | 汤佩兰
责编 | 李晓明 王承志
9月20日是克隆猫 “大蒜” 正式回到主人身边的日子,距离它出生正好满两个月。头顶 “国内首只商业克隆猫” 名号的 “大蒜”,在过去一个多月里频频出现在媒体报道中,也让克隆的话题又一次回到大众的视线。
亲眼看到 “大蒜” 时,一点也看不出来它就是一只克隆猫。和所有英国短毛猫一样,灰蓝的瞳孔、粉色的小爪、灰白相间的身体,在身旁一只暗褐毛色狸花猫的映衬下,它显得更加小巧娇憨。
这只狸花猫正是 “大蒜” 的代孕母亲。据希诺谷生物科技有限公司(下称“希诺谷”)副总经理赵建平介绍说。
克隆猫“大蒜”和代孕猫
克隆猫的保育间跟平常小区楼下的宠物店相差无几,除了 “大蒜” 和母猫在地上嬉戏,另一侧并排叠起的笼子里还装着一只小狗。
这是此前《知识分子》探访位于北京市昌平区科技园区的大楼三楼看到的场景,在这个面积1300平米的空间里,实验室、办公室和克隆宠物保育区一应俱全,可以完成动物克隆的整个过程。
赵建平打开一台监控显示屏,可以看到在隔壁保育间里还有十多条克隆狗。他告诉我们最近有一只狗得了流感,除了保育员基本不见外人。
实验室和办公室之间用一道铁门隔开。在获得允许后,外来人员需穿上蓝色晴纶大褂,戴上鞋套,在工作人员的带领下方能进入实验室。出生刚满月余的 “大蒜” 就在实验室最深处的小保育室。
这些克隆猫犬是如何诞生的?除了克隆宠物,希诺谷还在做什么?在交流中,我们能明显感受到这家生物科技公司对媒体的报道态度积极,他们希望外界能更多了解克隆。
“没法用钱衡量”
诸多数据佐证近年来国内宠物产业兴旺,但对于克隆这一小众的领域,大众的接受度到底如何?
2015年,在正式启动第一只克隆狗 “龙龙” 的项目之前,希诺谷团队展开了为期大半年的市场调研。其中一项任务是工作人员在中国农业大学动物医院、北京美联众合动物医院等宠物医院分发了七八百份调研问卷。
克隆狗 “龙龙”
调查结果显示,将近20%的调查对象愿意接受克隆宠物。
在2005年,韩国秀岩生物科技(Sooam Biotech)公司克隆出世界上首例体细胞克隆狗,取名为 “Snuppy”。目前该公司的客户遍及全球,每次克隆需要支付的价格是10万美元。
即便按照韩国公司10万美元的定价,仍然有超过5%的调查对象表示接受。尽管问卷填写意向跟实际下单客户之间难免会有差距,但这一数据还是超过了团队预期。赵建平表示,  “中国的宠物基数太大,这个比例已经非常高了。这里面我们选择宠物医院,本身去宠物医院的宠物普遍是得病的,那么(会选择)克隆的意愿更强烈一些。”
受到市场意愿调研的鼓舞,2016年3月份希诺谷公司正式开始进行克隆狗实验,跟其他动物相比,狗在克隆动物领域难度是公认的,并且体现在每个环节。
“首先,做克隆需要成熟的卵子,大多数动物包括人、猴子都可以采用激素超排。但狗在使用激素后,卵子超排质量差且不成熟。”赵建平说, “(而且)真正成熟、质量最好的卵子窗口期基本上就是两三个小时,超过这个时间,无论前后,卵母细胞都用不了。这个攻克不了,第一步就限制了很多人想做克隆狗。”
另外,跟很多动物的卵子细胞相比,狗的卵子细胞脂肪含量高,颜色呈黑色。即便在显微镜下也很难看清细胞结构,找到细胞核的位置再去除,技术操作的精细度、经验要求更高。然后将含有 DNA 的体细胞放进卵子中,再经过融合激活等操作后将胚胎移入代孕犬的输卵管。
经历一年多的摸索,2017年5月份,首例体细胞克隆狗龙龙诞生。在希诺谷,商业克隆一条宠物狗的价格是38万,猫的价格是25万。团队对此的考虑是:成本、利润和市场。考虑到韩国的10万美元定价的支付群体有限,因此定价上相对韩国稍低。
从2018年至今,希诺谷关于克隆狗的生意已经做了近50单。其中有 60%~70% 的客户是失去了原先的宠物。赵建平表示, “可能很多就是家里养的串串(混血犬),按品种并不值钱,但是自己养的没法用钱衡量。”
“因为大蒜给我一种灵性,特别人性化的感觉。当时因为自己的观察不周,导致大蒜去世,所以心里非常不舍和懊悔。选择克隆 ‘大蒜’,希望它能再回到我身边,再给自己一次好好照顾它的机会。” [1] “大蒜” 的主人在希诺谷的官网上如是说。
出乎该公司预料,从接触的客户来看,能够接受38万元克隆狗的群体并非都是家庭条件优渥,但他们对于宠物的感情非常深厚,因此选择了克隆。赵建平透露说,随着克隆效率的提升,价格还有下降空间。
但是,克隆并非百分百复制。无论是克隆猫大蒜还是先前的克隆狗,对宠物爱之深切的客户往往很快发现,克隆出来的小家伙跟“原版”在外形上并非一模一样,尤其是带斑点的,斑点位置可能发生变化。
除此之外,客户普遍反映克隆出来的小狗太淘气了。这可不是基因的缘故,经过分析发现选择克隆的家庭,常常因为 “失而复得” 自己心爱的宠物,往往会更溺爱它,所以跟原来的宠物相比,新的小家伙会更淘气些。
幕后的代孕妈妈
众所周知,克隆狗的孕育离不开代孕母体。目前,希诺谷在北京有三个比格犬的繁育基地,共计1000多只比格犬。比格犬的特点很明显,它们受人类驯化时间长、实验配合度高、遗传性疾病少且性状稳定。
繁育和使用比格犬需要国家专门机构颁发的实验动物许可证,包括《实验动物生产许可证》和《实验动物使用许可证》,获得许可证的条件中包括具有动物福利、伦理审查、生物安全管理制度。[2] 以比格犬为例,饲养环境也有一定标准,面积不能低于1.2平米,温度在18~28℃,包括湿度、通风次数也都有要求。
克隆公司往往会优先选择生育过、母性较强的代孕妈妈来完成代孕任务。
由于克隆胚胎发育能力较低,希诺谷每组克隆实验中通常包含三个提供卵子细胞的供体,得到十枚克隆胚胎,移植到一只代孕比格犬的体内,克隆猫移15枚,猪则移300枚, “这些数量是摸索出来的经验”。赵介绍说。
希诺谷实验室内景
BBC 曾经报道,Snuppy 的代孕母亲是一只黄色的拉布拉多。为了诞生一只克隆狗,韩国团队取出超过1000个胚胎,将其植入123只代孕母体,三只获孕。其中一只流产、一只在出生后不久后去世,仅存的就是 Snuppy。[3]
外界较多争议的是,克隆对代孕动物造成的创伤。2018年生物伦理学家杰西卡·皮尔斯(JessicaPierce) 在《纽约时报》上撰文表达克隆对代孕犬群体的影响,“整个下层的狗将被视为物品,来作为人类商业和赚钱机器运转的齿轮。”[4]
面对争议,希诺谷团队认为公众对代孕动物有很大误解。 “动物绝育的创伤远比这个大得多。” 赵建平表示,无论是取卵子细胞还是做胚胎移植,相当于一个外科手术,对内脏器官组织没有创伤,基本一周就可以恢复。等到做完克隆实验后,团队会有专门的保育组负责照顾这些小狗和小猫,尤其检测出怀孕后更会重点管理,直到把小家伙顺利交到主人手上。
赵建平还将克隆动物和药物实验用动物进行对比,动物用完药物后很受罪,最后这些动物的归宿大多是做安乐死。而他们实验用的比格犬之后还可以继续代孕,或者找人领养。
“(代孕)实际上也是正常受孕的过程,对于动物而言它只是一种天性,确实伤害比较小。”一位来自湖北某高校、长期研究实验动物福利和伦理的学者告诉《知识分子》。
他指出,商业克隆代孕让宠物复生,和很多地方把猫和狗当成种猫种狗进行繁殖然后买卖的情况并不一样。(代孕动物)一般在各种身体机能都符合怀孕而且还很强壮的条件下怀孕,而非长期无序地去做这件事情,只要能够在过程中给予好的对待即可。
关于伦理上的讨论,该名学者表示动物伦理跟通常说的伦理学有一定区别,最大区别在于人类伦理的研究发展了几千年,有完整的知识结构可以得出结论或做出指导。但实验动物的出现只有一百年,动物伦理的研究时间更短,造成这一领域存在很多空白的地方,还有待进一步研究。
克隆家宠只是开始
除了完成客户委托的商业克隆,希诺谷还和云南农业大学合作,利用体细胞克隆技术培育功勋警犬。
为什么会有克隆警犬项目的需求呢?赵建平解释,选择克隆的工作犬本身价值就非常高,当前国内的工作犬基本从国外进口,一条优质警犬的价值甚至可达上百万。
挽救濒危动物,甚至 “复活” 早已灭绝的动物也已成为克隆话题中绕不开的一环。2000年,最后一只布卡尔多山羊(bucardo)去世,八年后,弗尔奇(J.Folch)团队将已经灭绝的布卡尔多山羊克隆重生,这是已知的人类复活灭绝生物第一例。[5]
2017年,哈佛大学教授乔治·切奇(GeorgeChurch)宣布正尝试克隆约4000年前灭绝的猛犸象,这个试图 “复活” 猛犸象的计划同样还吸引着俄罗斯、中国、韩国等国的科学家投入其中。赵建平表示,他们也在跟有关机构探讨建立濒危或者野生动物的体细胞保存库,包括保留血液样本和 DNA,在国家政策允许并立项的情况下,开展濒危、珍稀野生动物的克隆研究,保存野生动物种质资源。但要开展濒危动物克隆,摆在眼前的首要难点是如何实现异种克隆甚至人造子宫。由于这类动物本身种群数量少、繁育能力低,现有的繁殖方式和技术不能保证种群数量的稳定,需要用到克隆技术,而代孕动物的选择就是首先要解决的难题。
目前,该公司还提供动物的基因检测、基因编辑、细胞治疗等技术服务。但克隆宠物仍是这家企业最主要的业务和营收来源。
唯一的玫瑰
动物克隆的更进一步就是人的克隆,人们忧虑或许有天醒来发现在某个地下实验室里克隆人已经诞生。
难点并非在技术, “人的整个生殖生理结构很清楚,但目前还是红线。” 赵建平说。
2005年,第59届联合国大会投票通过了《联合国关于人类克隆宣言》,呼吁成员国禁止一切形式的人类克隆。但这份宣言并没有成为全面禁止人类克隆的国际公约,不同国家对于克隆人的立场难以达成共识。中国、日本、新加坡等34个国家投反对票,中国的态度是反对生殖性克隆,但支持治疗性克隆。[6]
上述学者提到,1996年多莉羊的诞生距今已有二十多年,从技术角度而言克隆已经很成熟。但对于人类以外的动物胚胎管理,国家还没有明确的法律。
目前有过公开报道的掌握克隆狗技术的商业公司,分别在中、美、韩三个国家,各国都不存在法律前置审批。从现实看,企业比公众更希望监管到位,大众对克隆技术随意的想象反过来不利于企业接受风投和发展。
赵建平表示,国家介入监管立法的过程中会征询很多专家的建议,分析行业发展趋势,意味着规定什么能做,什么不能做,这对企业而言有利无害。而上述提到的许可证要求,更多是针对操作的规范性而非具体的管理办法。
另外,不少质疑克隆技术的观点认为,克隆出来的生命是在原来生命体岁数基础上累计的,控制细胞生长的线粒体端粒会随着细胞分裂缩短,年老的动物线粒体端粒通常比年轻的动物更短。[7] 但有多项研究表明,克隆生物的寿命跟普通动物没有区别,克隆出生的它们也同样具有繁育能力。[8] [9]
今天,只要人有意愿克隆自己的宠物,已有的技术基本保证将你心爱宠物的 DNA无限存续下去,甚至包括它的性格、习惯、外在特征等等。但随着每一个它的消失,无法克隆的是你们一起度过的时间、记忆和情感。
法国作家圣·埃克苏佩里用童话的方式告诉世人什么是宇宙中唯一的玫瑰,“是你在她身上付出的时间让她变得无可替代”。
技术给予人们更多的选择,而如何面对新的 “玫瑰” 则是另一回事。
图源希诺谷
参考资料
制版编辑 |皮皮鱼
来源:微信公众号“知识分子”
编辑:晓晴

229#
 楼主| 发表于 2019-10-1 22:56:09 | 只看该作者
【案例】
央视网与科大讯飞战略合作 "人工智能编辑部"建设提速
央视网消息:近日,央视网与科大讯飞战略合作签约仪式在北京举行。这是央视网落实中央广播电视总台“5G+4K+AI”战略布局、建设“人工智能编辑部”的重要举措之一。根据战略合作协议,双方将围绕智能硬件终端、媒体融合智能应用以及垂直领域智能化,共同打造智能媒体软硬件解决方案,将AI能力应用到央视网各个媒体场景中。
央视网与科大讯飞战略合作签约仪式在京举行(刘会成摄)
早在今年5月,央视网与科大讯飞就达成了融媒体智能终端合作,共同打造融媒体智能终端产品:讯飞智能笔记本青春版。这一“媒体+AI”的人工智能终端将成为央视网在PC、移动、IPTV、OTT等多终端之外的另一个智能终端硬件入口,实现主流媒体内容与AI智能设备深度融合,最大程度的让优质内容触达更多用户。
央视网董事长、总经理钱蔚在签约仪式上表示,站在中央广播电视总台发展的新起点,央视网与央广网、国际在线等总台“三网”新媒体紧密协作,共同建设“人工智能编辑部”,以视听为特色,对总台的优势资源进行智能化开发,致力打造独具总台“智造”特色的创新产品。此次央视网与科大讯飞战略合作,提升了合作深度,将以人工智能技术为驱动,开发全场景智能化产品和服务,为用户提供个性化的新闻资讯服务和更美好的视听体验。
科大讯飞是亚太地区知名的智能语音和人工智能上市企业。科大讯飞集团高级副总裁杜兰在签约仪式上表示,科大讯飞专注人工智能20年,不仅在语言处理方面处于国际一流,而且近年来,已经在媒体、医疗、教育、娱乐等行业进行产业赋能,与央视网拥有良好的合作基础。此次央视网与科大讯飞的强强联手,有望开辟媒体跨界融合的新模式,为媒体转型插上人工智能的翅膀。
央视网新媒体创新孵化中心总经理宋维君介绍说,本次战略合作协议的签署,将充分结合央视网的资源优势与科大讯飞的技术优势,实现互利共赢,推动行业发展。双方将基于各自优势资源,在智能硬件、智能广告、智能应用、人工智能普及等方面开展深入合作。
央视网正加大与顶级AI技术机构的合作,加快“人工智能编辑部”建设,包括集智能创作、智能加工、智能运营、智能推荐、智能审核“五智”于一体的人工智能集成服务平台,构建全媒体传播体系的“智慧中枢”,为用户提供智能化的多场景服务。今年7月,央视网与百度智能云战略合作,双方将共建人工智能媒体研发中心,联合打造媒体产业人工智能产品。央视网联手阿里云建设的大数据中台,目前已经具备每天处理100亿条数据的能力,是目前主流媒体中数据量最大和处理能力最强的数据平台之一,已形成“记者头条”等多款大数据产品。
业内人士认为,央视网作为中央广播电视总台主办的中央重点新闻网站,以“新主流、智平台、全媒体”为发展理念,全力建设“人工智能编辑部”,将加速人工智能技术在媒体行业落地应用,并发挥“新闻网站+集成播控平台”过亿用户的覆盖传播优势,以“媒体+AI”推动全面转型升级,进一步增强主流新媒体的传播力、引导力、影响力、公信力。
责任编辑:王敬东
来源:央视网
编辑:晓晴

230#
 楼主| 发表于 2019-10-1 23:13:46 | 只看该作者
【案例】
加码18项技术服务,加速AI部署与应用

您是否已经有足够的技能傍身,在人工智能领域大展拳脚?还是需要加持更多技能或者升级现有技术能力,以便全盘搞定应用场景落地?
百度大脑 AI 开放平台在日常的技术能力输出中,收到众多企业及个人开发者反馈,对我们有新的需求和要求,我们也在不断努力和迭代,为您提供更好更全面的服务。
8月,我们就针对大家的应用场景、使用反馈,做了18项技术服务的新开放和新升级。
如果您也需要,如果您也希望一直走在 AI 最前面,占据优势地位,一起来看:
AI 开放能力
全面开放、服务升级、商用保障,多种形式支持您的产品服务,加速创新、稳定可靠。
1. 文字识别 OCR:3项能力升级
名片识别
1)支持识别更多样式名片的 姓名、公司、职位、手机号电话、邮箱、地址、邮编、网址 等字段;
2)公司、邮箱、网址字段识别召回率提升30%;职位、手机号、地址字段识别召回率提升10%。


二维码识别
优化二维码/条形码检测模型,总体识别召回率大幅提升,通用场景下可达 98%。


手写文字识别
模型升级,手写中文识别准确率提升至 95%以上,识别效果与速度双指标保持行业 Top 1。
2. 图像搜索:1项能力升级
相同图片搜索
模型升级,检索效果更精准,TOP1准确率提升至93%以上,实现相同图片、高度相似图片的精准搜索。
3. 图像处理:2项能力全面开放
图像风格转换
轻松实现图片的风格转换,将原图像转换成卡通画或素描等风格。
拉伸图像恢复
无需手动检查和修改,自动识别过度拉伸的图像,将图像内容恢复成正常比例。


4. 车辆分析:1项能力升级,2项能力全面开放
车型识别
模型升级,提升识别准确率,并支持近期新款车型,TOP 5识别准确率提升至91%以上。
车辆检测
识别图像中小汽车、卡车、巴士、摩托车、三轮车5类车辆,并分别计数,同时可定位小汽车、卡车、巴士的车牌位置。可用于违章停车检测、车位占用情况统计等场景。
车辆外观损伤识别
针对常见小汽车车型,识别车辆外观受损部件及损伤类型,可识别30+种车辆部件、5大类外观损伤(刮擦、凹陷、开裂、褶皱、穿孔)。在识别部件损伤类型的基础上,进一步返回损伤部位的详细数值化信息(长宽、面积),精准判定损伤程度,实现真正的 AI 智能定损。


AI 开发平台
零代码基础、零开发成本,也能轻松使用 AI 开发平台,操作简单,功能强大
1. EasyDL 定制化训练和服务平台
零售版商品检测升级
1)推出货架拼接服务,支持将多个货架局部图片或视频,组合为完整货架图片。同时支持输出在完整货架图中的商品检测结果,包含 SKU 的名称和数量,适用于需要在长货架进行商品检测的业务场景。提供可直接使用的APP,可二次开发的 SDK 和云服务 API,充分满足各类开发需求。
2)定制商品检测服务接口支持返回客户自定义的商品编号,可用作直接对接客户自己的商品管理系统。
定制化图像分类算法升级
离线 SDK 模型训练新增高精度算法,可与云服务模型达到相同效果。


定制化物体检测算法升级
离线 SDK 模型训练高精度算法效果提升。


定制化图像分割全新上线
零算法基础训练业务定制图像分割模型,支持多边形标注训练数据,模型可识别图中每个物体的名称、位置(像素级轮廓)并计数,适合图中有多个主体、需要识别主体位置或轮廓的场景。


2. 内容审核平台
内容审核平台与 EasyDL 进行打通,支持审核模型定制,分钟级策略更新
1)特殊场景识别:对某些场景进行过滤,如需要过滤在车内直播、在床上直播的场景;
2)特殊物品、行为过滤:如需要对某个雕塑、建筑物、旗帜、标语、手势、表情等进行过滤;
3)百度官方违禁库,及时接收上级监管指令,分钟级别更新,自动生效至系统预置审核策略中,保证审核结果及时过滤最新风险事件。
新增预置策略——用户头像审核
社交场景用户资料审核:对头像中是否包含真人脸、占比大小、人脸清晰度、倾斜、遮挡等情况进行审核。
新增二维码识别,支持内容/链接安全检测
智能检测图片中是否包含二维码,及二维码内容,过滤违规内容和安全隐患。


3. 语音自训练平台
零代码自助训练语言模型,模型上线新增 API 方式调用,灵活易用
近场语音输入(搜索模型、输入法模型)在现有 Android、iOS、LinuxSDK 的调用方式上新增 API 方式,调用方式简单灵活,适配更多操作系统平台。
多场景使用语音自训练平台,专业领域词汇识别率提升明显
上线以来,已有医疗、金融、农业、教育、餐饮、物流、建筑、地产等多家行业客户训练使用,将模型上线应用到业务数据采集录入、音频关键词质检、智能语音助手、呼叫中心等语音识别场景上,专业领域的词汇识别率有效提升5-25%。
4. AI Studio
教育版添加使用引导,支持视频与文档课件
教育版使用引导可以让教师更加快速的开展教学任务;支持文档型和视频型课件,教学内容多样化,让学生的学习更加轻松。
Notebook 项目支持多版本
Notebook 项目多版本功能上线,单个项目可生成5个版本,用户可选择特定版本进行 fork,管理交流更加便捷。
Notebook 项目体验持续优化
Notebook 项目编码区界面全新改版,功能更加丰富。


集成与部署
多端软硬件集成与部署、多款适配主流模型的产品,配套硬核,实力强劲。
1. Edgeboard
Edgeboard FZ5A 软核正式发布,支持 FZ5A 计算卡擦写升级,是一款高性能、高通用、开发便捷的 AI 计算卡,助力 AI 应用开发快速实现。


2. 百度大脑认证硬件产品
视派尔 USB 单目 RGB 镜头C-EP28WD305,支持高清摄像头功能,强光抑制,暗光补偿,同时可进行人像优化、场景优化,且是一款低功耗USB CAM。

轻客小觅双目深度模组 MYNT EYED1200,为安卓手机量身定制的双目立体感知手机模组,内置深度计算芯片,无需上位机直接输出深度,已在全球范围内服务超1500家企业和学校客户。


场景案例
跨行业场景应用,聚焦产业智能化落地,完整方案,共享成果。
1. 企业服务场景方案:一眼看尽好评差评,NLP 助力企业实现智能化服务评分
借助百度大脑的 NLP 能力,国美搭建起了完整的智能评分平台架构。AI 赋能后的服务考核监督机制得以升级,用户的差评反馈都会被自动分析处理,大大提升了服务效率与服务质量。
百度大脑的 NLP 能力在这套智能评分平台的效果准确率很高,评论观点抽取准确率,正向可达93.3%,负向可达86.24%;情感倾向分析准确率,正向可达91%,负向可达98%。服务评分的智能化,使得国美客服运营人力需求从一天5人降低到3人,客户问题处理率从60%提升至100%,售后师傅的差评频率也整体降低了7%。
2. 电商场景方案能力预告:电商评论分析解决方案
挖掘电商评论中的核心观点,全面理解售后反馈与消费者感受,帮助电商企业快速搭建基于评论的数据业务分析系统,通过用户反馈找到产品优化方向并提升口碑。
AI 市场
丰富的 AI 上下游产品聚集地,无缝对接买卖双方,撮合交流,快速应用。
1. 移动端支持购买与支付
手机访问百度 AI 市场(aim.baidu.com),可在手机端享受浏览、咨询、下单并支付的全流程购买体验,不受办公室制约,随时随地挑好货,轻轻松松完成采购。
2. 需求广场强势上线
买家需求经过市场审核即可挂在需求广场中公开招标,AI 市场服务商自由认领后即可与买家直接沟通联系。优质商机获得最快速的响应,服务商再也不用担心没有商机啦。
3. 优质服务商及商品持续入驻
上海复创、广州棋云、深圳优本、广州头文科技、北京布本智能、深圳启望科文等多家优质服务商于 AI 市场上线并售卖抓拍机、人脸识别门禁、镜头模组、智能机器人等硬件产品,以及会务系统管理、舆情监测、智能语音解决方案,性价比高,品质有保障。
1)复创 Phoenix_3D 结构光人脸识别 PAD
搭载基于 3D 结构光 Camera 的8寸超薄平板 PAD 设备,高通安卓平台,支持二次开发,适用人脸支付、开门、通行等高安全人脸识别应用领域。
2)Editor-Max 智能内容运营管理平台
为企业提供智能化内容聚合,管理,分发的平台和服务,提供个性化推荐和相关推荐的智能服务。
4. 限时优惠活动-7家服务商发送3000元优惠券
赛蓝、慧谷航天、睿识、贝塔、视派尔、奥比中光、麦哲7家热销服务商各发送价值3000元满减优惠券,有效期至2019年12月31日。


可于7家服务商的移动端店铺中领取优惠券,并在 AI 市场购买抓拍机、镜头模组等相应商品、填写优惠码即可享受丰厚优惠。

来源:百度AI


编辑:晓晴

50285c799e1089e4012116047bef6ef.jpg (50.96 KB, 下载次数: 12)

50285c799e1089e4012116047bef6ef.jpg

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表