传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
421#
 楼主| 发表于 2020-6-1 19:16:41 | 只看该作者
【案例】
梅剑华丨深度学习为什么不能发展出真正的人工智能?
/ 梅剑华
(山西大学哲学社会学学院、
中国人民大学哲学与认知科学跨学科平台)
爱因斯坦曾说,西方科学的发展建立在两个巨大成就之上:古希腊哲学家在欧几里得几何中发现了形式逻辑系统;文艺复兴期间通过系统实验尝试发现了因果关系。长期以来,哲学家并没有找到真正的因果关系。休谟把原因归结为有另一个对象跟随的对象,所有和前一个对象相似的对象都有和后一个对象相似的对象跟随。在休谟看来,事物之间并不存在这种“因果关系”,只是人类习惯将两个事物联系起来。我们还记得他那句耳熟能详的名言:习惯是人生的伟大指南。
休谟是因果关系的怀疑论者。在统计学领域,大家都墨守相关不蕴含因果的共识。在流行病学、社会学、政治学、生物学等领域,学者都在从事相关分析而非因果分析。但哲学家、科学家并未放弃寻找真正的因果关系这一目标。2012年的图灵奖获得者朱迪·珀尔(Judea Pearl)很早就认识到统计分析的缺陷,转向因果推断,先后出版了《因果性》(Causality: Models, Reasoning, and Inference)第一版(2000)和第二版(2009)。《因果性》一书兼具思想性和技术性,为了帮助读者理解其中的技术细节,他撰写出版了《统计中的因果:一个导论》(Causal Inference in Statistics: A Primer,2016),为了帮助读者理解其中的关键思想,随后他又撰写出版了《为什么:关于因果关系的新科学》(The Book of Why: The New Science of Cause and Effect,2018)。在《为什么》一书中,珀尔一方面从学术史的视野出发介绍人类认识因果关系的历史,另一方面又从跨学科(尤其是哲学)的角度来理解因果关系的本质,此书虽居科普之列,却实属哲学—科学著作。
因果推断在人工智能、自然科学和社会科学领域有着极为广泛的应用。珀尔认为,人的根本能力是因果推断能力,强人工智能就是让机器人具有因果推断能力。寻找事物之间的因果联系,是人类的一种自然冲动。人类涉世之初好问“为什么”:为什么天会下雨、为什么有白天黑夜……。成语“打破砂锅问(璺)到底”就形象地刻画了儿童发问的天性。追问为什么,就是追问事物之间的因果关系。
珀尔幼承庭训,熟读《圣经》。《为什么》一书多处引用《圣经》来诠释因果。《圣经·创世记》中有一段著名的对话。“上帝问亚当:你吃树上的果子吗?亚当回答:你赐给我的女人,递给了我树上的果子,我才吃的。夏娃回答:蛇引诱了我,所以我吃了。”上帝问了一个事实问题:亚当是否吃了树上的果子。亚当和夏娃的回答却给了一个因果解释。中国古籍《国语》载西周伯阳父曰:“夫天地之气,不失其序。若过其序,民乱之也。阳伏而不能出,阴迫而不能蒸,于是有地震。”伯阳父为地震也提供了一个因果解释。无论中西,人类在认识世界之初,都建立了大致相同的认知方式。
汉学家葛瑞汉(Angus C. Graham)指出,宋学里的感应思维和西学中的因果思维类似。你的照片掉在地上被人踩了一脚,你心里觉得不舒服;宫斗剧中,妃子为了争宠,雕制一个皇后形象的小木人儿,请道士做法用银针扎小人。路人的脚没有踩到你身上,道士的针没有直接扎到皇后身上,但我们仍感觉两个事件存在联系:通过做某件事改变另外一件事。感应思维和因果思维相去不远:感应和回应之间的关系与原因和结果之间的关系均可以理解为,前者导致、引起、影响了后者。人类能从感应思维过渡到因果思维,恐怕也在于这两种思维方式之间存在某种相似性吧。
近代以来对因果的理解主要有两种:规则论和反事实论。规则论源于休谟,但规则、相关并不蕴含因果。分析哲学家刘易斯(David Lewis)意识到规则论的局限,提出了因果的反事实理论:如果a,那么b;并且如果非a,那么非b。人类能够想象反事实是认知能力的一大提升,是从已知到未知的一跃。
珀尔关于因果推断的想法大概受到了刘易斯反事实论的启发。反事实推理对于人类的生存实践至关重要,因为人类不可能穷尽所有的可能性,只能基于有限的数据去推断。我们和周遭世界打交道的经验相当有限,依赖对反事实的想象可以拓展对世界的认知。理解因果推断的关键,就是理解反事实思维方式。让机器具有因果推断能力,就是让机器具有反事实思维能力。
珀尔认为攀登因果关系的三个阶梯是:观察、干预、想象。第一是观察层次,人类和动物都可以对周边环境的规律进行观测,观察世界中的联系,然后行动;第二是干预层次,通过干预某一因素,看后果的变化,从而做出相应的行为;第三是想象层次,通过想象反事实情况来获得对世界的理解,从而选择行为。要让机器人具备因果推断能力,必须解决两个问题:一是学习问题,即机器人如何与环境互动来获取因果信息;二是表达问题,即机器人如何处理从其创造者那里获取的因果信息。
经典的有向无环图的拓扑结构。
珀尔主要解决的是第二个问题,他用因果图来表达因果关系,用结构方程模型给出因果的数理方程。不妨想象因果图是一张网,网中的节点表示我们关心的变元。因果网和通常的网有两点不同:第一,网中节点之间的连线是有方向的,表示了因果关系的方向性;第二,这种方向不能闭合成一个环,表示因果关系不能循环。因此,这种图被称作有向无环图(directed acyclic graph,缩写为DAG)。每一个节点表示变元,连接节点之间的线段表示变元之间的联系,线段的箭头表示因果方向。整个因果网络就是一个贝叶斯网络。结构方程模型较为复杂,我们只需要记住它是一组刻画因果关系的函数方程即可。总而言之,珀尔为因果推断提供了一套完整的形式化语言,为人工智能中的因果推断打下了坚实的基础。
在人工智能领域,虽然早期的专家推理系统取得了巨大成就,却不能像小孩一样进行常识判断、因果推断。它可以做出超越专家的事,但无法做出小孩很容易做到的事。小孩对外界环境的刺激进行回应,通过因果学习建立因果推断模式。小孩获得的数据是少的,但解决的任务是复杂的。珀尔的同事、加州大学计算机视觉研究专家朱松纯指出:人工智能不是大数据、小任务,而是小数据、大任务,即环境中的智能体通过观察操控甚至设想环境中的有限信息(小数据),建立信息和行为之间的因果关联,从而做出复杂的行为(大任务)。
朱松纯做了一个对比:大数据、小任务的典范是鹦鹉学舌,通过给鹦鹉输入固定的语音信息,鹦鹉学会相应的语句,但鹦鹉和聊天机器人都不懂得真正的说话,不能在语句之间建立真正的联系。小数据、大任务的典范是乌鸦喝水,乌鸦比鹦鹉聪明,“它们能够制造工具,懂得各种物理的常识和人的活动的社会常识”[1]。
如果要求人工智能成为真正的人类智能,人类就必须对自身的因果认知推理模式有深入的了解。机器人只有建立了真正的因果推理模式才具有真正的智能。在珀尔看来,今天的机器学习导向是错误的,因为它是以数据为导向,而不是以人类的推理特征为导向的。机器学习的倡导者认为,数据里面有真经,只要具有巧妙的数据挖掘技术,学习机器通过优化参数来改进其表现就可以了。人的大脑是处理因果关系最为先进的工具,在与环境互动的过程中,建立了系统的因果推理模式,能够回答各式各样的因果问题。让机器人拥有理解和处理因果关系的能力,是通向强人工智能道路上的核心目标,《为什么》一书为这一目标做了相当清晰通俗的讲解。
重视因果推断是珀尔的研究和其他主流人工智能研究的分野。早期的人工智能算法基于符号逻辑的演绎推理,1980年以来的人工智能算法则是基于概率(贝叶斯网络)的归纳推理。因果推理是结合了演绎推理和归纳推理两个维度的推理模式。珀尔认为,目前的机器学习、深度学习不能发展出真正的人工智能,忽视因果推断是其根本缺陷——当前的人工智能登月计划是爬树登月,而真正的人工智能登月计划要乘坐宇宙飞船。
当前,因果推断在人工智能领域尚处于理论建构阶段,“门前冷落鞍马稀”,但在社会科学领域,因果推断方法正当其时。哈佛大学统计学系教授鲁宾(Donald B. Rubin)的潜在结果模型和珀尔的结构方程模型是社会科学方法的两种主要模型。在统计学领域,因果推断已成为一种主流研究方式。在流行病学、心理学、公共管理学、社会学、政治学、经济学等领域,大量使用因果推断方法已成为业界共识。无因果推断就无推理方法,这一点不难理解,因为我们从事社会科学研究,就是要发现社会现象背后的前因后果,从而理解社会运行的机制,为制定政策的机构提供相应的依据。
例如,吸烟是否导致肺癌,通货膨胀是否会导致失业,控枪是否可以降低犯罪率,选举是否会导致动荡,加强公共卫生是否能减少流行病的传播等,这些都需要在庞大的数据中探寻真正的因果联系。通常,研究者会进行对照实验:在关于某种新药的测试上,选择一些人接受治疗,让另外一些人吃安慰剂;经过一段时间之后,观察二者之间的差异,从而发现真正的原因。但有些情况无法进行真正的实验。我们不能随机选取一组人让他们连续抽烟10年,而让另外一组人远离烟草,这既不可操作又违反伦理。我们也不能对经济、社会、政治现象进行干预控制实验。但如果我们有好的因果模型,就可以进行一种想象的实验,通过操控变元在大数据中发现真正的因果关系。如果说在人工智能领域,具有因果能力就是在小数据的基础上完成大任务,那么在社会科学领域,运用因果推断就是在大数据里发现相对小的目标。
数据自身不会给出任何论断,需要理论解释。康德有言:直观无概念则盲,概念无直观则空。我们可以把理论比作概念内容,把数据比作直观内容,那么在数据科学领域里就是:数据无理论则盲,理论无数据则空。例如,数据能够告诉我们谁服药可以恢复得比其他人更快,但不能告诉我们为什么。人的优越性就在于,人能够回答为什么的问题,比如干预问题:服用这个药物对身体康复有效吗?比如反事实问题:一个没有接受过大学教育的人,如果接受大学教育会怎么样?珀尔为盲目的数据提供了一套完备的反事实因果模型。
托马斯·库恩(Thomas S. Kuhn)在其名著《科学革命的结构》(The Structure of Scientific Revolutions)中提出科学革命,天文学领域的哥白尼革命、化学领域的拉瓦锡革命、近代物理学的爱因斯坦革命都是典型的科学革命。科学革命是一次巨大的范式转换,从地心说转变到日心说、从燃素说转变到氧气说、从经典力学转变到相对论等等。有人认为珀尔两次居于人工智能领域革命的中心,在20世纪80年代引领了从逻辑规则系统向概率推理的转变,在90年代引领了从概率推理向因果推断的转变。基于贝叶斯网络的概率推理如今已是人工智能领域的主流范式,但因果推断实践尚在探索之中,其价值尚未得到充分重视。《为什么》一书是珀尔为公众介绍因果推断的重要之作,在人工智能已经成为坊间热议话题之际,此书有着极为重要的现实意义。
珀尔之子丹尼尔(Daniel Pearl)是《华尔街日报》的记者,2002年他在巴基斯坦被基地组织的武装分子绑架杀害。为此,珀尔拿出图灵奖的大部分奖金建立了“丹尼尔·珀尔基金会”,用于化解宗教冲突。有人问珀尔何以如此,他回答说:“仇恨杀死了我的儿子,我决定与仇恨斗争。”珀尔建立的因果推断模型也许能帮助他找到凶手和丹尼尔之死的因果联系,但要弄清这种杀害源自宗教仇恨,人工智能需要更多的人类智慧而非因果模型,也许这才是未来人工智能可能遭遇的真正瓶颈吧。
《为什么》的英文书名颇有深意:The Book of Why: The New Science of Cause and Effect,副标题直接限定了追问为什么的范围——用科学方法追问因果关系。我们知道罗尔斯的《正义论》英文标题是A Theory of Justice,中译应为“一个关于正义的理论”,罗尔斯认为自己的理论不是唯一的,只是为正义提供了一种理论。回头来看,珀尔此书副标题弃用不定冠词“a”选择了定冠词“the”,显然他认为自己不仅是为因果推断提供了一种理论,而且这是唯一正确的理论。追求科学的真理似乎只有“the book”没有“a book”,但科学也许就是用一本一本的“a book”去逼近“终极真理”的“the book”。在此意义上,《为什么》离“the book”庶几近矣。
来源:微信公众号 信睿周报  
编辑:贾梦琪

422#
 楼主| 发表于 2020-6-2 16:12:18 | 只看该作者
案例
不看《人民日报》,好意思说你懂人工智能?




去年,有两位华裔工程师,开发了一款人工智能程序,对《人民日报》过去200万篇头版文章进行了解读。
一年后,他们将研究成果写成了论文,发布在了美国一家智库网站。他们发现,《人民日报》的头版报道,往往会呈现出对政策变动的趋势预期。
在许多中国人来看,这可能是一份大惊小怪的研究。
《人民日报》早已是解读中国的一座风向标。据说,三菱重工曾通过分析《人民日报》,推测出了大庆油田的产量规模;刚刚退休的柳传志,也曾在早年通过解读《人民日报》,断定中国市场经济时代的来临。类似的神话,大概还有一箩筐。
如果有一份报纸,可以让你读懂中国,那一定是《人民日报》。过去七十多年,每一个时代的主旋律,都可以在这份报纸的头版,找到破译的密码。
时值2019年年底。
AIPharos月光社梳理了过去五年间,《人民日报》头版对于人工智能的报道,试图呈现出这个领域在官方语境中的变化。
2015年到2019年,五年时间,“人工智能”这个词,一共登上人民日报头版198次。作为对比,“区块链”的次数是15次,而“大数据”是378次。
人工智能第一次出现在《人民日报》头版,是在2015年3月10日。
当天,该报头版报道了政协举行的一场会议。会上,李彦宏提出了人工智能的概念。
他说,人工智能是具有显著产业溢出效应的基础性技术。为推进我国人工智能跨越发展,建议由国家相关部门投入专项资金,主导设立“中国大脑”计划。
三个月后,政协常委会第十一次会议闭幕。当天下午,政协举办了一场学习讲座。中国科学院院士谭铁牛给常委和政协委员们做了一场讲座:《人工智能的发展现状及展望》。《人民日报》在第二天,头版报道了此事。
又过了一星期,人工智能再次登上《人民日报》头版。这个概念首次出现在了一场国务会议讨论中。数日后,讨论结果出来了,人工智能正式被列入《国务院关于积极推进“互联网+”行动的指导意见》。
第一个被《人民日报》头版提及的人工智能案例是“微软小冰”。
当年九月,一篇关于对外开放的报道,采访了微软中国的研发团队。这个团队研发的伴侣机器人“微软小冰”,被特意提及。它被视作中国市场鼓励创新创业的案例。
微软成为了《人民日报》头版上,人工智能领域的第一个样板。
就在“微软小冰”被报道的半年后,微软亚太研发集团主席洪小文,再一次登上了《人民日报》。他受邀参加了一场关于网络安全和信息化工作的座谈会。会上,他着重强调了微软在人工智能领域的创新成果。
这场会议结束后,最高领导人赴合肥,考察了中国科技大学。在该校近代物理系,调研者见到了人工智能领域的应用实践。这是《人民日报》记录的,关于人工智能的第一场调研。
2016年9月,一家中国企业出现在《人民日报》头版的表扬中。
这是一家名为准星云学的人工智能教育公司。它在2014年落户成都高新区,获得了当地政府的支持。从此开始,依托人工智能拉动创新,成为了一座城市可被称道的亮点之一。
梳理《人民日报》头版,我们可以发现,关于人工智能的报道,有一个渐进的过程。
从数量上来看,2015年,人工智能第一次出现在版面上,当年该报头版,一共有5条,关于这一概念的报道。2016年,该报头版刊发了6条关于人工智能的报道。2017年,报道数量增至39条。此后的2018和2019两年,相关报道更是达到了69条和79条。
这意味着,在过去一年中,《人民日报》头版,每五天就会有一天提及人工智能。
是什么让人工智能火了起来?
2017年是关键的一年。当年初,人工智能正式进入了政府工作报告,被官方视作“全面实施战略性新兴产业发展规划”的关键一环。
同年,《国家“十三五”时期文化发展改革规划纲要》,也将人工智能列入其中,提出:运用云计算、人工智能、物联网等科技成果,催生新型文化业态。
2017年7月21日,《人民日报》头版刊发了国务院印发《新一代人工智能发展规划》的报道。关于人工智能技术的研发和转化,正式进入了官方视野。
经过两年的政策游说和调研,人们终于发现,人工智能是经济增长的新动能。当年底,一份统计被《人民日报》引用:近两年我国新增人工智能企业是此前十年之和,去年我国数字经济约占GDP总量的30%。
也正是在2017年,“人工智能”这个词,第一次出现在《人民日报》头版的大标题中。这篇报道刊发于2017年11月24日,标题名为:《我国人工智能越来越“能”》。
时间进入到2018年。开年的政府工作报告中,官方开始对人工智能的落地提出要求:加强新一代人工智能研发应用,在医疗、养老、教育、文化、体育等多领域推进“互联网+”。
相关的峰会,开始多了起来。
2018年5月,《人民日报》即在头版援引了一则人工智能相关峰会上的发言,预测到:到2020年,我国人工智能(AI)核心产业规模将超过1500亿元,带动相关产业规模将超过1万亿元。
对于经济的作用,也影响到了外交。
2017年12月16日,《人民日报》头版报道了,总理等人会见韩国总统文在寅的新闻。其中提及,双方要继续办好“中韩创新创业园”,扩大金融合作,拓展人工智能、5G、大数据等新兴领域合作,为彼此企业赴对方国家投资兴业营造良好的营商环境。
这是“人工智能”首次进入外事报道。而在过去两年的《人民日报》上,中国官方分别与韩国、法国、英国、德国、阿联酋、新加坡、俄罗斯、南非,进行过关于人工智能的对话。
“人工智能”还出现在了年末的中央经济工作会议上。
2018年,中央经济工作会议提出,要加强人工智能等新型基础设施建设。而在今年刚结束的会议上,“人工智能”这个词虽未出现,但官方首次提出了“要大力发展数字经济”的说法。在后续的解读中,人工智能被视作其中重要的一环。
其中变化是,与2018年提出的“人工智能推进互联网+”不同,今年官方的落脚点在于:促进人工智能和实体经济深度融合。
谁在推动人工智能进入官方语境?
据《人民日报》头版梳理,过去五年,官方关于人工智能的相关学习和座谈一共进行了五次。
除上面提到的,2015年6月政协闭幕会后的讲座。在2017年6月22日、2018年4月20日、2018年10月26日、2018年10月31日,还分别进行了四次学习与讲座。
其中,规格最高的发生2018年10月31日。当天,中央政治局就人工智能发展现状和趋势举行第九次集体学习。给常委们做报告的人是北京大学教授、中国工程院院士高文。
来自科学界的智力是人工智能向前的重要推手之一。
过去五年,在《人民日报》头版为人工智能发言的专家,主要有:中国科学院院士谭铁牛、中国工程院院士李卫、北京大学教授、中国工程院院士高文、浙江大学校长、中国工程院院士潘云鹤、中科院计算所研究员陈云霁。
讨论课题从最早的人工智能普及,一直延伸至宏观态势、科技创新、产业发展、人才队伍建设以及法规伦理和社会关切。
企业界是人工智能的另一重要推手。
据不完全统计,过去五年,出现在《人民日报》头版、与人工智能相关的企业有27家,分别是:微软、阿里、腾讯、百度、华为、海尔、小米、京东、格兰仕、碧桂园、科大讯飞、旷世、商汤、寒武纪、西门子、尼玛克、ATI、阿斯利康、西奥电梯、微众银行、网商银行、天泽智云、零氪科技、小i机器人、咪鼠科技、晓多科技、广州明珞。
其中,百度李彦宏、美团王兴、小米雷军、腾讯刘胜义、旷视印奇和京东周伯文等人的发言曾出现在《人民日报》头版。在人工智能成为中国故事的语境下,他们率先站上了舞台。
所以,广大AI从业者们,要想深入了解自己的行业,请先订阅《人民日报》吧。



来源:微信公众号:AIPharos月光社(ID:AI-Pharos),作者:赵家鹏


编辑:贾梦琪



423#
 楼主| 发表于 2020-6-9 22:26:51 | 只看该作者
【案例】

智能报道 云端相连 创意交互——2020两会新媒体报道观察



  作为中国人民政治生活中的重大事件,每年召开的全国两会都会引发全社会的共同关注。今年受新冠肺炎疫情影响,全国两会召开时间较往年推迟了两个月,选在了五月下旬召开。出于疫情防控常态化的需要,今年两会的形式也有所调整,首次采用视频会议方式举行,在采访时不采用现场“面对面”的方式,通过网络视频方式来安排新闻发布会、“委员通道”、“代表通道”、“部长通道”采访活动,云端对话、隔屏交流成为本次两会的一大亮点。今年两会报道虽然大幅减少了上会媒体、记者数量,但两会报道的创意与突破并未受到限制,新技术、新形式、新创意接连步入公众视野,传递丰富信息,带来全新体验。总体来看,今年两会新媒体报道呈现智能报道、云端相连、创意交互的鲜明特征。


  一、技术升级 智能创新赋能两会报道


  历年两会新媒体报道都是展示传媒领域前沿技术的绝佳平台,5G、4K/8K、AR、AI等技术创新在传媒领域深度应用,创新报道形式、优化采编方式、再造传播流程,为两会报道赋能。


  今年的《政府工作报告》提出,加强新型基础设施建设,发展新一代信息网络,拓展5G应用。5G从新技术到“新基建”,在传媒领域的应用更显成熟。今年两会期间,5G信号传输为异地实时交流提供技术保障,让身处梅地亚中心的媒体记者能够与人民大会堂的代表委员实现高速率、微延时、超高清的线上采访,在特殊时期完成“云”跑会。除提供通讯保障外,新华社开创性地进行“5G+8K+卫星”现场直播,实现了北京、威海、喀什、三亚、漠河五地记者现场连线、实时回传,直播两会实况。中央广播电视总台成功进行了国内首次5G+8K实时传输和快速剪辑集成制作,并利用5G网络开展直播连线,全方位、多角度、立体化报道两会新闻。


  人工智能技术深刻影响着信息传递的方式及渠道,人民日报、新华社、中央广播电视总台等媒体先后成立人工智能相关编辑部或研究机构,探索人工智能在传媒领域的全新应用。人工智能技术在今年两会报道中再次取得突破,创新报道样态,引发社会热议。继AI合成主播、站立式AI合成主播、AI合成女主播、俄语AI合成主播之后,新华社智能化编辑部联合搜狗公司推出3D版AI合成主播“新小微”。相较于前代产品,“新小微”可实现实时变换发型、随时更改服装、随时穿梭于演播室的不同虚拟场景中,实现多机位多景深、多样化精微表情播报,显著增强报道的立体感和层次感。新华网推出声音黑科技产品《共振时刻》,首次基于5G+AI声像分析技术对《政府工作报告》的全场37次掌声进行AI声像分析,同时运用可视化技术进行呈现,让《政府工作报告》“所听即所见”,从全新视角解读《政府工作报告》。


  人工智能技术不仅创新报道样态,还积极推进采编播流程的再造,显著提升新闻生产效率。人民日报社在两会期间推出“智能云剪辑师”,在几分钟内便能根据需要迅速生成视频,并自动匹配字幕,实现画面人物的动态追踪、去除视频的拍摄抖动、多方位修复视频画质等一系列功能,并迅速实现横屏转竖屏,适配短视频平台特点,飞速提升剪辑效率。中央广播电视总台则利用“AI云剪辑”技术实时收录多路信号,通过人工智能计算,进行人脸检测、动作检测、镜头质量评测、穿帮镜头检测等,生成AI剪辑成片。历年两会频频亮相的新华社媒体大脑MAGIC继续“上新”,推出“两会机器人”,可实现一边直播一边剪辑,智能发现金句、找到精彩段落,并支持一键生成“短视频直播流+专题页面”,在降低开发成本的同时提升传播效率。中国网推出的“AI内容辅助生产平台”主要包括图解类产品辅助生产平台、数据可视化智能辅助生产平台和智能辅助生产工具平台,推动新闻产品生产流程的智能化、模块化、简易化。


  在硬件设备的更新上, 5G+4K/8K背包、5G+AR眼镜等“黑科技”的亮相吸引众人关注。今年两会期间,部分记者使用了像普通双肩包一样大小的“5G+4K”背包,该背包内置了4K编码器和5G模组,可直接连接摄像机进行5G网络下4K级别直播视频的采集。中央广播电视总台使用的5G+8K背包则可实现8K外景信号实时传输,同时可以对收录的8K信号快速编辑,呈现8K超高清画面。人民日报社推出的“5G+AR”采访眼镜,记者只需手势或语音控制即可完成视频录制、拍照、直播等工作,并能实时了解人物信息资料、进行第一视角的现场直播,在拍摄时还能与后方编辑实现屏幕共享、实时互动,将在一线获取的视频素材回传至人民日报智慧媒体研究院打造的智慧平台进行智能剪辑、智能导播,实现对新闻采编发的全流程智能化管理。


  二、云端相连 跨越时空同频共振


  在疫情防控常态化条件下,突破场景、距离阻碍的“隔空对话”的形式被广泛应用,云对话、云访谈、云聊天等云端对话成为新常态。根据防疫要求,今年两会期间新闻记者主要通过网络视频等非面对面的云采访模式,与代表委员连线交流。与此同时,利用5G等前沿技术,各家主流媒体纷纷开设对话栏目,邀请委员代表、专家学者、青年代表等云端畅聊,从线下“一对一”“面对面”转变为跨越时空多方连线的云客厅、云访谈。


  今年两会期间,新华社首次推出5G全息异地同屏系列访谈,引发强烈反响。该访谈邀请来自基层和抗疫一线的全国人大代表讲述履职故事,通过使用5G网络传输和全息成像技术,记录并再现人物真实影像,让相隔一千公里的代表和记者跨越时空“面对面”实时交流,并能“握手”致意,开创了5G时代远程同屏访谈的先河。同样使用5G全息投影技术的还有黑龙江广播电视台和解放军新闻传播中心,将前方受邀代表委员的3D全息影像回传到后方演播厅,实现现实与虚拟的“无缝衔接”。


  得益于移动互联网的飞速发展,直播、视频平台功能日益完善,特殊时期兴起的云访谈、云对话等成为本次两会报道的全新形式。人民网推出大型线上对话节目《两会云客厅》,邀请全国人大代表、政协委员“云”中交谈、“云”上见面,共同探讨热点话题,聚焦两会最新动态。人民政协报、人民政协网和光明日报、光明网联合推出“全国两会云访谈”,邀请多位政协委员和嘉宾,围绕“政协委员眼中的书香中国”这一话题畅谈。中国青年报社推出《中国青年说》两会特别节目《两会青年说》,目标受众瞄准青年群体,通过“现场+云连线”的形式,邀请战“疫”青年、创业伙伴、“带货”主播、青年律师、技术达人、高校学子与全国人大代表、全国政协委员云端畅谈,共同聚焦国计民生与青年发展的话题,传递青春声音与梦想。


  此外,人民网推出的融媒体栏目《两会夜归人》在今年两会期间迎来第三季。自2018年两会亮相以来,该栏目以独特的视角、活泼的态度、亲和的方式收获众多好评。第三季由人民视频、快手、腾讯新闻联合推出,通过“连麦”直播,每期邀请一名代表委员或专家学者与媒体记者围绕两会议题、社会热点进行“隔空”联动、在线交流。栏目兼顾了宏大叙事和日常生活叙事两个方面,形式新颖,内容生动,是一次与时俱进的媒体融合新尝试。除《两会夜归人》外,人民网还推出原创线上视频对话栏目《两会夜话》。该栏目由人民网总编辑亲自主理,在演播厅连线邀请中青两代、各行各业的嘉宾,以对话的形式展开不同年龄、不同圈层间的思想交流。栏目既有高格调,又有年轻态,将严肃说理与生动叙事巧妙结合,顺应了网络传播的新趋势,在交流中实现中青两代人之间一次成功的“跨年代”融合。


  云端相连的不仅有记者嘉宾,也有共同协作的媒体机构。今年两会期间,在湖北广播电视台融媒体新闻中心倡导筹备下,湖北广播电视台长江云、北京广播电视台北京时间、上海报业集团澎湃新闻等全国16家省级媒体共同参与组建全国首个区块链新闻编辑部。该编辑部紧扣两会重要议程,围绕“2020,我们一起拼”主题,利用各家媒体资源优势,运用5G传播、AI人工智能、异地全息投影等新媒体传播技术,开展媒体间“跨越山河大海 击破时空障碍”的云端大型联合报道,并在“云端”共推出了十份《两会流媒体》杂志,以H5、图解等新媒体产品的形式呈现两会热点内容,是我国媒体融合的一次全新尝试。


  三、创意交互 可视化呈现丰富内容


  近年来,移动直播、短视频发展突飞猛进,视频化表达、可视化呈现成为内容表达的主流方式。两会期间,各家主流媒体推出一系列创意足、内涵深、交互强的可视化作品,用H5、短视频、动画、VLOG等形式丰富两会新媒体报道,有力传达两会声音。


  重大主题微视频是近年两会新报道必不可少的“主菜”,各主流媒体提高站位、深挖内容,既观全局又察细微,精准表达重大主题,传递丰富内容,提振国民信心,讲好中国故事。人民日报新媒体中心推出全国人大代表专题宣传微视频《我是十四亿分之一》,讲述8位来自抗疫一线及日常工作中的全国人大代表的故事,生动展现他们恪尽职守、尽职履责、贴近人民、反映民声的工作状态和精神面貌,从个体观全局,高度契合时代主题。新华网相继推出《风雨无阻》《决战倒计时》《洪流》《法治的信仰》等作品,用精心的构思、精彩的画面、惊艳的特效、精准的表现把重大主题融入视频化表达中,成功实现了思想性和艺术性的高度统一。


  Vlog在去年两会报道中初登舞台,表现亮眼。跳出传统的报道视角的Vlog以第一人称视角直观看两会,观众在讲述者活泼、趣味、贴近的内容表达中获取丰富信息。在今年采访受限的情况下,各主流媒体竞相使用Vlog的形式进行报道,记录台前幕后,传达两会声音。如中国日报“小彭Vlog”延续去年生动活泼的风格,通过记者小彭的第一视角解密两会采访、解读热点话题。与去年不同的是,今年的两会VLOG的讲述者不仅是媒体记者,还邀请到了人大代表、政协委员客串记者,强化报道的现场感和真实感。人民政协报微信公众号推出两会特别策划“委员出镜”栏目,邀请各界政协委员出镜采访,分享作为两会亲历者直观真实的想法;澎湃新闻推出“委员vlog看两会” ,用政协委员的第一视角记录两会实况。此外,最高人民检察院和王俊凯合作的“探秘最高检Vlog”用公众人物探秘的方式掀开最高检的“神秘面纱”,将严肃内容以活泼方式呈现,获得一致好评。


  在视频的创意表达上,各家主流媒体充分发挥想象力与创造力,用动态漫画、互动视频等形式丰富视频内容表达。新华社客户端推出首部新闻互动微纪录片《她的故事,“触”处动人》,该视频打破了传统视频的单向叙事,实现了新闻内容的多重演绎,用户在自主选择与探索中参与“剧情”走向,了解基层全国人大代表李金莲的履职故事。这是互动视频技术首次应用在时政新闻中,也是创新媒体传播方式的新尝试。光明网推出4期《我们的“脱贫style”》,以“代表声音+动态漫画”的形式展现基层全国人大代表们的脱贫“招式”,讲述脱贫攻坚为百姓生活带来的生动变化。华龙网推出原创MV作品《声动两会|看勒点!两会节奏rap起来》,将人大代表、政协委员所关注的提案议案用年轻时尚的说唱形式表达,作品饱含地域特色和流行元素,突破传统报道模式,给人耳目一新的观感。


  今年两会备受关注的不仅有《政府工作报告》,还有《民法典》(草案)等议案的审议。围绕着这些重要文件、法律的解读亦是本次两会新媒体报道的一大亮点。新华网在本次两会期间推出“新编辑部故事系列”文章,该系列《这个内部工作群,被“曝光”了!》《糟糕!领导把我拉黑了……》《我,终于把领导微信删了》三篇报道精准把握两会主题和议题,用趣味化、年轻态的表达方式将《政府工作报告》《民法典》(草案)中的内容融入日常工作交流场景,形式独特、内容有趣、通俗易懂,一经推出便迅速走红于社交媒体。对于《民法典》(草案)的解读,人民日报社新媒体中心制作短片《热剧主角“现身说法”:民法典将这样改变我们的生活》,以生动诙谐的方式综合解说、动画、影视剧画面等多样表达形式,带入感深,理解性强。此外,人民日报、人民网推出的《当哪吒遇上民法典》《“桃园三兄弟”用上民法典》等创意动画短视频选用熟知的经典形象生动形象阐释民法典的亮点及意义,形式新颖有趣、内容通俗易懂。人民日报社、新华社等主流媒体推出的《这座图书馆里,藏着一本神奇的百科全书》、《民法典|人生大冲关》等互动H5,结合答题、游戏等轻度交互的方式,在体验式参与中阐释民法典的条文,明晰民法典的意义。


  总的来看,特殊情况造就了今年两会的多个首次,也使得两会新媒体报道较往年有了更多变化。前沿技术正深刻影响着传媒行业,创新传播形式,再造新闻生产流程,两会期间所呈现云端相连的图景或将成为未来媒体报道的发展趋势。但需注意的是,主流媒体不仅要关注技术的创新,更应注重内容与技术的适配,注重传播内容的深度和价值,全面提升报道的传播力、影响力,推进媒体融合行稳致远。




来源:人民网-传媒频道
作者:黄楚新,郑智文
  

编辑:邱亚婷


424#
 楼主| 发表于 2020-6-9 22:56:30 | 只看该作者
【案例】


  党媒算法,综合媒体、健康时报,推送,场景是不是站得住脚另说,比如糖尿病,推送糖尿病最新科研成果。信息茧房,对策,高质量优先推送;信息分类,根据媒体平台定位。人民日报上有个tab推荐,人工干预,机器学习,自动推送;策略;时效性,天气预报,1-2小时不管用;股市,早盘 午盘推;地域的,重庆人在北京如何推。
编辑:邱亚婷

425#
 楼主| 发表于 2020-6-20 09:39:05 | 只看该作者
【案例】

徐匡迪院士5问揭开当下中国人工智能虚伪的面纱

“中国有多少数学家投入到人工智能的基础算法研究中?”去年五一前上海召开院士沙龙活动,中国工程院院士徐匡迪等多位院士的发问引发业界共鸣,被称为“徐匡迪之问”。这一对当下中国人工智能直击核心的提问,不但表明了当下中国人工智能发展的短板,同时也揭去了披在当下所谓“人工智能”算法外表华丽的面纱。“我国人工智能领域真正搞算法的科学家凤毛麟角。”2019年4月28日超声大数据与人工智能应用与推广大会,东南大学生物科学与医学工程学院教授万遂人表示,“徐匡迪之问”直击我国人工智能发展的核心关键问题,“如果这种情况不改变,我国人工智能应用很难走向深入、也很难获得重大成果”。
人工智能是计算机技术发展到高级阶段,融合了数学、统计学、概率、逻辑、伦理等多学科于一身的复杂系统。是当下所有信息技术所不能达到的高级应用。其最为核心的技术便是人工智能算法。如何让计算机能像人类一样进行思考,如同人一样利用现有的知识进行学习并实现合乎逻辑的推理,是人工智能算法试图实现的目标。其技术绝不是一般公司能够轻轻松松实现的。当下国际社会公认的人工智能研发顶尖公司,如Google和IBM等投入了海量资源,动用了顶尖的数学科学家、计算机专家,能实现了计算机程序的一定程度智能化,但距离真正的AI仍然相差很远。进入2018年,中国人工智能产业“忽如一夜春风来,千树万树梨花开”,一下子出现了无数人工智能研发公司,并都号称到得了显著技术进步。比如基于人工智能的医学图像识别系统,对于某个疾病的识别率高达95%以上,远远高于人工判读。


中国人工智能真实如此繁荣吗?

中国人工智能产业界研发现状某业内人士有幸了解过国内某大型互联网企业制作的人工智能应用。其定位于利用AI程序判读CT图像,利用算法实现对病灶的判读,提高医生的效率并降低负担。
当问到其核心的人工智能算法的时候,企业倒也是直言不讳,其核心技术是使用了国际上开源的人工智能算法。在被引入后进行针对特定目的进行了二次开发,并最后整体打包成为一套完整的人工智能应用。正是因为使用了开源的人工智能算法,才出现了许多应用明显能力不足的情况。



比如其无法提供一套大一统的应用。公司一共向我们介绍了大约六种疾病的诊断应用。不同的疾病需要使用对应的AI程序才可以得出相对准确的结果。如果将A疾病的算法使用到B疾病上,完全无法正常工作。就我浅薄的理解,真正人工智能的算法并不应当如此。它应当是一套通用的算法,既可以用于A疾病的诊断,同样也可以用于B疾病。我们需要做的是提供大量疾病案例供AI学习训练,随着训练样本数量的增加,会使人工智能模型被训练的越来越准确。但是这种一个疾病一个AI的方式还是头一次听说。好比一个医生只能看男性长胡子的感冒患者,如果是个不没长胡子的男患者,只能去隔壁就医了。

浙江大学应用数学研究所所长孔德兴教授清清楚楚说明白了这个问题。因为公司使用的都是开源算法。开源人工智能算法能力是不足的,根本无法实现预期的能力。人工智能算法堪称信息行业的核武器。如此威力庞大的算法怎么样可会在网上被开源出来?可以认为开源的人工智能算法相当于玩具水平的东西。想借助这种低水平的算法,来实现真正的人工智能应用怎么可能实现呢?


开源算法唯一好处在于人人都可获得,门槛非常低。所以大量公司从网上下载了开源算法,然后以其为核心研发出一套AI应用,再披上华丽的面纱,唬的普通用户奉若神明。这也在突然间中国出现了如此多的人工智能公司的原因之一吧。

真正人工智能的到来还需要很长时间,绝不是借助网上共享了的代码就能够实现的,必须要脚踏实地,一步一个脚印地开发出来,不付出努力想投机取巧是万万不能的。我国依靠开源代码和算法是否足够支撑人工智能产业发展?为什么要有自己的底层框架和核心算法?



缺少核心算法,会被“卡脖子”

“如果缺少核心算法,当碰到关键性问题时,还是会被人‘卡脖子’。”浙江大学应用数学研究所所长孔德兴教授对科技日报记者表示,我国人工智能产业的创新能力并没有传说中的那样强,事实是,产业发展过度依赖开源代码和现有数学模型,真正属于中国自己的东西并不多。

4个月零基础学会人工智能、16讲入门人工智能、算法线下大课……类似培训在网络上非常火爆,通过对于现有算法、模型的学习和训练,成长为人工智能工程师的“短平快”可见一斑。

既然代码是开源的,拿来用就好,为什么还有可能被“卡脖子”?

孔德兴解释,开源代码是可以拿过来使用,但专业性、针对性不够,效果往往不能满足具体任务的实际要求。以图像识别为例,用开源代码开发出的AI即使可以准确识别人脸,但在对医学影像的识别上却难以达到临床要求。“例如对肝脏病灶的识别,由于边界模糊、对比度低、器官黏连甚至重叠等困难,用开源代码很难做到精准识别。在三维重构、可视化等方面难以做到精准反应真实的解剖信息,甚至会出现误导等问题,这在医学应用上是‘致命’的。”

“碰到专业性高的研究任务,一旦被‘卡脖子’将会是非常被动的,所以一定要有自己的算法。”孔德兴说。换句话说,是否掌握核心代码将决定未来的AI“智力大比拼”中是否拥有胜算。用开源代码“调教”出的AI顶多是个“常人”,而要帮助AI成长为“细分领域专家”,需以数学为基础的原始核心模型、代码和框架创新。秦陇纪总结,中国制造正从“硬件组装厂”向“软件组装厂”蔓延,浮躁如故。


有算法之“根”才能撑起产业“繁茂”

所谓“树大根深”,人工智能的发展也是同样道理,越在底层深深扎下根基,越能够发展出强大的产业。那么,借助开源代码,“半路出家”的AI产业为什么会难以为继?
孔德兴解释说,在获得同样数据的前提下,以开源代码运行,AI深度学习之后或许能输出结果,但由于训练框架固定、算法限制,当用户进行具体的实际应用时,将很难达到所期望的结果,而且难以修改、完善、优化算法。

“如果从底层算法做起,那么整个数学模型、整个算法设计、整个模拟训练‘一脉相承’,不仅可以协同优化,而且可以根据需求随时修改,从而真正解决实际问题。”孔德兴说,基础算法往往是指研究共性问题的算法,它涉及到基础数学理论、高性能数值计算等学科,可以应用到多种实际问题中;而针对性强的应用算法往往会应用到具体问题所涉及的“具体知识、先验信息”,从而更好地解决实际应用问题。

“基础算法和应用算法都很重要,拥有基础算法将更有助于应用算法的丰富与深入。”孔德兴说,AI要应对的现实生活是复杂、多变的,当能够“应对自如”时,才能够促成产业的“繁茂”。

呼吁三方协力让数学不再置身事外

“一方面是政策引导,其实国家已经在加大这方面的扶持,例如科研基金上的设置等。”针对如何解决“徐匡迪之问”反映出来的问题,孔德兴认为,第二方面是行业企业在进行科技创新时,应有意识将数学学者纳入进来。“如果通过算法的开发,最终产品落地了,企业应该将算法开发时的数学学者纳入到成果分享中来。”孔德兴说,社会目前对于数学科学等“软实力”的认可程度不足,行业或法规层面应该做好数学研究成果的产权保护工作。

“第三方面,数学家本身应该积极参与到人工智能发展的浪潮里。”孔德兴呼吁,AI的未来发展需要数学家深度参与。由于目前仍处于“弱人工智能”时代(可以说是数据智能时代),AI的实现主要是依赖计算机的巨大算力和巨大的存储能力,底层算法的问题或许并不突出,但在未来的发展,AI将可能融入逻辑、思维等智慧的内容,这些都需要数学科学的原始创新,有大量的基础问题亟待数学家攻克。

算法的进阶一定是来源于“原创者”,而不是“跟随者”。孔德兴说:“实际上深度学习的应用已遇到了天花板,我们需要新的数学技术(如部分依赖逻辑、部分依赖数据的‘聪明算法’),让计算机变得聪明起来。这些工作都需要数学家的参与。”



人工智能发展陷入了拿来主义怪圈

历史已经证明,通过购买现成的产品与技术来实现技术的跨越,在科学技术领域是行不通的。中国科技行业的哪一样,不都是经历了艰苦奋斗,无数科学家默默无闻为之奉献后,方才得以傲视世界群雄?比如中国的量子技术,比如中国的国防科技,中国的天宫空间站,中国的嫦娥月球车。

作为技术高度密集的人工智能技术,其商业领域竟然是陷入了拿来主义,着实让人意外。中国AI产业大约从2018年开始一夜爆红,稍微有些规模的IT厂家无不宣称,已经推出人工智能产品到市场上。当时认为这也是中国科学人多年来的厚积薄发,技术积累到一定程度后实现了产业的繁荣。可惜的当徐匡迪院士发出直击灵魂的提问后,才发现原来中国的AI产业不过是看上去很美丽。

人工智能技术本质上是以数学算法为核心,辅以计算机技术的产品。与其说是一个IT产品,倒不如说是一套数学理论,如随机森林算法,贝叶斯算法等都是复杂的数学、统计学、概率领域的内容。这些算法试图通过数字概率来描述人类思考的过程。计算机技术不过是通过编程语言在信息系统中实现算法过程。可见推动人工智能前进的必定是数学领域的专家,而不是IT部门的人才。


基础学科,比如数学一直是我们非常薄弱的环节。当华罗庚将中国数学推向一个高峰后,之后众人还只是在努力追赶国际同行,一直没有能在国际上独领风骚。可想而知在人工智能商业、民用领域,我们的进展同国际同行相经差距明显。所以2018年的AI产业大爆发就让人心生怀疑。

没有安心研发,那么就拿现成的好了。正巧大家可以从网上下载到开源人工智能算法。于是大家都将其下载下来,加上漂亮的外壳,让我们的AI产品炫酷夺目。如果有机会能探究当下较火的商业人工智能产品,最终会发现所有算法都指向了同一个来源。不是说开源不好,正如浙江大学孔德兴教授所言,开源的产品是由其它国家人开发出来的,无论其功能好与坏,你并不知道它的开发思路是怎么样的。算法高效之处不知为何,而其能力不足之处也茫然不知。尽管其是开放源代码的,不知道有多少IT公司认认真真地研读一遍将其吃透研究明白了。

还有一点想跟大家讨论的是,开源的人工智能算法绝不会是高效的,或者说是真正的算法程度。开源代码是IT高手们将自己想法实现并放到网上供大家讨论的东西,往往是初级的,探索性的东西。据说当现开源AI代码是从印度工程师放出来的(这点也是听闻,不确定)。现在大家应当有所体会,人工智能绝不会是一两个工程师就可以搞出来的东西,要不为什么谷歌公司投入了那么多人力物力才实现了将国际象棋冠军打败的程度。而这套算法却无法应对英国高中数学问题。还有一点,真正尖端的人工智能算法,永远不会出现在互联网上供人们共享的。

资本的力量是可怕的。为了赚取利润占领市场,商家秉持着唯快不破的想法,极速将产品推出来,哪有功夫去管它是好是坏呢。可是人工智能是一门科学,是最为严谨的数学课题,不可能容得下这般不负责任的炒作。


这个世界是公平的,你怎样对待科学,这就会怎样对待你。玩弄科学,炒作概念,不脚踏实地的钻研反而投机取巧,必定会被其反噬。如果大家一直在追踪AI发展情况,其实已经可以感受到,似乎AI的热度较去年有所下降。而到现在为止尚未有一个真正能拿出手的商业人工智能产品在市场上出现。这已经说明许多。
爱之深恨之切。我们都期盼着中国IT有朝一日能够站在世界巅峰。这个过程是需要脚踏实地的,一个台阶一个台阶攀登上去,没有任何取巧的办法。亡羊补牢未为晚也,希望徐匡迪之问能惊醒中国IT公司,扎扎实实的一步一个脚印的走下去,让国人早日用上真正的人工智能应用。


来源:科学sciences  微信公众号——天下文转载
作者:秦陇纪
原文链接:https://mp.weixin.qq.com/s/A260oi-xfrnf97lhVVsgSg

编辑:刘佳莹

426#
 楼主| 发表于 2020-6-20 09:43:49 | 只看该作者
【案例】

人工智能医疗器械的伦理审查要点
2019年4月1日~5日在上海召开“2019国际医学人工智能论坛”,医疗器械产业已成为我国最具活力、最有前景的朝阳产业,人工智能与医疗器械深度融合,将成为产业新的增长点,我国将进一步加快推进人工智能医疗器械的上市步伐,为全面提升人工智能医疗器械发展,国家药品监督管理局近期与企业交流互动频繁。2019年7月3日,医疗器械技术审评中心发布《深度学习辅助决策医疗器械软件审评要点》[1],意味着三类人工智能医疗器械的审评标准正式落地,产业发展的政策瓶颈已被打破。紧接着2019年7月17日成立人工智能医疗器械创新合作平台,以构建开放协同共享的人工智能医疗器械创新体系,形成服务于科学监管、科技创新、产品转化的人工智能医疗器械创新合作平台为目标愿景,将全力推动医学人工智能产品审批。人工智能医疗器械是指器械的工作流程优化、数据处理、辅助诊断等方面,采用以深度学习、神经网络为代表的数据驱动方式训练算法的新一代人工智能技术的医疗器械。
1、国内外人工智能医疗器械的概况
人工智能系统有比人类更强的观察力和洞察力,可快速处理海量医疗和病人信息,提供辅助建议,帮助决策和减少人为偏差,协助医生将有限精力集中于病人。人工智能系统可基于新信息、结果和操作不断学习,有助于医疗专业人员作出更加明智、及时的决策[2]。随着逐渐落实分级诊疗和国产医疗器械的快速发展,医疗器械公司为保持其产品竞争优势以瓜分更多基层医疗市场的蛋糕,除重视硬件质量外,也注重设备智能化,特别是配套的筛查系统和辅助诊断。基层医疗机构缺乏优秀医生,对人工智能医疗器械需求大,将是人工智能浪潮的最大受益者和主战场。
1.1 人工智能医疗器械的研发模式
让医疗器械产品变得更加智能是趋势,可提高产品的竞争力。智能化、数字化医疗实现医疗设备的全生命周期管理是国际大公司的发展重点。在合作方式上,因为目前没有明确的收费项目,如肺结节筛查类产品主要以两种方式进入医院:一是以科研项目的方式同医院合作;二是同医疗器械厂商合作,以整体服务包的形式进入。
对于医疗人工智能公司来说,产品研发出来以后,与医疗器械公司的合作有两种好处,一方面可以通过科研合作的方式,验证自己产品的实际临床效果。另一方面,现在大多数医疗人工智能公司都在寻找合适的盈利模式。但由于医疗的严谨性,我国尚无针对人工智能产品的认证标准,以往公司常依据医疗器械的认证流程认证二类医疗器械或者三类医疗器械。在没有获得认证之前,很多人工智能公司通过与医疗器械公司的合作,将系统搭载在医疗器械上,医疗器械公司只需去省级食品药品监督管理局进行报备,不需要进行重新的认证,就可在市场上销售,所得的销售利润可以按照双方提前商量好的比例进行分成。
1.2 人工智能医疗器械的应用
2011年IBM的Watson开启人工智能医疗的商业发展,深度学习算法历经多次换代。2016年1月,IBM和美敦力合推糖尿病监测APP,借助数据分析结果,可提前3小时预测低血糖的发生,大大改善病人生活质量。IBM的Watson至今仍未获得美国食品药品监督管理局的认证,但其服务都是在法律允许的框架之内。
根据全球市场洞察力(Global Market Insight)的数据报告显示,人工智能医疗影像紧随人工智能药物研发成为第二大细分市场,占比25%,并将以超过40%的增速发展,预计2024年将达25亿美元规模[3]。人工智能在医疗影像领域的应用主要包含,图像或检查的分类,器官、区域或标记点的定位,目标及病理的检测,组织结构的分割,病灶区的分割以及图像配准等,针对的疾病主要有肺结节、糖尿病性视网膜病变、脑卒中等,应用方向主要有疾病筛查、病灶勾画和脏器三维成像。对细分病种的增强覆盖和根据自身业务特点对新场景的探索是未来发展方向。
各公司正通过将人工智能医疗器械产品投入医院免费试用来积累大量临床数据,以此提高临床应用的精准度,为申报国家药品监督管理局认证提供可靠的数据基础,缩小临床结果与实验室结果之间的差异。这却给不熟悉人工智能医疗器械审查注意事项的伦理委员会带来极大挑战。
1.3 美国人工智能医疗器械审批现状
美国食品药品监督管理局的人工智能影像系统分为计算机辅助检测(computer-aided detection)和计算机辅助诊断(computer-assisted diagnostic),前者用于检测身体异常状况,后者评估疾病的存在与否,比如严重性、疾病分类或预测。为加快医疗人工智能审评审批进程,2017年7月,美国食品药品监督管理局发布数字健康创新行动计划,根据电子健康产品特征、临床应用前景、用户界面特性和商业化周期等,建立新型实效性强的监管方法。
美国食品药品监督管理局已批准多个人工智能医疗器械,审批远快于中国。如2018年2月审批了第一个针对中风的人工智能诊断决策支持产品(ContaCT);同月审批了第一个针对儿童自闭症的人工智能诊断决策支持系统,Cognoa公司的一款深度学习应用;2018年4月批准了IDx公司首个自主式人工智能诊断设备IDx-DR的软件程序,可通过查看视网膜照片对糖尿病性视网膜病变进行自主诊断;2018年5月批准了新型人工智能工具OsteoDetect,用人工智能算法协助医生快速诊断腕骨骨折[3]。在医学影像方面,美国食品药品监督管理局首次批准通用电气公司的低剂量CT肺癌筛查方案,可精准成像,发现早期的微小结节,通过自动标记难识别的肺结节,辅助医生快速、精准地进行筛查。
美国医疗人工智能行业已有不少产品上市,我国医疗人工智能行业也尽快需要拳头级产品在国际上参与竞争。据报道,2018年11月底国家药品监督管理局对创新特别审批申请的1 054项项目进行审批,同意了192项,含已获批上市的51项创新医疗器械,但都不是人工智能医疗器械[4]
2、我国三类人工智能医疗器械的研发现状
在机器学习与深度学习越来越风靡的高科技行业中,利用人工智能进行影像三维分割、病理图像分析处理、个性化精准医疗等方面的工作来辅助医生进行诊断与治疗方案拟定已日渐普及。
2.1 我国人工智能医疗器械分类
原国家食品药品监督管理总局发布的新版《医疗器械分类目录》已于2018年8月1日起施行。特意新增了与人工智能辅助诊断相对应的类别,即目录中的对医学影像与病理图像的分析与处理。当前我国人工智能定位于辅助诊断,协助医生而不可直接服务于病人。按照最新的分类规定,把医用软件按二类、三类医疗器械设置审批通道。若诊断软件通过其算法提供诊断建议,只能辅助诊断,不直接出具诊断结论,其相关产品按二类医疗器械管理。若诊断软件通过其算法可自动识别病变部位和提供明确的诊断提示,其风险级别相对较高,其相关产品按三类医疗器械管理。可见当前人工智能产品大多属于三类医疗器械。
美国批复的人工智能产品大都是走二类医疗器械的认证流程,通过跟传统临床决策支持系统做等同对比证明安全有效性。相比我国绝大部分人工智能医疗器械产品被定为三类医疗器械,大部分人工智能产品在美国都被定为二类医疗器械,我国对待人工智能医疗器械产品的审批态度更慎重,法规相对更严谨,对临床评价的路径控制更严格。
三类医疗器械的申报需有临床试验数据支撑,部分二类医疗器械可豁免临床试验,但诊断软件的申报可否豁免临床试验,国家药品监督管理局尚无具体规范。当前人工智能医疗器械企业中,仅武汉兰丁的全自动数字(远程)病例分析仪和EDDA科技公司研发的IQQA人工智能赋能平台获得国家药品监督管理局认证,其他企业都还处于免费提供试用的阶段。目前尚未有一款产品获得三类人工智能医疗器械证书。业内认为我国人工智能医疗器械获得注册证的困难之处在于:对产品的认识速度跟不上对审评的认识程度,对高风险产品的临床验证满足不了临床的实际需求。而这些问题的解决还有赖技术的突破和临床验证的积累。
2.2 企业应对策略
为适应国家政策,我国大部分人工智能医疗器械企业删除和增加诊断功能,同时按照二、三类医疗器械申报。当前一些企业已获二类人工智能医疗器械证书,不少人工智能企业都在积极进行三类医疗器械的申报。随着分类目录的出现,现阶段各家医疗人工智能公司在研发产品的同时理应加速国家药品监督管理局认证的过程,这样在市场化过程中才可以在相对平等的条件下和医疗器械公司、医疗机构达成合作。在具备盈利可能性的前提下,保护自己的品牌不成为医疗器械公司的附庸。
2.3 已进入注册申报阶段
根据医疗器械注册流程,要经过产品定型、检测、临床试验、注册申报、技术审评、行政审批这六步。检测报告和临床试验报告是注册申报的前提条件,通过之后国家药品监督管理局才会正式受理。目前已有90多家企业跟国家药品监督管理局就三类证书的申请进行沟通,具体包括数据集的整理、敏感性特异性指标的评估、安全性有效性的评估等方面。国家药品监督管理局2019年5月27日公布了《创新医疗器械特别审查申请审查结果公示》(2019年第6号),深圳硅基智能科技有限公司申报的“糖尿病视网膜病变分析软件”产品已获批创新医疗器械,进入临床试验及审评快速绿色通道。国家药品监督管理局在创新产品的审批申报方面还开通申报的绿色通道等优惠政策。
中国食品药品检定研究院负责人工智能医疗器械产品的质量评价与研究工作。并非全部产品需临床试验后才能上市,源于真实世界的临床试验数据可用于临床前及临床的评价,前瞻性和回顾性的临床数据可用于临床评价。中国食品药品检定研究院规划的人工智能医疗器械检验体系有四个步骤:标准数据、体模测试、软件性能、模拟对抗,已建立起了彩色眼底图像和肺部CT影像两个数据库。数据库构建过程主要包括数据收集、图像标注、数据管理三个步骤。
3、人工智能医疗器械伦理审查的核心问题
人工智能医疗器械伦理审查的问题除人工智能和医疗器械各自问题外,也有人工智能与医疗器械叠加带来的问题。已有文献概述了医疗器械伦理审查的要点[2]。笔者最近也阐述了人工智能应用于医疗领域的伦理问题,包括公平受益、失业、患者隐私、医疗安全、责任划分和监管等。其原因涉及未遵守基本伦理原则、技术缺陷、立法和监管缺失、隐含算法偏见、数据质量欠佳等[5]。鉴于目前人工智能算法准确度和适应性是限制其临床应用的瓶颈,因此人工智能医疗器械伦理审查的核心问题包括难以准确评估风险、建立恰当类型数据库、确保数据安全、算法更新导致软件迭代等。
3.1 难以准确评估风险
人工智能医疗器械的使用与健康息息相关,风险评估尤为重要。临床使用风险应考虑数据质量控制、算法泛化能力的直接影响和算力所用计算资源(即运行环境)失效的间接影响。为使风险最小化,确保人工智能医疗器械的可靠性,需在使用过程中评估其风险。伦理审查中应注意其考量因素是否包括了临床使用中的假阳性、假阴性和进口软件的中外差异,以及风险管理活动相关的预期用途、使用场景、核心功能及措施、要求。
3.2 建立恰当类型数据库
数据是人工智能医疗器械的核心要素,将成为制约人工智能医疗器械发展的瓶颈。因此,数据库的建立是人工智能医疗器械审批的先行之举,2019年7月17日之前我国仅存在肺结节和眼底两类影像数据库,未来将建立肺CT、脑磁共振、冠状动脉CT血管造影等更多测试样本数据库,且明确测试数据库的类型包含检验数据库、真实世界数据。2018年9月以来,多达230家医院IBM Watson诊疗系统由于开不安全药物、诊断错误而备受质疑,导致美国德克萨斯州安德森肿瘤中心在已投入6 700万美元后放弃该项目。据《华尔街日报》等媒体报道,Watson诊疗系统的训练用真实病例数很小,肺癌635例已属最多,卵巢癌106例为最少。基于足够数量的数据库样本用于训练人工智能医疗器械,将大幅降低其误诊率和漏诊率。
3.3 确保数据安全
数据安全已成为人工智能的关注重点。人工智能医疗器械的网络安全存在较多隐患且无法得到及时修复,有些企业并不须具备必要的网络安全风险防控能力,其网络安全主动发现和监测预警能力均有待提升。有些企业在设计时没有考虑健康数据传输过程中的保密性等安全问题。企业作为运营者应承担主体防护责任,主管部门应履行监管责任。数据安全性的提高需得到医疗机构的配合,医疗机构在对健康数据进行归档、备份等数据传输操作时,尤其是通过公共互联网传输敏感数据时,若未对敏感数据进行加密处理,容易造成患者治疗信息、基因等重要医疗健康数据信息泄露。
医疗行业成为数据泄露的重灾区,由黑客渗透入侵导致的数据泄露事件增速最快,由于服务器配置不当、漏洞等因素造成的未授权访问问题也日益增多。2017年美国就有15次重大医疗信息泄露事件,约300万名病人的信息被泄露[6]。我国同样面临类似严峻挑战,2017年9月《法制日报》报道了一医院服务信息系统遭黑客入侵,多达7亿多条信息被泄露,8 000多万条信息被贩卖[6]
3.4 算法更新导致软件迭代
软件更新是导致人工智能软件召回的主要原因之一,应考虑对软件安全性和有效性的正面和负面影响。软件更新包括数据驱动型和算法驱动型软件更新,由此产生重大软件更新、轻微软件更新及其版本命名规则。表面看来,算法作为一种数学结构,具有客观的和确定性的特征。因此,算法决策应该不大可能会受到人们的情感和价值观的影响,但实际情况却恰恰相反。人工智能的算法虽说只是一种数学表达,看似与价值无关,实际上却不可避免地存在主观偏见。这种偏见的来源是多方面的,既有可能来自于训练系统的数据输入,又有可能来自于编程人员的价值观嵌入。为加快人工智能医疗器械的审批,基于现有历史数据的回顾性研究可用于临床评价,甚至算法性能评估可采用属于回顾性研究的第三方数据库。
2019年4月2日美国食品药品监督管理局发布人工智能医疗器械变更的监管框架的讨论稿及征求意见,已于2019年6月3日前提交了讨论意见稿。拟议的监管框架可使美国食品药品监督管理局和制造商从上市前开发到上市后对软件产品性能进行评估和监控。这个潜在的框架允许将人工智能医疗器械的迭代改进能力纳入其监督管理范围之内,同时确保患者的安全。也需向公众征求对人工智能医疗器械监管的意见和看法[7-8]
4、伦理审查的要点
没有认证就没有市场准入资质,新事物该如何监管,对于企业和监管部门来说都是挑战。为给所有企业一个导引,2018年12月25日在北京举办“人工智能类医疗器械注册申报公益培训”,公布了人工智能领域三类医疗器械审批要点,界定了适用范围,讲解了人工智能医疗产品在审批过程中所面临的数据库、数据安全、软件更新、云计算服务等问题。医疗器械技术审评中心安排了资深医疗器械审评专家,对医疗器械的法规与注册流程、设计开发与注册申报资料要求、医疗器械临床评价与临床试验、创新医疗器械特别审批程序、人工智能医疗器械数据质量控制要求、深度学习辅助决策软件审评要点等进行了专题讲解。但这些审批流程和要点不是法律法规,而是技术文件,而技术文件可以根据技术的发展和产品的特点变化而改变。三类医疗器械审批要点的出炉对于医疗人工智能领域来说,无疑是一重大突破,尤其是对之前软件涉及不明确的数据问题,算法更新问题以及风险评估维度等都给出了定性。国家药品监督管理局跟美国食品药品监督管理局沟通紧密,亦参考了美国的做法,目前已经形成统一标准。  
原国家食品药品监督管理总局与国家卫生计生委于2016年3月共同颁布了《医疗器械临床试验质量管理规范》[9],告别了参考《药物临床试验质量管理规范》的历史,明确了医疗器械临床试验的伦理审查要求。但迄今尚无针对医疗器械临床试验的伦理审查工作指导原则,更多参照《药物临床试验伦理审查工作指导原则》[10]。评估受试者的风险与受益是伦理审查的核心任务。医疗器械临床试验项目的评审主要从受试产品与试验操作两个方面予以关注和考虑。伦理委员会除审查医疗器械本身的科学性和伦理性外,也要审查医疗器械与人工智能软件叠加带来的风险与受益。鉴于目前人工智能医疗器械大部分仍处于注册申报阶段,临床正在或即将开展的大部分项目是企业以科研方式进入医院,并免费试用为主。医疗机构应与企业签订合同,明确补偿和伤害受试者的赔偿[11],也要明确未来产品成果和知识产权的分享方式。鉴于人工智能医疗器械的前沿性,必要时需聘请独立顾问。
4.1 适用范围
根据深度学习辅助决策医疗器械软件分类,有医疗器械数据、深度学习、辅助决策、医疗器械软件;依据软件类型可分为人工智能软件组件(医疗器械内含的人工智能软件)和人工智能独立软件(本身即为医疗器械的人工智能软件);根据软件用途分为辅助决策(包括但不限于辅助筛查、辅助识别、辅助诊断、辅助治疗),以及前处理(如成像质量改善、成像速度提升、图像重建)、流程优化(如一键操作)、常规后处理(如图像分割、数据测量)等非辅助决策。其中人工智能独立软件的适用范围包括:(1)明确预期用途、使用场景和核心功能。(2)包括但不限于处理对象、目标疾病、临床用途、患者人群、目标用户、使用场所、数据采集设备要求(若适用)、临床使用限制(若适用)。人工智能软件组件的适用范围可参照人工智能独立软件要求,并在产品适用范围中予以体现。
4.2 研究要求与资料
所有人工智能软件功能均应开展需求分析、数据收集(若适用)、算法设计和软件确认;且每项人工智能软件功能应独立开展需求分析、数据收集(若适用)、算法设计、软件确认。对于算法设计,提供算法设计的相关资料,包括算法选择及训练。要注意是否采取避免偏见的措施。算法设计应当考虑算法选择、算法训练、网络安全防护、算法性能评估等活动的质控要求。建议数据驱动与知识驱动相结合进行算法设计,以提升算法可解释性。算法性能上要注意假阳性与假阴性指标、重复性与再现性、鲁棒性/健壮性。对于深度学习非辅助决策软件,前处理需遵循算法性能评估、临床评价;流程优化需算法性能评估;常规后处理需算法性能评估,必要时需临床评价。
研究资料包括软件描述文档、网络安全描述文档、软件版本命名规则。软件描述文档要求核心算法部分应当结合本审评要点提供相应算法研究资料,以及测试集、公开数据库、测评数据库、回顾性研究、算法性能评估结果比较分析资料。其他资料应当提供网络与数据安全过程控制研究资料、第三方数据库(测评、公开)的基本信息(如名称、创建者、数据量、数据分布)和使用情况(如使用量、数据分布、比重、资质)。
研究者手册中,辅助决策软件应明确软件的适用范围、临床使用限制、注意事项、用户培训、数据采集设备要求、数据采集操作规范、输入与输出、算法性能评估总结(测试集基本信息、评估指标与结果)、临床评价总结(临床数据基本信息、评价指标与结果)等信息。此外,企业应结合法规、标准、用户、产品、数据、功能、性能、接口、用户界面、网络安全等分析需求,以避免临床需求和使用风险。
4.3 研究方案
临床试验需基于软件的预期用途、使用场景和核心功能,按照诊断试验进行临床试验设计,其核心要点包括:(1)试验设计:建议优先选择同品种产品或临床参考标准进行非劣效对照设计,次之可选择用户结合软件联合决策与用户单独决策进行优效对照设计;非劣效或优效界值的确定应有充分临床依据。此外考虑到用户的差异性,可选择多阅片者多病例试验设计。(2)观察指标:以敏感性、特异性、接受者操作特征曲线(receiver operating characteristic,ROC)/曲线下面积(area under curve,AUC)为主要指标,亦可选择时间效率等指标作为评价指标。(3)入排标准:基于目标疾病的流行病学特征。(4)参与机构:异于训练数据主要来源机构,地域分布尽可能广泛,机构数量需尽可能多。
4.4 风险控制
风险考量即是对人工智能产品在使用过程中的风险进行评价,以达到抑制风险,提高人工智能产品可靠性的目的。主要考量临床使用风险,如假阳性(误诊,过度医疗风险),假阴性(漏诊,快速进展疾病风险)和进口软件的中外差异(人种、流行病学、临床诊疗准则)。同时考量风险管理活动,包括预期用途(目标疾病、临床用途、重要程度、紧迫程度)、使用场景(适用人群、目标用户、使用场所、临床流程)、核心功能(处理对象、数据兼容性、功能类型),采取必要的软件设计、防护、警示等措施管理软件全生命周期的风险。也要考虑临床使用限制,包括临床禁用、慎用等场景。
4.5 数据库
数据收集应包括目标疾病流行病学特征,如疾病构成(分型、分级、分期)、人群分布(健康状态、性别、年龄)、统计指标(患病率、治愈率)、并发症与类似疾病等。采集的数据应当进行数据脱敏以保护患者隐私。数据脱敏应当明确脱敏的类型(静态、动态)、规则、程度、方法。
临床评价可采用基于现有历史数据的回顾性研究。回顾性研究应当在设计时考虑并严格控制偏倚问题,原则上应当包含多家、不同地域、不同层级的代表性临床机构(非训练数据主要来源机构)的同期数据,尽可能来自多种、不同采集参数的采集设备。使用原则(基于风险)上,高风险软件需临床预试验或临床试验的补充,中风险软件需临床预试验或替代临床试验。
第三方数据库属于回顾性研究的一种特殊形式,可用于算法性能评估,但未必能够完全满足软件确认的要求。第三方数据库类型包括非测评数据库和测评数据库,其中公开数据库等非测评数据库不可用于软件确认,评测数据库可用于软件确认。测评数据库需满足可扩展性、网络与数据安全因素,并具有权威性、科学性、规范性、多样性、封闭性、动态性。
4.6 数据安全
企业上市前后均应考虑建设软件自身网络安全能力,也应在软件全生命周期过程中考虑网络与数据安全过程控制要求。基本考量指标有脱敏数据转移、封闭与开放网络环境、数据接口兼容性、数据备份与恢复。云计算服务应明确服务模式、部署模式、核心功能、数据接口、网络安全能力和服务(质量)协议。移动计算终端需结合终端的类型、特点和使用风险明确性能指标要求。
4.7 软件更新
重大软件更新要许可事项变更,而轻微软件更新需质量体系控制,但无需申请注册变更。算法驱动型更新包括软件所用算法、算法结构、算法流程、所用框架、输入与输出等发生改变,包括算法重新训练(即弃用原有训练数据);数据驱动型指仅由训练数据量增加而促使软件更新,实为算法驱动型软件更新的特殊情况。对于重大软件更新,判定需遵循的原则为算法驱动型软件更新通常属于重大软件更新,数据驱动型软件更新若导致算法评估结果发生显著性改变(与前次注册/伦理批件相比)则属于重大软件更新。
无论何种软件更新,均应根据质量管理体系要求,验证与确认与软件更新类型、内容和程度相适宜的活动。数据驱动型和算法驱动型软件更新均应再评估算法性能和临床应用。属于临床科研项目的数据驱动型和算法驱动型软件更新,均需按照新项目进行伦理初始审查。对于高风险软件,适用范围变更应当开展临床试验,其他情况原则上可使用旧的临床试验数据和回顾性研究。对于中低风险软件,可使用临床试验数据和回顾性研究。
要明确并区分重大软件更新和轻微软件更新的版本命名规则,重大软件更新应列举所有典型情况,并涵盖数据驱动型和算法驱动型软件更新。
5、结语
上述伦理审查要点仅关注技术层面要求,不含人工智能伦理、数据产权等涉及法律法规层面要求,重点关注了软件的数据质量控制、算法泛化能力和临床使用风险。技术审查是基于审查关注重点,综合权衡软件的风险与受益,系统评价软件的安全性和有效性,兼顾公众健康保护与促进技术创新的关系。应归纳总结人工智能医疗器械的伦理审查经验,借鉴国外已有审查经验教训,制定和完善既符合国情又接轨世界的伦理审查指导原则。

参考文献:
[1]国家药品监督管理局医疗器械技术审评中心.关于发布深度学习辅助决策医疗器械软件审评要点的通告:2019年第7号[EB/OL].(2019-07-03)[2019-10-04].https://www.cmde.org.cn/CL0050/19360.html.
[2]所伟,杨克旭,林阳.医疗器械临床试验的伦理审查要点[J].中国医学伦理学,2017,30(7):856-858.
[3]久银控股.2018医疗人工智能报告:调研60家国内医疗人工智能企业产品落地情况,第一代产品已成熟[EB/OL].(2018-09-28)[2019-04-29].https://m.sohu.com/a/256766074_99924301.
[4]健康界.三类器械审批要点出炉 医疗AI如何接好招[EB/OL].(2018-12-26)[2019-04-29].https://www.sohu.com/a/284726846_139908.
[5]周吉银,刘丹,曾圣雅.人工智能在医疗领域应用的挑战与对策[J].中国医学伦理学,2019,32(3):281-286.
[6]SecID锦佰安科技.医疗行业数据泄露惊人,提高医疗信息安全刻不容缓[EB/OL].(2018-04-24)[2019-04-29].https://zhuanlan.zhihu.com/p/36039893.
[7]胡海.基于人工智能和机器学习技术的医疗器械软件[J].中国食品药品监管,2019(6):59-61.
[8]U S Food and Drug Administration.Artificial Intelligence and Machine Learning in Software as a Medical Device[EB/OL].(2019-04-02)[2019-05-04].https://www.fda.gov/MedicalDevic ... vice/ucm634612.htm.
[9]国家食品药品监督管理总局,国家卫生和计划生育委员会.医疗器械临床试验质量管理规范[J].中华人民共和国国务院公报,2016(19):50-62.
[10]国家食品药品管理局.关于印发药物临床试验伦理审查工作指导原则的通知[EB/OL].(2010-02-11)[2019-02-03].http://www.sda.gov.cn/WS01/CL0055/55613.html.
[11]曾圣雅,刘丹,周吉银.临床科研受试者补偿/赔偿的难点及对策探讨[J].中国医学伦理学,2018,31(11):1368-1371.


来源:医学与哲学杂志
作者:周吉银 李红英
文章来源:https://mp.weixin.qq.com/s/io7pmvcIygfcNIMbyyz0GQ


编辑:刘佳莹

427#
 楼主| 发表于 2020-6-26 17:05:51 | 只看该作者
【案例】
人工智能时代的理性、道德与信仰
[编者按]2018428日,湖南大学岳麓书院、凤凰网在岳麓书院中国书院博物馆报告厅举办了“人工智能时代的理性、道德与信仰”人文讲会,特邀武汉大学蔡恒进教授、中山大学张祥龙教授、清华大学黄裕生教授对谈交流。这既是“致敬国学:第三届全球华人国学大典”的首场人文讲会,也是湖南大学比较宗教与文明研究中心成立后的首场讲座,由张俊教授策划、朱汉民教授主持。为了立体展示对话者的思想火花和学术风貌,《南国学术》编辑部采取各自表述、相互交锋、回答疑问的形式依次呈现。
  
蔡恒进从“认知坎陷”概念出发,认为人类拥有“我”的观念及与此相对的“世界”的观念,此二者的二分使人类具有整全意识。相比之下,机器虽然拥有人类所赋予的意识片段,却缺少整全意识,因而缺少对自身行为的把握,很容易因失控而给人类带来灾难。张祥龙认为,“深度学习”技术令人工智能拥有了“时间化”的能力,使机器能够产生真正类似人类的意识。在此基础上,机器既有可能因人类的道德引导而产生对人有益的智慧,也有可能因人类的不良应用而改变和恶化人类的生存方式,产生巨大威胁,因此人类需要合理限制和规范人工智能的发展。黄裕生认为,人类拥有自由意志而人工智能永远不可能获得,这是人机之间的绝对界限。进而,人类是真正时间性的存在,而机器永远不可能存在于整体的时间中。因此,存在于整体时间性之中的人类因其自由意志而拥有宗教信仰,这是人工智能无法比拟的,也因此而无法消除宗教。
关键词
人工智能  人类   理性   道德
作者简介
蔡恒进,1995 年在阿拉斯加大学费尔班克斯分校获得空间物理学博士学位,2005年受聘为武汉大学计算机学院教授、博士生导师,主要从事服务科学、人工智能、区块链技术研究,代表性著作有《机器崛起前传——自我意识与人类智慧的开端》。
张祥龙,1992年在纽约州立布法罗大学获哲学博士学位后任教于北京大学,1999年被北京大学哲学系和外国哲学研究所聘为教授,现为中山大学珠海校区哲学系讲座教授、博士生导师,主要从事儒家哲学、现象学和东西方哲学比较研究,代表性著作有《从现象学到孔夫子》《海德格尔思想与中国天道》《复见天地心:儒家再临的蕴意与道路》等。
黄裕生,1995年在中国社科院研究生院获哲学博士学位,2004年被聘为中国社科院哲学研究所研究员,现为清华大学哲学系教授、博士生导师,主要从事第一哲学、宗教哲学、比较哲学研究,代表性著作有《时间与永恒:论海德格尔哲学中的时间问题》《真理与自由:康德哲学的存在论阐释》《宗教与哲学的相遇:奥古斯丁与托马斯·阿奎那的基督教哲学》等。
主持人:在目前这样一个互联网时代、人工智能时代,中国文化包括人类文化向何处去?这既是一个哲学问题,也是一个与宗教相关联的问题;因此,接下来将围绕“人工智能时代的理性、道德与信仰”问题进行探讨。这其实内含两个问题,一个是人工智能,一个是道德、理性、信仰;所以,邀请了该领域的三位代表,与大家分享他们的见解。
蔡恒进:我这里想用“认知坎陷”概念来引出下面的思考。这个概念,是受牟宗三(19091995)的“良知坎陷”启发而提出的,意指认知主体对世界的描述方式是有一定连续性的结构体,因而其认识便对真实物理世界形成了扰乱。由于人最重要的特色在于其主体意识,即“我”的观念,而这个“我”就是最重要的“认知坎陷”;与之相对的,则是外在的世界。“我”与“世界”这一对认知坎陷,便是所有认知坎陷的开端。
人与其他动物本质的差别,来源于人所拥有的敏感皮肤。正是人的敏感皮肤,促使人产生强烈的“我”的意识和对外界的感觉,以此将“人”与“世界”两者分开,进而开显出人类的精神世界。这是认知坎陷的起源。
人类所创造的文字、宗教、哲学均是认知坎陷,都是由“我”这一观念衍生出的意识片段。这种认知坎陷、意识片段是可以物质化的,例如可以物化为螺丝、齿轮等实在物;进而配合完成人所期望的功能,例如组装成钟表来报时。因此,人工智能表现出的好坏,实际上依赖于人类创造者之意识凝聚状态等细节的好坏。例如,“阿尔法围棋”(AlphaGo)凝聚了众多工程师的意志,因而具有了创造力、想象力、直觉等,并战胜了众多围棋高手。虽然机器是拥有“自我”的,但机器这种“自我”依靠内部的各种子程序以及线路等实物,是一种很弱的“自我”,无法像人类一样作为一个整体来规避问题或者自行修复。然而,如果未来机器之主程序对副程序具有更好的统摄能力时,便会像人类对自己的认知坎陷、意识片段拥有足够的统摄力一样,形成更强的“自我”。
未来的机器运行速度快且进化迅速,将远远超过人类,其产生的认知坎陷也与人类不同,将对人类形成极大挑战。机器虽然拥有人类所赋予的大量意识片段,却仍缺少人类所拥有的、来自“我”与“世界”二分的整全意识,所以,人在这一挑战下还是有机会的。人类将“我”与“世界”二分而形成了最初始的认知坎陷,这种对“我”的认识可以至大无外也可以至小无内,而对世界的认识则可以借牟宗三“无执的存有”来描述。
如果从认知坎陷的视角来看宗教、哲学与未来,由于人类拥有整全意识而机器没有,机器所理解的世界自然与人类大不相同。机器并没有人类那样对自身行为限度的把握,但其速度快、力量强,因此很可能在不经意间给人类带来毁灭性的灾难,而人类甚至来不及反应。在对无限(无穷大)的追求中,人类有自控的分寸,因其整全意识而具有一种独特的“神性”;但机器无法自控,而容易进入“暗无限”的状态,相对具有一种“魔性”,这就是人与人工智能关系中的风险所在。
张祥龙:十二年前,“深度学习”方法的出现,导致了人工智能的突飞猛进,才使人类真正意识到了威胁的存在。在此之前,计算器的强大只是因为依赖其快速的计算能力及巨大的信息量;而“深度学习”,则是让机器在一定程度上可以自行学习以增强自身。在这种智能模式中,信息的输入、输出之间,不再仅仅是一两层的算法处理,而是建立了一种多层的或“深度”的互嵌网状联系,并且通过参数来调整各层之间信息的流动,导致层次之间出现非线性的曲折关联,使巨量的杂乱输入信息经过这些深层算法处理,最终可以有情境适应力地收敛到预期目标上,由此让人工智能获得了过去难以企及的直观能力。
一些对于人类来说“特别理性”的能力,比如现代性所推崇的形式化、概念化的知性能力,或对明确的因果关系、利害关系的把捉和算计的能力等,恰恰是人工智能可以相对轻易地拥有的低级能力;而与之相比,人类实际生活中常见的直观性、意向性的辨识、思维和感受能力,对人工智能来说却是相当困难的,直到最近才在某些方面达到了人类的平均水平。然而,通过层次间相互曲折联系的深度处理模式,新方法毕竟使得人工智能初步获得了这种能力。从哲理上讲,这一进展使机器变得有点儿像人了,而不是反过来,像历史上的还原主义者们所说的,人只是一种高级机器。以“深度学习”为代表的机器学习方法的创立者们,模仿人的大脑和知觉的神经结构及意向化认知方式,让机器的认知更类似于人,于是使得机器得到了“时间化”的能力,也就是令时间对机器有了根本性的意义。例如,深度思维公司最新研发的“阿尔法零”(AlphaGoZero),通过自我对弈强化学习,4小时击败国际象棋顶级人工智能程序,8小时击败战胜韩国棋手李世石的“阿尔法围棋-李”,24小时内战胜通过72小时自我学习训练称王围棋的“阿尔法围棋-零”。可见,这“4小时”“8小时”“24小时””的时间对它有了根本意义。这样自学出来的能力,才更有随机适应力,也就是更近乎人类智慧。它唤起人们浓厚的理智兴趣,但也让人们的生存本能感到了如临深渊的恐惧。
时间化的能力,是人类意识(包括理性、道德及信仰的意识)的根基。人工智能的新进展左证了这一观点,它的“智能”就体现在这种时间化能力的获得。机器现今所拥有的这种能力虽然还很浅薄,但却是真实的,因为它已经迈过了关键性的门坎。可以想见,在可见的未来,人们必定会全速发展它的这种非线性的自学或自我调整、自训练的时间化能力。因为,它越是能够超出确定对象的局限,得到深长的时间趋向性或“想象力”,用老子的话说就是获得“惚恍”里的“真”和“信”,它就越有更加强大的智能,也就从整体上更接近人类的理性,在某些方面还会远远超过人类。
这一突破带来了两方面的道德可能性。首先,在未来的发展中,人工智能的这种学习能力将逐渐不再限于解决具体的任务,而是像人类的能力那样,越来越通用化,出现越来越强的非线性“思维”能力。可以设想,随着它的时间化能力的不断增强,人工智能机器将逐渐获得类似于人类的“意识”,深化对具体情境的理解和时机化感受力,进而产生对环境、对其他机器乃至人类的同情感,而这就意味着它的道德感将开始出现。在此情况下,如果人类能够通过法规等手段对人工智能的研发加以规范,避免其在军事、商业等方面不计伦理后果的创新和应用,由此而引导机器智能向道德、信仰等更深层的方向发展,也就是将它的智能转化为智慧,就能为人类带来巨大益处而非威胁。
其次,如果人类出于竞争和赢利等目的的需要,只追求人工智能的强大能力,则将放大其本来就潜伏着的“魔性”。由于智能型机器在许多方面已经或即将超过人类,对它们的不良应用将改变和恶化人类的生存方式。比如,鼓励、塑造新型的个人主义,损害人类的人际关系。要知道,人在使用工具的同时也在被工具所塑造,在智能型机器越来越广泛深入的掌控中,人将逐渐丧失自主性,被儒家视作道德起源的家庭关系也会进一步衰败,这将对人类伦理产生巨大伤害。从目前的趋势看,这种现代化技术对人的重新塑造不可避免。过去人们用机器来代替自己的手脚身躯,已然使得人际关系、人与自然的关系、生产方式及人的精神世界发生巨大改变,而今如果再用智能型机器来代替人们的头脑、精神,那么机器对人的塑造将更难以预测,其风险无法控制,必然对整个人类产生巨大威胁。
最后,在以上的两种可能中,后一种的实现概率要大得多,所以在对人工智能的应对当中,人们应该首先看到其在道德、身体、种群上对人类的威胁。因此,人类绝不能对人工智能的发展放任自流,就像不能对“克隆人”的科技放任自流一样;而是要在全球范围内限制和规范人工智能的发展方向,禁止其不良的发展趋势和应用方式,促成善良美好、与人和谐共存的人工智能。
黄裕生:要回答人工智能是否会终将淘汰人类,首先要理解人本身。在对人的理解上有一点共识,即人有三种基本能力:(1)感性能力,即能接受外部事物刺激的能力;(2)理智能力,即能够给出概念并以概念对人们生活于其中的世界进行规定与演绎、推理的能力,这个能力的基础是定义能力,其最典型的部分为逻辑推演能力;(3)意志能力,也就是追求某种对象的能力,把某种对象作为自己的目的来追求的能力。在这三种能力中,第一种能力完全有可能被程序化并被机器所拥有;第二种能力中的逻辑推演能力,机器也已拥有,但机器是否能拥有定义的能力却是值得怀疑的;而第三种即意志的能力,机器则永远无法获得。
意志的能力是最复杂的。意志力又可进一步区分为两种能力:第一种是低级的意志力,它欲求意志之外的事物;第二种是高级的特殊意志力,即追求意志自身,只以意志自身为对象,以意志为意志,确切地说是以意志自身从自身给出的法则或事物为对象,这种能力也就是通常所说的自由意志。这种自由意志,使人类能够突破一切程序。如果人们要把自由意志赋予机器人,就必须能够把自由意志程序化,也即能够用程序把自由意志写出来;但是,自由意志恰恰是不可被程序化的,否则它就不是自由意志。因此,人机之间存在绝对的界限,即使机器可以跨越前两种能力的界限,但终究无法跨越第三种能力,也即意志能力的界限。
尽管在理论上人们可以赋予机器以自动甚至永动的能力,但是机器不可能获得使其具有主动性能力的意志,而只能在程序中活动。虽然在各种处境下机器可以做出最佳的反应,但是它没有意志去主动地做任何事情,其一切行为均是反应性的,只能在各种环境下做出最好的选择。与此不同的是,人类既可以做出最好的选择,同样也可以做出最坏的选择,这就是无法预料的自由意志的体现。人机之间的这一界限是无法打破的。
一些主张人机之间没有界限的学者,试图通过物理还原主义的研究来否定自由意志,将所有的意志活动归结为神经元放电;既然神经元放电都是遵循某种因果律的,那么自由意志便不存在。但是,这种还原主义研究在逻辑上面临一个难题,即所有这类还原研究都是在意识活动之中进行的,也就是说,这类研究无法跳出人们的意识活动之外来观察意识本身。这意味着,所有这类研究都不可能真正揭示人类意识最神秘的地方,意识自身永远无法达到意识自身。在这一意义上,还原主义永远不可能否定自由意志,因而想借此来打破人机界限的努力也是无法完成的。
人类自身才是真正的时间性存在。自由意味着突破本能、突破直接性、突破必然性,使人类的存在成为一种永远面临可能性以供选择的存在,从而摆脱了必然性的封闭。因此,人类不会陷入非如此不可的必然性处境,而总是处在面临着多种可能性的开放性状态中。这就意味着过去可以被中断,过去不能决定现在与未来,过去对于人类而言也是一种可能性的过去,人类可以通过重新理解过去来理解现在和未来。过去是未完成的,可以重新加以理解,是可能性的存在,因此,对于人类理解现在与未来仍然具有意义。如果过去对于人类来说是完成的,就如同人身上现成的器官一样,那么人类实际上也就没有了过去,过去直接就作为现成物外在于现在而与现在无关,因此,人类只存在于现在。同样,当下与未来同样是开放的,充满着各种的可能性。人们可以通过过去来理解生活、策划未来,也同样可以通过理解未来去理解过去与现在。在这里,过去、现在、未来是不可分割地存在着。在这个意义上,人因自由而存在于整体时间之中,其中包含了一切可能。这是机器无法企及的。机器永远不可能存在于这种整体时间中,它不会有过去、未来。
正因为人类存在于一种整体时间性之中,因此,人类总是不可遏制地打开着绝对未来,并因此才会拥有宗教。宗教不仅确信当下的事物,还确信不在场的过去和未来的事物。人类的时间性存在使其能够打开一种终极的可能性,即死后的可能性。不管对死后的可能性世界如何理解,都不可能不确信,仍有一个世界在延续,仍有一个世界存在。但是,如果人们承认自己生活于其中的这个世界是一个有伦理原则而充满价值色彩的伦理世界,是一个有公正、友爱同时也有不公与罪恶的世界,那么人类就会理性地将死后的世界设想为一个更公正的世界,并进而更加坚守现实世界的道德。也就是说,如果人们的世界拥有道德性的存在,那么就会不可遏制地去想象、理解死后的彼岸世界。在这个意义上,宗教信仰的基础便是人类的自由意志。因而,无论人工智能多么发达,也不可能取代人类,不可能使宗教消失,或者消除人类的道德。人类之所以拥有道德世界,就因为人类的行动并非必然的,而是自由的。
蔡恒进:黄裕生教授所说的“自由意志”,其实是一个很大的问题。讨论这个问题应有的背景,是如今现代科学的进步与快速发展。很多人都觉得“物理还原”是一个非常有效的方法,但“物理还原”并不能探究出自由意志由何而来。从宇宙大爆炸开始,虽然可以用物理方程等模拟宇宙的发展演变,但即使现在引进量子效应、概率性,都无法探究自由意志的本质。生命一定要有意识,能够意识到我是我、外界是外界。即使是一个单细胞,当它能分清楚内外的时候,自由意志实际上就已经开始了。只有从这个角度,才能看清自由意志的来源。对于人类来说,皮肤非常敏感,大脑在母体外面发育的时间很长(05岁),因此人类有更强的“我”的意识,是万物之灵。人的发展是一个连续谱,是高速度的进化,并且这种进化不是通过人类身体,而是通过将人类意识片断的物化,诉诸文字、雕塑、音乐等形式可以脱离人类身体的方式进化。这些进化过程归结起来就是人有自由意志。此外,人的意识还可以超越时空的、构筑未来的各种可能性。
但是,当人类的技术发展到一定水平,发达的技术又开始变成了限制,这时的技术发展反而又变成另一种负担。也就是说,有自由意志并不代表着人类没有危险。危险的关键就在于,机器不需要比人类更聪明、更不需要比人类想得更深远,即便不是主观或故意要“造反”,也可能伤害甚至毁灭人类。这就如同把豹子之类的危险动物养在家里,虽然它平时不伤人,但哪怕只攻击一次,后果也不堪设想。而机器的魔性,可能就存在这种情况,这就是问题的所在。
至于黄教授谈到的此岸世界、彼岸世界,我认为,关键在于,人类必须在“此岸”就解决问题,因为彼岸世界并不能帮助真实的人类世界。例如,当人工智能的威胁到来的时候,只能由人类自己来解决问题,而不能寄希望于彼岸世界。人类追求不朽、追求永生,但实际上人类已经能够做到了。一个人五十岁的时候已经与三岁时不同,但却依然认为我还是我;当谈到要永生的时候,究竟是是五十岁的我要永生,还是一百岁、两百岁的我要永生呢?实际上,哪种情况都不是。在某种程度上,从三十岁到五十岁,“我”的有些东西已经能够长久地存续在这个世界里(比如,出版著作),那么“我”(的一部分)已经可以看作是永生的了。孔子(前5512—前479)就是永生的,他的很多言行与主张(意志片断、认知坎陷)已经融汇进汉语中,又被一代代人所学习。孔子的学说包括仁、义、礼等,都在被后人实践着,而且一直在演化,所以他是在永生。普通人也可以通过这种或者其他方式永生着,在此岸世界便已经可以实现永生。
张祥龙:对黄裕生教授所说的“自由意志”,我也有不同看法。按照西方近几十年的认知科学研究,以前所认为的那种自己的意识完全主宰自己的意愿的强自由意志论的看法,可能是不对的。有几个著名的实验已经对此提出了反证。比如,其中一个实验让被试者用自己左手或者是右手的手指按键,人们觉得自己的自由意志当然能够控制自己用哪只手按键,但是经过先后几次的实验,却都发现在被试者决定动哪根手指之前,他的脑图显示他已经有了动的冲动,而且根据被试者的脑图测试者甚至能够预测他将动左手还是右手,达到百分之八十的准确率。当然,有的科学家据此得出结论,认为人类没有自由意志,这是不准确的。这个实验只是说明,人类的自由意志受他的内在时间之流造就的“潜意识”等因素影响。具体的动作过程,可能在“显意识”之前就已经做了准备;但是,这个所谓的被测试出来的潜意识,与人们以前的身心经历的积淀是有关系的,其本身不是完全机械的,而是有所选择和综合的。以前的心学或者印度的瑜伽最后所要达到的境界,就是把人们所谓的“潜意识”与“显意识”充分沟通,使整体意识进入到一个更高的、更完美的状态。这从侧面说明,人们的自由意志可能不完全是由主观意识或自我的显意识来决定的,它是一个与人们身体有关的时间化的过程。
既然是这样,难道人工智能就不能够模仿它,或者在结构上去再现它?既然通过“深度学习”和其他人工智能的算法,已经给了机器非常初步的时间化能力,那么,这个发展再进行下去,说不定机器也会有所谓的过去,过去对它不再是一片空白。机器也会有记忆力,通过推动这个记忆力,机器也能够对未来做出很多选择,能面对各种各样的可能。这就是所谓自主学习的一个特点。“自主学习”就是要面对各种的可能来构造出新的能力。从这方面看,未来机器是否会像人类一样有这种自由意志,还是需要进一步探讨的。
黄裕生:张祥龙教授所讲的那个实验,的确有一定的挑战性;但是,这种实验本身已经设定了一点,就是人类自由意志是可以归结为人类神经元的放电,因此这个设定本身可能就是一个问题。如果说可以做实验来验证、还原自由意志,可以归结为这种神经元放电的话,那么就代表着人类其实并没有真正的自由意志,因此做这个实验的理念前提本身就已经否定了自由意志。这类似于某些人对康德(I. Kant17241804)的批评。比如,在铁轨的两个分叉上,一边有三个人,另一边有五个人,这时不管火车怎样走,其实都要杀人;这种所谓的设定,已经把人从道德处境里面抽象出来了而处于一种必然要杀人的情况中,也就不存在故意杀人的问题。还原实验,有类似于这样的前提在其中。
蔡恒进:针对黄教授的观点,我想再补充两点:第一,未来机器有可能像人一样有意志力;即使不可能,也依然是危险的。因为,人类把很多意识片断、认知坎陷传递给了机器,机器就会模仿;而由于机器的计算能力很强,人类展示给它的内容有好有坏,机器可以任意组合却又缺乏整全意识且无法辨别是非,这就会带来危险。尤其是机器的速度快、力量大,不需要有很强的自由意志就可能对人类造成伤害。第二,机器也可能会有自由意志。如同张祥龙教授所言,由于自主学习技术的存在,机器可以学习很多内容,然后能将其按照某种方式组合起来。这一点与人的学习过程是类似的,并没有本质差别。
“人”的意义在于人的整全意识,这一点是机器目前发展不出来的。由于人是亿万年进化过来的,认知坎陷的“开显”完全是历史积淀的结果,在适当时候便会开显出来,而且是能与物质世界相呼应的、是向善的。这种开显过程放在机器上就不能适用。
人类的“善”从某种程度上与自身生命的有限性相关。从古至今,人们一直在讨论善由何而来,例如恻隐之心、羞恶之心。人类相信有善,在于一代代轮回染习的传承,在于婴孩时期就感受到的生而得之的善意。这个“善意”包含三个方面:一是大自然的馈赠,二是父母的养育教导,三是社会的保护。假如说,人类未来可以活到一万岁,但从来没有经历过弱小的阶段,某种程度上,这种染习的过程就没有了。另一方面,对于机器来讲,它没有这种轮回染习的经历,就没有对善意的感知,不会有天生的善意,因此,要将善意传递给机器的挑战性就很大。
主持人提问:机器的“魔性”是从哪里来的?机器的“恶”是创造机器的人赋予的,还是由其自身产生的?
蔡恒进答:这里可分为两个层面。第一个层面,并非机器主观有恶念,而是存在一种“暗无限”(dark infinity)状态。“暗无限”是一个中性词,人类自身也会出现这一状态。比如,某小孩从一个街区到另一个街区去购物,如果在路上碰到两个下棋的人,就有可能转而去看下棋而忘记购物。假如他的智商很高,又深深地被下棋所吸引,那么他可能就想要把它研究透,由此花费很多时间,不仅忘记最初的目的(购物),甚至废寝忘食,这就是一种“暗无限”。这种研究一旦进行起来,就看不到尽头,难以停止。因而,重点并不在于事情的好坏,而在于在这件事情上花掉的时间。又如,这个小孩碰到一只他从来没有见过的犬,他也可能停在那里仔细研究它,出现“暗无限”的状态。小孩是有可能忘记购物的,但普通人是不会的,会退出来,想起购物很重要。然而,机器则像缺少这种自控力的小孩,人类该怎样让它从“暗无限”的探索中返回呢?
另外一个层面,正因为人类想让机器对人“好”,但辩证来讲,有“好”就有可能出现“坏”,有可能出现难以预料的场景,甚至与人类所设想的情况完全相反。一旦发生这种坏的情况,后果将非常严重。人类并不能真正控制这种情况,因为人类并不能完全禁止有危害人类功能的机器人。即使人类在多数情况下是想去做善事,但不同角度、不同立场的人制造的机器人就可能完全不一样,因此并没有办法去规定一定要禁止哪些、不禁止哪些。解决的办法就是,允许人去探索自己想做的事情,但这目的与过程都要公开、透明。因为,一个人想不到的危险,别人可能想到,这样就会互相制衡。比如,欧洲现在的立法就要求系统的开发要有可解释性,任何系统都必须进行登记。开发者应当有这样的自觉,以公开、透明的模式来相互补充、制衡。这是未来一种可能的进化模式。
至于黄裕生教授说,人与机器之间存在绝对的分界;其实,这个分界是不存在的。因为,目前已无法定义“人”是什么。比如,脱氧核糖核酸(DNA)、智力等等有生物性的东西,机器都可以有;而且,人在未来很多身体的零部件都可以替换成机器,如心脏起搏器已经是比较成熟的技术。因此,人与机器的这个边界将会变得非常模糊,尤其是如果人的脑子也可以与一台超级计算器交互连接的话,这时已很难再区分是一个人还是一台机器了,人与机器的这个边界已经彻底没有了。
张祥龙答:我觉得,这里先要定义一下什么是恶?简单说来,“恶”就是一种狭隘的对象化,不顾及与其他人的联系。比如,自私自利是恶,而利他则是善,都是这一定义的反映。假如机器人要有恶性的话,首先与这个设计者、制造者有很大关系。如果设计者有很强的目标、欲望在指引,那么他设计这个机器人的时候,就会通过各种各样的手段让机器人能够具有达到这个目标的能力。例如,出于军事上的目的而设计、优化的那种机器人等等。此外,“恶”“善”是与社会条件相关的。如果是一个异化的环境,由资本来决定机器人未来的发展,那么,就会不择手段地牟取暴利,并将这种冲动反映在设计者身上。
至于机器人本身,因为它有自我学习能力,甚至是有某种自我意识,有可能产生恶;但如果让它的这种意识越来越深化、自由地发展,那么这个机器人可能向善的机会就比较多。“善”与“恶”实际上是一对哲理定义,由于“恶”是被贪婪的目的等控制,因此,自由的选择和原发的不受对象控制的意志,就像佛教讲的那种去掉了执着的根本意识,才是未来要争取在人生中以及机器人身上实现的。《生命3.0:人工智能时代的人类》一书的作者设想,未来有一个超级人工智能,它把人类社会中存在的所有问题都解决了,使未来社会中的人类互亲互爱。但是,人们愿意生活在那样一个社会里吗?那真的是一个善的社会吗?如果人类所有的决定、所有享受到的东西,都被这么一个超级人工智能来构造、控制、主宰的话,人们肯定会觉得不舒服,会觉得自己在被豢养。我们宁可要一个不太完满的世界,也不愿意要一个完满但完全被控制的世界。只有在众多的可能、真实的多样性中,人类才能寻找到真正的善。
黄裕生答:机器人有恶念与机器人做坏事,这是两个问题。机器有恶念,这是道德意义上的判定;它会做坏事,那就不是一个道德上的判定。因为,说它做了坏事,那是对应人类来说做的是坏事,但却不足以归为恶念的问题。如果是恶念的问题,那就意味着机器必须有自由意志。有了自由意志,才会有一个好坏的问题。因为,所谓善恶必须要有一个前提,即可以自行选择;如果没有选择,就不存在善恶的问题。比如,人类不可能对动物有道德上的评判,因为动物是自然的生活状态,而人类则是自由的生活,永远面对着可能性,有选择才会有善恶的问题。如果说机器有自由意志,那么当然机器就有善恶。讨论恶的问题需要一个前提,即这种恶是指道德上的恶。
听众提问一:有没有可能,某一种族或者人群利用人工智能把所有人都控制起来,并且对现存的自由、民主、公平、正义等价值观产生冲击,使“善”只针对少数人,而对多数人是“恶”?
张祥龙答:人工智能的发展将来完全可以分种族、分阶层。比如,它可以被用在军事上,甚至通过专门辨认某一种族的面相、体型特征来被应用于种族屠杀上。这确实是隐含的比较可怕的地方。至于你说的少数聪明的人控制了其他人,也是有可能的。因为,如果高科技由不善良的集团或者人来控制,那么,他们当然是要急剧地发展技术来与对手竞争,那就会有一些高度保密的先进技术,然后以此攫取统治权力。那样的话,人类整个社会的自由、民主、公平、正义等要素都会荡然无存。在普通百姓毫不知晓技术发展的情况下,那些人会用技术手段构造出每个人都无法避免使用的布满生活的智能工具,比如手机等等。那种情况下,人的任何选择,包括那些表面上是自由意志的选择,实际上都在被操纵着。这完全是可能的,也恰恰是人工智能的危险性所在。
听众提问二:机器的“神性”与“魔性”是否有可能统一?其“魔性”确然对人类造成了威胁,但如果发展其“神性”并使之与“魔性”相统一,是否会因其与人类过于相似而形成另一种威胁?
蔡恒进答:关于“神性”与“魔性”之间如何平衡的问题,首先不要误解 “魔性”。“魔性”可以理解为“神性”的反面。“神性”就是人们在此岸对无限的永远不会终止的追求,但实际上的具体内容却很难去定义。例如,人们讲“圣人”,却并不会真正去定义清楚何谓“圣人”,而且也无法定义清楚。而对于机器也是一样,“神性”与“魔性”必然相互联系,相伴而生。决定人类社会未来的行为并不是个人的意识,而是整体的意识,是超越人们身体的。我所想象的未来的图景中,人工智能与人的智能会同时起作用。因此,在这种情况下,个体并非不重要,但作为个体却并不能掌控全局,而必须在更高的层次上作为整体而前进。
听众提问三:如果说人类是真正时间性的存在而机器并非如此,那么,人类的这种状态是否可以看作衡量人与机器之间高低差别的标准,抑或可能仅仅是一种人类特有的看待世界的方式而已?
黄裕生答:是的。正是因为人类有思想,所以才高于所创造的机器人。人自身真正的进化,依靠的是思想的进化,依靠思想加深深度来不断改变、刷新历史。人类思想活动最为典型的体现,就在于人的自由;也就是说,人之所以会思考未来、思考过去,都是基于人是自由的这一前提。如果人是封闭于过去或者当下世界中的话,就不存在或不会提出这样的问题。由于人的所有思想活动都是基于其时间性的,所以,机器再怎么进步,都无法达到这一点。人与机器的分界点体现在思想,而此思想是人类的思想,是在响应世界的召唤。
至于蔡教授刚才提到人机无界限,我却认为,即使人身上安装了再多的高速运转的机器要素,也依然是以人作为一个主体,而不是以机器作为主体,这与直接制造出与人一样的机器是不一样的,必须区分开。
听众提问四:黄裕生教授在谈到人工智能与人类的分界时,使用了一个非常经典的概念——自由意志。但是,从康德以来,自由意志实际上是实践理性的假设;而从人工智能的角度来看,如果把人的自由选择作为一种算法,那么人工智能也未必没有这个所谓的自由意志。可否将情感——哲学上的直觉能力——这种机器人不可能真正拥有而只能模仿人类的能力,视作人与机器的差别?
黄裕生答:关于自由意志问题,在康德那里,它是三大悬设之一,但这是必然的悬设,因为不悬设它则不合理。康德是从理性事实出发来反证必定要有自由这个悬设的:人们生活的世界是有秩序的,而这些秩序就是建构在一系列基本的伦理原则或道徳法则基础之上,也即作为人类行为底线的那些法则基础之上。也就是说,那些法则在人们的生活世界里是有效的,否则人们的整个现实社会就会瓦解掉。而这些道德法则均是以禁令或者劝令、应当或者不应当的方式表达的。这样表达的伦理法则既然有效,则反过来证明人必定是自由的,否则它们就应该是无效的。就像我跟一只动物说“你不许咬人”是没有用的,但是跟其他人说“你不许杀人、不许偷盗”则是有用的。既然人类社会是建立在这些最基本的道德法则之上,由此,康德反证出人类必定有自由意志,否则将无法解释。因此说,这是一种必然的悬设。  
关于情感问题,这个里面要分出层次。日常的喜、怒、哀、乐这种情感也许是可程序化的,机器在这个层面上是可以有情感反应的。但是,也有些情感明显是不可被程序化的。例如,爱。人类可以无条件地爱别人,爱人如爱己,这样的爱是不可能被程序化的。但问题在于,人类如何拥有了这样的爱?其根源在于人是自由的,由此才可能拥有爱人如爱己这般的爱;也就是说,这样的情感依然基于人的自由意志,因而不可能被程序化。
听众提问五:以第五代“微软小冰”为例,人工智能已经可以通过“深度学习”模仿人的神经网络来习得人类的部分创作思维,这是否就意味着本雅明(W. B. S. Benjamin18921940)所谓“机械复制时代的灵韵消散”又返回了?人工智能对文学的创作有怎样的影响?
张祥龙答:在已进行过的计算器与诗人的竞赛实验中,即使是专业的文学研究者、评论家都很难将计算器所创作的诗轻易辨别出来,计算器竟然一直撑到了最后一轮,让人非常吃惊。这恰恰说明,人工智能现在已经达到能够表达情感及艺术的境界,而这已经属于非对象化的意义构造、意义感知,有极大的进一步发展的潜力。在未来,机器所创作的文学作品也可能会打动我们,成为整个社会的时髦,甚至超过一些人类作家。对于这一类型的机器人,我们需要强化其自主学习能力,并且让其学习真正伟大的艺术作品;只有这样,机器才会进一步创作出优秀、动人的作品。而这种情况恰恰可以反过来刺激人类反省自己的艺术作品,反思何种作品才算是真正的精品。
蔡恒进答:人工智能用于诗歌创作虽然可以骗倒很多人,但是却骗不倒真正的诗人。无论机器做得怎样好,也比不上真正的诗人,因为真正的诗人能够开显出新的“认知坎陷”出来。比如,唐代崔颢(704754)创作的《黄鹤楼》一诗,机器是创作不出来的。它没有人类这种肉体、情感、进化的历史,它现在只是它所知的各种要素组合来、组合去。或者将来有一天,人工智能对自己的身体产生感知了,它会开显出另外的“坎陷”来,但这种情况下的作品也只有其他人工智能能够欣赏,人类是欣赏不了的,就像蝙蝠开显的坎陷不能被人类知晓一样。我用“认知坎陷”这个概念来讲所有的事情,就因为它的穿透力很强,既非单纯感性的也非单纯理性的,却能同时穿透二者。我相信,人的认知真的是这么来的,并且能够指导对人工智能的开发。
[责任编辑、校对:田卫平
编者注:此文原为综述稿,由湖南大学岳麓书院陈帅博士整理加工;发表前,编者重新设计了文章结构,并对原稿做了修改加工,又请三位教授予以订正,刊发于《南国学术》2018年第3期第356365页。为方便手机阅读,微信版删除了注释,如果您想引用原文,请到“澳门大学人文社科高等研究院”网站,点击“学术期刊-南国学术”后,可以下载所有文章PDF版。网址是:https://ias.um.edu.mo/scq/
作者:蔡恒进、张祥龙、黄裕生
来源:微信公众号—南国学术
链接:https://mp.weixin.qq.com/s/L2pySf5yAwIAC6hJyZjQzw
编辑:宋婷

428#
 楼主| 发表于 2020-7-21 23:20:39 | 只看该作者
【案例】
人类与机器的合体之路可以走多远
超级英雄电影《钢铁侠3》剧照
作者段伟文(中国社科院哲学所科技哲学研究室主任/研究员, 中国社科院科学技术和社会研究中心主任)
1968年,鲍德里亚在《物体系》中写道:我们的技术文明,是一个既系统化又脆弱的世界。但不无吊诡的是,这种脆弱的文明一直呈现出某种指数增长趋势,人们甚至开始相信,借助科技的力量可以成为某种超人类或者后人类物种。进入21世纪以来,纳米、生物、信息和认知等会聚技术日新月异,加之大数据、机器人与人工智能的热潮,让人觉得奇点真的就要临近。据说,奇点临近的鼓吹者库兹韦尔每天都要吃一大把多种维生素,希望在有生之年能赶上人类永生的头班车。
不论人类是否真的会从现在的肉身存在阶段过渡到下一个更强大的生命体阶段,所有相关的构想与争议的前提是,科技正在比以往任何时候都更深地嵌入到人体之中。换言之,人与科技的合体正在使我们所处的科技时代呈现出人类深度科技化的态势,而其中最引人关注的是技术使人类肢体与感官能力实现人工增强的可能性。
//
从反转眼镜到“第三只手”
//
说到人类增强,很容易想起二郎神和孙悟空,他们一个长出了第三只眼,另一个火眼金睛。在神话故事和影视作品里,从哪吒、金刚葫芦娃到超人、蝙蝠侠和机械战警,人们一再表达了超越人类的愿望。那怎么获得这种超能力呢?对于那些既不是从石头里蹦出来的,也不是用莲藕和莲花摆出来的凡夫俗子,唯一的办法就是对自己的身体下手。当然,在对自己的身体直接下手之前,人们早就开始通过服用各种天然或炼制的药物提升自己的能力,从各种致幻剂到确保有毒的丹药,无数浪子权贵前赴后继,心甘情愿地做了医药和化学的活体实验品。
对自己的身体下手,首先要敢于拿自己来做实验。1897年,美国心理学家斯特拉顿曾经做过一个视觉空间定向实验,后来被称作斯特拉顿实验(Strattons experiment)。在实验中,斯特拉顿将自己当作试验对象,就是所谓的被试。他用东西蒙住自己的左眼,右眼则戴上倒视逆转眼镜。在这种安装了棱镜的特殊的眼镜中,物体原来在视网膜上形成的倒立和左右反转的像再次发生了反转,变成与原物一样的正立的像。这样一来,所有的东西看起来都是上下颠倒、左右反转的,不仅与原来的视觉经验产生严重冲突,而且通过听觉判断的声源方向也总是与视觉看到的声源方向正好相反。经过了8天练习之后,他的视觉才逐渐跟听觉、触觉和运动感知相协调。到21天的时候,基本适应了这种反转的空间关系,也行动自如了。而他取掉反转眼镜后,又花了一段时间才重新适应正常的视觉空间环境。
通过拿自己做实验,人们就可以探索身体的机理和功能,而迈出这一步之后,用技术改造人的身体、增强人的能力,就似乎是顺理成章的事了。多年来,出生于塞浦路斯的澳大利亚表演艺术家史特拉克(Stelarc),一直通过改造身体的表演展示用技术实现人类增强的无限可能。早在1980年代,他就以早稻田大学研制的机械臂为原型,请人在他的右臂上半永久性地安装了第三只手,公开展示了三只手一起写字之类的人机协同表演。面对网络时代的来临,这位以极端表演著称的艺术家忽发奇想,希望在手臂上植入第三只耳朵,将他的感官连接到互联网。为此,他花了10年时间,才找到同意这个超人类身体改造方案的外科医生。不论这类尝试是否成功,在这些前卫的思想和行动背后的主题曲非常清楚,那就是:人类可以将自身作为技术试验的对象,不断突破技术与人类的界限,使技术从人所使用的外在工具,转变成嵌入身体之中的内在结构。
//
所向披靡的解放生物学
//
虽然以哈贝马斯和福山等人文学者为代表的生物保守派主张,为了保护人的自然本性,应对人类增强技术有所限制。但他们所面对的深度科技化时代前所未有的挑战则是不争的事实。不论是生物技术还是神经科学以及与之相关的数字与信息技术,它们不断地揭示生命奥秘的目标绝不是编纂一部亚里士多德式的人体百科全书。当所有关于生命过程的数据通过技术呈现出来的时候,有关生物技术和神经科学是应该仅仅用于治疗还是也可以用于增强的争议,很可能只是纸面上的兵棋推演。如果说传统技术主要是向大自然学习和模仿大自然的话,科技时代的技术则日益与科学互为前提与条件,两者相互融合并在整个社会拓展为技术化科学(technoscience),而这种技术化科学正在成为联结生命体与非生命体的桥梁,呈现出用技术再造生命的蓝图。
于史特拉克等后人类主义或超人类主义者来说,不论是人的身体还是人类物种并不具有某种绝对的本性。从人类数百万年的进化过程可以看到,人们一直在通过技术的运用重新定义自己。就像我们的拇指,苏东坡在西湖边欣赏王弗奏琴之时,大概不会想到今人刷微信的场景。在库兹韦尔之类的技术乌托邦主义者看来,人的身体在生物学上是不足的。因此,不论是将身体当作科学研究还是技术实验的对象,不再仅仅意味着探究正常的生物机制和功能,而是发现身体的局限性和探寻用技术重新定义人类的可行性。直白的讲,人类增强首先不是一种技术,而是一种观念。这种观念就是,人的身体也好,自然本性也罢,从原初开始就是过时的。实际上,与其说是技术导致了人一生下来就是“过时的人”和拥有“过时的身体”的命运,不如说人的自然本性的不断变化与生成,恰恰是由人类的意识所不断强化的宿命所在。一言以蔽之,人的意义在于不断被重新定义。
同时,技术自由主义者也从人是“他自己、他的身体和精神的唯一支配者”的密尔式的顽固立场出发,主张人的自主权利意味着每个人可以对增强技术做出自己的选择。在这些选择中,既可以是否定性的,也可以将其作为拓展个人发展潜力的可能性,而这可视为自由社会应该赋予给每个人的权利和能力。由此,在了解某种增强技术带来的益处和与之相伴的风险或副作用的情况下,个人可以自愿选择用技术增强身体和能力,并接受相应的后果、承担相应的责任。当然,技术自由主义者在原则上也会指出,如果这一选择涉及影响第三方利益的伦理、法律和社会方面的问题,也应对其加以必要的规制。
但对于那些新技术的狂热追逐者而言,科技附体不仅是本世纪人类进化的必然趋势,而且反对者对技术的副作用与伦理问题的顾虑似乎都是小题大做。本世纪之初,扫地机器人的发明者、麻省理工学院人工智能实验室主任罗德尼.布鲁克斯曾经预言:尽管我们在过去50年中一直都要依靠机器,但我们要在新千年的第一个阶段,让机器成为我们身体的一部分。科学作家、技术自由主义者罗纳德.贝利(Ronald Bailey)则直言不讳地讲,对于人类来说,没有什么比努力摆脱生物的束缚更加自然的了。
在《解放生物学》一书中,贝利颇为笃定的指出:毋庸置疑,21世纪将在理解人体机制和发展生物技术方面取得空前的进步,到本世纪中叶,我们可以期待生物学和生物技术的飞速发展将彻底改变人类的生活。各种科幻小说中的场景会在不遥远的将来实现:人类的平均寿命可能跃增2040年,各种药物和疗法将用于增强身体和记忆,人们会思考得越来越快,孩子将拥有更强的免疫系统、聪明得无以复加,人类的永生也会向我们招手。让他颇不以为然的是,那些生物技术的反对者却在组织各种政治运动,旨在限制科学研究,禁止各种产品和技术的开发和商业化,让公民无法获得生物技术革命的成果,尤其是生物伦理学家们所主张的家长式的监管武断地剥夺了新技术赋予公众的权利。
//
人肉机器将如何生长?
//
为了成为命运的主宰,人类一直在寻求与各种强大的“他者”融为一体,从萨满崇拜到人工智能,而技术无疑是我们这个时代的人谋求与之融为一体的“他者”。自科技将其探究的的目光投向人自身的那一刻起,就意味着生命的过程被视为某种机制,人类自我也随之成为人肉机器。在完成了这个存在论的格式塔转换之后,“自我”与“机器”彼此界限消弭和难分彼此,而人通过自我定义演化为非人,似乎就成为某种命定的趋势了。
面对人类与科技合体的趋势,当然应该展开相应的价值反思和伦理的审度。但在此之前,不妨了解一下技术自由主义、后人类主义以及超人类主义等支持这一趋势的理由。以贝利为例,他之所以赞赏技术自由主义,是因为在他看来,无论是自然还是人的自然状态本身对人类的生存所持的其实是一种冷漠的态度,从自然灾害到人的衰老,天地万物对人类的生存与幸福其实毫不关心。面对这种冷漠,个人应该变得更加积极主动,自由地最大化自己的选择,最大限度地减少对自己以外的任何人或任何事物的依赖。同时,有些人可能不想参与增强性的改善和对永生的追求,另一些人则会担心人人长寿的未来可能出现糟糕的社会后果,无论如何,他们也可以主动做出自己的选择。
不难看到,人类增强的支持者的基本出发点要么是总体性的人类进化选择,要么是基于个人权利的自主选择。由于其前提是将人与机器、人与人分离开来思考,而且相关的讨论也多为概观性的而很少涉及具体的场景。因此,面对人肉机器应该如何生长这一问题,可以更多地从其所在的社会情境和具体应用场景切入。
首先,鉴于人类增强技术的开放性与多义性,而且很多技术还停留在概念阶段,相关的伦理讨论应该以营造伦理商谈的基础为前提,才能使之具有普遍的可接受性。据此,可以将神创论与进化论、治疗与增强等基于立场的议题放在一边,转而从两个最基本的方面寻求展开价值对话与达成伦理共识的可能。一方面,应该坚持所有人都会支持的不伤害原则,即人类增强技术不应该伤害到其所介入的人。另一方面,应从权利与责任的反思平衡出发,寻求人类增强技术应用的公正之道,在尊重每个人的权利的同时使其与他人的可比权益形成必要的均衡。
其次,应该走出抽象的伦理争论,进入到具体场景中寻求技术应用的实践智慧。例如,将来可以通过大脑植入物帮助人不用上任何外语课就能学会非母语语言。也许,你对于不需要学习过程而学会某种技能这种好事儿倍感兴奋,但你是否想过,通过信息存储让人拥有记忆这一过程本身,会不会在增强记忆力的同时,损害到你的学习能力。又如,有些神经增强技术可以帮助人们主动遗忘某些不愿意记住的经历。但当某人不再能够回忆起他或她所经历的事情时,是不是也削弱了从记忆中获得道德教训的能力。例如,对受到伤害的人而言,抹去某些痛苦的经历,会不会使其失去了学会宽容与谅解的机会。而对那些伤害到他人的人来讲,特定记忆的擦除无疑也不利于其从自身的恶行中产生悔过自新的体验。还有,如果将来人类的记忆主要依赖植入大脑中的数字记忆体,是不是意味着对精神隐私的削弱。比方说,因为偶然的原因你成为某个暴力犯罪场景的唯一见证者,尽管增强技术可以删除这些记忆,但在这个案件得到侦破和审判之前,你是否有义务保留这些让你心惊肉跳的恐怖记忆?
最后,其实我们也用不着急着寻求答案,很多问题的解决可以留待未来。正如超人类主义哲学家安德斯.桑德伯格(Anders Sandberg)所言,我们作为人而改变,不是因为我们对我们是什么而未感到幸福,而是因为我们想变得更好。展望人肉机器的未来之路,将是一个开放的过程,正如人类过往所展示的那样,人们在不断地用技术重新定义自身的同时,也在更新他们的价值观和智慧。
来源:微信公众号—科学的历程
作者:段伟文
链接:https://mp.weixin.qq.com/s/VNftNyeOyL3OIXf09uv-fA
编辑:宋婷

429#
 楼主| 发表于 2020-7-26 09:44:04 | 只看该作者
【案例】
科技时代哲学问题的三个向度
作者 段伟文(中国社科院哲学所科技哲学研究室主任/研究员, 中国社科院科学技术和社会研究中心主任)
“真理没那么简单”,才需要哲学探究。最近10余年来,尽管科技哲学没有出现波普尔、库恩、埃吕尔等那样的具有重大影响的思想家,甚至被称为“哲学的西伯利亚”,但在专业化方面却有了长足之发展(这或许是其影响力反而减小的原因)。简言之,经历了历史主义与相对主义等理论冲击之后,在对“科学大战”进行反思的基础上,科学哲学、技术哲学与科学技术论不约而同地采取了实践的深描这一基本研究策略,以超越科学主义与反科学主义之争,由此带来了当代科技哲学研究的进路重整。概观之,大端有三:哲学的高度、自然的厚度和历史的深度。
//
哲学的高度
//
不论是科学哲学、技术哲学还是科学技术论,在哲学日渐专业化的环境下,始终存在着特殊论与一般论的差异,所以科技哲学需要寻求两个哲学的高度:一个是自身领域内的,另一个是一般哲学层面的。在科学哲学方面,科学哲学家帕皮诺(D. Papineau)在其主编的《牛津科学哲学读本》(1996年)的导言中曾指出,科学哲学的研究领域大致可划分为认识论与形而上学两部分。前者讨论科学知识的辩护问题,追问科学理论是否为真;后者探究科学所描述的世界特征中的哲学难题,思考科学理论会告知我们哪些关于世界的洞见。这一界定无疑是经典的,近年来,一般科学哲学的研究越来越深入,在科学实在论、因果性、科学模型与表征、还原与多重实现、科学说明、科学证据、最佳说明推论、贝叶斯确证理论等领域取得了很大进展。但当代的科学哲学家发现,随着科学认识论与关于科学的形而上学研究的日益精细化,我们必须重新思考并调整科学哲学与一般哲学、哲学与科学之间的关系。
无疑,理想的状态应该是一种相互促进的态势:科学哲学与一般哲学可以对话;在涉及科学时,哲学应该基于好的科学成果,并对科学有所助益。实际上,现代学科规训使科学哲学与一般哲学的关系变得日益多元,科学哲学未因其研究内容的特殊性而成为一般哲学的核心内容,一般哲学对科学哲学也不具有必然的权威性。在一般的形而上学方面,克里普克等对可能世界的分析使得形而上学被重新定义为对世界的模态或最基本的必然性与可能性的讨论,而不再是关于现实世界的终极实在的描述,一般的形而上学研究因此复兴。尽管一般的形而上学与科学的对话对双方都有助益,但一般的形而上学注重论辩,为使论述便于接受而不得不牺牲所涉及的知识的难度,往往选择简单的例子做复杂的辩诘。即便是那些自诩为自然主义的一般的形而上学家,亦大多不愿涉及更多的科学细节—甚至在讨论科学定律时,每每借助于少量简单幼稚与玩具式的例子,而很少提及守恒律与对称性等基本的物理学原理。而科学与信仰之类的研究倒是在有关创世论的辩护中大量援引科学的结论,但却难免有滥用科学之嫌。在一般认识论研究方面,英美哲学主要聚焦于对一般信念的辩护,虽在与怀疑主义的论辩中尽显其繁复,却与科学哲学对科学认识活动的关注大异其趣。值得思考的是,有的哲学家并不重视其结论与科学的冲突,例如,刘易斯(D. Lewis)在其休谟式随附性论点受到质疑时甚至表示不以为然,科学哲学应如何面对一般哲学乃至自身的局限性呢?当然,这里所说的主要是英美哲学,欧陆哲学则有很大不同,像法国哲学家,从梅洛−庞蒂、德里达、德勒兹到巴迪欧,他们往往将很多具体的科学内容作为其哲学概念的素材。典型的二手研究如德兰达(M. Delanda)的《强化科学与虚拟哲学》(Intensive Science and Virtual Philosophy2002年)从拓扑流形、向量场、变换群、空间、时间和物理定律等方面讨论了德勒兹的虚拟哲学。从中不难看到欧陆式基于科学的哲学叙事所具有的创造性与启发性,但也易见其难免流于附会并衍生歧义。
与一般哲学家不同,越来越多的科学哲学家致力于强化一般哲学与科学哲学、哲学与科学的关联。在形而上学领域,如有关因果性的讨论中,伍德沃德(J.Woodward)从科学的角度对反事实的操控性因果性进行了探讨,卡特赖特从物理学、贝叶斯网络、经济学等角度探讨了因果性。这些基于科学的哲学研究不仅使因果性呈现出多元的哲学图景,更重要的是,使人们对因果性与科学的关系的认识得到了深化。在科学认识论与一般哲学认识论这一问题上,自惠威尔和密尔以来,就一直存在着强调科学实践特色的特殊主义和主张将对科学信念的辩护纳入一般知识论的一般主义的分野。最近伯德(A. Bird)将贝叶斯主义和最佳说明推论分别与认识论的内在主义和外在主义联系起来,试图以此打通科学认识论与一般认识论。这些努力直接影响到了心灵哲学与神经科学哲学、形而上学与物理学哲学之间的关系。例如,有关心理状态的多重实现的讨论以往多基于思想实验和一般性的构思,但神经科学哲学等对相关问题的介入正在成为一个新的趋势。
在技术哲学与科学技术论中,提升哲学高度的主要策略有三:一是运用一般的哲学资源,包括海德格尔、胡塞尔、梅洛−庞蒂、怀特海、杜威、德勒兹、鲍德里亚、维利里奥以及新马克思主义者等的思想。例如,伊德、维比克(P-P. Verbeek)在现象学和实用主义基础上进行的技术的后现象学研究,拉图尔的行动者网络理论受到了过程哲学的启发,德雷福斯(H. Dreyfus)对具身性人工智能的可能性的讨论,还有人将德勒兹的思想用于网络研究,女性主义的技术哲学与科技论也属于这一类。二是深入技术史、技术文化乃至技术与文明等研究资源中进行思想提炼。例如,对芒福德的技术文明、麦克卢汉的媒介史的哲学内涵进行研究,对马克思的环境和机器思想的研究也属于此类。三是构建新的哲学理论。例如,为了消除建构论的科技社会学中的相对主义,拉图尔不无标新立异地指出,我们从未现代过,并提出了纠缠模型和实像主义(factishism);巴纳德(K. Bard)提出了能动实在论(agential realism)并以此对量子力学进行了诠释。此外,在工程的技术哲学进路下,荷兰技术哲学家克罗斯(P. Kroes)与梅耶斯(A. Mijers)对技术的结构−功能关系的研究开启了分析的技术与工程哲学研究。
纵而论之,在走向哲学的高度的过程中,科技哲学的元哲学对象实现了从实体到关系、结构、网络、过程和生成等一系列关键词的转换,而这些都是从具体的科技实践中析出的。例如,微观物理学使得关系实在论和结构实在论比基于物质实体的物质实在论更容易解释微观世界的整体性与相对不变性。这些元哲学对象不仅仅是概念上的创造,更是实践的需要。例如,为了应对学科际对话这一当代科学面临的挑战,维也纳学派余绪瓦尔纳(F. Wallner)提出建构实在论,试图通过微世界的建构与外推为学科际的对话和整合提供必要的策略。结构实在论与建构实在论是科技哲学的最佳实践案例,前者为理性主义提供了有力的辩护工具,后者则成为实用主义的新武器。
//
自然的厚度
//
所谓自然的厚度强调科学技术在本质上是人与自然在互动中构建起的人化物,它是一个立足于自然主义并综合了实用主义、存在主义、现象学和解释学的“认识论−存在论”隐喻,旨在凸显主体的认知和存在有其自然限度:主体无法仅通过超验的客观表征认知自然,而只能经由身体和中介(人工物、媒介、语言、文化等)有限度地理解自然、干预环境并存在于世界之中—人的认识与存在所能触及的自然并不是无限的,而是有一定的视角、维度和程度—自然的厚度。从这一立场出发,认识主体不再是抽象的主体,而是具有身体、知觉、工具和文化的环境中的存在;同时,不论是科学还是技术,都不是总体性的活动而是多种实践的复合体,每一种实践都在一定程度上使实在得以呈现并析出自己的认识论与形而上学。直面自然的厚度,对科技哲学的进路产生了三个方面的影响。
其一,认知科学技术及其哲学研究成为科技哲学研究的基础性课题——恰如1718世纪的自然哲学。近20年来,为了超越笛卡儿式的理性主义与认知主义,在认知科学哲学(包括与之相关的心灵哲学、知觉哲学、行动哲学)中,经验与信念、知觉与行动、心灵与生活等日益成为重要的课题,通过对计算−表征的认知观的反思,具身的、嵌入的(embedded)、延展的(extend)、行动的(enactive)与情境的(situated)等认知观成为认知科学哲学的新向度(这些研究是对表征主义的补充)。认知科学技术及其哲学对科技哲学和哲学的影响有日益增强的趋势。早在20 世纪80 年代后期,吉尔、萨伽德(P. Thagard)等人便开启了计算的科学哲学进路,该进路将认知科学技术及其哲学成果用于对科学认知的理解,运用模型、认知建模、溯因推理与工程性的人工智能等剖析科学说明和科学发现的过程,透过分布式计算、复杂系统模型探讨了实在论与合理性等一般的科学哲学观念。近年来,越来越多的认知科学技术的成果开始被运用于自由意志、伦理责任研究,而知觉与认知中的透视性、具身性和嵌入性等维度已成为科学哲学与技术哲学反思人与世界以科技为中介的关系的重要进路,除了吉尔的透视主义、伊德等的后现象学,还有希伦(P. A. Heelan)的基于实验室生活世界的知觉实体的解释学的科学哲学等。
其二,局域实践研究、对话式研究与参与式研究的发展。不论是一般的科技哲学还是具体门类的科技哲学研究,其都越来越多地建立在局域性的科技实践之上。以新近复兴的化学哲学为例,其不仅具体讨论了“化学中是否存在下向因果关系”“化学中的对称性”等特定的化学哲学问题,还针对自然类和形而上学提出了“是否存在化学类及元化学(metachemistry)”等具有挑战性的问题。近年来,弗洛里迪在计算机哲学与信息伦理研究的基础上开创了信息哲学,后被进一步整合为计算与信息哲学,成为信息科技与哲学结合的典范。当代生物学哲学的主要立场是自然主义,一方面,进化生物学与微生物学的最新发现与分子生物学和实验生物学中的理论及概念(如物种、个体、基因、基因信息等,甚至包括由模拟生命衍生出的人工生命和计算主义等)涉及的哲学问题得到了详尽的辨析,同时,医学哲学与伦理也成为其关注的重要领域;另一方面,从生物学的角度对自然种类、概念变迁、发现与确证、说明与还原等形而上学和认识论问题展开了讨论。在数学哲学中,除了基于柏拉图主义、唯名论与结构主义而展开的对数学概念与实在论(如结构实在论)的讨论之外,其立场日渐转向自然主义和对实践的关注,数学在科学中的角色成为数学哲学的热点。类似地,技术现象学被具体地运于对神经科学中的图像的讨论。对话式研究多发生于量子场论、量子引力等科学前沿,科学家与哲学家为廓清概念和寻求理论的融贯性而展开了批判性及建设性的对话,相关的研究者显然不满足于工具主义及“非统一的物理观”,希望为这些最为艰深的科学探究寻找到自洽的哲学基础。曹天予对量子场论的研究以及卡伦德(C. Callende)等对量子引力的研究是这类研究的典范。这些研究至少表明,科学概念的清晰性与理论的统一性实际上是理论建构的结果。但科学哲学家必须考虑的是:“这些理论本身是否得到了经验支持?”“概念廓清与理论融贯会不会有损其潜在的丰富性?”参与式研究建立在交叉学科或跨学科的基础上,例如,在寻找希格斯粒子的过程中,科学哲学家参与了大型强子对撞机的认识论讨论;在人类基因组计划与英国基因组学网络中,科技伦理与科学社会学家加入其中并参与了相关“伦理、法律与社会影响”(ELSI)的研究。在国内工程哲学的发展中,工程院院士的参与使得哲学与工程的对话更具内容和影响力,但距工程哲学参与工程实践尚有时日。
其三,“第二哲学”“科学的形而上学”“实验哲学”的兴起。这一进路体现了科学哲学对自然主义的贯彻。玛黛(P. Maddy)等主张将科学哲学视为某种“第二哲学”—基于科学工作的后续研究,反对仅从哲学的角度而非科学的目的角度对科学所接受的方法、证据或本体论等加以哲学上的限定。她认为,数学哲学应以数学自身的术语对其加以理解和评价。科学的形而上学主张,形而上学与概念分析应诉诸科学而不是直觉,其合法性在于它们必须与科学的结果和实践相结合。当然,自然主义意味的形而上学因基于具体的科学内容,故多为有限度的形而上学(“斑杂的世界”之类的多元主义的形而上学论点虽然是世界观式的,但其内容本身就具有非独断性和自反性—多元主义并不否定一元论的可能)。实验哲学则试图以对人的心理进程的经验研究和调查作为哲学研究的证据,以取代传统哲学论证所依据的直觉和概念分析。其实,计算机建模也已经成为科学哲学、逻辑学、语言哲学、心灵哲学、生物学哲学、伦理学以及社会和政治哲学的研究方法,可以算作广义的实验哲学。
通过这些进路的拓展,科技哲学试图穿越人可以把握的自然而成为一般哲学与世界之间的中介。在当代哲学语境中,由于分析哲学大多具有自然主义的倾向,而自然主义在一定程度上跟随并基于科学的结论,因此,一般认为科学哲学扮演着科学与一般哲学的中介的角色。类似地,所有关于技术人工物的思考也应该是一般哲学(特别是现象学等欧陆哲学)无法跨越的中介,从各种思想资源中寻找技术哲学思想具有其合理性。但问题是不论是认知科学还是物理学,在各种难题面前,科技哲学究竟能够扮演什么样的角色?其目的是帮助科学还是推进哲学?如果是推进哲学,是聚焦一般哲学、一般科学哲学还是具体科学哲学或更细的哲学问题?要在聚焦深度、局域问题和普遍问题之间找到平衡显然不易。类似地,不论是伊德对生活世界中作为物质文化的技术的多重稳定性的讨论,还是维比克最近倡导的道德化技术(moralizing technology),最大的理论困难是其思想能否对一般哲学或社会思潮产生重要影响。
//
历史的深度
//
科技史与科技哲学的结合已经成为当下科学哲学与技术哲学的一个重要进路。科学史与科学哲学结合的传统在法国尤盛,从马赫、迪昂到梅耶森学派的柯瓦雷再到康吉莱姆,特别是柯瓦雷对科学革命中的本体论转换的描述,后来成为库恩的历史主义思想的重要来源。在正统的逻辑经验主义科学哲学中,科学被视为非历史性的基于辩护的理论系统,直到20世纪90年代,科学哲学开始重视为逻辑经验主义传统所轻视的发现的语境,科学哲学与科学史再次走向结合,并产生了很多重要的成果。弗里德曼(M. Freedman)沿着赖辛巴哈早年的思路,在康德研究与科学史研究的基础上指出,康德认识论中的先验框架具有一定的偶然性并可随着科学的进步而动态发展。通过对温度测量和水分子的科学史研究,张(H.Chang)指出,科学对客观知识的获得是一个建立在认知反复(epistemic iteration)之上逐渐融贯而不断进步的过程,并主张以认知多元主义和系统实践解释科学史的复杂事件。在2007年出版的《客观性》一书中,加里森和达斯顿从眼见的认识论、客观性呈现和科学的自我等实践脉络切入,对客观性的展现历程进行了详尽分析。
在科学技术论中,典型的历史案例研究有夏平对空气泵的研究和拉图尔对巴斯德的研究。社会建构论的微观案例分析尽管有其偏颇之处,但却揭示了科学与技术的生成过程中各种能动因素的相互作用。例如,拉图尔关于巴斯德之前没有微生物的论点既出于历史认识论,也诉诸能动者的实践网络,故其所谓的“越建构越实在”之实在所指的是与客体纠缠而整体生成之网络。在技术哲学中,贝尔纳·斯蒂格勒的三卷本的《技术与时间》堪称杰作,该书以源于遗忘的爱比米休斯的过失为起点,最后论及信息复制时代和技术化科学带来的震撼,对技术展开了纵贯性的人类学−哲学考察。这些研究显然已经超越了传统科技史研究的内、外之分,而成为知识发生学意义上的历史深描,进而通过历史将过往与未来连接起来。在现当代哲学中,胡塞尔的《几何学的起源》《欧洲科学危机》对几何学与物理学起源的考察、海德格尔对存在及科技的追问,已为溯源性的科技存在论探究确立了典范。
走进历史的深度,我们追溯到了什么?一方面,切开历史横断面,展示多向的基于复杂的异质性能动者的实践冲撞的丰富的偶然性及其多元稳定机制;另一方面,追问开端和起源,揭示其思维秩序与本体论安排背后的意识结构的意向性的历史。由此,科技不仅具有历史的景深,还成为可思者:追问科技之所思与未思、所做与未做,开显其未来之路。
「本文摘编自《科技时代的哲学问题及其实践智慧》第四章“科学审度与科技哲学的进路重整”」
本书立足于科学技术史的发展,揭示了科学技术实践中的客观性和合理性规范与社会、文化、经济、物质环境之间的相互关系,剖析了实在观、因果性、量子纠缠与自由意志、集体意向性、非概念内容、布兰顿的推理主义语义学等问题,阐述了一种可接受的科学观;立足于日常生活转向、道德批判与个性伦理学建构三个视域,揭示了文化哲学的现实意义;从大数据、虚拟现实、人类增强技术、伦理学与文明论的角度,揭示了信息文明的内在意义。
本书试图从总体上提供一条将科学哲学、技术哲学和科学技术论的研究相融合的科学技术哲学进路,可供科学技术哲学的研究者和爱好者阅读参考。
作者:段伟文  
来源:微信公众号—科学的历程
链接:https://mp.weixin.qq.com/s/YGu8MMWq9bkxuWAn5Ui2rQ
编辑:宋婷

430#
 楼主| 发表于 2020-7-28 15:38:58 | 只看该作者
案例
独家丨字节AI 副总裁马维英离职,将加入清华张亚勤团队
抖音背后的 AI 大神,3年后为何拂袖而去?
TikTok的国际化扩张之路受阻之际,继高级副总裁柳甄离职之后,字节跳动又有一位重要高管离开。
7月27日,Tech星球(微信ID:tech618)从多处信源独家获悉,字节跳动副总裁、人工智能实验室主任马维英离职,下一站将赴清华大学智能产业研究院任职,加入正在筹备该产业院的原百度总裁张亚勤团队。
“他(马维英)可是技术大神,最近内部很多人都知道他要离职了。”一位字节内部人告诉Tech星球。马维英的工作Base地在美国,作为字节跳动近乎首屈一指的AI人才,马维英此番离职,可能有AI工程化难题以及TikTok在北美业务受影响有关。
对于马维英离职一事,字节跳动方面回复Tech星球称:“根据自己的兴趣,马维英选择到清华大学从事人才培养和科研相关工作,他同时还会继续担任字节跳动技术顾问。”
据了解,字节跳动的人工智能实验室(AI Lab)成立于2016年,核心任务是推动机器智能的极限,也是张一鸣为字节跳动设立的“阿里达摩院”。马维英于2017年2月正式加入,他曾任职微软亚洲研究院副院长,与加入阿里云之前的王坚博士位列同级,此后两者也一前一后加入互联网巨头企业。
从此后的职业发展来看,马维英没有王坚博士的好机遇,王坚在阿里创办了阿里云,马维英则在字节跳动则相对平淡。有字节跳动的内部员工向Tech星球介绍说,马维英的汇报关系从张一鸣降到张楠,已经说明了一些问题。
“杀鸡用牛刀”的科学家
“马老师确实好久没出来露面了”,一位AI创业公司CEO告诉Tech星球(微信ID:tech618),马维英的一举一动也被行业关注。
Guide2Research发布的2020全球顶尖计算机科学家排名中,马维英位居中国大陆第二位,仅次于源码资本合伙人张宏江,是仍在企业中冲锋的顶级AI人才。
2017年,张一鸣招聘马维英的故事也广为流传。2016年字节跳动刚刚组建了人工智能研究院,张一鸣开始为研究院物色技术大牛,在与马维英交谈时提到:“字节跳动为了解决智能推荐问题,几乎投入了所有最先进的技术”。而马维英回答道:“你几乎是用搜索引擎的方式,来解决推荐引擎的问题。”后者意思是,为解决问题,字节跳动使用的技术还是很厉害的,而张一鸣则回复说:“杀鸡用牛刀”,意思技术储备的越多越好。
正是因为张一鸣这句话,以及字节对技术的重视打动,马维英最终选择加入了字节跳动,成为一名“杀鸡用牛刀”的科学家。回望过去3年多的履职经历,今天的马维英,不知是否真的产生“难施拳脚”的感觉。
抖音和头条智能化背后的推手
回顾马维英在字节跳动的成绩,一是将字节人工智能实验室打造成熟,二是将诸多技术落到产品中。
字节人工智能实验室在马维英的带领下,2016 年,AI Lab 只有 5 位研究人员,2017 年增长到 65 位,到2018年,实验室已经有 150 位研究人员。
马维英曾在公开演讲中表示,字节跳动利用人工智能技术的意义,在于推动实现内容分发的智能化、个性化、社交化和无处不在。这也为字节人工智能实验室明确了定位——为业务本身AI赋能。
在产出的成绩方面,也有一些鲜为人知的事情。比如,2016年里约奥运会上,能够2秒钟写稿,拟人化语言,智能配图的新闻机器人「张小明」,据悉背后的推手就是马维英。
视频化的社交媒体抖音,也获得了字节人工智能实验室更多的加持。现在抖音上经常出现的互动尬舞功能,正是因为抖音能够识别海草舞、骑马舞等诸多视频内容,才能将这些相似的内容识别分类并集中推荐,抖音的AI能力也得以提升。
在字节跳动人工智能实验室的官网上,也可以看到“Effect sdk 2.0”的开放SDK,这款SDK可对人像/人体/手指进行精准检测,抖音上的“变脸”和“大长腿”特效都是借助这一底层技术能力。
马维英是否志向于各种特效开发及视频内容的识别,还不得而知。目前,已知字节跳动人工智能实验室是火山引擎技术提供方,整体看字节本身对外输出的AI产品服务较少,也限制了字节 AI Lab 探索更广阔的AI 工程化落地。
AI大牛纷纷逃离互联网大厂?
马维英并不是第一个离开互联网大厂的知名科学家,此前的腾讯AI Lab 主任张瞳、百度的首席科学家吴恩达、谷歌知名科学家李飞飞等AI大牛,都离开了所在的互联网巨头企业。
正如马维英所说:“AI Lab 需要很勇敢,替公司冒最大的风险。如果我们不冒的话,其它部门都没办法承担某些风险。”但对于企业来说,愿意冒险的前提,是能换回等值的商业化回报。
比如,尽管腾讯AI LAB从成立之初,就号称“不做业务”,以输出高质量的论文(paper)为目标。话虽如此说,但腾讯的云计算、游戏、语音识别等业务也需要AI技术加持,AI LAB能否为集团各业务提供技术支持,也决定了公司高层对AI技术支持的力度。
2017年3月,百度首席科学家吴恩达的离职,更是引起互联网企业应该如何发展AI技术的讨论。吴恩达在百度期间,对其AI技术的提升很有帮助,在江苏卫视《最强大脑》节目中,百度大脑的机器人“小度”,曾以3:2击败了世界记忆大师王峰,事件性质类似谷歌的alphaGo战胜围棋九段选手,虽然影响力远不如后者。
在吴恩达的离职事件中,创新工场创始人李开复曾评论道:“百度的吴恩达离职了。在七个大黑洞之外,我们很需要更开放的AI。这是创新工厂的梦想。看来Andrew(吴恩达)下一步也是被这个梦想驱动。(七个大黑洞是指Google、Facebook、Microsoft、Amazon、BAT;AI发展最需要的人才、技术、数据被吸进去却出不来)”。
客观来说,字节跳动的AI技术算是走出了黑洞。尽管技术探索不太前沿,但很多研发出来的AI技术都被应用到头条、抖音等活跃产品中。当然,也许是马维英希望探索类似alphaGo等革命性AI技术,这才是他追求的诗和远方。

来源:今日头条
链接:https://www.toutiao.com/i6854320145548968459/?tt_from=weixin&utm_campaign=client_share&wxshare_count=2&from=groupmessage×tamp=1595912051&app=news_article&utm_source=weixin&utm_medium=toutiao_android&use_new_style=1&req_id=20200728125410010008044029103BA491&group_id=6854320145548968459
编辑:贾梦琪

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表