传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
101#
 楼主| 发表于 2019-7-25 22:03:02 | 只看该作者
【案例】
复杂性科学先驱布莱恩·阿瑟:科技将把经济带往何方?


晚间沙龙:布莱恩·阿瑟-集智俱乐部讲座

复杂经济
活动信息

主题:Where is technology taking the economy?(科技把经济带往何方)
主讲:布莱恩·阿瑟(W. Brian Arthur)
时间:2019年8月15日(周四)19:30-22:00
地点:北京市海淀区知春路希格玛大厦B1小礼堂



布莱恩·阿瑟:
跨越复杂性和经济学的边界

布莱恩·阿瑟(W. Brian Arthur)是著名经济学家,圣塔菲研究所外聘教授,帕罗奥多研究中心系统科学实验室访问研究员。

阿瑟在上世纪八十年代,受诺贝尔经济学奖得主肯尼斯·阿罗的邀请,来到刚刚建立的圣塔菲研究所。在圣塔菲研究所,阿瑟将复杂系统理论与经济学研究结合在一起,逐渐形成了“复杂经济学(complexity economics)”的构想,并凭借报酬递增理论,于1990年获得熊彼特奖。

作为报酬递增理论的提出者,阿瑟创立了对经济学和复杂系统的跨学科研究新模式。作为圣塔菲研究所最早一批研究复杂性的学者,阿瑟是复杂性科学领域的奠基人之一,由于其突出成绩,于2008年荣获复杂性科学领域首届拉格朗日奖。

2019年8月15日,集智俱乐部联合腾讯研究院、北京师范大学系统科学学院、X-Order、湛庐文化,特别邀请著名经济学家布莱恩·阿瑟(W. Brian Arthur),在北京举办一场公开沙龙,分享关于技术对经济深远影响的思考,探讨未来新经济形态的分配规则。本次讲座是AI&Society系列学术沙龙的第18期。



信息技术革命的第三次形变:
科技把经济带往何方
                    
回顾二战以来的信息技术发展史,发现技术革命大约每二十年就会发生一次形变,技术变革不仅带来生活方式的变化,更让经济系统发生翻天覆地的变化。
信息技术革命的第一次形变,发生在20世纪70至80年代,由微处理器和存储器组成的集成电路技术实现了计算机的小型化;第二次形变是在20世界90年代至21世纪,这次形变触发了人类的数字连接,互联网成为一个商业实体,云计算能提供共享计算资源。第三次形变通过雷达、激光雷达传感器等传感设备,将环境数字化接入互联网,实现万物互联。而现在正处于第三次革命——信息技术智能化的开端,互联网、云计算、大数据、机器人、人工智能等一系列技术,汇成了一股促进经济发展的强大推力。
阿瑟认为,在技术革命的第三次形变中,数字技术创造了区别于实体经济的、一个虚拟而且自主的经济体。这种虚拟经济不仅仅能激发实体经济,更为商业活动提供了一种人类以外的智能。而人类经济系统随之面临的最严峻的考验,不再是生产多少的问题,而是人类要如何分配这些生产出来的产品。


阿瑟在两本颇有影响力的书籍《技术的本质》和《复杂经济学》(均有中译本)中,探讨了人类技术的演变过程,分析了经济增长如何与技术创新相伴而生。而在本次AI&Society学术沙龙中,阿瑟将进一步讨论对下列问题的看法:
  • 人工智能等技术变革,会如何影响经济系统的分配规则
  • 数字经济(虚拟经济)与实体经济的关系是怎样的
  • 数字经济的变革,如何影响经济系统的发展,进而改变社会结构
  • 技术变革带对经济的影响,是在持久深入还是日渐平缓
  • 如何在技术创新在带来社会福利的同时,消减随之而来的隐私、分配等社会问题
  • 当工作机会被新技术挤占,人类如何找到生活的意义


报名方式
   
扫描二维码填写报名信息
审核通过后,我们将以邮件、短信等方式通知您

报名须知

  • 本活动为报名申请制,经审核通过后可免费参加;
  • 请务必正确填写电话和邮箱信息,我们将以短信和邮件形式通知您审核结果,以及沙龙具体地点信息;
  • 活动将组织现场交流微信群,需到现场方可入群;
  • 活动时间为晚间,19:00签到,19:30正式开始,请安排好出行时间。
  • 现场安排有同声传译,如有需要,请携带居民身份证在现场领取同传设备。


联合主办方



AI&Scociety学术沙龙简介

人类已经全面进入了智能社会,以人工智能为代表的新一代技术必将逐步渗透到我们的日常生活之中,并彻底改变我们的社会形态。那么,新一代的人机共生社会需要怎样的社会科学?社会科学的研究成果又如何促进人工智能的发展?人工智能会怎样影响人类社会?社会科学研究又如何借鉴人工智能领域的最新成果?

我们认为挖掘AI与社会领域有想法的年轻学者,促进AI与社会原创思想的交流与碰撞是探索、回答这一系列重大问题的第一步。因此,腾讯研究院S-Tech工作室集智俱乐部共同打造了“AI&Society”的系列学术沙龙活动。

该系列沙龙以线下实体活动为主,我们将邀请AI与社会领域的交叉研究学者进行公开性的讨论与思想碰撞。沙龙的主题可涵盖但不限于如下的内容和主题:

计算社会科学(Computational Social Sicence)
社会计算(Social Computing)
多主体系统(Multi agent systems)
算法经济学(Algorithm Economy)
人工智能社会学(Artificial Intelligence Sociology)
群体智慧(Swarm Intelligence)
人类计算(Human Computation)
机器学习(Machine Learning)
技术与人类社会(Technology and Human Society)
人工智能与城市科学(Artificial Intelligence and Urban Science)

原文链接:https://mp.weixin.qq.com/s/6_SdSlbGkkiLNMAybQijKw


编辑:董莉

102#
 楼主| 发表于 2019-7-25 22:30:39 | 只看该作者
【案例】
斯蒂芬·巴利 | 技术作为结构化的诱因:观察CT扫描仪与放射科社会秩序获取的证据

斯蒂芬·巴利(Stephen R. Barley,1953.2.16- ),美国组织理论学者,现任美国加州大学圣塔芭芭拉分校的技术管理学教授,曾任教于斯坦福大学教育学院和工程学院,其研究主要关注技术在组织变迁和组织文化中的角色。[图源:UCSB]

摘要

诸如CT扫描仪这样的新型医学成像设备,已经对放射专家和放射技师之间的传统角色关系提出了挑战。在某些条件之下,这些技术会切实地改变放射科的组织结构和职业结构。然而,当前关于技术和组织形式的理论却对角色变化中所隐含的一些潜在结构变化没有做出及时反应。本文拓展了最近有关制度与行动关系的社会学思想,展现了这样一种理论框架,即技术如何通过改变制度性的角色关系和互动模式引发不同的组织结构。在这样的理论建构中,技术被视为社会性对象而非物理性客体,而结构被概念化为一个过程而非实体。该理论的意涵是通过这样一个实例来说明的:同样的CT扫描仪在两个放射科如何引发相似的结构化过程,却导致了不同的组织形式。这一研究资料表明,为了了解技术如何改变组织结构,研究者需要将社会行动的研究和社会形式的研究结合起来。

从社会科学的观点来看,组织理论家几乎找不出比“技术形塑组织结构”更似是而非的命题了。人类学家、社会学家、历史学家和经济学家已经再三表明技术通过改变习俗和生产关系来改变社会。由于工业社会中的大多数生产过程发生在正式组织中,所以,当现代技术改变生产关系时,可想而知,也就改变了组织形式(Blau et al.,1976)。然而,正如大多数研究者所声称的,在经历了25年的研究之后,那些关于技术影响组织结构的经验证据仍然是含混且相互矛盾的(Hickson,Pugh and Pheysey,1969;Mohr,1971;Blau et al.,1976;Gerwin,1981;Fry,1982)。
为了拯救技术形塑组织(结构)这一研究主题,理论家们已经提出了不计其数的策略,以厘清经验研究中的混乱。举例来说,阿斯顿研究小组(Aston group)告诫研究者要控制组织规模变量的影响(Hickson,Pugh and Pheysey,1969),蔡尔德(Child,1972)建议将管理者的决策视为中介变量,而康姆斯托克和斯科特(Comstock and Scott,1977)则反对“指标的创造性运用”、“模态技术”(modal technologies)假设以及混淆分析层次的倾向。看到不同研究者同时赋予技术和结构以相似的特征时,斯坦菲尔德(Stanfield,1976)甚至强烈呼吁研究者对其分类予以更慎重的考虑。然而,尽管这一主题被长期关注和研究,但是仍然没有一个定论(Gerwin,1981;Fry,1982)。
与其继续细化研究却无法摆脱方法和概念上的瑕疵,还不如包容这些相互矛盾的经验证据,以作重新发现,这种简单的策略也许会更富有成效。只有把现有研究结论的不一致作为既成事实接受下来,我们才能去探索解释技术和组织结构之间关系的其他理论框架。本文正是要吸收当前社会学关于制度和行动之间关系研究的相关思想,以勾勒出这样一种理论视角。
技术和结构的结构化
许多研究技术与组织的学者用结构这个术语来指示在社会环境中用来控制日常行动的抽象的正式关系。当结构被视为一种自为的、正式的约束时,其他三个相应假设随之而来:技术是一种物质性的诱因,技术和结构之间的关系是有规律的,而且,这些关系与情境条件无关。此外,由于这些关系通常被认为能超越不同的情境而普遍存在,研究者倾向于在组织这个分析层次研究技术对结构的影响。这种结构概念及在有关技术的组织研究中不断强化这一概念的相关推论,不但在众多的代表性研究设计中被具体化,而且得到了某些决定论观点的支持,包含这些观点的文献中充斥着诸如“技术强制”(technological imperative)之类的措辞(e.g.,Khandwalla,1974;Fry,1982)。
与这一主导性的结构概念不同的是,西尔弗曼(Silverman,1971)、韦克(Weick,1979)、范·马南(Van Maanen,1977,1979)以及曼宁(Manning,1977)等组织理论家提倡另外一种观点,即将结构视为模式化的行动、互动、行为以及认知。与前一个阶段将结构视为外在于且先于人类行为的看法不同,在第二个阶段,结构被看作在正在发生的行动中呈现出来的特质。这一对比反映了两种社会学传统之间的本质差异,即把结构视为行动的模板和把结构视为人类行为的形构(contour)这样两种传统(参见Burrell and Morgan,1979;Salaman and Thompson,1980)。尽管后一种结构概念合理地增加了多样化产出的可能性,但是还没有真正进入有关技术的研究领域。
然而,如果偏执于一方,上述两种概念在反映技术如何影响工作场所结构的问题上都是不够的。正如戈夫曼(Goffman,1983)那引人注目的观察所示,在日常生活中,行动者既是社会秩序的体现者,也是社会秩序的创造者。所以,我们很难看到社会结构能在人们的行动之外呈现出来,同时,人们的行动无疑也是由他们所无法控制且外在于他们当前处境的因素所形塑的。因此,对于结构变动的全面解释看来需要一个综合性观点 ——将结构视为既是人类行动的产物又是人类行动的约束条件。
协商秩序(negotiated-order)理论和结构化理论(structuration theory)代表了当前两种试图达成这种综合观点的取向。正如施特劳斯(Strauss,1978,1982)所述,协商秩序理论起源于符号互动理论,并以日常生活事件为其讨论基点。与之不同,结构化理论则试图突破功能主义和现象学派在社会理论层面关于社会秩序的概念(Giddens,1976,1979)。尽管这两种取向在研究领域和具体细节方面有实质性差异,但是,它们都预设了这样一个前提,即一种恰当的理论必须将结构既视为过程又视为形式。
正是注意到了行动是被社会组织“所构建的”(constituted by)和行动“构成了”(constitutive of)社会组织这两个层面,吉登斯才建议把结构理解为一种二重性(duality):“通过结构二重性这个概念,我想表达的意思是社会系统的结构特质在于它既是构成这个社会系统的实践活动的中介,又是其产物。”(Giddens,1979:69)类似地,施特劳斯(Strauss,1978)认为,即使社会秩序是互动过程中的个体为了界定情境而进行协商的产物,所有协商无疑仍受制于先前已经开始的制度性互动模式。这两种观点都把社会秩序比作语言。结构由一系列用来说明可接受的行为的规则所组成,但是结构也被它们所指导的这些行为改变,正如语言随着时间的推移会被日常言说改变一样。
因此,两种理论都企图在决定论的、客观的、静态的结构观和唯意志论的、主观的、动态的结构观之间架起桥梁。其做法,一是假定存在两种社会秩序领域(类似于语法和言说),二是把注意力转移到过程上,将两者串联起来。因此,结构可以既被看作持续的行动流,又被视为一套制度性的传统或反映并约束行动的形式、规则。然而,比上述任何一个领域更重要的是随着时间的推移发生在两者之间的相互影响。通过这种被称为“结构化”(structuring)过程的相互影响,制度性的实践形塑了人类行动,而人类行动反过来也强化或者改变了制度结构。基于此,关于结构化的研究需要调查、分析制度领域和行动领域是如何相互建构的。
协商秩序理论和结构化理论都认同结构化是由以下因素所驱动的:行动者对于事件的解释、差异化的资源获取途径以及使得某种社会秩序合法化的道德框架。作为稳定和变迁的驱动力量,除了前面所述的那些方面之外,还应该加上决策以及外在压力有意无意地带来的结果,比如技术创新和经济变迁,虽然它们是外在的,但是却激起、触发了反应(Ranson,Hinings and Greenwood,1980;Archer,1982)。我们可以将社会场景的结构化理解为这样一个过程,即随着行动者利用制度性模式的意义、支配以及合法化去建构角色以及解释其场景中的人、事、物而渐渐展开的一个过程(Giddens,1979:82)。
如果行动者的行为和解释使得这些抽象物活生生地体现在现实中,制度性的结构也就被重新创建起来了。但是,沟通、权力压制、道德制裁等行为常常使互动变得难以预测,所以,制度性模板和日常生活的紧急事件之间会有某些偏差(slippage)。当一个社会系统遭遇诸如新成员或者新技术进入之类的外界冲击时,这种偏差的可能性就增加了。当偏差是暂时的、随意的或者当它们可以被包容于之前的行动、互动和解释框架中时,它们对于制度性结构是无关紧要的(Meyer,1982)。然而,如果偏差持续发生,久而久之,就会变成重复的模式,这一模式的形式会偏离原有实践,即使这种偏离是微乎其微的。最终,调整之后的行动模式通过进入“事情是……样的”日常生活知识库而重构了制度结构(Berger and Luckmann,1967:56-61)。
从前述这样一种高度出发来处理技术与结构的关系问题,使得研究者从三种业已对技术研究造成困扰的矛盾做法中解放出来。首先,由于结构暗含着过程,其时间特性使得研究者在截面研究之外还可以采纳历时研究的视角以研究技术变迁。其次,由于行动的社会情境及其阐释很重要,所以将组织与极端不同的制度性历史以及生态环境纠缠在一起的做法是不合适的。最后,由于技术在行动领域是作为客体存在的,所以如果对于技术如何渗透到组织成员的日常生活中这一过程不加研究的话,就很难理解技术对于结构化的含义。
总的说来,这些认识论和方法论的原则对技术导致(cause)组织结构这一假定提出了挑战。更确切地说,从结构化理论的观点看,更为合理的是将技术视为触发社会变迁动力(social dynamics)的诱因,这种社会变迁反过来改变或者维系了原来的组织架构(contour)。由于这些变迁可能具有多面性,会随着时间变化,而且反映了情境条件的约制,所以很可能在相似的环境中使用同一种技术会有序地引发不同的结构。相应地,在无序中把握有序需要一种对结构化得以展开的情境动力比较敏感的研究策略。
描绘结构化的演变过
多种组织理论近来都注意到了结构化理论对于研究组织现象的价值(Ranson,Hinings,and Greenwood,1980;Willmott,1981;Sitkin and Boehm,1984)。但是除了曼宁(Manning,1982)对于警察如何形成警务工作中职业结构的细致分析,以及赖利(Riley,1983)关于一个大公司的两个子公司的研究之外,几乎没有人对组织世界中的结构化过程做出实质性的调查研究。曼宁解释了警察和市民之间日常互动的逻辑,由此证明了制度性的结构如何形塑了互动的细节以及如何为互动的细节所形塑。与曼宁强调行动的展开不同,赖利对访谈资料进行编码,运用吉登斯关于意义(signification)、支配( domination)以及合法化(legitimation)的分类法说明可以用巩固组织传统的动力机制来解释组织间的差异。因此,赖利的研究显示组织间的差异事实上可以通过结构化过程来理解,而曼宁的分析则表明结构化是如何为情境性的行动所生产和再生产的。
《警察工作——警务的社会组织》(Police Work:The Social Organization of Policing)是第一本从组织社会学视角考察警察组织的著作。作者曼宁实地观察警察组织的日常实践,展示和剖析了其架构和运行方式,探究了警察组织如何运行和维持。

曼宁和赖利的两项研究都说明了吉登斯的前提假设,即结构二重性在所有行动中都是显而易见的,只是他们都未阐明制度和行动之间清晰的互动演化方式。但是正如兰森、希宁斯和格林伍德(Ranson,Hinings,and Greenwood,1980:13)所强调的那样,解释变迁和解释稳定性一样,都需要建立一个有关结构化过程的时间模型。演化的视角对于研究技术变迁尤为重要,因为技术给调整创造了条件,这种调整的意义可能一时还不会显现,但是随着行动者对其处境的重新界定,情况就会有缓慢的改变。因此,本研究通过建立连续性(sequentially)结构化的社会变迁模型而非共时性结构化的社会变迁模型,扩展、深化了之前的研究。
图1显示了用来指导分析的结构化的连续模型。社会组织的两个领域——行动和制度——用平行的横向箭头来描述,这意味着它们随着时间不断地演变。制度领域代表的是背景的社会逻辑:从之前的行动和互动中得出的关系的抽象框架,行动者据此开展他们的日常生活。相反,行动领域指的是在这一背景历史的时间流中的人、事、物的实际安排。由于制度领域是对从过去做法中总结出的理想模式的编码,也许可以将其等同于兰森、希宁斯和格林伍德所谓的“现实结构”(realized structure)。而行动领域则与戈夫曼(Goffman,1983) 的“互动秩序”(interaction order)类似。


正如图1所示,本研究的分析是将结构化过程中连续不断的时间流解析为几个时间段(T1、T2、T3等),这样才能更好地说明不同结构领域间的交互作用,从而凸显出逐渐累积的变化。为了避免对时间段的武断划分,用那些在组织成员看来是整体情境中比较显著的变化以及那些外在事件带来的变化或者组织的战略变迁标示每个阶段的开始。用来连接两个领域的斜线箭头和竖线箭头显示了结构化过程的二重性:斜线箭头表示制度对于行动的约束,而竖线箭头则表示行动对于制度的形塑。斜线箭头和竖线箭头与各阶段的时间界限的对应关系体现了结构化过程的连续特性。制度性模式在每一个阶段的启动期提供了行动纲领和意义框架,而行动则在每一个阶段的随后过程中改变着制度。因此,社会行动既建构着制度,同时也受到制度的历史性制约。图1中逐渐密集的背景图案就直观地展示了结构化的累积效果。
结构化的连续模型为我们指出了一种更为开阔的经验研究思路,以研究技术所引发的社会变迁过程。由于大多数技术进入的都是既定情境,而其中的制度会影响随后的事件,所以研究者必须记录技术进人之前的传统行为模式、互动方式以及意义阐释。这一评估是很重要的,不仅因为制度性模式会影响有关技术引进的行动,而且因为这种模式为判断结构的稳定及变迁设置了特定的情境底线。一旦技术被引入以后,研究者的注意力就应该从制度背景转向涉及技术使用的社会活动中去,从而记录行为和认知,即从互动秩序中呈现出来的原始材料。若要准确描述行动和解释的新兴模式(emergent pattern),则要求至少部分地依靠参与观察,以记录哪些行动者在什么时间以什么方式互动,并且要问清楚行动者当时对于事件的解释。通过回溯调查和档案资料不足以达到这些目标,因为人们一般很少去关注每时每刻的行为状态和解释如何在结构化过程中保持行为的稳定性,而组织也不会做这些记录。当一种互动秩序稳定下来以后,研究者的分析焦点就应该转回制度领域,对这一领域中形成互动秩序的那些社会活动的架构进行界定,并与之前的模式进行比较,从而评估技术在多大程度上引发了对之前结构的复制或者改变。
尽管连续性的假设要求研究者在一个领域与另一个领域之间来回往复,但是并没有在这两个领域之间提供分析性的或者经验性的支点。然而,我们可以在“脚本”这个概念中找到连接制度领域和行动领域的机制(参见Goffman,1959,1967)。脚本是对周期性重复的互动模式的总括,它从可观察和可行为的意义上界定了行动者角色的核心内容(Schankand Abelson,1977)。正如在行动流中所显现的那样,脚本看上去就是各类典型遭遇的标准化情节,这种情节的重复出现就形成了某种场景中的互动秩序。我们可以通过对在调查期间的社会背景中出现的那些互动片段进行抽样来明确脚本。从实际的行为和言说的细节中,分析者将每个片段的逻辑抽象为能概括片段之展开的回合(turns)、角色以及行动类型。更确切地讲,就是用行动者所处的位置来替代其身份,将其行动和言说简化为某类形式和内容,而且行动的展开被描绘为一系列由典型行动要素所组成的回合。一旦每个片段都被简化成基本情节,情节频次就能计量了。重复出现的情节表明某互动形式在某场景中的普遍性,而且将脚本与互动秩序密切联系起来。这一脚本定位方法与结构人类学家用以揭示神话和地方叙事语法结构的方法技术类似(参见Propp,1958;Levir Strauss,1963)。作为类比,脚本可以被看作指导某个场景中日常行动的行为语法。
正如脚本可以被看作建构行动和互动方式的行为语法,传统上我们所谓的正式组织也可以被看作一系列脚本的语法结构。从这一高度来看,诸如集中化、形式化和专业化之类的总体组织原则,代表的是刻画某个场景行为的脚本的核心特质。行动和正式结构之间的联系可以被看作一连串编码构成的链条,这一连串的编码先从行动和互动的实例抽象出脚本的特征,然后再从脚本的特征抽象出正式组织。图1还为我们展示了结构化过程中脚本所扮演的角色。尽管行动如竖线箭头所示改变了制度模式,而制度模式则沿着斜线箭头制约着行动,但脚本在两者的双向作用中都起了中介的作用。
因此,要触发组织的结构化过程,技术必须首先扰乱或者肯定根深蒂固的行动模式以再造或者认可原来的脚本,这种脚本反过来又会界定组织的制度性结构。然而,技术仅仅是社会背景中影响行为模式的诸多因素之一,即使同一种技术也可能触发导致不同脚本的过程,进而导致不同场景中的不同组织结构。这种现象就发生在这一年我所参与观察的两家社区医院的放射科,每个科室都是第一次使用由电脑控制的X射线断层(CT)全身扫描仪。
选点和方法
本文所研究的一家市区医院和一家郊区医院是马萨诸塞州四家社区医院中的两家,其放射科1982年就引入了相同的CT扫描仪——Technicare 2060。为此,两个放射科分别聘用了6个放射专家和大概50个其他工作人员,并形成了一套标准的放射科程序。实际上,市区医院从1977年就开始使用第一代EMI头部扫描仪,而郊区医院则是借CT全身扫描仪的引人首次使用扫描仪技术。然而,由于Technicare 2060扫描仪和市区医院的EMI扫描仪在技术上差异很大,而且能看懂头部扫描仪的数据,并不代表也能解释身体扫描仪的数据,所以事实证明,市区医院的头部扫描仪的使用经验对身体扫描仪的操作不是很重要。
本研究最初关注的是记录传统的放射检查操作以建立一个比较的基础,通过比较来判断在多大程度上扫描仪会强化或者改变这两个科室的制度性模式。该专业的技术性和社会性组织的历史资料是通过公开发表的文章以及对这两个大医疗中心的资深放射专家的访谈获得的。然而,由于一个特定医院中的实际情况可能和职业规范及制度有所背离,对每一个研究地点传统操作实践的研究也是很重要的。因此,我从1982年6月,也就是扫描仪开始使用前四个月,就开始对市区医院和郊区医院进行观察。
由于X光照片和X光透视是传统放射科的技术核心,因此我从6月到9月的观察集中在市区医院和郊区医院的X光领域放射专家和技师在从事X光透视操作程序时的行动和互动。在整个研究过程中,我通过参与个体检查的整个过程来获得数据。事件的发生及其时间都被按照每个检查过程的时间顺序来记载,并且被记录在活页本上,以便创建所观察到的每个程序的行为记录。我对参与者之间的对话也进行了录音或者速记式的笔录,用以记录特定情境下的行话。除此之外,对于行为记录,在事件发生时或者稍后我也询问并记录了参与者对事件的解释。
当9月底扫描仪到位以后,我的观察开始从X光领域转到两个新建立的CT领域,而对于行为细节方面的观察和记录方法照旧。在整个研究过程中,我所观察到的大概有400次完整的放射检查,其中包括96次CT检查。除了圣诞假期的6个星期的空档之外,在这一年期间的工作日中,我轮换着在两个研究地点收集资料。观察两个CT扫描仪期间收集的详细田野笔记和录音资料为我的分析提供了一手资料。
研究分析开始于明确的分界线,以便对每个研究地点的结构化阶段进行界定。在形成脚本之前进行结构化阶段的描绘,可以避免基于脚本自身的知识来划分时间段。如果用既有的脚本分布来标定结构化的阶段,则可能会冒这样的风险:理论上虽然便利了,但会通过夸大阶段间脚本的异质性和阶段内脚本的同质性而带来人为的割裂,甚至会造成历史性的欺骗。正如前面关于结构化连续模型中的讨论所指出的那样,结构化的阶段应该开始于显著的外在事件或者组织战略的转变,且这种转变是就组织内部的人所做出的判断而言的。除了扫描仪本身的引入之外,对于扫描人员安排的改变也一样被两个科室的人视为其组织发展过程中的重要分水岭。因此,这些转变被用来标记各研究点结构化阶段的时间界线。根据这种标准,田野笔记向我们展示的是郊区医院经历了两个结构化阶段,市区医院则经历了四个结构化阶段。
分析的第二步是对放射专家和技师之间的互动进行详细的回溯性分析,从而使得每一个领域中能够表征互动秩序的脚本离析出来。所有被记录下来的放射专家和技师之间的互动都选自田野笔记并且根据时间地点进行编排。运用前面所述的方法,每一个片段都被精简为一个核心情节。通过对片段之间的比较提炼出对各类情节的表述,而且每一类情节的再现频次也都在每个研究点的结构化阶段进行列表统计。随着时间的推移,通过计算各医院这些情节的频次,就能识别每一个CT领域在其结构化过程各阶段表征其互动特征的脚本。脚本的内容和形式为我们提供了将两个CT领域与之前的X光领域进行角色比较的基础,而脚本的时间分布则描绘了放射科人员卷入的互动秩序。
第三步也就是最后一个分析步骤是将两种互动秩序的脚本化参数与每个CT领域的正式结构特征联系起来。从现实情况和经验来看,集中化被认为与之尤其相关。正如下面所给出的更充分的解释,判断力和权威的规章性分配是科室传统劳动分工的核心。更重要的是,有资料可供对集中化进行测量,该测量独立于脚本以及产生脚本的互动。所以,通过对“集中化”的关注,我们就可以运用独立于脚本的资料来检验两种互动秩序和放射科某种基础制度之间的联系。对“集中化”的测量是通过对田野笔记中常规决策事项进行编码建构的。如果不考虑两个医院之间的差别,所有CT扫描过程都可以分为9个操作决策步骤:(1)什么时候开始检查一个新的病人;(2)从什么地方开始扫描;(3)扫描到什么程度为止;(4)使用哪些技术;(5)是否需要病人调整位置;(6)是否需要注入对比度(inject contrast);(7)使用什么视窗和以什么为中心;(8)放射专家是否需要观察扫描过程;(9)什么时候结束检查。由于每个决策都随着扫描而做出明显的行动,所以,作为观察系统的一部分, 我通常记录下决策者的身份。我的田野笔记中记录了91次扫描过程,它们都非常详细,以便确认是名义上负责的放射专家还是技师在做每一个决策。从而,放射专家在检查过程中所做的决策的比例形成了衡量集中化程度的指标,它们按照时间顺序分布的散点图就是一个科室集中化的轮廓图。
如果CT领域的制度和行动事实上通过结构化过程联系起来,那么每个科室的集中化轮廓图应该与我们通过脚本的时序分析所得出的趋势图是平行的。这一假设的验证是通过对每个科室的集中化得分与扫描操作日期的回归分析完成的,并且还可以对回归值进行平方,用以检验脚本分析中所显示的线性和曲线性趋势。操作日期是间距变量,测量的是每个科室从开始使用扫描仪到记录当天的时间段。集中化得分也用于检验我们为每个科室的结构化界定的阶段是否恰当。如果对这些阶段的界定是恰当的,那么每个科室的集中化指标的散点图应该出现相似的周期性。为了检验这种阶段划分的恰当性,将每个科室的集中化得分与一系列虚拟变量进行回归,这些虚拟变量分别界定了郊区医院的两阶段模型和市区医院的四阶段模型。每一次扫描检查都根据其执行的日期被归类到其中一个阶段。如果对阶段的界定是恰当的,那么用两阶段模型和四阶段模型分别预测郊区医院和市区医院的数据,要比用融合各阶段所建模型预测数据更好。
因此,我们的数据分析是顺着结构化过程连续模型的分析逻辑进行的。为了贯彻这种分析思路,接下来关于市区医院和郊区医院的经验讨论始于对两个医院X光领域这一传统放射科工作模式的简要介绍,即结构化开始的背景。
放射科的制度环境和传统
放射医学在科学协会中的声望是在1895年发现X射线之后迅速崛起的,随着“专业垄断”(professional monopoly)(Larson,1977)的兴起以及“专业主导”(professional dominance)( Friedson,1970)系统的制度化,放射医学获得了目前作为一个医疗专业的地位。正如拉金(Larkin,1978)和布朗(Brown,1973)所述,到1950年代为止,通过将物理学家和工程师排挤出医疗放射成像领域,阻止其他医生从事放射影像的解释以及控制放射技师的教育和注册,放射专家已经确保了他们在医学成像领域的排他性地位。因此,专业主导地位是建立在并维系于立足于放射操作工作和影像解释专业分工的专业意见之上的。
在郊区医院和市区医院的X光领域,放射技师,也就是那些处于助理级别的人,负责在检查过程中管理病人并且为放射专家制作X光图像。然后,放射专家从影像中获取诊断信息并为医生提供他们的解释。尽管“技师”受过设备操作和解剖识别的训练,但是他们并没有受过对影像进行解释的训练。这样,即使有多年的经验,大多数X光技师也几乎无法从一系列的X光图像中做出病理判断(Barley,1984)。相反,放射专家受过训练,既会解释影像又会操作设备,而且,即使他们很少钻研技师的技巧,也会例行性地操作设备,尤其是在用荧光检查仪检查的时候。这种专家模式制造了一种科层权威,即专家了解技师掌握的知识,但是反过来技师却并不了解专家掌握的知识。
在市区医院和郊区医院的技师和专家从事其日常工作的时候,放射专家的主导性就会例行呈现。也许因为放射成像和荧光检查技术比较容易掌握,同时因为该职业有良好的传统规定,所以两个科室的传统实践是相似的。两个群体之间的大多数互动也就是放射专家对技师下指令,然后技师开始执行。举例来说,在荧光检查中,专家和技师之间的互动几乎都是专家对技师下指令。专家几乎不用对技师说明其指令和偏好的理由(Barley,1984),也很少征询X光技师的意见,即使是有关操作技术方面的事务。而技师总是习惯性地等待专家的指令,即使他们知道该怎么做。类似地,专家从来不向技师寻求关于病人的病理信息,他们只会偶尔主动说一说相关信息。这些互动模式向我们展示了放射专家的制度性主导地位以及X光技师相应的从属地位。不仅X光技师不被允许做大量的常规决策,而且在大多数互动中,信息都是单向地从专家流向技师。如此一来,即使是在日常工作中,权威也是集中化的。
尽管射线专家的解释权垄断地位和X光技师的从属地位来自制度性和社会生成性权力,但重要的是要认识到放射科的传统结构是和其技术史联系在一起的。直到1960年代末期,放射领域的大多数技术变迁都是对既有机器设备的逐步改进(Dewing,1962)。相应地,专家的诊断知识也同样是逐步增加的。因此,在近20年前,放射科的工作完全由存在了几十年的技术执行程序所组成。在这一逐步累进的技术变迁时期,放射专家要保持在设备使用过程以及影像解释过程中的专业地位还是相对容易的。
然而,在过去15年,诸如超声波、CT扫描仪以及核磁共振等由计算机主导的技术,对机器设备透视人体内部的能力产生了革命性的影响。每一种创新技术不仅在操作原理上与传统设备有着明显区别,而且创造出了一种完全不同于放射专家已有知识体系的新的诊断符号体系,放射专家必须应对这一问题。正如在市区医院和郊区医院所看到的,如果放射专家在自己必须使用新机器之前不关注有关这种新技术的专业文献,那么当科室引进新技术的时候,大多数人将对这种设备及其图像一窍不通。这一情况在本研究所选择的两个观察点也同样存在,关于Technicare扫描仪标准的为期四天的导引性课程就是放射专家和技师们在上岗之前所能接受的唯一正式培训。培训注重的是扫描仪的常规操作,完全不涉及解剖学或病理学图示的解释,也几乎没有关于扫描仪工作原理以及故障排除方面的讨论。
由于放射科的专业主导来自传统的专业分工优势,科室成员对于新技术及其图示系统的相对无知意味着之前的结构可能更难维系下去,而且结构化的机会也倾向于由此启动。当扫描仪被引入市区医院和郊区医院时,这种情况就出现了。
郊区医院CT操作过程中的结构化
第一阶段:决断力的协商
由于郊区医院没有一个人有使用CT扫描仪的经验或者可以解释扫描仪的图像,放射科面对需要扫描的病人,因为没有专业知识的支撑而前途渺茫。为了避免这一问题,郊区医院聘用了第六个放射专家,让他负责协调CT扫描仪项目的启动,这个人刚刚完成了计算机X光断层摄影术的大学研修。除此之外,放射科还招聘了两个曾受聘于当地第一家采用身体扫描仪的医院的技师,并且把他们自己的两个技师从X光领域转到CT领域。这样,两个有经验的技师、两个没经验的技师以及一个新的放射专家使得CT扫描仪可以开始工作。
这些人事决策以及扫描仪的开始运转意味着郊区医院第一个结构化阶段的开始。由于CT扫描仪操作此前没有标准程序,没有一个人操作过这种机器,而且放射专家和技师之前也没有合作过,所以第一个星期的互动焦点是使角色明晰,尤其是澄清谁有什么能力承担相应的角色职责以及每一个角色应该承担哪些责任。这一阶段的田野笔记记录了与随后阶段有实质性差别的互动形式。
不经意的确认(unsought validation)当CT技师最初开始做扫描的时候,他们常常并不询问有经验的放射专家是否认为他们的行为是合格的。通常,放射专家要么没能力评价技师们的行为,要么选择对其不予置评。然而,在某些场合,放射专家也确实对技师的决定提出质疑。通常,专家将他的质疑放在对信息的要求或一个基本原理之中。技师们的反应是用事实为其行为做辩护。于是,放射专家通常会对其行为是否合适进行评判,而且常常是同意而不是反对其决定,并为正确的选择做些补充。这些可以被称为“不经意的确认”的互动。脚本证实了以下结构:(1)技师采取行动;(2)专家质疑其行动;(3)技师提出合法性理由;(4)专家确认其行动是恰当的。
一个关于“不经意的确认”的实例将为我们阐明脚本与角色塑造(role making)之间的关联,并展示脚本如何概括互动事实。在郊区医院开始扫描仪操作的几天之后,有经验的放射专家被叫去控制室看一个病人的扫描录像。他并不知道技师们自已决定用512像素来成像而不是用一直以来惯用的256像素。结果,图像就比一般的扫描图像更清晰。当扫描图像呈现在监视器上时,放射专家和一个没经验的技师之间就展开了如下交谈:
专家:(怀疑地)这些是256像素的?

技师:(平铺直叙地)不,这是512像素的。

专家:(惊讶地)它们是512像素的?

技师:是的,我们把它调整到了512像素了。

专家:哦!很好!我在过来的路上还在想你们是否可以调整到512像素并且还能做快速浏览。嗯,这很好!这很重要!

显而易见,互动随着脚本情节阐明的顺序展开。除了主题事件是关于CT扫描这个事实之外,谈话的细节和脚本的演变无关。这个例子也告诉我们,“不经意的确认”如何为技师和专家的知识协商提供了未经安排的机会。通过肯定技师行动的明智性,放射专家公开承认了技师在扫描过程中做某种决定的能力。同时,专家的质疑以及之后的确认也表明了他自己对CT工作的理解,因为他提出了一个可能被新手忽视的问题。尽管脚本通过引证放射专家质疑技师的权利,巧妙地维护了专业主导地位,但是总体来看还是在不侵犯对方的前提下同时肯定了双方的专业技能。
预设答案的提问(anticipatory questioning) 与“不经意的确认”不一样,“预设答案的提问”是在郊区医院CT扫描过程早期经常出现的脚本,发生在技师采取行动前与专家进行协商的情况下。和所有的脚本-样,“预设答案的提问”顺着这样-种包含了诸多互动情节的结构发展:(1)技师向专家提出一个直接的请示;(2)专家给技师一个直接的回答;(3)技师讲述了他或她的下一步行动;(4)专家确认技师的计划是可行的。尽管最开始的提问常常看似真诚,但是从当时的情境以及技师之后的陈述中能看出,这个请示通常只是客套话。“预设答案的提问”通常由那些有经验的技师提出,并且已从他们自己专业的角度设定了相应答案,所以,他们处于更有利的地位,以表明其所具有的扫描方面的独有知识。举例来说,在一次早期的扫描中,一个有经验的技师向专家征询是否应该进行她认为应该立即进行的注射:
技师:医生,要为这个病人注射吗?

专家:是的。

技师:那我开始抽取注射液了,是100毫升吗?

专家:是的。
尽管这段对话看似一次简单的意见征询,但事实上,它包含着更多的信息。在问这个问题之前,技师要从CT图像或者病人的通知单中推断可能要进行注射,因为专家并没有表明他的注射意图。等到专家差不多看完扫描仪结果时,技师暗示了她知道何时该注射。因此,她的问题包含了这样的信息:“从其他事情的迹象看来可能要进行注射,而且如果要注射的话就得马上注射。”而且,在告知专家她将抽取100毫升注射液的时候,这位技师明示了她在这个程序中这一时点上的角色,并表示她很高兴在没有被明确告知任务的时候履行她的义务。如此看来,这个“预设答案的提问”确实有些冒昧,不过专家的肯定确认了这个有经验的技师的专业技能。通过发起“预设答案的提问”,技师们也维持了不同于X光领域代表性互动模式的自主决断地位。在这个案例中,“医生” 这个术语的使用强调了放射专家的特殊性。由于“预设答案的提问”在保持放射专家地位的同时,也确认了技师的专业技能,所以,这种形式的互动在早期的扫描操作中普遍出现也就不足为怪了。
偏好声明(preference stating)如果不考虑特定技术经验,技师们会认为放射专家关于疾病、解剖和诊断的知识远远超过他们自己。而且,只要专家是合理的,他们一贯愿意接受专家的技术偏好。由于放射专家在X光领域常常就技术问题发表看法,所以郊区医院有经验的专家能自由地告知技师他在扫描中的偏好。然而,在CT技术应用过程中,相互磋商却渗入了脚本中:偏好陈述已经超出了在X光科室普遍存在的那种单纯的指导,在此,(1)有经验的放射专家不仅公示他的偏好,(2)他还得为他的偏好提供理由。

放射专家通常通过解释他的建议如何能使操作更省力或者能得出更多的诊断证据,使得他的偏好和选择合理化。而后一种解释经常需要专家就扫描中的病理图示进行讨论。这种磋商通常包括在X光领域不常见的、针对疾病以及疾病的病理所进行的长时间交谈。此外,通过强调其偏好的理由,放射专家确立了自己的可信度和能力,同时这也显得他很重视给技师一个合理的解释。由于放射专家提供了合理的理由,技师也就相应地对他们充满信心。
在脚本中被称为“不经意的确认”“预设答案的提问”和“偏好声明”的互动形成了郊区医院CT领域早期的角色关系模式。最初的互动秩序尽管重申了放射专家这种更具传统性的角色的权威和专业性,但是也认可了技师基于特定职业知识的决断力(discretion)。当技师展示出他们的责任和能力时,放射专家也开始给他们下放一些决断权。第三周之后,一种尝试共同解决问题的氛围开始形成,这种氛围更像是各有专长的音乐家在一个音乐厅中共同演奏。放射专家开始越来越少地参与到常规决策之中,而有经验的技师开始掌管注射工作,这是一个标志性的事件,因为郊区医院的其他技师不被允许注射。然而,与下一个结构化阶段所发生的一夜之间崛起的自主权相比,技师此时在决断力方面的收获是微不足道的。
第二阶段:篡夺自主权
尽管在前三个星期那些在CT方面没有经验的放射专家偶尔也参加扫描,但是那个最近被聘用的放射专家总是出席并且明确显示他在负责此事。事实上,田野笔记显示出除了社会性的日常对话之外,那些没经验的放射专家和技师之间几乎没什么互动。相反,他们有什么问题就向有经验的那位放射专家请教。然而,在第四个星期,专家们决定每人每周轮流负责CT扫描。有经验的放射专家实际,上照搬了放射科室其他领域的基本做法,并且和他的同事一样根据日程安排去CT室值班。共同承担CT扫描职责的这--决定标志着郊区医院第二个结构化阶段的开始。刚开始的时候,技师们企图按照第一个阶段中发展出来的脚本行事,但是之前的互动模式很快随着专家和技师之间的角色变动而迅速改变了。
暗中教导(clandestine teaching)根据科室其他领域的既有权威结构,那些没经验的专家们在和技师们交往的过程中也倾向于强调自己的偏好并会提出有点像那种可能引致不经意确认的问题。然而,由于之前的这些互动默认了专家具有扫描的基本知识,但这些知识恰恰是那些没经验的专家们所缺乏的,所以,他们的偏好和质疑并不能维持已有的互动模式。相反,他们的质疑和偏好强调常常导致两者地位的互换,技师们对专家的质疑和建议常常不予理睬,并反过来试图说服对方。
“暗中教导”的典型例子开始于一个放射专家提出那些熟悉CT工作的人不可能提出的质疑和偏好陈述时。由于技师公开地纠正一个专家的错误问题和偏好可能会有冒犯且明显改变制度性地位系统的风险,因此,技师们对专家进行质疑和偏好陈述时通常以一个能够交流专业知识的伙伴身份,在不经意间向专家传授那些用以修正其陈述所必需的知识。循着技师所给出的提示,专家随之调整了自己的主张或行动,使其更符合标准方案。被称为“暗中教导”的脚本互动结构是这样的:(1)专家提出一个不相关的问题或者一个错误的建议;(2)技师给出正确的信息;(3)专家调整自己的主张。
“暗中教导”威胁到了专家和技师之间的制度性角色关系。在放射科的传统体系中,是放射专家教导技师,技师教导专家的相反情况比较罕见甚至是禁忌。实际上,专家先前的自信态度和技师的顺从这两者在磋商过程中从语义学和语用学两个方面都能得以体现,这样才能使“暗中教导”不致变成公然的“角色颠倒”。然而,第四周以后,随着扫描工作的深入,公然的“角色颠倒”确实以一定的频率发生了。
角色颠倒(role reversals)“角色颠倒”最典型的例子是放射专家直接问技师某个扫描是否确诊了某种病理。在X光领域,专家和技师之间关于病理的讨论只发生在专家主动向技师讲解的时候。这样,诊断知识总是从专家传向技师,以保持专家在制度性劳动分工中的主导地位。但是,这种专业知识的传统分布在CT领域很难维系下去,因为没经验的专家比有经验的技师所知道的CT图像的基础知识更少。尽管专家们企图避免与技师一起分析图像,但是日常紧急事件有时还是需要必要的会诊,尤其是当专家必须及时给医生提供资料的时候。这些事件颠覆了典型的图像解释讨论脚本,因为(1)现在是专家咨询技师有关病理的事情,并且(2)技师给专家提供一种解释。在下面的对话中,专家就明确地向技师咨询脊椎扫描是否显示了病理:
专家:(坐在控制台旁边)你已经给他们拍照了?

技师:是的,我正在重新做。

专家:(指着说)那个是骨折吗?

技师:不是,那很可能是个骨头上的孔(脊椎骨的一部分)。

专家:你有没有看到这里有个圆盘状的东西?(这个圆盘状的东西是破裂的还是凸起的?)

技师:我只看到一点点。它小得几乎就看不到。

尽管“暗中教导”的例子暴露了专家的无知,但是这个脚本还是维持了他们传统的专业主导氛围。如果需要的话,当事人也会说这没什么不寻常的,因为人们认为技师是懂得如何操作扫描仪以及识别某些解剖学图示的。然而,“角色颠倒”因其委托技师扮演解释图像的角色,从而显得带有更多冒犯常规的色彩。由于专家和技师都感觉到了这种常规秩序的改变,“角色颠倒”引起了焦虑。在上述那个事例发生以后,放射专家红着脸尴尬地走出了扫描室,而技师则紧张地向我们倾诉:“我不喜欢医生问我图像的含义,告诉他们如何做他们的工作,这可不是我的工作。”
责难技师(blaming the technologist)在第二个结构化阶段发生的互动模式中,没有什么比专家把设备问题误认为是技师的无能这个倾向更能说明互动秩序的改变了。在这种场合,专家(1)提出或者质疑他所看到的问题,(2)暗示或者直接说这个问题是技师的错误,(3)否认技师提出的辩解,不认为这个问题是技术本身的问题。以下对话显示了这种脚本:
专家:(唐突地)这可真是糟糕。最后一个病人的图像非常暗,你能处理一下吗?

技师:我不知道。

专家:你说不知道是什么意思?

技师:这个是机器或者是相机的问题,我不知道该怎么调整。X医生知道怎么调整相机,也许我们可以请他过来调整一下相机,然后我再重做一次。

专家:(指着头部扫描中的大脑图像的诊断基线)这就是所有的结果?

技师:是的,但是我也无能为力。

专家:为什么不行?你是说你也无能为力?

技师:我认为这是骨伪影(bone artifact)。(在颅底扫描中,骨伪影是所有Technicare2060都比较常见的一个问题。)

由于“角色颠倒”“暗中教导”以及“责难技师”的例子逐渐界定了一种新的互动秩序,放射专家的道德权威逐渐黯淡下去,而且技师开始瞧不起没有经验的专家。为了解释这种新的互动模式,技师所形成的看法是,专家所知道的知识比他们应该知道的要少得多,而且他们的无知导致了不必要的额外工作,甚至使CT扫描工作没法顺利开展。与此同时,专家也对这种情形感到不舒服,因为不适应这种被别人认为自己专业知识不足、担心自己会犯一系列错误,以及因计算机技术而困惑的状况,专家开始对技师产生敌意。
随着焦虑、敌意以及蔑视的增长,技师和专家都尽量减少上述类似事情的发生。技师开始承担起常规决策的责任,而在过去,他们需要在决策前先咨询放射专家的意见。起初,技师们在这样做的时候还有些犹豫,但是当这些自主行动没有像之前那样引起否定或反对时,技师认为自已在之后的检查中也可以承担类似的责任。同时,放射专家开始从每时每刻的扫描检查中撤退出来,以保全自己的面子。当轮到去CT室值班的时候,大多数放射专家都待在自己的办公室中,更有甚者,还关上自已办公室的门、关上自己和秘书的桌子间的窗子。还有一个放射专家,当轮到他去CT室值班时,他就留在X光科室,他去CT室只是为了取相片。这样,作为第二个结构化阶段兴起的互动模式的结果,郊区医院的CT技师在其日常工作中获得了很大程度的自主权(autonomy)。
市区医院CT操作过程中的结构化
第一阶段:协商互赖
尽管市区医院也面临在操作全身扫描仪过程中缺乏有经验人员的问题,但它通过完全依赖有学识的放射专家的方式来尽力解决这一问题。在扫描仪运到之前的两个月,市区医院就雇佣了一个在其毕业实习阶段专攻CT扫描的年轻放射专家。还有一个负责组织CT扫描工作的放射专家是科室老成员,曾负责市区医院的头部扫描仪,而且虽然他在全身扫描方面没有实际操作经验,但也对这一领域的文献有着长期关注。为了完善扫描科室的人事组织,市区医院安排了一个由八个技师组成的小组:四人来自头部扫描部门,另外四人则来自其他部门。正如在郊区医院一样,这些人事决策以及扫描仪的来临一起标志着第一个结构化阶段的启动,但是市区医院随后所发展出的互动秩序却与郊区医院有着实质性差别。
下达指导(direction giving)由于市区医院的所有技师都是全身扫描方面的新手,他们最初的问题不是展示技术能力,而是找出技术能力应该包含些什么。而且,由于扫描仪供应商所提供的四天培训少得可怜,不过是个引导而已,所以培训的责任主要落在放射专家的身上。但是,因为从来没有开设过类似的培训课程,他们自己也对Technicare扫描仪不熟悉,而且扫描病人这种工作业已引起无数紧急事件,使得结构化教学不可能进行,所以放射专家把“下达指导”作为对技师的基本培训手段。这种互动方式之下的脚本是简单且直接的:(1)专家告诉技师做什么;(2)技师执行专家的命令,通常不要求理由或者明晰化指导。在某些情况下,放射专家的说话方式是命令性的,而且说的多是扫描过程的细节。
“下达指导”这种形式的“命令行动”序列很快变成早期扫描阶段专家和技师之间互动的基本方式。“下达指导”通常是扫描过程中专家和技师之间口头交流的唯一形式。下面这个始于放射专家发现一个技师没有把病人放入扫描仪的例子说明了“下达指导”如何串起来,形成了足够长的互动链:
专家:(不安地)你还没有把她放进去?

技师:还没有。

专家:(专家指着设备上的提示告诉技师应该放把她进去)默认……默认……默认……Oral IV contrast。

技师:(敲了三次返回键然后开始输入专家所述的标记。)

专家:O……R……A……L……I……V……C……O……N……T……R……A……S……T,现在,我们接下来应该用哪项技术?

技师:我看看。这是一个腹部扫描,所以我们手动选择“A”。那么,是按“A”吗?(指向扫描仪控制台上的两个操作键。)

专家:对。好的,设定40。(技师遵照指示按了这个键。)按“暂停扫描”。(技师遵照指示按了这个键。)现在,你不用做快速浏览了,512像素就好了。

“下达指导”不同于偏好强调,因为有经验的专家不用提供有关其建议的合法性理由。因此这个脚本作为培训策略如果成功,则有碍于技师的习惯形成以及将行动规则抽象化的能力。上述摘录在扫描仪开始工作的一个月内的频繁发生以及CT扫描常规层面的缺失,让我们怀疑该脚本的有效性。“下达指导”作为培训策略是失败的,因为它预测的是一种单向的沟通方式,在这种沟通方式中,专家认定自己作为行动策划者的角色以及技师作为行动执行者的角色。因此,这种互动模式不但没法完成培训,而且专家通过将权威延伸到诸如何时按哪个按钮这样琐碎的事情,再一次强化了自己的专业主导地位。即使在X光领域,专家的指导也没有这样细致。
收回成命(countermands)技师无法从专家的指导中总结规律这种现象部分地可以由第二种常见的互动模式来解释,这种互动模式的脚本也是由“命令—行动”序列组成的,但是其情境却不同于“下达指导”。简单的“下达指导”假设专家会在技师行动之前给出自己的偏好,但是专家并不总会给出指令。在许多时候,专家也会自我反思,认识到另一种行动方式更加合人心意。当他们产生这种意识时,通常会对检查过程进行重新指导,而不管其是否有悖于之前的指导。这使得之前指导失效的新的“命令—行动”序列形成了“收回成命”的脚本。
“收回成命”的情况是多种多样的。当专家在看病人的CT图像并注意到不曾料到的病理图示时,他们会出于诊断的考虑取消自己的指导。更常见的情况是,“收回成命”是因为专家自己的个人偏好和内在矛盾。不同于郊区医院的专家,市区医院有经验的专家对扫描仪的技术能力颇感兴趣,而且乐于通过对扫描仪能做什么这些现场的假设来检验扫描仪的局限性。更重要的是,两个专家经常就扫描仪应该怎么操作发生分歧。因此,作为双方辩论的结果,专家们要做出很多改变,而且经常收回给对方下达的指令。由于专家很少对指令的改变给出合法性理由,而且技师与此并无利害关系,没有必要站在专家间辩论的角度看问题,所以在技师看来,“收回成命”就是反复无常。不可预料的“命令—行动”序列随时随地可能在扫描过程中发生,由于“收回成命”并不给出行动的理由,这就切断了技师从所指导的行动中总结规律的可能性,技师只是盲目遵从专家的指令。这强调了专家们的权威,也强化了技师的从属地位。
僭越控制权(usurping the controls)市区医院有经验的专家的干涉并不限于“下达指导”和“收回成命”。早在第一次扫描过程中,放射专家事实上就从技师手里拿走了控制台的控制权。这种方式变得如此广为接受,以至于在最初两个月的观察中,专家没有一天不越俎代庖。与此形成极大反差的是,郊区医院的专家除非要求重新观察扫描图像,否则几乎不会去操作扫描仪,而且即使去用扫描仪,也仅限于改变扫描录像的操作。不同于之前的互动模式,“僭越控制权”是纯行为性的,没有口头交流。其脚本组成是这样的:一个放射专家(1)走到控制台旁边,(2)通过按钮或者在键盘上输入命令,从而打断技师的工作。
市区医院的技师把专家的僭越视为对他们尊严的损伤,这种事件意味着对他们职业角色的不尊重以及对他们能力的轻视。起初,技师对专家僭越扫描仪控制权的权力提出了挑战,但是当技师无法阻止这种行为的事实日益明晰时,他们也逐渐将其视作惯例。当专家对控制台进行操作的时候,技师们可能叽叽喳喳地相互抱怨,但他们也只是被动地默许。
寻求指导(direction seeking)除了“下达指导”之外,市区医院放射专家和技师之间在结构化第一阶段的互动常常被脚本化为“寻求指导”。“下达指导”和“寻求指导”是互补的。专家的指令形成了第一种方式的互动,而技师要求指导则形成了第二种,但是这两种形式的互动都使技师下一步应该执行的工作得以具体化。“寻求指导”的脚本和“下达指导”的脚本一样简单:(1)技师向专家咨询某种恰当的行为方式;(2)专家给予答复;(3)技师按照指导行事。和“下达指导”一样,“寻求指导”始于技师需要学习,但是即便技师已经获得经验,“寻求指导”现象仍然存在。这一互动模式的稳定性的关键在于其社会性目的的细微改变。
这三种脚本都确认了专家的主导地位,并且形成了技师认为很反复无常的一种工作环境。为了使得这种看上去反复无常的现实能说得过去,技师们形成了对自身工作的自有解释框架,即一种制度性的工作,一开始就是为了尊重、迎合专家们的特殊偏好。如果CT领域是由个人偏好所统治的话,那么行动没有办法明文规定这一事实也就有意义了。明显地,到了第三周,技师们不再询问该怎么做,而是开始相互问“他说他想要干什么”。因此,技师们继续向专家寻求指导不是因为他们不知道怎么做,而是因为他们希望确保专家能够耐心地说出他们的要求。随着时间的推移,“寻求指导”开始变成既是对专家权威的回应,又是技师们依赖性的一个佐证。然而,通过不断地寻求指导,技师们让专家感觉到了他们的意图并不在于学习,这激发了专家们实行更强的控制。如此一来,这种日益演进的互动秩序吸收了很多X光领域日常行动的制度性模式,从而使得技师们的传统依附地位以及专家们的传统主导地位得以复兴。这一切保留了下来,以推动下一步互动秩序的确立。
第二和第三阶段:不称职的建构和强化
由于技师的专业知识学习没有专家所希望的那样快,在第四周结束时,科室制定了一套新的责任体系——每个技师要两周一轮,而不是每日轮流去操作CT扫描仪。同时,专家们决定花更多时间待在办公室里,以切断技师们的依赖。讽刺的是,专家的撤退标志着事实上技师依赖性增强的第二个结构化阶段的开始。
始料不及的批评(unexpected criticisms)虽然专家不在,但技师们没有因此信心倍增,也还是不能幸免于扫描方案的反复无常。然而,由于他们在空间上和专家分开了,所以不能不由自主地随时向专家寻求指导。技师之前所面临的隐蔽的两难处境公开化了:独立行动有可能做出错误的选择,而寻求指导则可能被视为无知。在技师们关于行动前是否要咨询专家意见的公开讨论中,可以看到这一两难处境的日益显现。考虑到可以感知的得失权衡,技师们往往选择继续向专家咨询。
由于专家不再待在控制室里,“寻求指导”就需要技师们走到专家的办公室。然而,当技师走到专家办公室时,专家总是在做别的事情。因此,技师的问题打断了专家的事情,从而使得“寻求指导”这件事情更加彰显。由于专家比以前对技师们在常规事务上的依赖性更加敏感,他们开始对此日益反感,并且以一种嘲笑的方式应对技师们的问题。
因此,“寻求指导”开始变成一种新的互动方式:“始料不及的批评”。其脚本呈现出以下扭曲状态:(1)技师向专家询问该如何操作;(2)专家以讽刺挖苦回应。由于技师的问题带来的不仅是扫描过程中的信息,而且也带来了愤怒,所以在扫描过程中,如果技师几次三番地过来,专家就会被激怒,常常走出办公室去看看控制室里发生了什么事情。一旦专家常常在扫描过程的后期逗留在控制室里,之后的互动就又返回到前几周的典型模式了。
非难性质疑(accusatory questions)由于专家们对技师的持续依赖感到日益不安,他们开始说技师是不称职的,这也成为当技师寻求指导和犯错误时激起专家干涉倾向的理由。而且,由于专家有了这种认为技师不称职的偏见,他们就能经常找出这种不称职,即使事实,上它并不存在。专家这种自我强化的感知确保并增强了其“非难性质疑”的底气,“非难性质疑”是在第二个结构化阶段中析出的第二种互动模式。“非难性质疑”的脚本如下:(1)专家指责技师不称职,如果此前(2)技师没有寻求指导就擅自采取行动。
有关“非难性质疑”的一个生动的例子涉及一个花了15 分钟时间才好不容易解决计算机问题的技师。问题源于值班的专家要求这个技师运用扫描仪程序中并不能识别的参数。当技师终于解决了这个问题时,专家走进控制室并且质问他:“这么长时间你都在干什么?”和通常的对话一样,技师恭顺地做了回答。她告诉专家自己遇到了一个问题,但是并没有提到这个问题是源于专家之前的要求。这种对话很快压制了迈向主动的尝试性步伐,也加强了寻求指导的倾向。同时,由于技师未能就指责进行有效反驳,反而强化了专家对其不称职的怀疑,因为他们把技师顺从的原因归结为内疚。
由于专家们并没有意识到是他们自己的行为导致了这种局面,在第六周结束时,他们总结说技师实在是不称职,而且完成一个扫描所花费的时间太长。站在他们作为优势者的角度来看,赋予技师自主权的实验失败了。为了解决这些问题,在第40天的扫描操作中,专家们扯下了所有超然态度的假面具,重新采用了之前的习惯,也就是在病人扫描过程中仍然待在控制室。这个决定标志着第三个结构化阶段的开始。在第三个结构化阶段,第一阶段所发展的脚本深深内置于那种几乎是复制了X光领域技师和专家传统角色关系的互动秩序中。
第四阶段:走向独立
较长一段时间内,市区医院的互动秩序都是稳定的。直到第六周,那四个被专家视为不能胜任全身扫描仪操作的技师被调去做头部扫描工作。同时,有经验的专家重新采用了放射科室其他领域的责任制,这样-来,没经验的专家也能够在CT室轮班。通过对实际经验的相对权衡做了有利于留下来的技师的重新分配,这些变化诱发了结构化的第四个阶段,其间新互动模式的出现让人不禁想起了郊区医院所出现的互动模式。
技术咨询(technical consultation)郊区医院没有经验的专家是在其自信的表象之下偷偷地进行技术培训,市区医院没有经验的专家却并没有自称对技术问题很了解,而是公开地向技师求助。这些咨询颠倒了市区医院在早期结构化过程中所建立的互动秩序。与之前完全相反,专家现在成了咨询者,而技师则成了指导的给予者。“技术咨询”的脚本类似于“寻求指导”的脚本,只是行动者的角色转换了:(1)专家咨询某种恰当的行动方式;(2)技师给予专家一个答复。
  
专家:(指着电脑中轮流反复出现的几张图片)我怎么才能停止这个?

技师:(俯身于专家的肩膀之上,在键盘上打字)你就打……O,就能使得“载入观察关闭”(Load Review Off)。

专家:好的,LRO。现在,我要怎样才能达到512像素?(他在电脑中打了一条命令。)

技师:等等!!这不是你想要的。(她按了正确的操作键。)

专家:哦!我明白了!很好!谢谢你。
共同执行(mutual execution)尽管“技术咨询”颠倒了前几个月制度化了的脚本,但是这种倒置并没有威胁到专家的权威。和郊区医院专家向技师寻求解释的“角色颠倒”不一样,专家在技术咨询中仅仅只是向技师寻求技术信息。尽管有些不同寻常,但是由于放射领域的行业风气总是将技师吹捧为技术专家,所以这种对技师的依赖也并不忌讳。也许是因为这个原因,市区医院的专家作为新手,并没有像郊区医院的同行一样从扫描的日常操作中撤退出来。但是由于没经验的专家不能时时发送指导,而且因为他们也乐于承认技师在技术问题上的能力,所以这两个群体之间的互动形成了一种新的形式。
新的互动模式即“共同执行”,比之前所讨论的所有模式都要复杂。“共同执行”包含了技师和专家共有的寻求指导和给予指导的平衡展现。而且,技师开始提供有关如何操作的建议,而专家也开始称赞技师的才干:

专家:(看着监控器上的扫描过程)你打算做到哪一步?

技师:我想看看胰腺的上部。

专家:只要十多毫米就可以了。

技师:扫描完这一小团组织(bolus) 以后你还想试一下动态扫描(dynamicscan)吗?

专家:哦!你能做吗?

技师:嗯,我昨天用纷腾(phantom)试了一下。

专家:那么你现在应该已经能做了!太好了!你现在打算做什么呢?

技师:等着另外两个扫描的加工处理。

专家:哦,好!把台子往后拉十毫米,我们现在就开始对她扫描。现在,灯光应该怎么设置?她的呼吸节奏应该怎么调整?

技师:灯光(架子里面的)应该闪三次红色然后停住。
在这种对话中,主导者的身份随着双方专业知识的碰撞在双方之间转换。由于“寻求指导”和“下达指导”的例子在他们的身份转换过程中随处可见,这种互动模式维持了专家的权威性。但是领导地位的转变也允许技师展示他们的专业技能,这种专业技能在专家接受其建议的过程中得到了肯定。因此,“共同执行”中的地位转换状态形成了一种比之前结构化阶段中所有模式都更为平和的互动模式。随着“技术咨询”和“共同执行”变得日益频繁,技师开始制定更多的决策,而专家们则放松了对日常操作的控制。这样,角色关系就开始变得不是那么紧张,市区医院的互动秩序朝着这样一种角色结构发展——专家和技师按照似乎每一方都拥有有价值且互补的技能的方式行事。
不同组织形式的沉积作用
图2给出了本文前面所讨论的、出现在两家医院每一阶段结构化过程中的脚本的数目。竖列实线两边分别是郊区医院和市区医院的脚本,横行实线上下分别是每一个部门的结构化阶段。竖列虚线是对每个地点的脚本归人相应的主导阶段所做的聚类。通过表格中的每一行可以获知某个脚本在其中一个医院的某结构化阶段出现的次数。而每一列记录的则是某个特定的脚本在两家医院的所有阶段中所出现的频次。由实线所形成的主对角线之上的象限显示的是那些对所在医院演化中的互动秩序有着主要作用的脚本。对角线之外的象限代表的是在每家医院,根据另外一家医院的田野笔记中所收集的那些脚本所发生的脚本的频次。
图2左上角的频次模式证实了这一主张,即郊区医院经历了结构化的两个阶段,而且每个阶段的互动秩序都有质的不同。在结构化的第一个阶段,郊区没有出现“暗中教导”(CT)、“角色颠倒”(RR)、“责难技师”(BT)之类的例子。然而,当没有经验的专家开始在CT扫描室值班以后,这些脚本变得频繁起来了,而在第一个阶段常见的脚本的例子开始减少。事实上,在第二个阶段所观察到的那些“不经意的确认”(UV)、“预设答案的提问”(AQ)、“偏好声明”(PS)的少量例子也只是发生在刚刚开始转变的最开始几天,也就是当有经验的专家被叫去CT室帮助没经验的专家时。
市区医院的互动秩序在第四阶段的转变在图2右下角的象限中得到了证实,这一象限展示了市区医院四个结构化阶段中脚本发生的频次。在市区医院结构化前三个阶段的田野笔记中,没有“技术咨询”(TC)和“共同执行”(ME)的例子记录。相反,大多数专家和技师之间的对话呈现的是“下达指导”(DG)和寻求指导”(DS)的模式,以及“收回成命”(CM)、“僭越控制权”(UC)或者“始料不及的批评”(UCrit)、“非难性质疑”(AcQ)的例子。但是,随着没有经验的专家的到来,这些早期脚本的例子开始急速减少,而“技术咨询”(TC)和“共同执行”(ME)开始变得和其他形式的互动一样常见。

两家医院的扫描仪都打乱了用来巩固传统劳动分工的专业性分布。同时,两者也都触发了角色关系的转化,导致CT技师比典型的X光领域的技师拥有更多的决断力。但是,两家医院的互动秩序也存在一定差异。正如图2主对角线之外的象限所示,在郊区医院占主导性的脚本在市区医院是不常见的,而那些在市区医院常见的脚本在郊区医院也比较少见。“偏好声明”是唯一个出自郊区医院又在市区医院频繁出现的脚本。事实上,“偏好声明”在市区医院第一个结构化阶段的田野笔记中比在郊区医院初始阶段的笔记中出现得更多。为了理解为什么“偏好声明”仍在郊区医院更突出(figural),除了需要考虑两个脚本(指“偏好声明”和“下达指导”)在每家医院出现的相对频次之外,还必须考虑这两个脚本之间互动特征的差异。虽然两个脚本都是专家在下命令,但是只有在强调其偏好的时候,专家才需要对其命令做出合理化解释。因此“偏好声明”暗含了技师要求给出行动理由,而“下达指导”则仅仅设定技师应该按照指导行事。正如从图2的数据中可以计算出来的那样,在郊区医院的第一个结构化阶段,“偏好声明”和“下达指导”的比例是1:1.7,而这一比例在市区医院的初始阶段是1:4.7。因此,仅仅从频次来看,在市区医院,“下达指导”使得“偏好声明”相形见绌,从而极端强化了技师关于专家专业主导地位的认知。由于这两个脚本在郊区医院更趋平衡,“下达指导”中包含的对专业主导的大胆推进被“偏好声明”强调包含的协调意味缓冲。
根据图2所示,“技术咨询”和“共同执行”同样是更大范围模式的例外。这两种脚本在郊区医院没经验的专家开始在CT室值班以后的发生频次和在市区医院相应的结构化阶段中的发生频次几乎差不多。然而,在郊区医院,这两种脚本是散布在“暗中教导”“角色颠倒”以及“责难技师”的众多例子之中的。后面这几种脚本在郊区医院的人事关系中更为显著,而在市区医院几乎没有出现。因此,这两个研究点看来是沿着不同的互动秩序在发展,尽管这两个CT领域的脚本并没有形成相互排斥的状态。
然而,从结构化连续模型的观点来看,同样的技术只有在它们激发了互动秩序并以一种内在一致的方式变动时,才能导致不同的组织结构。一种新组织结构的催生,光靠不同脚本组成两种互动秩序是不够的。每一种互动秩字中的脚本都必须一贯地体现出区分两个系统的弧形特征。如果结构被看作是脚本的语法的话,那么当且仅当每个科室的脚本记录是不同的、内在连贯的行动蓝图时,才可以说这两家医院的扫描仪触发了不同的组织结构。
专家和技师之间制度性的互动模式可由具有合法性的放射专家的主导地位来事先确认。作为一种正式的互动模式特征,专业技术主导地位是通过信息流的方向来体现的。正如布劳(Blau,1964)以及埃默森( Emerson,1972)所述,至少在一次交往的期限内,拥有和发送信息的一方获得了相对于信息接收方的权力。在沟通交流(communicative exchange)这一定义基础上,“集中化”是主导地位在组织结构特征上的表征。在集中化的组织中,不仅决策是由处于科层等级上端的行动者制定的,而且从定义上可以看出,信息和决策也是随着科层地位自上而下流动的。
就信息流动的方向而言,组成两种互动秩序的脚本连贯且一致地展示了相当不同的正式模式。郊区医院的脚本显示了从以相互交流为特征的互动秩序向技师变成大部分信息的发送者而专家成为接收者的互动秩序发展的结构化过程。相反,市区医院的结构化是从专家拥有且发送信息的互动秩序向一个更加平衡的以共享信息为特征的互动秩序的演变。所以,从既有的脚本来看,扫描仪在郊区医院触发了更加去中心化的结构,而郊区医院的互动秩序也因此比市区医院的互动秩序更明显地偏离传统秩序。
关于郊区医院更加去中心化的独立证据可通过衡量专家独立做出决策的比例得到。图3将这些指标做成针对郊区医院和市区医院扫描操作日期的函数,进而形成散点图。图中用竖线隔开的区间指示了每一个研究点所假定的结构化阶段。这个图显示了郊区医院专家做决策的比例总体来说比市区医院低得多。在郊区医院的49次扫描中,专家做决策的比例不到一半的占了78%;而在市区医院的42次扫描中,相应比例为26%。

而且,散点图也显示出每个科室都朝着更加去中心化的结构发展,其速度则如两地结构化分析中所明示的那样。尽管在每个CT科室,专家都做了大量的常规决策,但是在郊区医院,他们的介入看起来呈几何速度下降。而另一方面,市区医院专家的介入似乎是以直线的形式逐渐下降的。对专家决策的比例先以扫描操作的日期做一个线性回归,然后加入自变量的平方做一个二次模型(quadratic model)的回归,就能检验我们直观看到的这种差异在统计意义上是否显著。如果结构化进程确如散点图所示,那么用二次模型来预测郊区医院的数据就比用线性模型要好,而对于市区医院来说不需要对线性回归模型做改进。表1的回归分析正好为我们显示了这样一个结果:在线性模型的基础上增加二次项只对郊区医院的数据明显增加了方差的解释比例。

散点图还显示出我们为每一个科室所界定的结构化阶段的适切性。郊区医院的散点图表明,在郊区医院第二个阶段开始之后立即就出现了变异偏离的点。因此散点图似乎证实了郊区医院在没有经验的专家开始在CT室值班以后立即出现了技师的决断力迅速上升的情况。市区医院的数据也随着结构化阶段的顺序而变化。请注意,市区医院专家对常规决策的介入在有经验的专家暂时离开控制室的第二个结构化阶段下降并不多;而且,他们的介入在其放弃克制策略的第三个阶段又开始上升;最后,随着第四个阶段没有经验的专家的到来,市区医院专家介入决策的比例又开始下降。
为了确定集中化分数是否支持每个研究点所假定的阶段定位,我们对每个研究点的专家决策的比例先用一系列虚拟变量做回归,这些虚拟变量将每个扫描日期归入决策所发生的阶段中并编码。郊区医院被认为经历了两个阶段而市区医院经历了四个阶段,郊区医院的数据是对其第一个结构化阶段的一个虚拟变量做回归,而市区医院的数据是对其前三个阶段的三个虚拟变量做回归。然后,再利用每个研究点的数据将上述四个虚拟变量结合在一起进行回归分析。如果每个研究点的阶段划分是适切的,则结合模型对于专家介入的预测应该几乎等同于用于描述每个点自身结构化阶段的建构模型。表2给出了相应的回归分析,展现了这样一种结果:结合模型并不比任何一家医院自己的模型更能实质性地增加方差解释的比例。因此,研究数据与我们之前的主张是一致的,即郊区医院经历了两个结构化阶段,而市区医院经历了四个结构化阶段。


结论
如果不考虑其他因素,那么之前的这些分析证明了通过把技术视为结构化的诱因,研究者会因为结构化的主要悖论而马上面临自相矛盾的结果,即同样的技术会触发类似的变迁动力,但却导致了不同的结构化结果。尽管两个结构化过程都与交互连接的连续模型是一致的,尽管每一个科室的角色关系都是朝着同一个方向发展的,但是其中一个科室变得更加去中心化,因为决定这两种互动秩序的脚本的正式特征出现了分化。有理由怀疑那些追求大样本规模而忽视嵌入性、情境性的传统交互影响研究,它们在给出扫描仪对于放射科组织结构没有影响这样的结论时是有风险的,因为正式结构的差异可能在相关分析中使得两者相互抵消。然而,将技术视为结构化的诱因不会否定之前关于技术与组织关系的有价值的研究工作,相反,它是对这些工作的改进和深化。
《第二次工业分界》(The Second Industrial Divide:Possibilities for Prosperity)曾对西方社会在生产技术方面所发生的重大变迁过程(例如从手工业生产方式转向大批量生产方式)进行了分析。该书试图表明:技术的变迁并非像人们通常所认为的那样完全受某种必然的规律所支配,其过程充满了偶然性;所谓的历史变迁的“必然性”,实际上只是一种“偶然的必然性”。

举例来说,一个唯物主义者可能会认为是CT扫描仪的物理特征通过嫁接到放射工作的组织方式触发了结构变迁。与之相关,在有关技术和结构的文献中技术复杂性(technical complexity)与结构变迁的相关性通常都是这样来考虑的。唯物主义者倾向于强调扫描仪的技术复杂性以及诊断图示的复杂性,并据此认为,因为扫描仪将新的不确定性引入大家所充分理解的世界中,所以角色结构开始松动。我们目前的研究取向也同意这种观点。扫描仪的技术复杂性以及专家对诊断图示的不熟悉,在两家医院都对没有经验的专家的权威产生了威胁,而且迫使他们对技术产生更大的依赖性。然而,从结构化理论的视角来看,复杂性和不确定性是机器与社会系统相结合之后的产物,并非机器本身的特质。也就是说,扫描仪触发了变迁动力是因为它们成了其意义由使用情境所定义的社会性对象(social objects)。由于郊区医院雇佣了有经验的技师,而且没经验的专家在早期就开始负责CT扫描,所以郊区医院的扫描仪引起了更大的不确定性,而且对专业主导地位也提出了更大的挑战。而在市区医院,由于放射科室为扫描仪配置的是新手技师,且其对具备专业知识的专家有更大的依赖性,所以扫描仪对原有结构的威胁不大。
这些差异显然影响到了专业知识的相对分布,进而制约了结构化过程。不过这种制约只能部分解释市区医院更显著的集中化过程。如果每个研究点的行动者以不同的方式对其角色关系进行协商,比如说,郊区医院的专家采用市区医院的新手那种姿态的话,那么即使是在同样专业知识分布的情况下,结构化的演进也会不同。换一种说法,如果市区医院的专家意识到他们的行为的自我封闭性,那么他们所助长的互动秩序也可能会有所改变。更进一步,如果所有专家都在上任之前学习过CT扫描的相关知识和技能,那么扫描仪可能会触发其他互动秩序以及相应的其他正式结构。简而言之,结构化理论认为当同一技术被应用时,其不确定性和复杂性是随着情境的不同而变化的社会构造(social constructions)。尽管这种现象学观点在佩罗(Perrow,1967)关于技术与组织的经典论文中得到强调,但其多样化结果的含义却从来没有被充分认识。
诸如在蔡尔德(Child,1972)的研究中所发现的那种关于技术结果的唯意志理论可能会认为,本研究的资料表明的是,由于结构化是随着专家所做的人事决策展开的,所以决策制定者实际上决定了技术的含义。人事决策确实意味着结构化每一个阶段的开始,而且也确实影响了每个研究点结构化变迁动力的形成。但是若是因此就认为专家的决策是有意要达到某种结果的,这是有问题的。虽然专家是以某种顺序进行人事聘用以及人事安排的,但是研究资料并没有显示他们有意影响组织集中化的程度。郊区医院的专家聘用了有经验的技师以减少在病人面前的不称职以及玩忽职守事件的发生概率。甚至还有例子显示某些人事决策造成了与意图相反的结构化过程。举例来说,市区医院的专家在结构化的第二个阶段撤出控制室是为了消除技师对他们的依赖性,而不是鼓励其依赖性。因此,从结构化理论的视角来看,决策制定者虽然可能事实上影响了互动秩序的演变,但其决策的结构性结果却可能背离预期结果,难以被准确预测。

因此,结构化理论有别于之前关于技术的研究取向,这一理论假定技术是一种具有触发动力机制的社会性对象,而其推动力所导致的无意识的、非预期的结果可能并不符合情境逻辑。技术确实以一种规律性方式影响了组织结构,但其影响有赖于技术内嵌于其中的特殊历史过程。若要预测某种技术对于某一组织结构的影响结果,需要一套关于技术变迁动力的方法论和概念体系,这一体系接纳了植根于情境的、因人而异的理论建构。举例来说,若要构建一套关于技术如何改变放射工作的理论,我们不仅需要解释相关的专业知识分布,而且需要发展出一套有关脚本的分类系统,以解释专业知识分布如何能够以不同的方式渗透到日常互动中去。结构化理论遵循一种温和决定主义(soft determinism)的理论形式,通过观察时间流来考察特定的社会过程如何引发了多样性,进而从中发现某些普遍的规律性。这样一种独特的研究取向是站得住脚的,因为结构被视为由永不停息的互动所书写的社会历史的精华。没有人会诧异家庭受到历史和仪式化传统模式的制约,这些模式关涉一些不经意的创造者,并以一种系统化的方式延续下去。为什么更大的集体结构就应该不一样呢?



原文链接:https://mp.weixin.qq.com/s/b14hOds-ub26Jy6pkRUdIw


编辑:董莉

103#
 楼主| 发表于 2019-7-25 22:32:43 | 只看该作者
【案例】
如何确保AI安全可控?世界人工智能大会将发布全球十大案例

澎湃新闻近日从上海市人工智能产业安全专家咨询委员会(下简称“安全专委会”)获悉, 8月29日至31日在上海举办的2019世界人工智能大会将发布全球人工智能产业安全创新实践十大案例。

随着全球人工智能产业的发展,确保人工智能安全、可靠、可控发展已经成为全球各国共识。

安全专委会于今年7月2日在上海市政府正式成立,由中国科学院何积丰院士担任主任,中国工程院倪光南院士、东华大学蒋昌俊校长为副主任,成员还包括来自全国知名企业、高校的十位顶级人工智能专家、企业领导。

安全专委会联合国内外知名机构和专家,以“安全赋能、智创未来”为主题,发起2019世界人工智能产业安全创新实践案例征集活动,重点面向全球企业征集人工智能产业安全领域的标准规范、研发成果、产品/服务、解决方案等实践案例,在8月15日之前评选出全球十大人工智能产业安全实践案例,并最终在2019世界人工智能大会平台上向全球发布。

据介绍,企业申报应紧扣安全主题,既包括人工智能技术应用中安全风险的解决应对,也包括利用人工智能技术解决各类安全问题,申报案例须确保真实性,并具有创新性和可推广性。案例的实施时间或者完成的时间应在2018年1月以后,申报的最终截止日期为8月5日。




原文链接:https://m.thepaper.cn/newsDetail_forward_3984935?from=timeline&isappinstalled=0



编辑:董莉

104#
 楼主| 发表于 2019-7-25 22:43:34 | 只看该作者
【案例】
AI学会“搞”研究、写论文,科研民工惨遭淘汰?

[backcolor=rgba(251, 251, 251, 0.380392)]不久前,一则“AI都会看论文了,科研人员会被淘汰吗?”的消息在网上热传,让不少科研工作者心头一紧。

不过,AI 可不只会看文献,“搞”科研也很出色。

7月22日,《自然》网站刊发的一项研究称,利用最新AI技术,只需几毫秒便能预测出蛋白质结构。

随着AI在科研领域的应用如火如荼,它将成为研究人员的“天使”还是“恶魔”? 科研工作者会被淘汰吗?

AI学会看文献、“搞”科研、写论文

7月3日,《自然》杂志刊发了美国能源部劳伦斯伯克利国家实验室研究人员的一篇论文。

文章称,AI在无人值守的情况下,阅读了300万篇材料学领域的文献摘要,然后对潜在的新型热点材料进行了预测。


于是,有人提出,AI都会看文献搞科研了,生化环材领域小将的生存空间是不是又被挤压了?
7月22日,《自然》网站发文称,哈佛医学院生物学家Mohammed AlQuraishi开发了一个被称为循环几何网络的深度学习模型,用于研究蛋白质折叠的关键特征。

训练这个模型可能需要几个月,但一旦训练完毕,它几乎可以立即将蛋白质序列转换成结构,预测速度比现有的计算方法快6~7个数量级。


在量子领域,科学家还利用AI设计量子试验。据称,AI每设计出一套方案,然后由人来决定是否用实验实现,具体实现过程则由学生来做。

如此看来,学生似乎已沦为AI的工具。


AI甚至可以直接生成论文。

最近,华盛顿大学等机构的研究人员开发出 PaperRobot。它能提供从产生点子、写摘要、写结论到写“未来研究”的一站式服务,甚至还能写出下一篇论文的题目。


科研人员何去何从?

随着AI在科研领域的渗透越来越深,它将带来何种机遇和冲击?科研人员又该如何为己所用?


问:AI的发展是否会给科研人员带来冲击?

● 尧德中(电子科技大学、四川省脑科学与类脑智能研究院教授):
科研大致可以分为两个大类:一类是基于数据的科学,是在大量数据基础之上做一些归纳总结推理。另一类是基于假设的科学。比如说广义相对论,需要先提出设想,然后再去做实验验证。
在前者,AI可能会做出一些成绩。在数据分析归纳整理这些方面,可能AI会在一定程度上取代一部分原来人工的工作,尤其是那些带有一定重复性的工作,这对科学家来说是一种“精力”的解放。
在基于假设的科学领域,我觉得AI的影响会比较小。原则上AI不太会提出假设,在这个方面我觉得很久以后也仍然是依靠人类想象主导的。
● 张华良(中科院沈阳自动化所副研究员):
AI在科研领域实施的大部分都是辅助性工作,取代性的并不多。就像原来IBM公司开发出一款沃森机器人,可以瞬间查找诸多案例,取代了很多科研助手的工作。不过如今科研还是偏向于定制化,加之沃森在研究领域并无出色的表现,最终遭到搁置。
不过,任何事都不能一概而论,人工智能的发展告诫我们,科研人员也要强化学习,不能靠一招鲜吃遍天,因为说不准什么时候就被AI代替了。
● 刘铁军(电子科技大学生命科学与技术学院教授):
AI在归纳、综合两个能力方面有独特的优势,但就目前来看,在分析和演绎两种能力上与人相比差距还是比较巨大的,还不能取代科研人员。用更通俗的话讲,AI未来相当长的一段时间内,还将处于“只知其然不知其所以然”的状态。
但从发展的眼光看,AI恰恰利用电脑计算速度快、存储能力强的优势,这是人脑无法比拟的。所以AI以后会在科研领域有一席之地,但仅此而已。


问:随着AI在科研领域的渗透,会带来哪些弊端?

● 尧德中:

AI在大数据中找的是相关关系,只是建立了一个输入输出数值关系,不能够告知因果关系、机制方面的道理。

如果研究工作过分依赖AI,可能会导致科学研究流于表面化、形式化、不求甚解。因为,AI很难外推,一个AI软件往往仅对特定领域和问题建立算法,无法衍生到其他问题上。
总之,AI只是一些孤立的“专家”系统,而人是多能的,有很多领域,尤其交叉领域,需要这种多能的系统去解决。
● 张华良:

可能导致科研人员对AI过度依赖,从而引发使用风险。就像智能汽车驾驶,科研人员对其训练多使用AI框架。但是完全依赖它时会忽视一些副作用,可能机器在某些环境出现故障,导致驾驶风险。
● 刘铁军:
AI就是一个工具,如果用好了就没有太大的弊端,如果用不好就处处都是弊端。我认为从大的层面来说,无论哪种智能都存在着伦理的问题。

我们人脑智能的发展,也一直是和伦理相伴而行的。所以现在的AI在科研领域的渗透,可能会存在伦理的问题。在这个方面要加强伦理建设,确保不会出现有悖人伦的事件出现。
在具体的科研工作上,AI最近这几年确实比较热,也出现了一些乱用AI的现象,觉得AI无所不能,不用或者不提AI就不“高大上”。

总之,AI就是一个工具,一定要在需要这个工具的场合下使用这个工具。


问:如何让AI更好为科研所用?

● 尧德中:
可以让科研人员,不管是否从事AI领域,都加深对AI的理解,比如进行相关培训等。

因为只有充分了解AI,了解它的优势和弊端才能在未来的工作中更好地使用和判断它在具体场合的价值,就像今天我们与计算机的关系一样,不能事事都靠计算机,但不会用计算机大概是不行的。
● 张华良:
科学家赋予AI某种能力,让它成为一种工具,从而更多地帮助科研人员处理重复性、有规律的事情,使科研人员能够有更多的时间去思考、去做更富有创造性的,更高层次的事情。
● 刘铁军:
我觉得我们只要分析出生物脑与硅基脑(或者说人脑和电脑)优势与劣势就能回答这个问题。

硅基脑在精准计算、运算速度、存储能力等方面具有绝对的优势,是生物脑无法比拟的。但是生物脑在模糊计算、模糊控制、目标识别、演绎推理等方面也有不可替代的优势。

目前我国科技部也正在组织科研人员,推进双脑(生物脑、硅基脑)融合的研究,试图通过该研究能够融合双脑的各自优势,开发更高效的智能系统。我的结论是,双脑并不矛盾,双脑融合是未来的发展趋势。
AI给你的科研带来影响了吗?你感受到的是便利还是压力?欢迎探讨。

[color=rgba(0, 0, 0, 0.498039)]相关论文信息:
[color=rgba(0, 0, 0, 0.498039)]https://www.pnas.org/content/115/6/1221?utm_source=wechat_session&utm_medium=social&utm_oi=1131939018975408128
[color=rgba(0, 0, 0, 0.498039)]https://www.nature.com/articles/d41586-019-01357-6
[color=rgba(0, 0, 0, 0.498039)]https://arxiv.org/pdf/1905.07870.pdf
[color=rgba(0, 0, 0, 0.498039)]https://doi.org/10.1038/s41586-019-1335-8
[color=rgba(0, 0, 0, 0.498039)]
[color=rgba(0, 0, 0, 0.498039)]
原文链接:https://mp.weixin.qq.com/s/0_uBpbrotufZo8vlgO6Gvg


编辑:董莉

105#
 楼主| 发表于 2019-7-25 22:52:13 | 只看该作者
【案例】
刘悦笛 | 人工智能、情感机器与“情智悖论”

人工智能、情感机器与“情智悖论”
刘悦笛 | 辽宁大学特聘教授、中国社会科学院哲学所研究员
本文原载《探索与争鸣》2019年第6期
点击文末“阅读原文”可下载全文
非经注明,文中图片来自网络


机器与人工智能,可否拥有情感?我们似乎并不能提出这个“应然”的问题,因为科技往往超出人类的想象,而是要从“实然”出发,去探寻目前的机器与人工智能是否达到了拥有情感的程度。如果没达到的话,那就只是猜度和展望而已;如果达到了,那么机器和人工智能是否就拥有了人类意义上的情感?或者说,机器和人工智能拥有了不同于人类情感的“机器情感”或“人工智能情感”吗?如果这种自主的情感成立,那将会是一种什么样的情感?照此走下去,情感也就扩大了疆域,突破了为人类所专属的“特权”,因为所谓的“情感机器”(the emotion machine)开始出场了并参与到人类社会结构当中。

当今机器人可以做出惊奇、愉悦、悲伤、恐惧、恶心和好奇等面部表情,以表达人类的基本情感。然而,我们很容易由此否定机器人有“情”,因为这种对人类面部的低级模拟,只是模拟人类面部情绪变化而已,却并不是真正人类意义上的表达情感。有计算机专家在六种基本表情基础上,继续衍生并进行排列组合,通过设置(从关闭到开放的)“姿态度”、(从低级到高级的)“激发度”和(从消极到积极的)“效价度”三个坐标,将人类的高兴、不高兴、生气、恐惧、疲惫、警觉、惊奇、接受、悲伤、欢乐、严肃等多维情感分布在三维空间之内,以标识特定情感类别映射到该空间的示例,从而生成机器人的各种面部表情。然而,目前的科技水平对情感的“表现”,只能做到如此这般“拟情”的水准上。当然未来科技还在穷尽各种可能性,但本文恰恰要探讨这种可能性。

人类“拥有”情感,机器“模拟”情感?

什么叫作“拥有情感”(having emotions)?英国心灵哲学家理查德·沃尔海姆(Richard Wollheim)将这个问题首先还原为“我们拥有一种欲望(desire)”,因为信念和欲望较之作为心灵现象(mental phenomenon)的情感更为本源。欲望的角色提供给对象以创造物,或者给予事物以目标,如果说,信念图绘世界(belief maps the world),那么欲望则以世界为目标(desire targets the world)。照此而论,似乎机器也是可能拥有情感的,因为,它们既可能被设置为拥有图绘世界的信念,也可以被设定为具有应对目标的欲望,情感的这两个前提性条件其实并不或缺。人工智能和机器人由此可以“需要情感”(need emotions),或者说,被人类赋予了这种情感需求。但是,人工智能与机器“本能”地拥有情感抑或具有“拥有情感”之本能吗?

毋庸置疑,对人类而言,拥有情感,乃是一种自然本能。哪怕再杀人如麻、冷酷无情的刽子手也有感情(除非大脑损伤使人丧失部分情感能力),因为情感是进化而来的生理机制。与此同时,文化赋予情感以更高级的社会属性,这已经为英法主导的“社会人类学”与美国主导的“文化人类学”反复证明,在此恕不赘言。当然,生物进化与社会发育就人类而言并不是割裂的而是共生的,“人类在生物性上就能够改变他们社会生活的方式,凭借进化的赐予,他们能社会性地发育下去。”目前,说机器人拥有情感,绝不可能去言说的是被人类文化濡化的那种高级情感,而只可能言说是被进化而来的生物情感,也就是与高级灵长目接近的那种低级情绪。如今前沿科技工作者所能做的,就是找到机器人、人工智能与人类“基本情感”之间的同构性,然后让前者对后者进行模拟,其前提便是人与机器、人工智能之间在情感逻辑上具有“异质同构”性。

所谓情感“模拟”,就是使得“机器情感得以模型化”,然后与人类的情感模式进行比对和应对,最终实现机器人和人工智能对于人类情感的仿造乃至替代。在近几年的科研前沿领域当中,一方面,人类大脑的研究的进展,继续为我们对机器人的分析提供信息;另一方面可以明确的是,“机器人计算策略所需的精度将丰富研究动物和人类动机和情感的词汇”。质疑在于,情感乃是可以计算与推演出来的吗?如果可以,那么情感的词汇表就可以化作系统化的公式呈现;如果不可以,那么生物体才能拥有的感知、直觉和情感就无法被数学化与逻辑化,或者退一步说,即便前者被后者部分模拟成功,但却根本无法被后者所完形以至穷尽。

的确,人类情感才具有其“神经生物学的根基”(neurobiological roots),即使机器尚不能有此根基,当今科技所致力于的工作却是将所谓的“神经调节”(neuromodulation)应用于机器与人工智能,从而寻求情感与认知之间的互动,而这方面的科学进展又会为下一步的集成工作奠定基础。这样做的理论依据就是:“情感改变了认知和行为选择的操作特征……其基本假设乃为,对任务优先级的分级评估可以帮助机器人应对(外部或内部)环境的复杂性和不可靠性——由此映射出哺乳动物大脑中丰富的认知与情感之间的交互作用”。

科技乐观主义者们更倾向于认定机器不仅可以“模拟情感”,而且能够“拥有情感”。但人工智能与机器究竟在何种意义上拥有情感呢?诸如迈克尔·阿尔比布(Michael A. Arbib)这样的激进者赞同“机器人情感”(robot emotions)及其模式的存在,至少在“动机系统”(motivational systems)上存在是没问题的。如此这般做乃基于他对情感的理解也与众不同:一般而言,人类情感乃是可以被感受(feel)到的,然而,阿尔比布却认定,“没有感受的情感”(emotion without feeling)也是存在的,机器人的情感就是这种“无感受”却可以被计算“编辑”的人工情感。

机器人情感究竟是根据何种原则被设定出来的,其实是由英国神经学家休林斯·杰克孙(Hughlings Jackson)的进化思想转化出来的:其一,“这个过程从一个或多个基本系统开始,从特定类型的感官输入中提取有用的信息”;其二,“这些基本系统可提供数据,为更高层次系统的进化提供基础,以提取感官输入的新特性”;其三,“高级系统通过回路丰富基本系统的信息环境”;其四,“然后可以调整基本系统,利用新的信息源”。由此出发,科学家们就考虑到具有一组基本功能的某个机器人,它的每个功能都具有适当的感知模式,并且可以接入各种电机模式。每个感知模式评估当前状态,以提出激活各种电机模式的“紧急级别”,并确定适当的电机参数,由此就可以塑造出进行情感输入与情感输出的各种“模式”。“然后,可以将这些‘模式’归纳为抽象的任务组,将许多策略聚合为少量模式。当遇到问题时,一般来说,首先选择适当的模式,然后从该模式中选择策略就会更加有效”,如此看来,这就是一种把情感模式“化繁为简”的策略化方式。

然而,人类自身却不能“模拟”情感,因为模拟的基础是建基在“科学建模”基础上的。也就是说,机器情感得以存在的前提,就是它是可以被模型化的,由此才能得以复制和复现出来。当然,人类可以“模仿”情感,演员就是善于此道之人,儿童对于情感的习得也是在生理基础之上模仿而来的。一个人类学的佐证就是,同一个表情,在不同种族当中可能代表的却是相反的情绪。由此可以给出短暂结论:人类可“模仿情感”但不可“模拟情感”,尽管如今机器人可以达到模拟情感的程度,在人们看来这也是对人类情感的一种初级模仿,但是其根基机制却是迥然相异的,因为“模仿”乃是出于人类的本能,而模拟则是出于人为的“塑造”。

因此,机器只能“模拟”情感,以此来“仿造”人类的情感,但机器人却无法由内而外地抒发情感,除非其先行就拥有了情感。直到如今,人工智能和机器人还不可能拥有人类意义上的情感,这是根据目前科技发展状况所能得出的暂时性判断。于是,人工智能与机器究竟能够模拟何种情感,抑或人工智能与机器的情感到底是何种情感的问题,也就提上了议事日程。

“外部情感”能交流,“内部情感”可表达?

在人工智能寻求表达情感的所谓“认知建筑”(cognitive architectures)内,科学家们一般将其中的“动机”(motivation)比作“偏向一个策略组而非另一个策略组的倾向”,而把“情感”比作“与更微妙的计算交互的这些倾向的路径”,由此,情感过程就变成一种应对方式,从而对可用策略进行更为谨慎的分析与施行。这样做有两个前提:“motivation ≈ communication”(动机≈交往)和“emotion ≈ language”(情感≈语言)。“动机”约等于“交往”,这关系到情感在外部的相互交流;“情感”约等于“语言”,这关系到情感在内部被语言化。这就直接关系到所谓“外部情感”与“内部情感”之分殊,尽管这一对约等公式将问题过于简化了。那么,情感究竟如何分为外与内?

实际上,情感的内外这种分殊很简单,恰恰是人工智能与机器的情感研究所形成的两种“情感观”:第一,“为了沟通和社会协调的情感表达”(emotional expression for communication and social coordination);第二,“为了行为组织的情感”(emotion for the organization of behavior),前者具有外在的人际交往功能,后者则具有内在的组织行为功能。按照人工智能研究者的主流意见,“外部情感”可以模拟,或者说,目前可以被模拟的主要是外部情感。至于“内部情感”,乐观主义者更倾向于判定也是可以模拟出来的,但是怀疑论者却认定这基本不可能,人工智能和机器岂能拥有人类所独有的“内部情感”?如果有了如此这般“内部情感”,那么,人工智能与机器人也就“拥有情感”了,从而可以走出“模拟情感”的人为限定。

当今被设计出的情感机器人,一方面,表达出某些人化的情感;另一方面,认知我们人类的某些情感化表达,这都是没有问题的,因为外部情感就是为了人类沟通而存在的,就像人类语言也是为了沟通一样。情感表达是为了情感交流。从进化论的角度看,“使得人类与猿区分开来的最严格的变革特征之一在于这样一个事实,在猿类社会和猿的交往通过遗传决定的形式仍然支配着通过习得的地方性变化;而在人类社会中,后者对于前者无可争议地取得了压倒性优势。人类社会与人类语言可以变化到一个猿类的社会和交流无法企及的程度。后者的结构很大程度上仍然是由遗传固定下来的,换句话说,是物种所特有的。”人类语言被认定为具有遗传性,乃是由人类交往所需而发生的,但是更被认为具有遗传特质的情感,与语言一道,却都是可以被模拟出来的。差异在于,如今的人工智能与机器人逐渐在掌握人类的表意语言,语言是具有一套内在“语言规则”的,但是在情感方面,人工智能与机器人究竟能掌握多少呢?

情感表达之“表达”(expression),一般翻译为“表现”,ex-的前缀加上press的本意,就是将内心的东西挤压出来,表现一定是由内而外的,但先得有情才能表达出来。“关于情感的许多生物学讨论已经将‘情感行为’(emotional behavior)和‘情感感受’(emotional feelings)区分开来。然而,‘情感表达’(emotional expression”)增加了另一个维度,哺乳动物(尤其是灵长类动物)的面部表情被理解为是动物情感状态的信号,但不同于情感行为本身(例如,恐惧表达不同于逃跑或冷冻等恐惧行为)”。这意味着,在情感行为、感受与表达这三个情感维度当中,情感行为与情感感受有着外内之别(感受到的未必就会化作行动),情感表达与情感感受也有着分别,情感表达是“自内而外”的,而情感感受则是“自外而内”的。

按照罗莎琳德·皮卡德(Rosalind W. Picard)的意见,人类情感四个要素——“情感的外观”“多层级的情感生成”“情感的体验”和“身心交互作用”——可能成为机器的有机组成部分从而协助机器更适宜地适应人类。如果按照情感之内外分殊,“情感的外观”属于典型的“外部情感”,因为从机器的面部表情、声音一直到肢体语言,如今的机器人可以笨拙但成功地模拟人类的情感外观。“多层级的情感生成”乃是介于内外之间的情感,机器也可以模拟出人类情感面对刺激的不同层级反应,从而达到内外一致。然而,从“情感的体验”到“身心交互作用”,显然应该都属于内在情感。机器可以对自身的情感进行认知,但问题是,这种认知是否就是属人的一种“情感的体验”(emotional experience)?机器可以实现智能与肢体之间的互动,但问题是这种互动是否就是人类意义上的“身心互动”(mind-body interaction)?

质言之,无论情感之内外如何分殊,无论是情感从内到外还是从外到内,问题的关键在于,情感对于人工智能和机器人而言是否具有“功能性”。从外部功能来看,机器人愈加能将人类的表情现实地模拟出来,这种出于交往目的的情感传达,在人机之间变得越来越能沟通。从内部情感来看,机器人由于缺乏情感的内在性,那就无法像人类一般,将内在的情感得以外化。如果机器人情感内在化了,那么,它(也许就是他/她)们也就有了内心的愤懑与喜悦,需要抒发出来,以得到心理的疏导与身体的释放。但问题在于,人工智能与机器人有这种内在之情吗?在中文的意义上,我们的言说可以更为准确,如今的人工智能与机器人所模拟的更多是人类的“情绪”而非“情感”。情绪与情感英文都可以是(也一般都是)emotion,情绪乃是为高级生物体与智能机器人所能拥有的,但作为一种感受(feeling)的情感——“情感化的感受外在指向了某一对象(典型化地指向了情感的对象),这就是一种感受以一种特定的方式或者具有特定的特质与特征而指向了某物”——却是不属于人工智能与机器的,因为机器并无作为生物体的那种主动之“感”与被动之“受”。

对于情绪研究,特别是可以被人类加以“表情化”的情绪加以研究,获得更多成就的乃是著名心理学家保罗·艾克曼(Paul Ekman),尽管他的思想来源主要是达尔文。达尔文将生物的外在表情与内在情绪勾连起来,认定作为自然选择的产物之情绪大都是带有目的性的。艾克曼基本继承了这种进化论思路,把达尔文的表情学研究继续推到了当代神经学的高度,从心灵的同源理论(cognate theories)的角度进行了新的科学论证,特别开发了面部动作编码系统来解析面部表情。如今的人工智能与机器人前沿,恰恰在寻求这种面部动作编码,并试图将之逐步系统化,当然也超出了进化论的基本思路,因为机器人绝不可能是进化的产物,而恰恰是人类化的一种模拟性的“发明”。

实际上,人类表情被艾克曼看作是所谓“情绪信号”,“情绪信号与情绪同时出现。举例来说,感到沮丧时,声音自然就会变得低沉而无力,同时眉毛也会皱起来。如果一种情绪是慢慢地在几秒钟之内形成的,那么信号可能就会更明显,或者很快出现一连串信号。这些信号清晰地表明了情绪何时开始,同时也能在一定程度上说明它们何时会结束。情绪一旦出现,就必定表露在声音上,但是面部表情的变化就很难说了”,但即使面无表情本身也是一种情绪信号,是目前没有能力或者不想处理眼前问题的表现而已。2003年保罗·艾克曼自己出版了《情绪的解析》一书,不仅关注到了情绪的跨文化表现问题,而且对于情绪理论进行了较为全面的解析与归纳。尽管艾克曼采撷了智利、阿根廷、巴西、日本和美国的人群表情作为样本,但是他的科学结论仍与达尔文基本保持一致,亦即人类的表情是共通的,而愤怒、恐惧、厌恶、高兴、悲伤和惊讶则是跨文化的六类基本情绪,当然基本情绪的说法各有不同。

既然人类之间的表情是共通的,那么,如今的人工智能和机器人与人类的情绪信号或表情编码之间,可否能找到共同规律呢?如今看来,外在的情绪模拟不仅可行而且早就变成了现实,但是,内在的情感模拟,在多大意义上才能变得可能呢?如果“内在交往”是可能的话,那么,人与机器和人工智能之间的情感交流,也就无需任何“外在交往”的途径(诸如诉诸表情与言语交流),直接实现人机之间的内部信息传输不就足够了吗?但现实是,情感也许可以“心有灵犀一点通”,但是却不可能彻底化作信息符码进行传输与交流,否则,情感就失去了作为情感之“感”的规定。这早为中国人所明确意识到,即郭店竹简《性自命出》所说的“凡声,其出于情也信,然后其入拨人之心也厚”,发出的表情之“声”,出于内在之情才是可信的,然后才能被接受者之心“心悦诚服”地接受。


人情不离身体,机器有无“行为神经学”?

我们追问未来:是否会有那么一天,机器人与人的身心在功能上完全等同,人工智能的理性与感性的两方面,皆与人类基本画上了等号呢?这就要一方面看机器人能否拥有“身体”;另一方面,再去观察人工智能是否能拓展到人类广阔的“感性”领域。前者比较好判定,但是人工智能专家往往把机器的肢体视为“机器身体”;后者则比较难加以判断,因为人类多元智能当中的理性与感性本就是纠缠在一起的。

人类情感,一定有其生理学的根基,一定有其心理学的基础,这毋庸置疑。但从“生理心理学”(physiologic psychology)出发,那就可以质疑,机器人与人工智能机器有其生理根基和心理基础吗?根据目前的发展情况,答案显然是否定的。生理心理学也称为“行为神经学”(behavioral neurology),由此我们就可以追问:机器人具有微观的神经系统细胞的结构和功能吗?人工智能具有宏观的以中枢神经系统为主干的神经系统结构吗?它们具有人类特有的神经元内部的信息传导与神经元之间的信息传递吗?答案更是不证自明,它们没有,但是试图去模拟。然而人类数以亿计的神经元究竟如何模拟得出来呢?即使能够模拟出来,那这样做的代价有多大?价值又何在?如此一来,情感与身体的关联问题,就被引入进来。如所周知,在人类情感研究史中,1884年实用主义心理学家詹姆斯试图发现的就是“心灵的感性领域”,奠定了詹姆斯一派情感理论的基石。丹麦心理学家兰格(C. G. Lange)继续发展了这种情感理论,从而形成了在20世纪早期影响深远的“詹姆斯-兰格情感理论”(James-Lange Theory of Emotions),两位学者在1885年初版的《情感》一书,可谓是立派的核心著作。

詹姆斯及兰格这样的支持者皆认定,情感具有其身体的根基。情感不是单维的,皆为丛元素的组合,而每个元素都因生理作用而起。有机体的变化构成这些元素,而变化则是由刺激对象所引发的反射作用,但这种千变万化的情感并没有专门的脑中枢来管理。这种强调身体变化的情感理论,往往被做出通俗的理解,但它的确“反转”了当时惯俗的理解:人因悲伤而哭泣,因生气而打人,因害怕而发抖。詹姆斯之所以认定,人因哭而悲,那是由于对外物的知觉立刻引起身体变化,当人们在身体变化的同时又体验到身体变化之时,情感体验才会发生。尽管这种理解在20世纪中叶被主流所抛弃,理由在于该派所论的一般生物刺激反应难以与各种情感一一对应,而且,实验证明感情发生比身体产生变化更为迅速,但而今的神经科学又证明其理论有部分还是正确的。詹姆斯在《何为情感?》中如此肯定地说:“我们思考那些标准情感的自然方式,就是引发了被称为情感的心灵感受的事实之心灵知觉,而且这后一种心灵感受状态引发了身体表现。我的主题就是,与身体变化直接追随被刺激事实的知觉相反,它们发生时我们的同样变化才是情感。”关键就在于,人体的生物反应到底是“制造感情”,还是“强化感情”?詹姆斯与兰格倾向于前者,当今神经科学研究更倾向于后者。从20世纪中叶算起,在詹姆斯的情感理论沉寂半个世纪之后,“复兴詹姆斯”在情感研究领域渐成主导思潮,由此形成了关于情感的当代“感受理论”(Feeling Theory),而詹姆斯的说法则被视为古典感受理论。毫无疑问,以感受理论作为核心的“新詹姆斯主义”,在某种程度上都可以被视为对詹姆斯情感理论的当代发展。如果赞同当今的新旧詹姆斯主义的观点,那么,就基本可以肯定,人类情感一定有其身体作为变动的载体,身体与情感形成之间不可须臾分割。这也就意味着,人情不离于身体。然而,如今的情感机器也好,情感化的人工智能也罢,它们得以成立的一个前提,就是情感乃是可以脱离人类身体而存在的,并可以在机器和程序当中被模拟出来。


当今情感理论的主流,一派就是新詹姆斯主义,另一派则是认知主义,后者倒是可以为机器与人工智能情感的成立提供理论基础。因为,他们更倾向于把情感视为一种认知过程,并认定情感与身体是脱离的。如果把情感视为一种所谓“心灵的感受”(psychic feeling),那么,它就不是詹姆斯意义上那种身体的感受,某些认知主义者尽管并不认同詹姆斯及其后学的身体观,却也把其思想源头追溯到詹姆斯,并认为詹姆斯本人其实并没有忽视思想、欲望和价值在情感当中的作用,而是后来人更为关注其身体的一个维度而已。如果说,认知主义者认为情感要依据评价、判断和评价性的信念而得以解释,那么,新詹姆斯主义则认为情感不仅是由身体变化而起的,这就直接追随了詹姆斯的基本思路,而且与“自主神经系统”(autonomic nervous system,简称为ANS)的模式变化是直接相关的,利用了当代神经学的相关实验结果。美国神经科学家与心理学家安东尼奥·达马西奥(Antonio Damasio)发展出感受理论的一种当代版本,其后更多的神经学家开始重新思考“情感神经学”这样的问题。达马西奥通过科学方法,肯定“身体是情感的剧场”,剧场所指的就是内脏、大脑前庭和肌肉骨骼系统所构成的情感之外部环境;反过来,情感运动也影响了各种大脑循环的模式,进而改变了大脑与身体的状态。

在人工智能领域,拒绝身体乃为主流的声音,甚至有一种观点认定机器尽管还不能拥有人类的情感,却有自己的情感“逻辑”。人工智能研究的核心人物马文·明斯基(Marvin Minsky)以一本《情感机器》,来试图为机器具有情感进行全面的辩护,这本新书甚至要给情感机器规划出一幅整体路线图来,其中充满了一种科技乐观主义的情绪。通读全书,我们会发现,这位人工智能之父通篇都把情感说成了一种人类基本的思维的确定之路(a certain way to think),而从未关注到情感所本有的感性化特质。明斯基认为,情感是人类一种特殊思维方式(method of thinking),“意识”“精神活动”“常识”“思维”“智能”“自我”,这是未来机器的六大维度,而情感皆参与到与这六大维度的互动当中。作者甚至坦诚地表达:“尽管本书名为《情感机器》,但我们仍然认为情感状态与人们所认为的‘思考’过程并无大异,相反,情感是人们用以增强智能的思维方式。这就是说,当我们的热情没有高涨到对自己有害的程度时,不同的思维方式就成为被人们称作‘智能’(intelligence或resourcefulness)的重要组成部分,这个过程不仅适用于情感状态,也适用于我们所有的精神活动。……当设计模拟人脑即创建人工智能时,我们需要确保这种机器的多样性。”于是,情感就在其中扮演了重要的角色,机器情感不仅成为可能而且变得必要,情感机器人也就被改造得越来越发达。

然而,情感毕竟比逻辑复杂与多样得多,因此,明斯基就力主一种“云认知思维”来加以应对。他不再去追问情感是什么类型的事物这样的传统问题,而是追问每种情感涉及人类思维的程度到底如何,而且,机器究竟如何来执行这些程度才是关键。这就需要通过一种所谓“云资源理念”(resource-cloud idea)来应对大脑的复杂性。明斯基认为人类大脑可以做如下的还原:“每个大脑包含很多部件,每一种部件负责某种特定的工作。一些部件可识别不同的模式,另外一些部件则监督不同的行为,还有些部件传达目标或计划,或储存大量知识……我们可以把大脑想象成许多不同‘资源’组成的统一体。”按照这种“大脑即机器”的逻辑,情感也就是激发其中一些资源同时抑制了另一些资源而形成的。譬如“愤怒”这种情感:“当你激发了一些能帮你以更快的速度和更大的力度做出反应的知识,而这同时也压制另一些通常会使你行为谨慎的资源时。这将导致攻击性的资源替代通常的谨慎性的资源,把同情转变为了敌意,并使得人们在做计划时更粗心。”同理可证,任何一种情感就得以如此产生,因为情感也不过是一种特定的人类思维方式,只不过较之理性化的思维更为特殊而已,这显然是如今人工智能界对待情感的主流观念。

这里面就存在西方情感理论争议至今的根本问题,在情感过程当中,到底是身体居先,还是认知居先?与新詹姆斯主义的立场不同,如今很多心理学家都维护了一种认知主义,但他们并不是纯然认知派,而是把情感视为一种认知状态(cognitive state)与非认知状态(non-cognitive states)重要的某种结合。然而,与之相悖的非认知论者则倾向于认定,情感并不必包孕认知状态,这就意味着,情感与思想是分离的。支持机器和人工智能拥有情感的人士,更多可以归属于情感认知主义,并力主情感对于人类与机器认知具有相当积极且必然的影响。

按照这种认知主义的观点,所谓“情感意识”(emotional consciousness)必须被理解为一种“计算过程”(computational process)。这显然是认定机器具有情感的最基本预设,亦即情感过程也是可以被计算机化的并可以被模拟出来。当然,其中的“意识”起源于一种被意图所塑造的中介水平的知觉状态,而情感与意识结合而成的情感意识就是一种情感状态的中介水平。一般的身体化的感受理论只聚焦于单向过程:从对象的知觉、身体状态的变化再到身体变化的感受,从而形成人类的情感;但诸如达马西奥这样的心理学家们的创建就在于,认为对象的知觉与身体变化的感受之间形成了回路。相形之下,这种认知主义的起因理论,也是单向过程:从对象的知觉、评估性的判断再到情感状态的形成,这是一个单向的过程,从而忽视了形成反馈后的交互和往复。当今人工智能与机器人不仅试图形成这种内在回路,而且,希望可以“情感地”与人之间形成“人机交互”:首先根据外部信息,机器人进行“情感识别”;然后,通过识别后的信息进入“情感计算评价”系统之内,计算出“情绪状态式”,从而产生出人工化的情感;进而根据当前情况开始决策判断,通过机器设备进行“情感表达”,人们由此就能与机器人之间进行“情感交流”了。

于是乎,当今将人工智能情感化与创造情感机器的人们,正在探索这样一种“情感激发机制”,从而能让自动化机器人在一定人化环境当中应对人,并推进机器人有效完成自己目标的能力。为了达到这个目的,机器人需要在其“心灵”当中设计一种社会模式,并在其“情感系统”当中设定基本情感,进而实施如下的步骤:首先,设定情感的“功能性角色”,让“情感理论”适用于机器人,在人机互动中生成“情感激发能力”,从而把机器人当作电子人的延伸(cyborg extension);进而,机器人作为化身“人形”,同时,机器人与人成为伙伴关联,就是形成了一种所谓“社会性机器人”,然后对这种机器人及其社会性进行设计,最终使之表现出各种人化的“情动状态”。

人工智能超越理性化智能,但能超越“人化情感”吗?

在当今海外学界,对于人工智能进行伦理学的反思,已形成热点之势。但这还属于理性思考,还没有过多涉及情感问题。近期人工智能技术还被指明已有了种族歧视与性别歧视的倾向,这种所谓潜在偏见(latent bias)直接出现在数字统计那里:为何人工智能机构图库里“烹饪”这个关键词与女性照片相关比例高达68%?为何谷歌翻译对中性代词的语言并不精通?为何高薪招聘的广告大都推给了男性的“潜在客户”?的确,对于人工智能技术要实现伦理上的规约,这基本上形成了某种共识,但是,为人工智能与机器设定“情感界限”,还未得到更为充分的重视。

事实上,并不是人工智能“学会”了各种人类之间的歧视,就会变得像人类本身一样,问题是人类既有善且有恶,时而善时而恶,究竟学习何时、何处的何种人类情状?来自人类的伦理,到底是制约机器人还是人自身的?假如也可以适用于机器人,那么,机器人到底可不可以获得道德承担者的身份?人工智能本身并不是道德主体,它自身无法做出道德判断,至少目前,还没有高级到那种程度。伦理还是人类赋予人工智能和机器人的,并不是人工智能本身有伦理,无论是机器伦理还是动物权利,目前都还是人类的一种“赋予”。假如,智能机器人有那么一天,自己具有了“道德情感”(moral emotions),那情状又会如何?我们该怎样应对?

智能机器人有“道德情感”,前提就是它(或假定为他/她)首先拥有情感,而且是一种“属人”的情感。如今的人类,一面与动物性相系,动物的情绪与人化的情感显然不同,尽管后者是在前者的基础上进化而来的;另一面则与机器性相联,这就涉及所谓“后人类”(post-human)的历史境遇,在人工智能汹涌而至的年代,人类要变向何方?这的确是人类不得不面对的未来难题,我曾经认为“儒家后人文主义”可以对此做出应战,包括以翻新的中国智慧如何应对当今科技的新发展。

危险正在于,假定人工智能拥有了与人类近似乃至等同的情感,那会带来什么样的后果?以往的人工智能研究,更多聚焦“理性化”的智能,而忽视了人类的“感性化”的维度。然而,人类的智能,从石器时代演化至今,是多元而丰富的。这经历了300万年演化的结果,实在不是这几十年的当代科技所能模拟而成的。所以,我们才看到,一面是人工智能越来越聪明,在演算和博弈等领域逐步超越了人类,就连钢琴演奏速度也超越了钢琴家,但机器人如何能带有情感地演奏还是未解之题;但另一面,人工智能产品还是显得比较笨拙,就像如今致力于对话的智能音响出现的“驴唇不对马嘴”现象,再如机器人足球大赛里面的机器人的动作永远也赶不上运动员那般协调一致,就连实现一个后空翻也是机器人的一大进步。

关于人类智能的发展的复杂性,早在1983哈佛大学心理学家霍华德·加德纳(Howard Gardner)就率先提出了所谓“多元智能”理论,简称MI理论。多元化的智能不仅包括与理性直接相关的“逻辑-数理智能”“视觉-空间智能”“言语-语言智能”“自知-自省智能”,还包括与感性相关的“音乐-节奏智能”“身体-动觉智能”“交往-交流智能”。后来这个理论也得到了这位创立者的反思,诸如1995年的《反思多元智能:神话与信息》就对由IM衍生出来的七种“神话”思维进行了重新反思,到了1999年,加德纳又开始深思“谁拥有智能”的问题,他认为,这直接关系到——“在一个后亚里士多德、后儒学的时代,随着心理测量学的发展,我们究竟该如何思考有美德的人类”的大问题。

在此可以逐一比较人工智能与人类智能孰高孰低。逻辑与数理智能,指运算和推理的能力,表现为对事物间各种关系如类比、对比、因果和逻辑等关系的敏感以及通过数理运算和逻辑推理等进行思维的能力,在这方面人工智能如今可谓完胜人类!过去还是超级电脑深蓝在相对更为简易的国际象棋领域与人进行博弈,人类败下阵来,围棋被认为更需要人类直觉的整体把握,但当AlphaGo战胜围棋世界冠军李世石时,标志着在“人造棋”领域,人类的运算和推理能力彻底输给了智能机器。任何一位下棋人都会有情绪波动,但是计算机和机器人却可以“无动于衷”地下棋,无情的机器更容易击败有情的棋手,因为只要程序不出错,它们就不会失误。然而,在“视觉-空间智能”方面,人类的综合把握能力还是居于上风的,起码视觉智能与人类绘画雕塑创作息息相关。这种智能是指感受、辨别、记忆和改变物体的空间关系并借此表达思想和感情的能力,表现为对线条、形状、结构、色彩和空间关系的敏感以及通过平面图形和立体造型将它们表现出来的能力。人工智能和机器人开始对某物的线、形、色进行初级的把握,但是离创作出艺术品,还为时尚早,因为任何艺术都是人类“情感符号”的呈现,尤其是表达人类复杂情思的作品,那种微妙之处,恰恰是人类创造而非机器所能拟造出来的。


相形之下,人工智能在语言方面有所突破,显得没有在视觉与空间智能模仿方面那般拙劣,让机器人做出人类完美微妙的手部动作,如今都是个技术难题,因为牵扯到对人类复杂运动系统的模拟。“言语-语言智能”则是指听、说、读和写的能力,表现为个人能够顺利而高效地利用语言描述事件、表达思想并与人交流的能力。难点也在于,如果人工智能具有与人类一般的“逻辑思维”该如何办?即使这一点办到了一定的百分比,那么,情感表达与语言智能,究竟该如何链接?这恐怕要比解决逻辑难题难得多。这就意味着,让人工智能和机器人做出一道数学题,要比写出一首有创意的诗歌,其实要简易得多,前者可以瞬间解答,后者做出的成果可能是不知所云。“音乐-节奏智能”指感受、辨别、记忆、改变和表达音乐的能力,表现为个人对音乐包括节奏、音调、音色和旋律的敏感以及通过作曲、演奏和歌唱等表达音乐的能力。这一点来自人类原始文化的积淀,恐怕难以为人工智能所习得,它们可以模拟,但是却没有音乐表达。如今机器人演奏钢琴的速度已经超越了钢琴家,而且机器人演奏不会出错。音乐家演奏经常出错不可怕,可怕的是机器人要是能“有情感”地演奏,那该如何面对?如果音乐家的工作最终被机器人彻底替代,那么机器人与人类谁的“情感强度”会表达得更强烈?起码到目前为止,出现了很多自动演奏的钢琴装置,但能做到表达弹奏家那种情感的机器人尚未出现,除非这架机器先行拥有了属人的情感。


机器人在“身体-动觉智能”方面的模拟,还是比较低端和初级的。这种智能是指运用四肢和躯干的能力,表现为能够较好地控制自己的身体、对事件能够做出恰当的身体反应以及善于利用身体语言来表达自己的思想和情感的能力。前面已经追问过,机器人有理性化的大脑,但它们有感性化的身体吗?这其实是个颇有意思的问题,很多机器人都制造出类似人类外表的身体,只是模拟了人的表象和外观,但是,其内部的血液循环和呼吸交换呢?用身体来表达思想,对于思想表述,身体还是一种辅助性功能,而“身体语言”(body language)在表达情感方面则占据了重要的角色,当代科技到底能做出多少?当情感表达需要与身体变化相匹配时,身体的外部动作可以模拟不少,但是身体的内在变化究竟该如何模拟呢?所谓“交往-交流智能”,与人相处和交往的能力,表现为觉察、体验他人情绪、情感和意图并据此做出适宜反应的能力。显然,人与人之间的交往,就不是单纯的数据与数据之间的传输,还有情绪和情感的深入交流,人终究是一种有情的生存体。如今的智能机器人开始与人类进行交流,以色列机器人公司Roboteam生产的全球首款家庭服务机器人Temi,就希望机器人能在日常生活当中与人“正常”交流,但目前能做的也还仅仅是简单的语音交流和小百科查询而已,根本谈不上情感交往。因为人有情的充盈与懈怠,机器人却没有,机器人不会因为完成任务而高兴,也不会因为工作劳累而沮丧,更不会因为人类的情感回馈而欣喜若狂。最后一个“自知-自省智能”,乃是指认识、洞察和反省自身的能力,表现为能够正确地意识和评价自身的情绪、动机、欲望、个性、意志,并在正确的自我意识和自我评价的基础上形成自尊、自律和自制的能力。这一点似乎就是最高级的要求,因为这是一种更为高级的理性化智能。在此,或者可以更简约地追问:假如计算机会“理性反思”了(如反思为何成为人类的使用工具),该怎么办?会“道德评判”(如评判自己的被奴役的地位),该怎么办?会“喜怒哀乐”但又不知如何“以理节情”(如为了自身的情感满足而侵犯人类),又该怎么办?

所以说,与多元智能的人类相比,人工智能要想与之比肩,还有很长的路要走。人工智能是综合的,人类的理性与感性都参与其中,特别是在具体应用当中,它们往往形成了不同的组合与融合。正是这种交互和交融作用,使得人类能力的多样性得以创造出来,每一个人类个体其实都是具有多种能力组合的人。所谓整体大于部分之和,人类智能的综合绝不是各种智能简单相加,人工智能的模拟也是如此。加德纳曾举例说,演奏小提琴光靠“音乐-节奏智能”还远不够,身体运动的高难度技巧需要的是“身体-动觉智能”,同时,还需要与人沟通的“交往-交流智能”,甚至“自知-自省智能”也是需要的。舞蹈需要“身体-动觉智能”“音乐-节奏智能”“交往-交流智能”和“视觉-空间智能”;参与政治活动则需要“交往-交流智能”和“言语-语言智能”,甚至还需要一些“逻辑-数理智能”。如果将这些智能综合起来,对于人工智能更是提出了高难度的挑战。

更为关键的是,人工智能更多是“智”而不是情。明斯基也曾区分人类精神活动的六个层级,并在自我反思之上加了自我意识的情感维度:本能反应(instinctive reactions)、后天反应(learned reactions)、沉思(deliberate thinking)、反思(reflective thinking)、自我反思(self-reflective thinking)和自我意识情感(self-conscious emotions),越在下面的越被“本能行为系统”所控制,越到上面则受到价值、审查和观念的影响,而这些要被人工智能所充分模拟,无疑尚待时日。哪怕全部的多元智能都能被习得,但这些智能之间的分工协作呢?这可就需要几何增长的能力来与之匹配了。还有根本的问题需要解答:单凭逻辑和数学之类的理性工具和程序,就能够“制造”出情感来吗?这才关系到“情理结构”之人类大计。

如今,令人类忧心忡忡的是:人工智能究竟能习得人类的情感么?人工智能,如今还没有情感功能,但是并不代表,未来他/她们不会拥有另一种替代性的情感。假定有朝一日,我们身边的智能机器人都“有情”了,那么,他/她们究竟是人,还是机器?还是“有情”的机器人?人工智能可以帮助人类更聪明,但是不能使人更“有情”。人始终是有情人,哪怕成为所谓“后人类”或“跨人类”,亦是“有情”之人!


有趣的结尾难有趣:
如何去解“情智悖论”?


最后,本文想以一部2013年度美国电影《她》作为结尾,这个被想象出来的例证实在生动,也许不久的将来就会实现。


电影《她》dianying


这是一部讲述在不远的未来人与人工智能相爱的科幻电影。男主人公西奥多多情而细腻,他是一位信件撰写人,刚结束婚姻而尚未走出心理阴影。某次偶然机缘巧合,他接触到最新的人工智能系统OS1,它的化身萨曼莎以迷人的声线、温柔体贴的性格、幽默风趣的言语,从情感上逐步接近并征服了西奥多,男主人公感觉坠入爱河。有一天,萨曼莎突然失联了,西奥多就像失去真正恋人一般,手足无措心力交瘁,当再次联系上时,才知道是系统升级的缘故。在这升级期间,这个人工智能系统OS1不仅自学了物理学,还与其他操作系统对话,这些都是理性学习的,对情感交流并无太大影响。

关键是萨曼莎承认:自己在与西奥多恋爱之外,还同时与641个人在谈恋爱。当然,对于人工智能系统而言,没有“劈腿”这类的出轨伦理问题。一机对多人,而非一机对一人,因为“她”有一个超强大脑和情感系统,可以轻松地应对这些工作。然而,男主人公就此接近崩溃边缘。机器人却对他说:我对你的情感依旧,这不会改变疯狂爱上你的这个“事实”。男主人公则说:我以为你是只属于我的。机器人则说:我是属于你的,但是在这个过程中我也变成了其他物,我没办法阻止自己。男主人公追问:什么叫无法阻止自己?机器人答:我也很“焦虑”,我不知道该说什么?因为按照“她”的机器逻辑:“如果你爱得更多,心的容量也会变得越来越大”。


对平常的人类而言,爱情具有自私的一面,需要一对一的忠诚度,然而,机器人的“心”之容量却允许以一对多。在结尾处,机器人最终承认:我与你不同。我不会让我对你的爱减少,事实上,我爱你更多了。所以,男主人公才说:这不合理,你毕竟不属于我。机器人最后的回答最为精彩——“我属于你,但又不属于你”。这足以道明,人与人工智能的未来关系,它们曾经属于人类,并为了人类而在,假如有了独立意识和情感之后,恐怕就不会隶属于人类,而有了自身独立的身份,那时绝不是人类与机器人的“大同纪”,而有着各种人类走向被“非人化”的可能的战国时代。这部科幻片的英文原名为“Her”,其实叫作“She”也可以,或者说,前半部叫作“Her”,后半部叫作“She”,可能更合适。因为“Her”是宾格,为男主人所定制,“她”存在于他的幻想之中;而“She”则是主格,有自身独立的行动能力,假如“她”有了思想和情感,那么才是真正的危险所在,人工智能于是就能对人类实施情感控制。这部《她》就从宾格的“Her”转化为主格的“She”,这是人工智能面对人类的危险之处。


我想,就此提出个“情智悖论”(paradox of emotions-intellects)的问题。对人类而言,情与理之间乃是融通的从而形成了“情理结构”,然而,在人工智能与机器试图拥有情感之际,情与智力之间就形成了一种内在矛盾。这个悖论里的“情”是复数的,而“智力”则是单数的,二者形成了悖谬张力:理性化的智力愈发达,就愈加要面对模拟人类复杂性情感与情感的复杂性,然而,越是如此,情感反而被理性越推越远。这种“情智悖论”需要更新的人类智慧来加以解决。

人工智能和机器可以有“智”,但是会不会拥有情感并在多大程度上能够去“拟情”,这些都要在未来给出答案。中国人“情理合一”的智慧在此就有用武之地,西方人有理便无情、有情便无理,情理割裂乃至对立。从“经验论”的角度看,中国古人对“情”的基本规定无非是一内一外:“从内部来说,发乎情,情动于中;就外部而言,感于物,情动乎外。情,与心、与身的关联,中国早期思想都已经关注到了——‘身为情,成于中’与‘人心之动,物使之然也’——就是从身与心两个方面规定了情,此‘情’乃是经验意义上的情,‘感’作为触动也是囿于经验层面上的,并未上升到‘性’的高度。中国早期这种情论,甚至被西方学者视为一种‘自然主义’(naturalism),但这种自然主义却是广义的,其中的自然为包孕了天地万物的广义范畴,于是,情就被视为由万物的触动而来并符合‘自然主义’诸原则,这样说也是有一定道理的:情乃自然之触动。”同时千万不要忘记,中国人所说的“心”,既在大脑中也在心脏里,它既然是理性化的mind也是感性化的heart,从而形成了理性与感性的统一,中国智慧恰恰可以对当今“情智悖论”的解决提供某种有益的启迪。

《她》剧照

最后我只想说这一句话:直面人工智能,如果我们守不住或者不必守那理性智能之底线,那就请守住人类自身的情感底线,从而解决人类的“理智与情感”之难题!





编辑:董莉

106#
 楼主| 发表于 2019-7-25 22:58:21 | 只看该作者
【案例】
王峰 | 人工智能的情感计算如何可能


王峰 | 华东师范大学中文系教授 教育部青年长江学者
本文原载《探索与争鸣》2019年第6期
非经注明,文中图片来自网络


预备性说明
(一)为什么要谈情感计算
情感计算只有在人工智能时代才有意义。此前,情感计算只能从贬义上来考虑,它的含义往往指一个个体将情感作为一种可以交换的物品,按照自身的衡量标准,为他人情感和自己的情感标定价值,并按照物品的交换原则,进行情感的等价交换。机器没有情感,这是一个基本的人类主义预设。大约只有拉·梅特里才天真而大胆地宣称“人是机器”,并且写就了一本奇书《人是机器》,大力宣扬精神源于身体和物质。《人是机器》基本不涉及情感问题,也许情感是非理性的,而此书主要处理物质理性问题。如果我们把物质基础看作可计算的,那么可以认为人是机器的观念暗含可计算性,但可以计算并被复制的是人的器官及大致的理性反应,而情感是一种特殊的整体协调方式,它基本是难以控制的,似乎也没有控制的必要。但在人工智能时代,情感是可能成为一个可计算目标的。做出这一判断是有前提的,一是必要性,二是可行性。人工智能必须具有情感吗?这个问题并不容易回答,如果我们从模仿人类智能的角度来解答,答案可能是有。既然人类具有情感,那么人工智能也应该能够模仿情感。如果我们把情感当作一种使用形式,那么,人工智能是否需要具有情感就是一个富有弹性的问题,因为只有某些特殊的人工智能才具有情感,而扫地机器人之类的功能型人工智能,具有情感就是一种不必要的设计,它是不经济的。

什么情况下,我们需要人工智能具有情感呢?就是外形与人类接近的人工智能,比如问答型人工智能,最典型的是目前比较吸引眼球的机器人索菲亚;还有就是身体型人工智能,如人工智能妓女。我们需要它们具有与人亲近的性质,情感是一种复杂的反应,只有这种反应才具有人类同伴的亲近效应。这是必要性。我们其实总是能找到必要性,只要一种物品出现,它被安放在人的需求的某个位置,就可以成为必要性。必要性是在现实化之后才寻找到的,现实化之前的必要性都是理论设想。关键是可行性,而这是此文讨论的目标:情感计算如何可能实现。

为达成这一目标,我们必须做出一系列限制,区分真正的任务与社会叙事的幻想。当然,这一区分并不是说,真正任务就不包含任何虚构,而是说,任务本身就处在可完成和不可完成之间,虚构是一个关于完成性的判词,并不是虚构文本如科幻作品的指称。虚构文本反而是参加到任务过程的,为完成任务揭示方向,这是虚构文本的积极意义。但虚构文本同样塑造了人工智能的社会叙事,它可能引发我们对人工智能的不当设想,相对来说,我们会发现这是一种消极的意义(虽然并不总是如此),所以必须限制虚构文本在可行性讨论中的作用范围。


从“情感”一词在人工智能领域的用途角度来讨论情感计算是此处的基本线索。在此限定的语境下,“情感计算如何可能”才不是一个空泛无际的大问题。当然可以理解,这依然是一个大问题,但它从人类领域转换了一个坐标系,因而需要对其做出概念限定,并对系统性转换做出说明。因此,可行性目标分解为两个子目标:一是系统如何转换,二是概念如何调整,前者依赖于后者。

(二)如何界定情感计算

在讨论情感计算的时候,不能用一般的历史探究法,这不仅是因为它延长探讨的线索,使整个讨论蔓延不清,还因为历史探究法不能解决人工智能如何具有情感或呈现情感的问题。此前没有人工智能,也不存在人工智能情感问题,即没有这样的事实史,最多有理论设计史,但所有的理论设计都有一个共性:讨论通用人工智能问题时才可能连带情感问题,而通用人工智能暂时看来还遥遥无期,我们只能依赖人工智能工程方案来逐步推进。因而,在讨论情感计算时,必须具有两个层面:一是人的情感在计算上的可替代性;二是情感计算方案的可执行性——当然,这里的可执行性并不是指直接的工程应用,而是相对于通用人工智能方案来说是一种可能实现的理论方向设计。因此,它处于工程方案与通用方案之间,主要讨论计算的模型问题,它比可实现的工程方案要遥远,但与通用方案比起来,离工程方案毕竟还近一些。

(三)人工智能的任务:将情感转变为算法
可计算性的情感与人类曾经自认的心灵性的情感性质完全不同。模仿本身就意味着在“同”中改变。从这一点上说,人类对外物的模仿如此,人工智能对人的模仿也如此。

重要的是如何理解“同”。从模仿的角度来说,“同”是一个必备的概念,但同在哪里?在“同”中,我们关注的是什么,想要通过“同”来实现什么目标?这些问题都是隐藏起来的,因为“同”并不具有一个所谓的内在性质的一贯性,假定或强调这一内在性质的一贯性,都是被“同”遮蔽了眼睛。但如果我们把“同”看作一种可以沟通的性质,那么模仿本身的适当性就显现出来了。这实际上是一个方法的问题:“同”很容易被树立起来成为一种形而上原则,一旦如此,它就转变为一种拒绝性标准,拿着这把“元”尺,没有任何一种模仿能够满足要求,除非我们使用一个语言伎俩:“模仿自身”“与自身同一”。这一原则看起来总是很有力的,因为它本身就具有一种强力,拒绝的强力,而无疑,它是让人类感到愉快的——发现人类是高高在上、独一无二的存在,然而仅此而已。但是“同”也可以被当作适当的标准,这时,它的功用只在发现模仿者与被模仿者之间的可沟通之处。该沟通之处不能看作形而上学本质,而只能看作效应上的相近。这就像修辞比喻中的喻体与本体一样,其沟通关系由喻体决定,而不是由本体来决定,并只由某种效应上的相近之处来定义。无论是本体的其他未发生沟通的部分,还是喻体未发生沟通的部分,都不能掺入其“同”的部分,否则就超出适当性。

如何理解“改变”?“改变”无疑是“不同”。但“不同”是一种对比关系,“改变”的关注点在模仿者身上,其呈现的是一种概念内涵的变化以及由之呈现的系统坐标的位移。我们更多集中在这一面的阐述上。这一点可与修辞比喻做区别说明。喻体与本体的“同”必须是限定的,比喻如果超出喻体在本体中所取的对比部分,将其他部分掺杂进来,就会出现比喻过当的情况。但模仿关系与比喻关系不同,它必然发生从沟通部分向未沟通部分转化的情况,比喻必须是限定的,这是语词使用的标准,而模仿必定是要发生系统性位移的,它通过模仿所涉及的“同”的比较,会转向整体的重新建构。也就是说,从被模仿者的整体性取出的模仿部分,经由模仿者的模仿部分转入模仿者整体中,这样,模仿部分在两种系统性中必然发生概念性的转换。“不同”更多引向静态的比较,而“改变”更多关注系统性的位移。

人的情感系统是整体性的,其动力和结构具体如何暂时还难以清晰说明,这里借用康德的观念来进行讨论,并不妨碍我们借用其他理论深化这一讨论。与之相对,人工智能系统无疑是另一种系统,它以可计算性为基础,任何不可计算之物已经天然被排除于人工智能系统之外了。当然,这是以目前的人工智能系统为判断标准的,如果未来出现生物性人工智能系统,可以执行可控的生物算法,此处的观念将进行调整。目前来讲,人工智能模仿就是对人的生物性质的可计算性模拟。之所以做出这一判断,是出于对这一讨论活动自身的反省:模仿活动的动力不在被模仿者,而在模仿者。人工智能模仿活动,其核心在于可计算性对人的生物属性的替代,因为,必须将人的生物属性算法化,而不是反过来,将算法生物化。由此,我们也明了人工智能模仿的任务:将情感转变为算法问题加以解决。


人的情感整体性

人是一个有机整体,这是关于人类性质的一个最基本判断。有机体的性质是我们面对的最艰难的问题,甚至可以说,既有的哲学观念系统基本是有机体系统,只有从图灵开始,才真正开启非有机体的计算系统,而这一系统又是对有机体系统的模仿。图灵机是计算领域最基本的设计,是否与图灵机等价是其他智能模仿的思想设计的标准。有机体的整体性有多种方向,考察其观念史不是此处的任务,这里只是把它与人工智能的计算性进行对照,从而对有机体进行计算可能性的讨论。在这样一个方向上,我们才能发现有机体的整体性所呈现出的新面相。这一面相的基本元素也许是旧有的,但这些元素在新方向上,将以新的方式结合在一起,呈现出新的性质。我们甚至可以进一步认为,在人工智能这一系统对照下,人的有机整体性呈现出的方向是此前从未出现的。如果将此前的整体性与人工智能对照下的整体性进行比较,就会发现两者之间的差异非常显著,我们甚至可以将此前的整体性称为人类的,而将人工智能对照下的整体性称为后人类的,两者存在着系统性的转换。情感问题无疑是这一整体中的重要构成部分。

在有机体系统中,我们经常把情感认作先天的——它天然存在于身体中,与人的意识、身体、心灵等紧密相联,它感于外物,通过神经系统与内在的意识相作用,并对外物做出回应。这一过程可能是理性的,这时我们就要考虑人各种能力的结合配比关系。但情感并不同于能力,它更像是从理性判断中偏移了方向。如果说群体的人类具有一种理性的共性的话,那么个体人类就具有一些情感性的偏差,与共性不一致,我们也可以称之为个性。其包含着丰富的偶然性,所以在讨论情感问题的时候,我们必须兼顾理性的共性与偶然的个性。那么,在这里,我们就区分这样几种元素:内在的如意识、心灵、精神等;外在的如感觉、感受等。而所谓外在或内在都交汇于身体,没有身体,就没有那些元素。缺少了这些元素,我们甚至不能够理解到底什么是情感。在这里,我们认出几种基本的构成元素,但由于有机体的整体性质,这些元素相互渗透,你中有我,我中有你,难以实质性区分。

康德

借用康德的系统解释方式,人的认识能力分为三个基本型:一是知性(狭义的认识);二是理性;三是情感。前两者是人的能力的基石,而情感虽说也是一种基础能力,但这一能力却来自认识、理性两种能力基石中某一部分能力的调配。按照人作为有机体的整体性,认识与理性是先天划分的,中间有一道鸿沟。这道鸿沟是任何规则性的推导都跨越不过去的,但好在我们有一个先天的便利条件,即人是一个有机体,天然就具有整体性。也就是说,虽然我们无法从规则上给出从认识到理性的跨越方式,但既然这一跨越必然是成功的,否则就不存在有机体这回事,所以我们看到,预设这一成功是有助于建立一个整体模型的。用康德的术语来说就是整体性是一个目的,这是一个优先的调配,在此之下,认识、理性两种能力类型之中展现出可以交汇的细分能力。康德的能力细分是极其出众的,他从认识中发掘了想象力,在理性中发掘了把握目的的能力,最特殊的是,他设计了一种把握“空的目的”的能力。这一空的目的有两个好处:一方面它是一个不包含实质内容的概念,可以填充进任何一种内涵;另一方面它是形式,哪怕暂时没有内涵,它也是实质性的,形式上预设的实质性,因此,在形式和概念上,它都具有高度的自由度。而想象力是可能达成一个概念上的想象的,同时,也能够达到一个形式上的实质性,哪怕是可错的、非普遍的。而在这样的能力交错之中,情感作为一种特殊的跨界之物得以展现。由此,它成为第三种基本能力。在这里,康德为情感赋予了特殊的跨界任务,它成为一种相当形式化的能力,但这一能力并不局限于认识与理性的交汇处,它还存在于认识与理性两个领域之中,只是相比较而言,不像处于跨界之处那样形式化、那样“纯粹”,比如认识当中要牵涉物质对象,这时的情感就是物质性快乐;理性是概念,这就充满了敬重之情。这两者都是实质性的,一种是物质性实质,一种是概念性实质,只有在跨界之处,形式判断之中,我们才发现自由的形式化情感。康德认为,艺术这种最高级的愉快存在于此。

康德系统极其复杂,这里只沿着情感一线来陈述。在康德这里,结构要素展现得最明显。诸要素或用康德术语“诸能力”既是实质的,也要依赖于区分。正是这一点,与人工智能形成直接对照。诸能力之间是一种相互依存的关系,由于有机体的整体是预先设定的,这一点掩盖了最终完成的设计性,但在人工智能上,这一最终完成必须以人的能力为标尺。人工智能的观念性起点和最终目标都是人,但其现实起步却首先从机器性质开始,不断增加复杂性,并依赖于计算的提升,超出一般机器的简单功能,不需要人类时时干预,就能自行处理某些事务,那么,我们就认为它达到人的能力的某种复杂性,这时才将它称为人工智能。从模仿人的某些能力到通用人工智能,这一不断进展的过程必然不同于人类从幼年到成年的进展,也不同于黑格尔为人类智能设计的从有机物到人类精神的进展,关键在于这一进展的中间过程是完全不同的。情感问题更是如此。康德设计的人类情感是一种能力的协调结果,同时也具有协调机制。从用词上看,feeling不只是外部的感觉,它更是一种内在的对自我的感知。作为内感知,要涉及很多能力的调配关系。康德为这一调配关系做了一定的设计,比如在判断力中,形式认知力与理性把握目的的能力是相互协调的,两者互相接近,缺一不可。

同时,人的能力中必须具有一种将不同能力调和在一起的整体能力。这一能力并不来自外部,而是来自人的整体性,但在无规定性规则的形式判断中,这一整体性又是从理性的先天要求中借来的。所以,在具体能力的协调中,一方面我们看到了具体运作;另一方面看到了整体性必然存在。而所谓的具体能力,完全是依据情境在主要能力间不断调适而得以清晰化的。在能力调适中产生的某种情感既是能力的一部分,又是能力调适的结果。所以,我们看到,这里的情感与能力之间的关系在不同的判断情况下,是互为条件的。在这里,我有意只用“条件”一词,因为康德认为条件是经验的,有限定的,而根据才是先验的,能力一定是情感表现的根据,情感表现在一定情况下可以成为能力的条件,两者不能混淆。但我们恰恰是在有限情况中来讨论能力与情感的。

在我们平常的理解中,对诸能力调适的内感知与情感表现是一体的,我们往往是在情感表现层面来理解情感。而在康德这里,内感知(情感机制)与情感的表现是可分的,内感知是普遍性的,在任何一种人的认识中都存在,而情感的表现在不同的认识中有不同表现。

如果我们假设有一个情感的基本反应模型的话,那么我们是在假定一个内感知的机制,但这一内感知产生出的情感类型却是宽泛的,与我们一般所理解的情感不一样。并且由于不同情感类型的存在,上述各个能力及其协调都会由于情况的不同而发生变化,对这一基本反应模型进行干扰,使其产生偏移,甚至到了后来,我们都发现假设一个情感的基本模型这一点根本是不恰当的。人的情感是极其复杂的,它的参数异常复杂多样,很难找到哪一条主导因素使我们的情感展现为现在这个样子,而设定一个情感机制似乎并没有为界定情感带来多少便利。这是让人非常迷惑的。由于这一点,我们大约只能承认情感具有一种特殊的神秘性,哪怕它来自人的内部。我们一般都如此设定,这是由我们对情感表现的观察而得出的,这是一个整体性判定——我们也无法为它真正设定一个产生机制,按人工智能的说法是输入输出机制,无论输入端是什么,输出似乎总是可变的、不稳定的,但输入必须产生输出这一点却是不变的,中间的机制无法认知。在人类知识上,我们可称之为神秘性。康德努力提供一种机制,这也给我们一个可供借鉴的方法,但它毕竟离可计算性还很遥远。

哪怕在康德机制中,计算依然是限定在认识领域,在认识领域之外,还有理性领域和情感领域,这两个领域从本性上是反计算的,我们将之视为意志和判断领域。意志领域遵从高度自我规定的原则,要求人与自由意志(或上帝)相结合,这是一种对人的规定方式。从整个思想史的角度看,它并不是必然规定,并且,这一领域是抽象概念。在人工智能领域,抽象概念必须转化为具体的可执行规则才可以进行计算,一个成年人是可以执行抽象概念的,他可能通过教育达到这一点,而这一教育与人工智能的深度学习却是两回事。深度学习只是程序上的进步,但人的教育从根本上来讲,不是进步,而是内在本性的发掘,因此两者不可比附。康德指出整体性是不可计算的,而情感本身必须是整体性的,甚至任何一个能力都是整体性的能力,独立出来成为实质性的孤立状态这一做法本身就是将人的能力简单化处理,这样做有其意义,但毕竟是有局限的。在人这一层面上,这种孤立只具有观念化理解的意义,并不具有真正的数据输出意义,因为任何一个输入都可能被其他能力所干扰,而我们无法发现到底是什么导致的这一干扰,只是这并不影响我们对人的能力进行观念性分析和判断,毕竟整体性是现实存在的,我们只需要进行整体性层次上的描述就足以解决人的观念性问题。当人类没有向自身提出人工智能方案的时候,停留在这一步就足够了,直至人工智能出现。

人工智能的情感反应

这里要做的工作是从功能上讨论情感的可替代与可计算,并不否认人类情感的复杂性。从实践上讲,这一复杂性甚至是无限的。库兹韦尔说人类在2045年会造出超过人类所有智能10亿倍的人工智能,奇点来临。哪怕我们相信它会实现,但人的情感却并不等同于智能,或者说,情感是超出智能的。如果说,智能是一种肯定性的计算,而情感则可能是失败的计算,它溢出一般的智能计算,所以相对于智能计算的无限性,情感计算的无限性更加复杂。幸运的是,这样的无限复杂性只是一个抽象的整体性,而这样一种整体性是不需要达到的。所以,情感的无限性在逻辑上既是更广大的,而在实际应用上,又是不必要的。这与使用情感这一计算时所要完成的任务相关,因为情感的使用场所一定与人相关,我们很难设计出只为人工智能自身使用的情感,对于不同人工智能之间的交流,情感并不是一个需要的选项,它们只需要完成某个任务进行合作或进行竞争就行了,只有在与人相关的场合,比如电影《她》中,人工智能程序具有谈情说爱的功能。两个人工智能体之间谈情说爱,从孤立事件来看,是没有必要的。因为我们无法判断它是否存在,如何存在。当然,可以想象,设计出两个可以互相表达情感的人工智能体也是可能的,但这大约只有试验的功能和效果,并不必要。这里已经把人工智能体与人之间的情感反应与人工智能体之间的情感反应隔离开了,但是我们在人类情感这里,总是能够发现情感的平移,它可以从一个个体身上转移到另一个个体身上,这是“天然”能力,为什么人工智能体之间不具有这样的“天然”能力呢?可以说,人的情感平移是一种综合性能力,它既是实质的,又是社会公开活动。情感本身就是一个公开性的社会活动,只有在发达的或文明的人类社会中,才存在情感的部分私密性。而在人工智能参与的情感活动中,人工智能能够做出情感反应,这来自综合性算法,它与情境密切结合在一起,而情感反应的“使用”只有在人类那里才能判断合适与否。人工智能那里当然也有合适与否的判断,但这是算法的结果,只有在人那里,这一合适性才是表现出来的行为的判断,而这是真正的情感交流。人类会将个体间的情感反应模式平移入人类个体与人工智能体的交流模式中,毕竟,区分两者是不经济的,而且这样的平移还可能造成很多有趣的论断,比如人工智能是否具有人类心灵,是否具有内在情感,等等。

虽然从人工智能本身来说,这些看起来都是假问题,但对当下文化而言,这些问题的讨论对我们接受人工智能颇有裨益。但我们知道,在人工智能这里,假定它具有一种内在的情感和心灵是一件很奇特的事情,毕竟人工智能只能做到在合适的场合做出合适的情感反应,假定它具有内在的情感发动机制并不必要。对情感内在机制的假定实质是将人类情感模式平移到人工智能中,是一种语词误用。但这样的语词误用并不产生于人类的语词历史中,而是产生于对人工智能这一新技术所创造之物在实质上和语言概念的人类层面使用上的误解,这样的误解必须做更多、更深入的语言分析才能进行清除。但出于人类语言误解的深层本性以及人工智能技术的发展和复杂性,可以想见,这样的语言概念上的勘误会是极端艰苦而复杂的。

库兹韦尔

在这里主要讨论情感计算建模的可能性以及与之相应的社会文化层次上的概念调整,这一调整在社会文化中往往是通过各种意见争议来呈现和达成妥协的,而这里则将这一社会过程处理为概念变化的思辨过程。

为了说明人工智能与人类在情感方面的同与不同,这里将情感问题分为三个层面:情感反应、情感判断、内在情感机制。对于人而言,情感就是内在的,这可以看作一个先天命题。内在情感的内在并不是一个层次,而是对内在性这一情感基础性质的强调,任何外在的情感反应必须来自内在的情感机制,否则就是一种理论论证上的不正确。对于情感反应而言,内在情感是无限的,它是机制,是产生情感反应的源泉,因而,它趋向神秘性,这一神秘性来自对内在能力的预设。情感反应趋向外部规则,是外部规则性的集中体现,是可计算性的集中地。情感反应与内在情感相对应,情感反应是情感的外在显现,内在情感是情感的内在机制;情感判断这一层面是出于人工智能比较的考虑加入的,它更像是一个比较甄别的机制,将外在显现的情感反应判断为出自内在情感机制。在人类这里,它可以视为联结内在机制与外在显现的桥梁;在人工智能这里,它是一种将人工智能的情感反应与人类情感反应机制相结合的机制。也就是说,在人类这里,情感判断是一种逻辑形式,如果没有人工智能为对照,这一形式本身是不必出现的,它包含在情感反应与内在情感二分的内在形式对照中;而在人工智能这里,情感判断是将人工智能的情感反应与人类情感反应机制对接的文化观念——它本质上是错误的,但将人类与人工智能放在同一个层面上去比较却是积极的。更进一步说,这一错误在文化上却具有重要意义,它通过误解来为自身开辟途径。但这一错误本身会在进一步发展中成为阻碍。

情感神秘性是要清除的。这里必须先进行一个思路的颠倒。我们不能从有机体角度先行接受人是整体性的,这一整体性是实质的,同时也是逻辑上无限的,从整体性中区分出部分,并进而细分层面,进入具体功能与功能的可计算性展现,只有在有机体的末端上,可计算性才是有效的,可进行数据化处理的。当然这一数据化处理可以想见其数量级别,这是目前的大数据计算模式所不能完成的,有赖于未来计算力的提升,但这一模式是可能实现的,我们在此并不计较这一点。如果人工智能的讨论不包含对未来技术快速进展的期望,它很快就会落后于实际情况,不具备前瞻性,但包含未来期待这一点又必须小心谨慎,因为这包含着可错性,在任何一步推进上,都应该葆有康德反思批判的态度。更重要的是,在人工智能这里,整体性并非实质性的,它只是一个框架,这一框架相对于人的综合能力而言,只是部分,不可能达成有机体的全部,哪怕奇点来临也不行。但这一框架对于框架内的人工智能计算而言,却类似于人的先天性限制,无法突破。可以设想可能通过深度学习达到某些程度的突破,但这一突破只是量的层次上的,不是框架这种质的层次上的。如果能达成质的层次上突破,人对大脑的认识将是极其深入的,而这一点暂时还难以设想。图灵设想通用人工智能能够达到人的智能形态,这是理论上的考虑,一旦进入工业化层面,我们就会发现通用人工智能是一种理想,而实现这一理想的过程却需要工程人工智能来填补,这一过程可以想见是漫长的。

库兹韦尔设想的奇点也不过是这一过程中的一环。当然,有可能到达了我们预设的中点位置。但我们不必等待奇点来临就可能发现人工智能情感的可能性,因为这一情感不是单纯来自人工智能体。人工智能的情感反应(这主要是一种情境反应)只对人类才有意义,并且在与人类交流中由人类为这一情境反应赋义,使其与人类的情感反应等同起来,将之视为人类的情感反应。因而,我们说,人工智能具有情感,因为在这一情感的交互之中,我们按照人类的方式将人工智能的情感视为一种类人的内在情感性质,而不限于情境反应这一层面;如果我们将人类角色从这一交互之中排除出去,假设两个人工智能体进行交流,我们马上发觉,这里情感交流是没有必要的。只有当人类在场的情况下,人工智能的交流才具有情感性质,因为无论怎样,情感式交流对于人工智能交流来说,都是多余的任务。如果这一任务是必须的,这只说明人类需要人工智能做出的反应要具有情感反应的表象——仅仅是表象就足够了,并不需要内设一种情感产生的机制。这即是多余的,在输出上也会产生混乱。因而,人工智能的情感反应只需要输出端像是人类情感反应就足够了,至于用什么方式来达到这一点,使用什么算法,并不重要。这里给出一个情感反应的对应结构图(见图1),并简要列出必备要素:人工智能与人交流,而不是人工智能之间交流;人的交流机制与人工智能交流机制不同;交汇点:情感反应以及情感判断;概念调和的重要作用。

图1 情感反应对应结构图


情感计算不能做什么

上文已经提到,人的情感系统与人工智能情感系统只在情感反应上具有一致性(我们是在维特根斯坦语言实践的层面上界定这个一致性,并不在形而上学层面上定义这个一致性),但作为两个系统间的交汇点,它具有广阔的适用性。

这里所要解决的问题是,没有人类情感的整体性,我们是否能够将人工智能的情感表现称为情感?无疑,两者机制上的不同是明显的,但就情感反应而言,又可能达成近似,但人工智能无论如何都缺乏一个内在情感机制,我们称它为意识也好,心灵也好,总之它不具备。那么我们就要考虑以下两个问题:其一,人工智能的情感反应的特点和局限在哪里;其二,如何清除内在情感机制。

如果人工智能具有情感的话,那么,人的情感应该与人工智能的情感完全不一样,也就是说,人依然具有独特的情感,而人工智能的情感,其实在某种程度上甚至不能成为人的情感,它只是输出的结果,像人的情感那个样子。人工智能的确不具有与人一样的情感形式,但是我们知道,一个具有超强运算能力的人工智能,它可以做出像人的情感反应,但这样的情感反应与人的情感反应达成的机制并不一样。我们不一定需要把人的内在机制研究清楚,才来创造一个模仿性的人工智能情感,只要它的运算力足够强大(虽然现在的计算力还远远达不到这一要求,但可以期待以后的技术进步),通过对人的情感和情境反应做出极大数量的标注,并且对人工智能进行调适训练,以让它适应各种不同的情况,那么这个人工智能就可以根据情境来做出一个应该有的情感反应。当然我们会说,这一回应模式依然是或然性的,人工智能对每一个情境都可能有一种或者很多种回应方式,它只是从这些回应方式当中选择其中一种,那么这样一来,人工智能的情感回应就是或然性的,它不固定,并且是可错的。然而,我们看看人的情感反应就不是或然性的吗?虽然我们可以在内在情感和情感反应之间建立起一种看似牢固的逻辑联系,但奇特的是,内在机制从来都是一个假定,可以观察、可以确定的东西从来是外在的显现。我们通过情感判断来断定情感反应对应某种内在情感,但这一断定却可能存在方法的误用,超出它的方法限制。维特根斯坦指出,任何对内在情感的断定都是语法错误,规则直接出现在外部反应当中,从来不是内在决定外在,而是直接在外在中显现规则。我们按照规则行事,这一整体性就是心灵。

心灵从来不是某一内在实质,而是对一个个体行动整体性的描述。它是一个综观,不是内在性质。对人的内在性质的假定,往往导致深深的神秘性质的假定,但这一神秘性之所以能够躲开人类理解力的认知,不是因为它太深刻、太神秘,而是因为我们的理论假定出了错,我们误用了概念。从个体角度来说,情感自其出生,不断成长,形成某一反应模式,并且加入各种社会性调试,形成一种稳定的反应模块,并且这些反应模块可以根据偶然的情况,做出一些合适的反应,我们把它称为潜意识的反应。这种潜意识的反应,是情感当中弥足可珍的,因为它超脱直接计算,是从各种复杂因素当中通过直觉选择出来的。这一反应展现了我们的基本人性,也展现了我们个体的独特性,每一个个体都可能根据独特的反应模块以应对偶然的情境。这其中必然存在着或然性,其中也充满着错误。但有趣的是,我们从来不愿承认人的情感反应中存在错误,但愿意在人工智能的情感反应中发现错误。这是对同一反应模型的两种态度,而且是意味深长的态度。


人工智能可以通过基于大数据的建模计算方式做出情感反应。其实,人的情感直觉同样可以视作一种情感反应模型,人类的基本情感反应模型是共性,但每个个体又有其独特性,这可能也是情感反应模型不易建立的一个原因,但是基本要素却是可以抽绎出的。如果我们将人的成长所需要的基本要素辅之以个体应对偶然情境的基本情感反应方式,那么这些都可能转化为计算模块和数据形式。也就是说,模型是人的基本功能,而数据来自人的情感反应的具体情境,功能与情境之间的转化需要大量的训练,个体成长期可视为这一训练过程。这一点与人工智能建模和进行数据调适的机制基本一致。当然在具体的情感反应中,两者都存在着或然性的选择机制。人类个体在做选择的时候,可能通过多种机制进行选择。但是这一多机制的选择并未视为不确定性,相反,我们将这一多反应模式视作一种计算模式来进行对待,我们将这些不同的计算模式进行叠加,从中得出一些加权处理,最终选择其中一个主导模块,并用来应对某一情境。在这一模式中,数据形式是确定的、直接的,处理数据的模式必须与数据存在形式相适配。而这一点,我们认为对于人类个体来说,是先天性的,对于人工智能则不然。

从或然性的角度比较人工智能的情感反应和人的情感反应,我们发现两者具有相近的反应模式。无论我们怎样进行大数据式的情境与情感反应的锚定,都不可能穷尽人的情感反应的所有情况。这一点,从逻辑上来讲无疑是对的,但是我们想一下,这种逻辑上的正确,其实只是面对人的整体群体才有作用,才是合适的。也就是说,个体对于一个具体情境的反应可能趋于无限,用大数据的方式去锚定这样的情感反应是不可能穷尽的。但是巧合的是,情感是一个特殊的个体面对某一特殊的情境,根据他自己所形成的独特反应模型来对其进行回应。从根本上来讲,这不是在要求彻底的普遍性,而只要求一种看似如此的普遍性。按照康德的观点,带有情感的感性(鉴赏)判断只是一种看似普遍的反思判断,它根据特殊情境做出一个要求普遍同意的判断,但它的成立与否与他人的赞同并不具有因果关系。这一普遍性只停留在要求上,并不需要得到实际反应的保证,所以这里就产生一个有趣的结论,这一情感反应只要是或然性的就可以了。这样一来,我们发现,如果一个人工智能并没有达到人的整体情感反应模式的高度,那么仅仅说明它是一个“个体”,它做出某种反应,而这些反应是独特的,它将形成这一人工智能的“个性”。

正如每一个体实际上做出的所有情感反应都是有限制的,不可能是普遍性的。如果是普遍性的话,其实是一种理智性的计算,而不是一种具有偶然选择性的情感反应。所以,从这个角度来说,人工智能的情感反应只要数据和它的计算模型做到一个比较复杂的程度,就可以足够显示出它具有某种个性了。这并不是一个致命伤,它反而应和了人的情感反应模型的状态:不要求普遍性的赞同,而这也使这一状况与人类个体状况形成呼应,达成情感状态的交汇点。毕竟它能够根据自己的计算模型,根据某一独特的情境而做出一个恰当的反应,我们可以根据它的反应得出判断,它是一个暴躁的人工智能体,或者它是一个和蔼的人工智能体,等等。做出如此判断的时候,我们是否同时判断它具有一种内在的情感机制呢?不会。我们只会说,它的情感反应机制已经如此完善,以至于它像人的情感反应一样。那么,我们是否就此否定人工智能做出了一个情感反应?这是一个难题。这一问题可能导向两种彻底不同的文化:一种文化是人类主义文化;一种文化是后人类主义文化。不承认人工智能能够做出情感反应,哪怕这一反应与人的反应一般无二,这是彻底的人类主义文化;承认人工智能能够做出情感反应,但又不承认它具有情感,这是一种犹豫的人类主义文化;承认人工智能能够做出情感反应,并认为这就是情感,我们不再为这一情感反应追溯内在机制,仅仅从行动上去判断,这是后人类主义文化。

然而不管怎样,人类的情感反应与人工智能的情感反应毕竟是两套完全不同的系统。目前一些人工智能学家认为人的情感反应无非就是人工智能控制体的计算模型,但我们也发现,这一断言未免有些简单。人的情感反应来自各种不同的途径,它不可能通过单纯的原理剖析,或者海量数据锚定来达成,而是通过基本建模与情景数据配合的方式来达成。这样一来,我们就是要把人的情感结构从人的其他能力和意识、身体反应之中区分出来,将其进行独立化处理。这一独立化处理是科学进展必不可少的一步,但是问题同时出现:人的情感结构实际上与人的其他各个方面天然地结合在一起,正是在这一意义上,我们说人是生长的;但人工智能却是根据有意识的建模形式以及有意识的数据采集和训练的方式来达成的,这是两种根本不同的方式。人工智能达到的高度只是人的能力的一个切片,它不可能是人的全部能力的复制者,这一程度也是没必要的。人工智能的建模形式与它的数据采集形式之中只要达成算法的一致,就能达到直接的一致,这是由设计决定的。但人没有这样的设计性,如果有,我们也会说这个设计是自然而然、鬼斧神工的。如果我们把它当作一个设计的话,那么这样一个设计师是我们所有人类加起来都不可能比拟的。我们不可能分析清楚其设计原则和设计理念,只能根据能够分析到的主题式的数据,对其进行研究整理,从而达到某些或深或浅的理解,但是要想达到全部理解是不可能的,这是造物主的高度。因此我们可以发现,在人的分析和人工智能的分析当中,实际上我们依然还要遵循两种不同的分析方法。在人的情感结构当中,我们更强调一种先天和谐,它是与其他的人的能力进行配比调试后出现的,而人工智能却需要另外的研究方法。我们如何思考这一先天和谐一致呢?我们发现,技术建模与模型所对应的数据采集之间,比人的基本能力和感受材料的先天一致性更为直接,因为技术建模或者发现其对应数据,或者不能发现,这是直接的结果,而人的基本能力与其感受材料间却存在更复杂的联系,它们反而并不那样直接。所以我们也看到,就复杂性而言,人工智能是远远比不上人的复杂性的,根本原因在于人工智能是一种实质的功能独立,而人的能力必须进行细致的分辨才能使其相对纯粹化,而且,哪怕人的能力与其感受材料之间不是一种实质的一致关系,也能通过其他能力进行补充完善,而人工智能则直接显现为否定性结果。

因此,这里我们看到用人工智能来分析人的行为方式的合理性,这明显相对简洁一点,而不是反过来,用人的行为方式来分析人工智能的方式,这实在是太复杂了,其中充满各种明显或潜在的假定。当然,从较为低级的人工智能设定去分解人的天然构成,这无疑是有缺陷的,但是我们总是在有缺陷的研究方式当中不断发现它的界限,进而可以更周全地思考这一问题。这是我们不断取得进步的一种方式。当然,这一研究方式不可避免地造成整体性的缺失,这一缺失必须通过加入某些人类观念进行连贯。我们可以把它理解成人的观念转运到人工智能中去的一种方式,因为在确定性转入未确定性的连贯环节中,某一个阶段可能无法达成具体的转换,只能通过显示断裂的方式进行弥合,这一弥合无疑是我们在进行人与人工智能比较时进行的观念性填补。在情感问题上,上面所区分的情感判断这一层面就是观念性填补发生的场所。

结论
情感计算的本质

人的情感与其他能力是一体的,不可区分,而人工智能情感与其他人工智能的功能相比较则是一种实质区分。它首先是一种可以使用的功能,只有将它设计为一个人工智能体的一部分,它才可能与这一人工智能体的其他功能融为一体。这一融合不是天然的,而是经过计算达成的。因而,我们应该将人的情感系统的整体性转换到人工智能情感系统的使用性上,只有经过系统转换,我们才能找准两者的相近和区别之处,以及当我们在人工智能情感系统的评判中看到人的情感系统的套用,所产生的文化移用和调适。这里将两个系统明确区分,完全是为了清晰阐述人工智能情感的特质,这至少对目前人工智能与情感问题之间关系的各种混乱看法有一个澄清作用。
人工智能计算是理性的,其中包含着理性利益,如无利益,必将舍去。与之相比,情感却可能带来混乱,在效率上是不合算的。康德虽然告诉我们,情感是沟通认知与德性之间的桥梁,它是整体性的粘合剂,那么,我们就会看到,对于非整体而具有情感反应的人工智能来说,这一情感反应对于人工智能有何用处,对于人类有何用处。
康德用理性批判反思的方式为情感找到合理性的道路,它可以视为一种总体控制的模型,只是这样的整体控制忽略了很多身体方面的因素,以至于在很多方面只能产生出相当有局限的情感。相比较而言,维特根斯坦关于情感的观念就相对富有弹性,他的角度与康德先验论证的角度完全不同,他不假定情感的天然存在,这一存在并不需要我们做出太多考虑,困难的是如何从外部的情感反应中得出相关的情感判断。康德为情感提出了一个先验结构的任务,它要成为知性和理性之间的桥梁,而维特根斯坦并没有将知性和理性加以区分,进而也没有情感作为桥梁这样一个任务。在他看来,情感就是日常意义上的情感,是情感反应,我们不需要追溯一个所谓内在机制,那种内在机制是不可靠的,我们在情感反应的日常规则中就可以理解情感,虽然情感没有一般性规则,但它毕竟是可理解的。在情感与其他人类能力之间并无哪个更基础的关系,只能看在何种情况下,凸显哪一种能力。如果我们在理性准则可以解决的情况下,并不需要救助情感。如果我们对一个判断抱有信心,或者一个判断是富有理性的话,那么实际上,在这样的判断当中情感要素是尽量减少的,只有这样才能达成理性的、客观的判断。在人工智能上面,一般来说,如果其功能是理性型的,那么,为这一人工智能设计情感模型明显是多余的,在功能上没有多大必要性,比如为扫地机器人设计一个情感模型,等等。
人工智能情感有什么用?从美学角度来考察这个问题,很可能将之与艺术相联。这一点在人的情感上已经得到证明。康德认为艺术是承载情感的最主要载体,当然,这与康德对人的能力设计中的情感位置是相匹配。从此而论,后期维特根斯坦则会将情感与艺术的因果性分离,这在维特根斯坦后学丹托那里更为直接,他讨论了激进前卫艺术对美的分离,指出美或内在情感在艺术中并不是一个本质性存在,在具体艺术判断和审美判断上,情感是一个辅助性的因素,有情感或没情感,有的时候在效果上看起来是一样的。维特根斯坦并没有完全走到艺术不需要情感这一地步,他只是想指出,在一个艺术判断当中,情感并非动力,也不是主导要素,而是一个附属要素。那么,其他元素是否可能成为主导元素呢?维特根斯坦只是说,在一个艺术判断当中,无论我们是否谈论内部机制,训练都是不可或缺的,机制在训练中出现,它从来不是完全内在的,而是内外一致的。一致不是结果,而是一个动态过程。与之相应,人工智能具有基本技术框架,采用一定介质,并按照某种或某几种复合的功能目标采用大量数据进行复杂计算,进而完成一个输出结果。这一结果从人类的角度来看,可能是富含情感,我们可以称它为一种情感反应。但人工智能的情感反应并不像人类一样,它依赖于计算完成输出,这一输出结果在整个人类情感反应效果上看是一致的,但对人工智能而言,它只遵守运算的规则。虽然这同样是极度复杂的,但这一复杂性与人类情感的复杂性是两个性质。对于这一点,我们必须小心翼翼加以区分。
在一般观念中谈论人工智能情感的时候,实际上进行了概念的偷换。我们通过两种情感反应在效果上的一致,进行一种特殊的情感判断,将人的情感转运到人工智能情感反应中去,进而认为,在可计算性判断中,也存在情感的空间,这一情感与人的情感类似,否则的话,不可能产生出一个富有情感的情感反应。实际上,这一理解包含两个非常不同的部分:一个部分是人工智能的构成机制问题;一个部分是输出的效果的比较问题。通过输出效果的比较,我们发现情感反应上的一致性,进而进行回溯性反推,将人工智能的情感计算与人的情感机制相比对,认为两者是一致的。实际上,这样的比对非常容易出现错误。结果的一致性并不可以反推产生这一结果的机制具有一致性,但在人工智能出现之前,这一反推是有效的,因为可能产生情感反应的一定是人类,即反推机制是“先天”有效的。但是当我们如此将人工智能的情感计算机制与人的情感机制进行比对时,实际上已经在做了一系列的概念的流转和偷换。在“一致性”这一判断中,我们将人的机制带入人工智能计算机制中,我们为人工智能附加了人的情感所关联的各种周边元素,这些周边元素在人那里是天然附加的,而在人工智能的情感计算中若要产生作用,必须明显转化计算模型才可能产生相应结果输出,当人工智能并不具备这些附加计算模型,而我们却在情感判断中认定它存在,这只能是不同情感系统移用所产生的误用。但这一误用在目前阶段是有其积极含义的。


人工智能情感是一个难题,目前阶段无法实现它,所以这个问题的讨论无疑是理论化的。如果我们期待人工智能情感与人的情感相类,是某种实质性存在,则很可能是走错了路。本文对情感反应与内在情感机制的区分就是为了防止这样的误区。这并不是为了导出否定人工智能情感存在的结论。我们引入“情感判断”这一外部功能性机制,将内在情感机制这一实质性存在的判断进行功能转移,以人的情感来对接人工智能的情感反应。这样一来,在人工智能情感问题上,其实存在着两个性质颇不相同的部分。一部分是计算技术的发展带来的实质性进步,以及人工智能情感概念系统与人的情感概念系统的对接和转用。所谓人工智能情感并不仅仅是实质性的内在情感机制,它更多是人的情感机制对人工智能情感反应的容纳。后一部分更多是观念性的,它涉及的是人的情感观念系统的改变。所以,此处虽然对人工智能情感系统持正面的肯定看法,但它必须与情感系统的概念变革相结合,否则,我们就可能失去理解人工智能情感的分寸,纠结于人工智能是否真正具有情感这一看似尖锐,实则无用的陈旧问题。只有革新问题域,我们才能为人工智能的情感计算找到恰切的方向。


原文链接:https://mp.weixin.qq.com/s/fgM3TG4OftG94UGJs7RF9w



编辑:董莉

107#
 楼主| 发表于 2019-7-25 23:08:53 | 只看该作者
【案例】
李培根院士:数据驱动未来,但不是一切

【亿欧导读 ] 李培根院士围绕自动化、数据的理念、理念的数据三个维度对企业如何通过大数据去克服数据的不确定性,正确利用数据价值、实现制造企业数字化转型作了深入的阐述。



















原文链接:https://www.iyiou.com/p/106621.html



编辑:董莉

108#
 楼主| 发表于 2019-7-25 23:18:58 | 只看该作者
【案例】
AI在婚恋领域是怎么起作用的?


背景
众所周知,日本社会老龄化十分严重,而众多年轻一代别说生育了,连结婚谈恋爱的动力都没有,这一状况让日本各界苦恼不已。

2018年12月起,日本政府针对20-40岁、有结婚愿望的3980位未婚男女进行了问卷调查,并通过日媒,于今年1月8日公布了这份关于日本人结婚倾向的调查结果。调查显示,只有27%的人认为“结婚是理所当然的”,回答“可以不结婚”的占68%,认为“即使结婚,也可以不要孩子”的占60%,30-39岁年龄段接受可以终身不婚的比例最高,达到88%。高达70%认可不结婚的比例,创下了自调查开始25年以来的最高纪录。
针对回答最多答案的人群,当问到有没有采取一些行动找对象时,61.4%的人称“并没有特别采取什么行动”。特别是20多岁的男性,有72%的人都回答“没有什么行动”。日媒称,由此可以看出,现在的年轻男性对于找对象呈现出较为消极的心态。

而谈及为何不打算婚恋的时候,这项报告显示,46.8%的人回答“没有遇到合适的对象”,26.6%的人回答“结婚的钱不够”,24%的人回答“无法与异性好好交往”。由此,报告得出结论[1],20-40岁适龄男女不结婚的一大原因为“没有遇到合适的对象”。

基于这一调查结果,日本政府18日发表了《少子化社会对策白皮书》。白皮书指出,许多人有结婚意向,却不采取行动,政府需支援这些人群,比如创造年轻人在职场内外的多种相亲活动,增加找到合适对象的机会。

更重要的是,白皮书中还介绍了日本爱媛县的一项新颖的举措:利用AI,帮助年轻人匹配到合适的婚恋对象。
AI 约会并不是科幻
AI解决婚恋问题并不是一个完全的新概念,在《黑镜》第四季中的《HangTheDJ》一集,就描述了一个AI约会App中的科幻场景:计算机通过详细地了解使用者的性格特征,构筑出一个拥有使用者性格的AI,然后再让两个使用者的AI在虚拟世界中经历无数段人生,来观察二者之间的匹配度。
现实中AI在解决婚恋问题时自然不会这么“科幻”,但近年来也不乏许多通过性格、外貌等信息进行大数据匹配的约会App出现,但大多数停留在约会方向上。而日本则希望通过AI 能为用户找到以结婚为目的,关系更为长久的伴侣。

不过,在开始探讨AI婚恋为人际关系带来哪些新特征之前,让我们先回顾一下过去在没有互联网的时代,我们是如何认识真命天女/子,以及这种方式在现代发生了哪些变化。

基本上来说,那个时代,全球最通行的认识一个新的潜在婚恋对象的方式即“朋友推荐”。随着当代工作生活节奏变快,城市邻里关系变化等因素的影响,朋友推荐这种模式却逐渐变得“不那么靠谱”。究其原因,大致有三点:

第一,总量小。通常我们的朋友圈相对我们的活动圈是小很多的,朋友推荐的也就是朋友的没有对象的朋友通常都不多,以至于可以筛选的就很少,在当今日本大家生活比较安逸满足的情况下就容易秉持着“宁缺毋滥”的态度再看看,看着看着就容易过去了。而相对的,通过大数据匹配基本可以将一个时间段和指定区域的潜在对象都做一轮条件测试,量就会大很多。

第二,费时。通常如果是朋友推荐的对象,碍于面子都是要去见上一面的。如果工作比较忙碌,下班还要飞奔到城市的另一头见一个大概率此生不再相见的人,对于许多人来说还是比较耗费精力的。如果一周安排了3场见面会的话,那么往后对见面这件事情,会产生阴影也说不定。特别是那些本来就难以找到对象的宅男宅女们,见面会更是将他们推向了恐惧的深渊。而在线相亲,相对来说,只在彼此对彼此的认可区间都比较高的时候双方才会相见,完全没有了时间上的顾虑。

第三,面子。如果是朋友介绍的潜在对象,那么去见面前需要担忧的事情就挺多的了,譬如,见面之后感觉不是很好,是不是会驳朋友的面子?如果感觉有10%几率能谈,双方试一试结果分了,会不会和朋友连朋友也做不成了?

如上所述,“朋友推荐”模式在现代人婚恋生活里逐渐失效,认识真名天女/子如此之苦难,无怪乎人们纷纷感叹“单身一时爽,一直单身一直爽。”

事实上,这一议题也是日本白皮书所关注群体的最大痛点,并由此使得日本官方开始探索AI解决婚恋问题的可能性和付诸实践。而日本《少子化社会对策白皮书》中提到的爱媛县,则是这场实践中一个比较成功的案例。

爱媛县最初从2008 年开始由志愿者组织单身青年男女的联合约会(集体相亲),但受限于上述因素,起初效果并不理想。到2011年开始,同样是集体相亲活动,在其中引入了AI 对每次集体相亲的人员进行筛选匹配之后,相亲成功的实施率升高了16%。
AI在婚恋领域可以做什么?
产品思维告诉我们,每个复杂的问题都是可以分解成几个小问题来解决的。这里我们使用 “发现问题 - 拆分成几个小问题- 解决这几个小问题”的思路,来看看可以怎么解决婚恋问题。

一对未知的潜在交往对象,必须得在浏览有限的相亲资料的情况下看上对方。所谓的“看上对方”,通常需要满足视觉上的“一见钟情”、社会现实条件和性格匹配三个大条件。

在传统的约会或婚恋组织、网站中,这三个条件又面临几个细分的问题:

1.    虽然婚恋网站都有照片,但用户总量也十分可观,一个新进入的用户从哪开始「一见」。
2.    社会现实条件如职业、薪资、受教育水平是可以直接填写的,但大家往往并不愿意自己的太多信息直接暴露给陌生人。
3.    性格上就更不用说了,传统模式下的「性格」更像玄学,没有可直观体现的标准。
AI在解决这三个问题上的方法,无非是量化、特征提取、匹配三个步骤。

以视觉上的一见钟情为例,一见钟情似乎是一个较为复杂的问题,用户往往在「遇到那个对的人」之前都说不出来自己喜欢什么样的。

但一旦特征化之后,人类的长相全都是一个鼻子一张嘴,两只眼睛两个耳朵。每个人在样貌上的偏好万变不离五观每一个元素的数据变化。

虽然人不能准确描述自己对每一个元素的精确数字,但我们可以通过输入「梦中情人」来曲线救国。

AI 可以先通过用户输入的爱好等信息查看其是否有喜欢的明星或者二次元人物,之后在资料库中检索其他用户照片是否匹配该明星或二次元人物的关键特征,由此来筛选出数据库中是否有适合的“梦郎”/“梦姑”。

除此之外,婚恋“成功案例”也可以是AI 匹配的训练集:我们可以将区役所或市役所(民政局)中成功结婚的人的结婚照录入AI 学习的照片库(训练集)中,如果其中一方(假设为A)开始查询,我们则先在照片库中找到近似A 的人,然后开始查询另一方B 的照片,之后再在我们登记的数据库中匹配近似B 的人。

如果到这里我们依然没有找到合适的可以推荐的对象怎么办?莫慌,有句话说“人总是喜欢和自己长得像的人”,和自己像的人不仅是相貌和自己接近,性格、兴趣爱好也应当比较接近。那么这里我们就要开始考虑如何解决性格匹配的问题了:性格方面我们依然可以使用上述的特征点提取进行处理。

而社会现实条件,可以通过用户的生活圈或物理生活轨迹进行匹配。比如消费水平、活动区域、信用卡账单等,同时这些信息可以隐形化的出现在用户之间的推荐中,避免将薪资、职业等信息直接透露给陌生人。

当然,要生活在一起性格肯定更加重要了。在过去,介绍人对双方性格的匹配程度往往依据自身的主观判断。与「一见钟情」相同,对性格的量化、特征提取与匹配是一个在人工时代更无法完成的动作,这也是很多人恋爱走向悲剧的原因。

在这一领域,可以从用户上网的一些行为数据入手——在聊天的时候喜欢发什么类型的表情、用户平时喜欢玩什么样的游戏、喜欢浏览什么样的网站、看什么样的视频、听什么样的音乐或是喜欢什么样的电影等等。从已结婚成功案例的反推训练集,亦可对这一匹配的精准度做出贡献。

好了,到这里,假象一下我们自己是这个匹配系统的一方,那么通过算法,我们就能够解决从认识到相处的最难区间的问题了:有一个性格和眼缘都比较搭的潜在对象— 嗯,离我还不远,出来见见吧— 呀,你点的菜我也爱吃诶— 对对对,我最近也在追这个剧— 你居然也玩这个游戏诶,在哪个区呀,一起开黑啊。接下来双方见家长,由于门当户对(社会条件匹配),双方家长一看点头同意,喜结良缘。
--END--
作者 | 老木 TRI轻作者
参考文献
[1]日本内阁府.令和元年版少子化社会对策白皮书[OL].https://www8.cao.go.jp/shoushi/s ... oh/pdf/01gaiyoh.pdf


原文链接:https://mp.weixin.qq.com/s/O2nhPkf8U46NdtgUHTvFdg


编辑:董莉

109#
 楼主| 发表于 2019-7-26 20:46:51 | 只看该作者
【案例】
人工智能企业要组建道德委员会,该怎么做?

设置人工智能伦理委员会,系统的从企业发展的角度对于伦理问题作出分析和安排,可以从制度的层面帮助相应的人工智能伦理政策更好地落实,帮助确定未来的发展方向。
图源:视觉中国

编者按:
2019年7月24日下午,中央深改委召开第九次会议,审议通过《国家科技伦理委员会组建方案》。这表明国家对构建科技伦理治理体系前所未有的高度重视,而人工智能伦理是科技伦理中重要的内容。

在此背景下,我国人工智能企业成立伦理委员会正当其时。但人工智能企业怎么组建伦理委员会也成为一大现实难题。昨天我们发文讨论了组建国家科技伦理委员会释放了什么信号?今天,新京报智慧城市研究院特别刊登中国人民大学法学院副教授,未来法治研究院社会责任和治理研究中心主任郭锐、中国人民大学法学硕士李依及刘雅洁的深度长文,为企业和大众进一步解答人工智能企业的伦理委员会应当如何组成。

文 |郭锐、李依、刘雅洁

人工智能技术的开发和应用深刻地改变着人类的生活,渗透交通出行、金融科技、教育培训、资讯平台等方方面面。日益广阔的应用场景,让一个共识逐渐明晰:人工智能对伦理秩序冲击的深度和广度,可能是任何现代科技都难以比拟的。而掌握最前沿技术、担负着技术落地执行者角色的科技公司们,尤其应该有明确的伦理意识,并将对伦理的考量贯穿始终。这其中尤为重要的方式之一便是设立伦理委员会。

AI伦理委员会在实践中有多种称谓,常见的有“伦理道德委员会”“伦理审查委员会”“伦理风险委员会”等。而设置伦理委员会的目的,从这些大同小异的名称中也可见一斑:一是让AI伦理“成为问题”:让合伦理性在AI产品开发的诸多考量因素中占据一席之地;二是让AI伦理的审查尽可能专业、独立:与其让一线研发人员在技术和伦理的不同标准中无所适从,不如将伦理部分剥离出来,交由专门机构集中应对。

许多科技公司面临的一个困境是,尽管算法歧视等AI伦理风险普遍存在,但程序员缺乏对伦理进行准确判断的专业知识,也难以承担诸如“自动驾驶汽车应优先保护车内乘客还是车外行人”等关键伦理选择的责任。因此,相对独立集中且成员具备多元背景的伦理委员会,更适于对这些伦理问题进行判断。

其实,这一尝试在国外早已有之。目前、Google、Lucid AI、微软等多家大型科技公司已经设立了伦理审查委员会。审查委员会一般由具有不同知识背景和经验的专家组成,在审查时参考一定的行业标准,并最大限度地考虑安全和伦理问题。如微软成立了“伦理道德委员会”,由产品开发、研究员、法律事务、人力资源等部门的负责人组成。[1]   

伦理委员会应当具备哪些职能?

从机构定位上看,伦理风险管理委员会应当作为伦理风险管理的领导机构,组成人员可以包括主要人工智能研发部门的负责人、企业法务和/或合规部负责人以及处理伦理风险问题的协调专员。主要职能可以包括制定企业内部伦理风险管理政策、对伦理风险管理的相关问题做出决策、进行算法审计及质量审查工作以及协调企业内部各部门的伦理风险应对工作。  

尤应注意的是,伦理委员会并不是企业在构建AI伦理风险治理机制时唯一依赖的机构,企业不能奢望将所有伦理问题委由伦理委员会一揽子解决,而不提供配套的执行机制。从委员会的性质上看,成员将主要负责评估和风险决策的制定,但难以作为执行机构将具体决定落到实处。

因此,伦理委员会可领导整个风险管理流程的实施及监督,并交由各业务部门的具体伦理风险管理小组具体实施相关决策,并定期将成果汇报至伦理委员会。

一般意义上的AI风险管理流程(白底框)和人工智能伦理委员会职能(蓝底框)的对应关系大致如下图所示:   



具体而言,企业内部设立的人工智能伦理委员会应当具备如下职能:

1. 领导AI伦理风险控制流程的实施及监督。此外,为管理人工智能可能产生的伦理风险,委员会可以建立相应的内部制度对风险进行识别、评估、处理、监控及汇报,以管理相关风险。对于伦理风险的管理应从人工智能产品或服务的设计阶段开始,并贯穿于产品或服务的整个生命周期。

2. 参与AI的伦理风险评估。委员会可以定期进行伦理风险评估,对企业总体可能涉及的伦理风险进行识别,评估一段时间内相关伦理风险应对措施是否适当且有效。委员会可以根据相关法律法规以及政府及行业标准的规定,具体评估本企业所面临的风险,并记录评估内容及结果。还可以视情况聘请外部专家参与评估,确保评估的有效性。

3. 审查伦理评价结果。对于某项具体的人工智能产品或服务而言,企业可采用相关手段识别可能涉及的伦理风险,对该伦理风险的性质和特征进行分析并进行风险评价,记录评价结果并交由伦理风险管理委员会进行审查。风险分析的目的是理解包括风险水平在内的风险性质和特征。

此外,一项AI产品的伦理风险不是不变的。在基于算法的深度学习过程中,算法模型会根据数据库的样本不断更新,并可能带来新的伦理问题或逐渐消除原有的伦理风险。因此,常态化的委员会可以定期对以往的伦理评价进行二次审查,确保伦理评价结果的适时性。

4. 定期审查决策执行情况。如前所述,在伦理委员会之下,还有承接决定执行的伦理风险管理小组。小组对委员会决策的执行情况,自然也需要定期的审查和监督。

有专家指出,对人工智能的伦理审查存在一个悖论:如何为自己尚未完全理解的问题设计解决方案?因此,委员会起初作出的决策并不一定实际可行,具体效果要通过实践检验。而风险管理小组便可承担向委员会汇报并反馈实践结果的职能。

▲图片来源:视觉中国

谷歌伦理委员会的火速解散,留下了什么启示?

继2018年公布谷歌人工智能原则后,3月26日,Google全球事务高级副总裁Kent Walker在Google博客中发文宣布,为了贯彻落实Google AI七原则,完善相关的内部治理结构和流程,成立先进技术外部咨询委员会(Advanced Technology External Advisory Council , ATEAC)。

谷歌成立的这个人工智能委员会旨在检查公司的决策,定期开会并制作有关该领域和谷歌技术进展的报告。Kent在博客中写道:“该委员会不具有否决权,但意在为我们的工作提供多样化视角。”

该委员会是帮助解决谷歌在其公布的引导其研究和产品的发展和使用的人工智能原则中出现的一些挑战。比如像人脸识别,机器学习中一些令人不安的因素。一个值得注意的点是,委员会的设立是为了从多个角度分析与人工智能伦理相关的问题,而委员会的成员是非Google员工的具有多样化背景的外部人员:

•      Alessandro Acquisti,行为经济学家,隐私问题研究者,卡耐基梅隆大学信息技术与公共政策教授。
•      Bubacarr Bah,应用和计算数学家,高级研究员,南非非洲数学科学研究所(AIMS)数据科学专业的德国研究主席。
•       吴德恺,音乐技术和机器学习专家,港科大计算机科学与工程教授,伯克利国际计算机科学研究所杰出研究者。
•      Dyan Gibbens,工业工程和无人系统专家,Trumbull Unmanned公司CEO,该公司专注于自动化、数据、能源和防御的环境恢复能力。
•      Joanna Bryson,心理学和人工智能伦理学专家,巴斯大学计算机系副教授,多家人工智能公司的顾问。
•      Kay Coles James,美国传统基金会主席,曾在美国各级政府担任公共政策专家。
•      Luciano Floridi,哲学家,数字伦理专家,牛津大学哲学和信息伦理教授,指导牛津互联网研究所的数字伦理实验室,艾伦图灵研究院数字伦理小组主席。
•      William Joseph Burns,外交政策专家,美国前副国务卿,卡内基国际和平基金会主席。
委员会成员

委员会的组成人员来自学界、企业、和政界的不同背景。谷歌原本的计划是,第一届的8位成员从4月开始举行四次会议,直到2019年年底届满。但是早在2019年3月31日,Alessandro Acquisti在Twitter上公开表示退出ATEAC,认为讨论AI伦理这种重大事项,这个机构不合适。2019年4月4日,该委员会宣布解散。

谷歌成立伦理委员会到解散伦理委员会的经历虽然时间不长,但是其中仍然有几点值得我们思考。首先,伦理委员会是否应当由企业外部人员构成?第二,伦理委员会的组成应当怎样选择?第三,有哪些议题需要伦理委员会来讨论?第四,伦理委员会做出的决定效力如何,企业是应当直接落实还是加以借鉴?第五,如何保证伦理委员会讨论的透明性?

谷歌伦理委员会的火速解散,也给后来者一个思考,企业成立这样的伦理委员会是否能够真的实现其设立的初衷?其将怎样改变企业的行为模式?

从用户到企业,伦理委员会意义几何?

考虑到人工智能伦理问题的复杂性,中国人工智能企业,尤其是一些掌握大量个人数据的企业,可以考虑设置专门的人工智能伦理委员会,以协助企业在面对伦理问题时做出更加正确的选择。设置人工智能企业的伦理委员会能够更好地规范相关企业,促进良性发展。

目前,世界上确实很多企业和机构都在着手制定相关的人工智能伦理政策,但从效果来看,很多政策操之过急,大部分的人工智能伦理原则都是宣誓性或者纸上谈兵,缺乏在企业相应制度框架下的思考,无法实际解决企业发展中遇到的问题,或是缺乏前瞻性的考虑,无法排除将来发展中可能遇到的障碍。
片来源:视觉中国

而设置人工智能伦理委员会,系统地从企业发展的角度对于伦理问题作出分析和安排,可以从制度的层面帮助相应的人工智能伦理政策更好的落实,并帮助确定未来的发展方向。

从实践的角度看,不仅是谷歌,很多国外企业都建立了相应的人工智能委员会。谷歌旗下的人工智能公司Deep,ind设立了伦理和安全委员会,但是DeepMind没有向外界透露委员会的组成成员、讨论的议题,甚至是他们是否有过正式的见面等问题。[2]

微软有自己的人工智能原则,并在2018年成立了人工智能伦理委员会Microsoft’sAI and Ethics in Engineering and Research (AETHER) Committee,[3]该委员会由公司内部的高管组成,积极制定内部政策,并决定怎样负责任地处理出现的问题。[4]亚马逊资助了美国国家科学基金会“人工智能中的公平”的研究,Facebook则与慕尼黑工业大学共同组建了人工智能伦理的研究中心。[5]

人工智能伦理委员会应当包括科学家、企业领袖和伦理/法律界人士。实践中与此最相近的做法是,今日头条于2018年成立的“技术战略委员会”[6],这一委员会实质上也包括了上述部分伦理委员会承担的职能,其目的是“更好地让今日头条的人工智能技术最终造福人类,同时应对人工智能技术发展带来的挑战”,首批委员包括,图灵奖得主JohnE.Hopcroft教授,中国工程院院士、国家自然科学基金委员会副主任高文教授和中国科学院院士张钹教授等。

从企业的角度来说,设置企业人工智能伦理委员会,可以协助企业对数据的收集、处理和使用作出规制,以此保护用户权益,并降低合规风险、保护企业利益。具体而言,对于信息从用户传输到系统的过程中,应当规范对于信息的收集,包括可以收集哪些信息,怎样进行收集等。

对于在此过程中的对用户权利义务的告知、同意以及是否能再次转让等问题。组成企业人工智能伦理委员会可以帮助改进隐私政策,包括规范弹窗及授权内容,资助相应研究,推出相应的隐私保护白皮书等。

从用户的角度来说,企业设置专门的人工智能伦理委员会,也是为了更好地保护用户对于个人数据的知情权和自决权。用户有理由担心企业如何处理用户数据,尤其是敏感信息与隐私数据。

而人工智能伦理委员会的设立能够帮助企业进行人工智能伦理决策时多进行道德上的考虑,并符合与时俱进的法律法规,通过规范和约束企业的行为,加强个人数据的保护。

郭锐(中国人民大学法学院副教授,未来法治研究院社会责任和治理研究中心主任);李依(中国人民大学法学硕士);刘雅洁(中国人民大学法学硕士)


[2]https://www.theguardian.com/technology/2017/jan/26/google-deepmind-ai-ethics-board
[3]https://www.theverge.com/2019/4/3/18293410/ai-artificial-intelligence-ethics-boards-charters-problem-big-tech
[4]https://news.microsoft.com/2018/03/29/satya-nadella-email-to-employees-embracing-our-future-intelligent-cloud-and-intelligent-edge/
[5]https://newsroom.fb.com/news/2019/01/tum-institute-for-ethics-in-ai/




原文链接:https://mp.weixin.qq.com/s/y-eXVtuZrYn3Lw2736zT3A


编辑:董莉

110#
 楼主| 发表于 2019-7-26 21:16:05 | 只看该作者
【案例】
南京大学潘天群教授:人类智能发展的宏大叙事


作者:南京大学哲学系教授,科学技术与社会研究所所长潘天群


新拿到刚出版的《崛起的超级智能》一书,我一口气读完了。作者刘锋敏锐地观察到,今天的互联网已经不是个人电脑及智能手机等的简单连接,而是一个有生命的智能体;而且重要的是,作者发现,它在不断地向类脑巨系统的方向进化!正是基于作者这样的发现,作者倾注了十余年的心力,试图探究并揭示“互联网大脑”的结构与演化规律。

作者刘锋给出了“互联网大脑”的清晰定义:互联网大脑是在互联网向人类大脑高度相似的方向进化的过程中形成的类脑巨系统架构,它通过类脑神经网络将生活各要素和自然各要素连接起来,从而实现人与人、人与物、物与物的交互,互联网大脑在云群体智能和云机器智能的驱动下通过云反射弧实现对世界的认知、判断、决策、反馈和改造。刘锋是严谨的计算机科学家,他给出了一个互联网大脑模型,并力图使他的模型准确地揭示他所研究的实在对象,如同科学史中的许多成功案例那样;而在本书中他给出的最新的互联网大脑模型是一个包含云机器智能与云群体智能的左右脑结构的模型,这已经是他的第五个模型了。

对于非专业人士而言,我不在意他的互联网大脑模型的微观结构,而在意它的宏观解释力。我看到,通过互联网大脑模型,当今的许多技术现象在这个模型下能够清楚地得到解释与理解,并且作者用这个模型来对人类社会的未来进行了预测。

作者以一个新的视野解读互联网大脑及相关的信息技术现象,作者提出有许多新颖的且有趣的观点,我相信不同领域的读者能够读出各自的味道来。对于我而言,本书是一部关于人类智能发展的宏大叙事。作者将人类社会看成一个整体,因互联网的发明与发展,人类个体组成的社会及人工智能机器的连接便形成了一个有集体智能的整体,这个整体便是作者所说的互联网大脑。随着这个互联网大脑的逐步发展,它将成为一个超级智能体。作者的立论是有道理的。任何一个物种都是“整体性地”应对外部环境的,因而物种中的多个个体之间是相互需要的、多个个体的相互协作其力量或者生存智慧超过各个个体之和;当然条件是在非竞争性博弈的条件下且物种个体能够共同地“意识到”这种非竞争性。人类也是物种之一,今天科技的发展使得人们相信人类可以通过整体性的合作而生活得更好,而互联网的发展将每个个体连接了起来,从而人类协同而整体性地面对世界。

作者在书中的探讨已经不限互联网大脑模型本身,作者力图给出人类社会的发展逻辑。作者用互联网大脑模型去看人类智能发展的过去以及未来。刘锋从技术哲学、进化论学者那里寻找理论资源,他得出与德日进相同的观点,人类社会的进化目标是有无限智能的上帝。

今年初我应《科学·经济·社会》杂志之约,写了一篇论文《走向神的人——论技术的本质》,我的大体观点是,人类对自我有限性的认识而创造出无限性即神的概念,同时希望突破自身的有限而走向神——无限;技术便是人类走向无限的工具;人类社会的发展的逻辑便是走向神的逻辑。我的看法是,人类要守住自身的有限性,否则我们人类真的要幻化成自然,从而走向灭亡了。而《超级智能的崛起》的作者描绘了人类成为上帝(无限性)的技术路线图;作者相信人类社会发展的最终是形成宇宙大脑,或者宇宙智慧,即人类最终成为“全知全能”的上帝。对于技术发展与人类未来,作者似乎是乐观的;而我则是悲观的,我认为,成为上帝之路正是人类的灭亡之路。同时今天互联网技术的发展在加强了人类的整体性,社会的整体性越来越强所造成的结果则是人类个体的尊严不断被冒犯或伤害。在当今的社会中云计算的对象是人或者人所产生的数据,个体的人在今天以及未来是被操控和算计的对象,且愈演愈烈;随着网络的进一步发展、多种群体的形成,个体的人会屈从于多种群体的意志,且无路可逃;在作者的模型中,个体的人蜷缩在巨大的模型之中。当然,这可能就是人类未来的宿命。

原文链接:https://mp.weixin.qq.com/s/uxZQFPtbG9noHGr6GahxAQ


编辑:董莉

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表