【案例】 人工智能时代的理性、道德与信仰 [编者按]2018年4月28日,湖南大学岳麓书院、凤凰网在岳麓书院中国书院博物馆报告厅举办了“人工智能时代的理性、道德与信仰”人文讲会,特邀武汉大学蔡恒进教授、中山大学张祥龙教授、清华大学黄裕生教授对谈交流。这既是“致敬国学:第三届全球华人国学大典”的首场人文讲会,也是湖南大学比较宗教与文明研究中心成立后的首场讲座,由张俊教授策划、朱汉民教授主持。为了立体展示对话者的思想火花和学术风貌,《南国学术》编辑部采取各自表述、相互交锋、回答疑问的形式依次呈现。 提 要 蔡恒进从“认知坎陷”概念出发,认为人类拥有“我”的观念及与此相对的“世界”的观念,此二者的二分使人类具有整全意识。相比之下,机器虽然拥有人类所赋予的意识片段,却缺少整全意识,因而缺少对自身行为的把握,很容易因失控而给人类带来灾难。张祥龙认为,“深度学习”技术令人工智能拥有了“时间化”的能力,使机器能够产生真正类似人类的意识。在此基础上,机器既有可能因人类的道德引导而产生对人有益的智慧,也有可能因人类的不良应用而改变和恶化人类的生存方式,产生巨大威胁,因此人类需要合理限制和规范人工智能的发展。黄裕生认为,人类拥有自由意志而人工智能永远不可能获得,这是人机之间的绝对界限。进而,人类是真正时间性的存在,而机器永远不可能存在于整体的时间中。因此,存在于整体时间性之中的人类因其自由意志而拥有宗教信仰,这是人工智能无法比拟的,也因此而无法消除宗教。 关键词 人工智能 人类 理性 道德 作者简介 蔡恒进,1995 年在阿拉斯加大学费尔班克斯分校获得空间物理学博士学位,2005年受聘为武汉大学计算机学院教授、博士生导师,主要从事服务科学、人工智能、区块链技术研究,代表性著作有《机器崛起前传——自我意识与人类智慧的开端》。 张祥龙,1992年在纽约州立布法罗大学获哲学博士学位后任教于北京大学,1999年被北京大学哲学系和外国哲学研究所聘为教授,现为中山大学珠海校区哲学系讲座教授、博士生导师,主要从事儒家哲学、现象学和东西方哲学比较研究,代表性著作有《从现象学到孔夫子》《海德格尔思想与中国天道》《复见天地心:儒家再临的蕴意与道路》等。 黄裕生,1995年在中国社科院研究生院获哲学博士学位,2004年被聘为中国社科院哲学研究所研究员,现为清华大学哲学系教授、博士生导师,主要从事第一哲学、宗教哲学、比较哲学研究,代表性著作有《时间与永恒:论海德格尔哲学中的时间问题》《真理与自由:康德哲学的存在论阐释》《宗教与哲学的相遇:奥古斯丁与托马斯·阿奎那的基督教哲学》等。 一 主持人:在目前这样一个互联网时代、人工智能时代,中国文化包括人类文化向何处去?这既是一个哲学问题,也是一个与宗教相关联的问题;因此,接下来将围绕“人工智能时代的理性、道德与信仰”问题进行探讨。这其实内含两个问题,一个是人工智能,一个是道德、理性、信仰;所以,邀请了该领域的三位代表,与大家分享他们的见解。 蔡恒进:我这里想用“认知坎陷”概念来引出下面的思考。这个概念,是受牟宗三(1909—1995)的“良知坎陷”启发而提出的,意指认知主体对世界的描述方式是有一定连续性的结构体,因而其认识便对真实物理世界形成了扰乱。由于人最重要的特色在于其主体意识,即“我”的观念,而这个“我”就是最重要的“认知坎陷”;与之相对的,则是外在的世界。“我”与“世界”这一对认知坎陷,便是所有认知坎陷的开端。 人与其他动物本质的差别,来源于人所拥有的敏感皮肤。正是人的敏感皮肤,促使人产生强烈的“我”的意识和对外界的感觉,以此将“人”与“世界”两者分开,进而开显出人类的精神世界。这是认知坎陷的起源。 人类所创造的文字、宗教、哲学均是认知坎陷,都是由“我”这一观念衍生出的意识片段。这种认知坎陷、意识片段是可以物质化的,例如可以物化为螺丝、齿轮等实在物;进而配合完成人所期望的功能,例如组装成钟表来报时。因此,人工智能表现出的好坏,实际上依赖于人类创造者之意识凝聚状态等细节的好坏。例如,“阿尔法围棋”(AlphaGo)凝聚了众多工程师的意志,因而具有了创造力、想象力、直觉等,并战胜了众多围棋高手。虽然机器是拥有“自我”的,但机器这种“自我”依靠内部的各种子程序以及线路等实物,是一种很弱的“自我”,无法像人类一样作为一个整体来规避问题或者自行修复。然而,如果未来机器之主程序对副程序具有更好的统摄能力时,便会像人类对自己的认知坎陷、意识片段拥有足够的统摄力一样,形成更强的“自我”。 未来的机器运行速度快且进化迅速,将远远超过人类,其产生的认知坎陷也与人类不同,将对人类形成极大挑战。机器虽然拥有人类所赋予的大量意识片段,却仍缺少人类所拥有的、来自“我”与“世界”二分的整全意识,所以,人在这一挑战下还是有机会的。人类将“我”与“世界”二分而形成了最初始的认知坎陷,这种对“我”的认识可以至大无外也可以至小无内,而对世界的认识则可以借牟宗三“无执的存有”来描述。 如果从认知坎陷的视角来看宗教、哲学与未来,由于人类拥有整全意识而机器没有,机器所理解的世界自然与人类大不相同。机器并没有人类那样对自身行为限度的把握,但其速度快、力量强,因此很可能在不经意间给人类带来毁灭性的灾难,而人类甚至来不及反应。在对无限(无穷大)的追求中,人类有自控的分寸,因其整全意识而具有一种独特的“神性”;但机器无法自控,而容易进入“暗无限”的状态,相对具有一种“魔性”,这就是人与人工智能关系中的风险所在。 张祥龙:十二年前,“深度学习”方法的出现,导致了人工智能的突飞猛进,才使人类真正意识到了威胁的存在。在此之前,计算器的强大只是因为依赖其快速的计算能力及巨大的信息量;而“深度学习”,则是让机器在一定程度上可以自行学习以增强自身。在这种智能模式中,信息的输入、输出之间,不再仅仅是一两层的算法处理,而是建立了一种多层的或“深度”的互嵌网状联系,并且通过参数来调整各层之间信息的流动,导致层次之间出现非线性的曲折关联,使巨量的杂乱输入信息经过这些深层算法处理,最终可以有情境适应力地收敛到预期目标上,由此让人工智能获得了过去难以企及的直观能力。 一些对于人类来说“特别理性”的能力,比如现代性所推崇的形式化、概念化的知性能力,或对明确的因果关系、利害关系的把捉和算计的能力等,恰恰是人工智能可以相对轻易地拥有的低级能力;而与之相比,人类实际生活中常见的直观性、意向性的辨识、思维和感受能力,对人工智能来说却是相当困难的,直到最近才在某些方面达到了人类的平均水平。然而,通过层次间相互曲折联系的深度处理模式,新方法毕竟使得人工智能初步获得了这种能力。从哲理上讲,这一进展使机器变得有点儿像人了,而不是反过来,像历史上的还原主义者们所说的,人只是一种高级机器。以“深度学习”为代表的机器学习方法的创立者们,模仿人的大脑和知觉的神经结构及意向化认知方式,让机器的认知更类似于人,于是使得机器得到了“时间化”的能力,也就是令时间对机器有了根本性的意义。例如,深度思维公司最新研发的“阿尔法零”(AlphaGoZero),通过自我对弈强化学习,4小时击败国际象棋顶级人工智能程序,8小时击败战胜韩国棋手李世石的“阿尔法围棋-李”,24小时内战胜通过72小时自我学习训练称王围棋的“阿尔法围棋-零”。可见,这“4小时”“8小时”“24小时””的时间对它有了根本意义。这样自学出来的能力,才更有随机适应力,也就是更近乎人类智慧。它唤起人们浓厚的理智兴趣,但也让人们的生存本能感到了如临深渊的恐惧。 时间化的能力,是人类意识(包括理性、道德及信仰的意识)的根基。人工智能的新进展左证了这一观点,它的“智能”就体现在这种时间化能力的获得。机器现今所拥有的这种能力虽然还很浅薄,但却是真实的,因为它已经迈过了关键性的门坎。可以想见,在可见的未来,人们必定会全速发展它的这种非线性的自学或自我调整、自训练的时间化能力。因为,它越是能够超出确定对象的局限,得到深长的时间趋向性或“想象力”,用老子的话说就是获得“惚恍”里的“真”和“信”,它就越有更加强大的智能,也就从整体上更接近人类的理性,在某些方面还会远远超过人类。 这一突破带来了两方面的道德可能性。首先,在未来的发展中,人工智能的这种学习能力将逐渐不再限于解决具体的任务,而是像人类的能力那样,越来越通用化,出现越来越强的非线性“思维”能力。可以设想,随着它的时间化能力的不断增强,人工智能机器将逐渐获得类似于人类的“意识”,深化对具体情境的理解和时机化感受力,进而产生对环境、对其他机器乃至人类的同情感,而这就意味着它的道德感将开始出现。在此情况下,如果人类能够通过法规等手段对人工智能的研发加以规范,避免其在军事、商业等方面不计伦理后果的创新和应用,由此而引导机器智能向道德、信仰等更深层的方向发展,也就是将它的智能转化为智慧,就能为人类带来巨大益处而非威胁。 其次,如果人类出于竞争和赢利等目的的需要,只追求人工智能的强大能力,则将放大其本来就潜伏着的“魔性”。由于智能型机器在许多方面已经或即将超过人类,对它们的不良应用将改变和恶化人类的生存方式。比如,鼓励、塑造新型的个人主义,损害人类的人际关系。要知道,人在使用工具的同时也在被工具所塑造,在智能型机器越来越广泛深入的掌控中,人将逐渐丧失自主性,被儒家视作道德起源的家庭关系也会进一步衰败,这将对人类伦理产生巨大伤害。从目前的趋势看,这种现代化技术对人的重新塑造不可避免。过去人们用机器来代替自己的手脚身躯,已然使得人际关系、人与自然的关系、生产方式及人的精神世界发生巨大改变,而今如果再用智能型机器来代替人们的头脑、精神,那么机器对人的塑造将更难以预测,其风险无法控制,必然对整个人类产生巨大威胁。 最后,在以上的两种可能中,后一种的实现概率要大得多,所以在对人工智能的应对当中,人们应该首先看到其在道德、身体、种群上对人类的威胁。因此,人类绝不能对人工智能的发展放任自流,就像不能对“克隆人”的科技放任自流一样;而是要在全球范围内限制和规范人工智能的发展方向,禁止其不良的发展趋势和应用方式,促成善良美好、与人和谐共存的人工智能。 黄裕生:要回答人工智能是否会终将淘汰人类,首先要理解人本身。在对人的理解上有一点共识,即人有三种基本能力:(1)感性能力,即能接受外部事物刺激的能力;(2)理智能力,即能够给出概念并以概念对人们生活于其中的世界进行规定与演绎、推理的能力,这个能力的基础是定义能力,其最典型的部分为逻辑推演能力;(3)意志能力,也就是追求某种对象的能力,把某种对象作为自己的目的来追求的能力。在这三种能力中,第一种能力完全有可能被程序化并被机器所拥有;第二种能力中的逻辑推演能力,机器也已拥有,但机器是否能拥有定义的能力却是值得怀疑的;而第三种即意志的能力,机器则永远无法获得。 意志的能力是最复杂的。意志力又可进一步区分为两种能力:第一种是低级的意志力,它欲求意志之外的事物;第二种是高级的特殊意志力,即追求意志自身,只以意志自身为对象,以意志为意志,确切地说是以意志自身从自身给出的法则或事物为对象,这种能力也就是通常所说的自由意志。这种自由意志,使人类能够突破一切程序。如果人们要把自由意志赋予机器人,就必须能够把自由意志程序化,也即能够用程序把自由意志写出来;但是,自由意志恰恰是不可被程序化的,否则它就不是自由意志。因此,人机之间存在绝对的界限,即使机器可以跨越前两种能力的界限,但终究无法跨越第三种能力,也即意志能力的界限。 尽管在理论上人们可以赋予机器以自动甚至永动的能力,但是机器不可能获得使其具有主动性能力的意志,而只能在程序中活动。虽然在各种处境下机器可以做出最佳的反应,但是它没有意志去主动地做任何事情,其一切行为均是反应性的,只能在各种环境下做出最好的选择。与此不同的是,人类既可以做出最好的选择,同样也可以做出最坏的选择,这就是无法预料的自由意志的体现。人机之间的这一界限是无法打破的。 一些主张人机之间没有界限的学者,试图通过物理还原主义的研究来否定自由意志,将所有的意志活动归结为神经元放电;既然神经元放电都是遵循某种因果律的,那么自由意志便不存在。但是,这种还原主义研究在逻辑上面临一个难题,即所有这类还原研究都是在意识活动之中进行的,也就是说,这类研究无法跳出人们的意识活动之外来观察意识本身。这意味着,所有这类研究都不可能真正揭示人类意识最神秘的地方,意识自身永远无法达到意识自身。在这一意义上,还原主义永远不可能否定自由意志,因而想借此来打破人机界限的努力也是无法完成的。 人类自身才是真正的时间性存在。自由意味着突破本能、突破直接性、突破必然性,使人类的存在成为一种永远面临可能性以供选择的存在,从而摆脱了必然性的封闭。因此,人类不会陷入非如此不可的必然性处境,而总是处在面临着多种可能性的开放性状态中。这就意味着过去可以被中断,过去不能决定现在与未来,过去对于人类而言也是一种可能性的过去,人类可以通过重新理解过去来理解现在和未来。过去是未完成的,可以重新加以理解,是可能性的存在,因此,对于人类理解现在与未来仍然具有意义。如果过去对于人类来说是完成的,就如同人身上现成的器官一样,那么人类实际上也就没有了过去,过去直接就作为现成物外在于现在而与现在无关,因此,人类只存在于现在。同样,当下与未来同样是开放的,充满着各种的可能性。人们可以通过过去来理解生活、策划未来,也同样可以通过理解未来去理解过去与现在。在这里,过去、现在、未来是不可分割地存在着。在这个意义上,人因自由而存在于整体时间之中,其中包含了一切可能。这是机器无法企及的。机器永远不可能存在于这种整体时间中,它不会有过去、未来。 正因为人类存在于一种整体时间性之中,因此,人类总是不可遏制地打开着绝对未来,并因此才会拥有宗教。宗教不仅确信当下的事物,还确信不在场的过去和未来的事物。人类的时间性存在使其能够打开一种终极的可能性,即死后的可能性。不管对死后的可能性世界如何理解,都不可能不确信,仍有一个世界在延续,仍有一个世界存在。但是,如果人们承认自己生活于其中的这个世界是一个有伦理原则而充满价值色彩的伦理世界,是一个有公正、友爱同时也有不公与罪恶的世界,那么人类就会理性地将死后的世界设想为一个更公正的世界,并进而更加坚守现实世界的道德。也就是说,如果人们的世界拥有道德性的存在,那么就会不可遏制地去想象、理解死后的彼岸世界。在这个意义上,宗教信仰的基础便是人类的自由意志。因而,无论人工智能多么发达,也不可能取代人类,不可能使宗教消失,或者消除人类的道德。人类之所以拥有道德世界,就因为人类的行动并非必然的,而是自由的。 二 蔡恒进:黄裕生教授所说的“自由意志”,其实是一个很大的问题。讨论这个问题应有的背景,是如今现代科学的进步与快速发展。很多人都觉得“物理还原”是一个非常有效的方法,但“物理还原”并不能探究出自由意志由何而来。从宇宙大爆炸开始,虽然可以用物理方程等模拟宇宙的发展演变,但即使现在引进量子效应、概率性,都无法探究自由意志的本质。生命一定要有意识,能够意识到我是我、外界是外界。即使是一个单细胞,当它能分清楚内外的时候,自由意志实际上就已经开始了。只有从这个角度,才能看清自由意志的来源。对于人类来说,皮肤非常敏感,大脑在母体外面发育的时间很长(0—5岁),因此人类有更强的“我”的意识,是万物之灵。人的发展是一个连续谱,是高速度的进化,并且这种进化不是通过人类身体,而是通过将人类意识片断的物化,诉诸文字、雕塑、音乐等形式可以脱离人类身体的方式进化。这些进化过程归结起来就是人有自由意志。此外,人的意识还可以超越时空的、构筑未来的各种可能性。 但是,当人类的技术发展到一定水平,发达的技术又开始变成了限制,这时的技术发展反而又变成另一种负担。也就是说,有自由意志并不代表着人类没有危险。危险的关键就在于,机器不需要比人类更聪明、更不需要比人类想得更深远,即便不是主观或故意要“造反”,也可能伤害甚至毁灭人类。这就如同把豹子之类的危险动物养在家里,虽然它平时不伤人,但哪怕只攻击一次,后果也不堪设想。而机器的魔性,可能就存在这种情况,这就是问题的所在。 至于黄教授谈到的此岸世界、彼岸世界,我认为,关键在于,人类必须在“此岸”就解决问题,因为彼岸世界并不能帮助真实的人类世界。例如,当人工智能的威胁到来的时候,只能由人类自己来解决问题,而不能寄希望于彼岸世界。人类追求不朽、追求永生,但实际上人类已经能够做到了。一个人五十岁的时候已经与三岁时不同,但却依然认为我还是我;当谈到要永生的时候,究竟是是五十岁的我要永生,还是一百岁、两百岁的我要永生呢?实际上,哪种情况都不是。在某种程度上,从三十岁到五十岁,“我”的有些东西已经能够长久地存续在这个世界里(比如,出版著作),那么“我”(的一部分)已经可以看作是永生的了。孔子(前5512—前479)就是永生的,他的很多言行与主张(意志片断、认知坎陷)已经融汇进汉语中,又被一代代人所学习。孔子的学说包括仁、义、礼等,都在被后人实践着,而且一直在演化,所以他是在永生。普通人也可以通过这种或者其他方式永生着,在此岸世界便已经可以实现永生。 张祥龙:对黄裕生教授所说的“自由意志”,我也有不同看法。按照西方近几十年的认知科学研究,以前所认为的那种自己的意识完全主宰自己的意愿的强自由意志论的看法,可能是不对的。有几个著名的实验已经对此提出了反证。比如,其中一个实验让被试者用自己左手或者是右手的手指按键,人们觉得自己的自由意志当然能够控制自己用哪只手按键,但是经过先后几次的实验,却都发现在被试者决定动哪根手指之前,他的脑图显示他已经有了动的冲动,而且根据被试者的脑图测试者甚至能够预测他将动左手还是右手,达到百分之八十的准确率。当然,有的科学家据此得出结论,认为人类没有自由意志,这是不准确的。这个实验只是说明,人类的自由意志受他的内在时间之流造就的“潜意识”等因素影响。具体的动作过程,可能在“显意识”之前就已经做了准备;但是,这个所谓的被测试出来的潜意识,与人们以前的身心经历的积淀是有关系的,其本身不是完全机械的,而是有所选择和综合的。以前的心学或者印度的瑜伽最后所要达到的境界,就是把人们所谓的“潜意识”与“显意识”充分沟通,使整体意识进入到一个更高的、更完美的状态。这从侧面说明,人们的自由意志可能不完全是由主观意识或自我的显意识来决定的,它是一个与人们身体有关的时间化的过程。 既然是这样,难道人工智能就不能够模仿它,或者在结构上去再现它?既然通过“深度学习”和其他人工智能的算法,已经给了机器非常初步的时间化能力,那么,这个发展再进行下去,说不定机器也会有所谓的过去,过去对它不再是一片空白。机器也会有记忆力,通过推动这个记忆力,机器也能够对未来做出很多选择,能面对各种各样的可能。这就是所谓自主学习的一个特点。“自主学习”就是要面对各种的可能来构造出新的能力。从这方面看,未来机器是否会像人类一样有这种自由意志,还是需要进一步探讨的。 黄裕生:张祥龙教授所讲的那个实验,的确有一定的挑战性;但是,这种实验本身已经设定了一点,就是人类自由意志是可以归结为人类神经元的放电,因此这个设定本身可能就是一个问题。如果说可以做实验来验证、还原自由意志,可以归结为这种神经元放电的话,那么就代表着人类其实并没有真正的自由意志,因此做这个实验的理念前提本身就已经否定了自由意志。这类似于某些人对康德(I. Kant, 1724—1804)的批评。比如,在铁轨的两个分叉上,一边有三个人,另一边有五个人,这时不管火车怎样走,其实都要杀人;这种所谓的设定,已经把人从道德处境里面抽象出来了而处于一种必然要杀人的情况中,也就不存在故意杀人的问题。还原实验,有类似于这样的前提在其中。 蔡恒进:针对黄教授的观点,我想再补充两点:第一,未来机器有可能像人一样有意志力;即使不可能,也依然是危险的。因为,人类把很多意识片断、认知坎陷传递给了机器,机器就会模仿;而由于机器的计算能力很强,人类展示给它的内容有好有坏,机器可以任意组合却又缺乏整全意识且无法辨别是非,这就会带来危险。尤其是机器的速度快、力量大,不需要有很强的自由意志就可能对人类造成伤害。第二,机器也可能会有自由意志。如同张祥龙教授所言,由于自主学习技术的存在,机器可以学习很多内容,然后能将其按照某种方式组合起来。这一点与人的学习过程是类似的,并没有本质差别。 “人”的意义在于人的整全意识,这一点是机器目前发展不出来的。由于人是亿万年进化过来的,认知坎陷的“开显”完全是历史积淀的结果,在适当时候便会开显出来,而且是能与物质世界相呼应的、是向善的。这种开显过程放在机器上就不能适用。 人类的“善”从某种程度上与自身生命的有限性相关。从古至今,人们一直在讨论善由何而来,例如恻隐之心、羞恶之心。人类相信有善,在于一代代轮回染习的传承,在于婴孩时期就感受到的生而得之的善意。这个“善意”包含三个方面:一是大自然的馈赠,二是父母的养育教导,三是社会的保护。假如说,人类未来可以活到一万岁,但从来没有经历过弱小的阶段,某种程度上,这种染习的过程就没有了。另一方面,对于机器来讲,它没有这种轮回染习的经历,就没有对善意的感知,不会有天生的善意,因此,要将善意传递给机器的挑战性就很大。 三 主持人提问:机器的“魔性”是从哪里来的?机器的“恶”是创造机器的人赋予的,还是由其自身产生的? 蔡恒进答:这里可分为两个层面。第一个层面,并非机器主观有恶念,而是存在一种“暗无限”(dark infinity)状态。“暗无限”是一个中性词,人类自身也会出现这一状态。比如,某小孩从一个街区到另一个街区去购物,如果在路上碰到两个下棋的人,就有可能转而去看下棋而忘记购物。假如他的智商很高,又深深地被下棋所吸引,那么他可能就想要把它研究透,由此花费很多时间,不仅忘记最初的目的(购物),甚至废寝忘食,这就是一种“暗无限”。这种研究一旦进行起来,就看不到尽头,难以停止。因而,重点并不在于事情的好坏,而在于在这件事情上花掉的时间。又如,这个小孩碰到一只他从来没有见过的犬,他也可能停在那里仔细研究它,出现“暗无限”的状态。小孩是有可能忘记购物的,但普通人是不会的,会退出来,想起购物很重要。然而,机器则像缺少这种自控力的小孩,人类该怎样让它从“暗无限”的探索中返回呢? 另外一个层面,正因为人类想让机器对人“好”,但辩证来讲,有“好”就有可能出现“坏”,有可能出现难以预料的场景,甚至与人类所设想的情况完全相反。一旦发生这种坏的情况,后果将非常严重。人类并不能真正控制这种情况,因为人类并不能完全禁止有危害人类功能的机器人。即使人类在多数情况下是想去做善事,但不同角度、不同立场的人制造的机器人就可能完全不一样,因此并没有办法去规定一定要禁止哪些、不禁止哪些。解决的办法就是,允许人去探索自己想做的事情,但这目的与过程都要公开、透明。因为,一个人想不到的危险,别人可能想到,这样就会互相制衡。比如,欧洲现在的立法就要求系统的开发要有可解释性,任何系统都必须进行登记。开发者应当有这样的自觉,以公开、透明的模式来相互补充、制衡。这是未来一种可能的进化模式。 至于黄裕生教授说,人与机器之间存在绝对的分界;其实,这个分界是不存在的。因为,目前已无法定义“人”是什么。比如,脱氧核糖核酸(DNA)、智力等等有生物性的东西,机器都可以有;而且,人在未来很多身体的零部件都可以替换成机器,如心脏起搏器已经是比较成熟的技术。因此,人与机器的这个边界将会变得非常模糊,尤其是如果人的脑子也可以与一台超级计算器交互连接的话,这时已很难再区分是一个人还是一台机器了,人与机器的这个边界已经彻底没有了。 张祥龙答:我觉得,这里先要定义一下什么是恶?简单说来,“恶”就是一种狭隘的对象化,不顾及与其他人的联系。比如,自私自利是恶,而利他则是善,都是这一定义的反映。假如机器人要有恶性的话,首先与这个设计者、制造者有很大关系。如果设计者有很强的目标、欲望在指引,那么他设计这个机器人的时候,就会通过各种各样的手段让机器人能够具有达到这个目标的能力。例如,出于军事上的目的而设计、优化的那种机器人等等。此外,“恶”“善”是与社会条件相关的。如果是一个异化的环境,由资本来决定机器人未来的发展,那么,就会不择手段地牟取暴利,并将这种冲动反映在设计者身上。 至于机器人本身,因为它有自我学习能力,甚至是有某种自我意识,有可能产生恶;但如果让它的这种意识越来越深化、自由地发展,那么这个机器人可能向善的机会就比较多。“善”与“恶”实际上是一对哲理定义,由于“恶”是被贪婪的目的等控制,因此,自由的选择和原发的不受对象控制的意志,就像佛教讲的那种去掉了执着的根本意识,才是未来要争取在人生中以及机器人身上实现的。《生命3.0:人工智能时代的人类》一书的作者设想,未来有一个超级人工智能,它把人类社会中存在的所有问题都解决了,使未来社会中的人类互亲互爱。但是,人们愿意生活在那样一个社会里吗?那真的是一个善的社会吗?如果人类所有的决定、所有享受到的东西,都被这么一个超级人工智能来构造、控制、主宰的话,人们肯定会觉得不舒服,会觉得自己在被豢养。我们宁可要一个不太完满的世界,也不愿意要一个完满但完全被控制的世界。只有在众多的可能、真实的多样性中,人类才能寻找到真正的善。 黄裕生答:机器人有恶念与机器人做坏事,这是两个问题。机器有恶念,这是道德意义上的判定;它会做坏事,那就不是一个道德上的判定。因为,说它做了坏事,那是对应人类来说做的是坏事,但却不足以归为恶念的问题。如果是恶念的问题,那就意味着机器必须有自由意志。有了自由意志,才会有一个好坏的问题。因为,所谓善恶必须要有一个前提,即可以自行选择;如果没有选择,就不存在善恶的问题。比如,人类不可能对动物有道德上的评判,因为动物是自然的生活状态,而人类则是自由的生活,永远面对着可能性,有选择才会有善恶的问题。如果说机器有自由意志,那么当然机器就有善恶。讨论恶的问题需要一个前提,即这种恶是指道德上的恶。 听众提问一:有没有可能,某一种族或者人群利用人工智能把所有人都控制起来,并且对现存的自由、民主、公平、正义等价值观产生冲击,使“善”只针对少数人,而对多数人是“恶”? 张祥龙答:人工智能的发展将来完全可以分种族、分阶层。比如,它可以被用在军事上,甚至通过专门辨认某一种族的面相、体型特征来被应用于种族屠杀上。这确实是隐含的比较可怕的地方。至于你说的少数聪明的人控制了其他人,也是有可能的。因为,如果高科技由不善良的集团或者人来控制,那么,他们当然是要急剧地发展技术来与对手竞争,那就会有一些高度保密的先进技术,然后以此攫取统治权力。那样的话,人类整个社会的自由、民主、公平、正义等要素都会荡然无存。在普通百姓毫不知晓技术发展的情况下,那些人会用技术手段构造出每个人都无法避免使用的布满生活的智能工具,比如手机等等。那种情况下,人的任何选择,包括那些表面上是自由意志的选择,实际上都在被操纵着。这完全是可能的,也恰恰是人工智能的危险性所在。 听众提问二:机器的“神性”与“魔性”是否有可能统一?其“魔性”确然对人类造成了威胁,但如果发展其“神性”并使之与“魔性”相统一,是否会因其与人类过于相似而形成另一种威胁? 蔡恒进答:关于“神性”与“魔性”之间如何平衡的问题,首先不要误解 “魔性”。“魔性”可以理解为“神性”的反面。“神性”就是人们在此岸对无限的永远不会终止的追求,但实际上的具体内容却很难去定义。例如,人们讲“圣人”,却并不会真正去定义清楚何谓“圣人”,而且也无法定义清楚。而对于机器也是一样,“神性”与“魔性”必然相互联系,相伴而生。决定人类社会未来的行为并不是个人的意识,而是整体的意识,是超越人们身体的。我所想象的未来的图景中,人工智能与人的智能会同时起作用。因此,在这种情况下,个体并非不重要,但作为个体却并不能掌控全局,而必须在更高的层次上作为整体而前进。 听众提问三:如果说人类是真正时间性的存在而机器并非如此,那么,人类的这种状态是否可以看作衡量人与机器之间高低差别的标准,抑或可能仅仅是一种人类特有的看待世界的方式而已? 黄裕生答:是的。正是因为人类有思想,所以才高于所创造的机器人。人自身真正的进化,依靠的是思想的进化,依靠思想加深深度来不断改变、刷新历史。人类思想活动最为典型的体现,就在于人的自由;也就是说,人之所以会思考未来、思考过去,都是基于人是自由的这一前提。如果人是封闭于过去或者当下世界中的话,就不存在或不会提出这样的问题。由于人的所有思想活动都是基于其时间性的,所以,机器再怎么进步,都无法达到这一点。人与机器的分界点体现在思想,而此思想是人类的思想,是在响应世界的召唤。 至于蔡教授刚才提到人机无界限,我却认为,即使人身上安装了再多的高速运转的机器要素,也依然是以人作为一个主体,而不是以机器作为主体,这与直接制造出与人一样的机器是不一样的,必须区分开。 听众提问四:黄裕生教授在谈到人工智能与人类的分界时,使用了一个非常经典的概念——自由意志。但是,从康德以来,自由意志实际上是实践理性的假设;而从人工智能的角度来看,如果把人的自由选择作为一种算法,那么人工智能也未必没有这个所谓的自由意志。可否将情感——哲学上的直觉能力——这种机器人不可能真正拥有而只能模仿人类的能力,视作人与机器的差别? 黄裕生答:关于自由意志问题,在康德那里,它是三大悬设之一,但这是必然的悬设,因为不悬设它则不合理。康德是从理性事实出发来反证必定要有自由这个悬设的:人们生活的世界是有秩序的,而这些秩序就是建构在一系列基本的伦理原则或道徳法则基础之上,也即作为人类行为底线的那些法则基础之上。也就是说,那些法则在人们的生活世界里是有效的,否则人们的整个现实社会就会瓦解掉。而这些道德法则均是以禁令或者劝令、应当或者不应当的方式表达的。这样表达的伦理法则既然有效,则反过来证明人必定是自由的,否则它们就应该是无效的。就像我跟一只动物说“你不许咬人”是没有用的,但是跟其他人说“你不许杀人、不许偷盗”则是有用的。既然人类社会是建立在这些最基本的道德法则之上,由此,康德反证出人类必定有自由意志,否则将无法解释。因此说,这是一种必然的悬设。 关于情感问题,这个里面要分出层次。日常的喜、怒、哀、乐这种情感也许是可程序化的,机器在这个层面上是可以有情感反应的。但是,也有些情感明显是不可被程序化的。例如,爱。人类可以无条件地爱别人,爱人如爱己,这样的爱是不可能被程序化的。但问题在于,人类如何拥有了这样的爱?其根源在于人是自由的,由此才可能拥有爱人如爱己这般的爱;也就是说,这样的情感依然基于人的自由意志,因而不可能被程序化。 听众提问五:以第五代“微软小冰”为例,人工智能已经可以通过“深度学习”模仿人的神经网络来习得人类的部分创作思维,这是否就意味着本雅明(W. B. S. Benjamin,1892—1940)所谓“机械复制时代的灵韵消散”又返回了?人工智能对文学的创作有怎样的影响? 张祥龙答:在已进行过的计算器与诗人的竞赛实验中,即使是专业的文学研究者、评论家都很难将计算器所创作的诗轻易辨别出来,计算器竟然一直撑到了最后一轮,让人非常吃惊。这恰恰说明,人工智能现在已经达到能够表达情感及艺术的境界,而这已经属于非对象化的意义构造、意义感知,有极大的进一步发展的潜力。在未来,机器所创作的文学作品也可能会打动我们,成为整个社会的时髦,甚至超过一些人类作家。对于这一类型的机器人,我们需要强化其自主学习能力,并且让其学习真正伟大的艺术作品;只有这样,机器才会进一步创作出优秀、动人的作品。而这种情况恰恰可以反过来刺激人类反省自己的艺术作品,反思何种作品才算是真正的精品。 蔡恒进答:人工智能用于诗歌创作虽然可以骗倒很多人,但是却骗不倒真正的诗人。无论机器做得怎样好,也比不上真正的诗人,因为真正的诗人能够开显出新的“认知坎陷”出来。比如,唐代崔颢(704—754)创作的《黄鹤楼》一诗,机器是创作不出来的。它没有人类这种肉体、情感、进化的历史,它现在只是它所知的各种要素组合来、组合去。或者将来有一天,人工智能对自己的身体产生感知了,它会开显出另外的“坎陷”来,但这种情况下的作品也只有其他人工智能能够欣赏,人类是欣赏不了的,就像蝙蝠开显的坎陷不能被人类知晓一样。我用“认知坎陷”这个概念来讲所有的事情,就因为它的穿透力很强,既非单纯感性的也非单纯理性的,却能同时穿透二者。我相信,人的认知真的是这么来的,并且能够指导对人工智能的开发。 [责任编辑、校对:田卫平 编者注:此文原为综述稿,由湖南大学岳麓书院陈帅博士整理加工;发表前,编者重新设计了文章结构,并对原稿做了修改加工,又请三位教授予以订正,刊发于《南国学术》2018 年第3期第356—365页。为方便手机阅读,微信版删除了注释,如果您想引用原文,请到“澳门大学人文社科高等研究院”网站,点击“学术期刊-南国学术”后,可以下载所有文章PDF版。网址是:https://ias.um.edu.mo/scq/ 作者:蔡恒进、张祥龙、黄裕生 来源:微信公众号—南国学术 链接:https://mp.weixin.qq.com/s/L2pySf5yAwIAC6hJyZjQzw 编辑:宋婷
|