人工智能的哲学断裂:什么是人机共生与新轴心时代?
导读:
对话者:托拜厄斯·里斯(Tobias Rees)与内森·加德尔斯(Nathan Gardels,《Noema》主编)托拜厄斯·里斯 (Tobias Rees) 是limn的创始人,limn 是一家位于哲学、艺术和技术交汇处的研发工作室。他还是施密特科学公司 AI2050 计划的高级研究员和谷歌的高级访问研究员。托拜厄斯·里斯是一家位于哲学、艺术和技术交汇处的人工智能工作室的创始人,他与 Noema 主编内森·加德尔斯 (Nathan Gardels) 坐下来讨论生成人工智能的哲学意义。译文仅供学术交流,文章观点仅代表作者立场。
为什么人工智能是哲学上的突破——人类与科技的共生预示着一个新的轴心时代的到来
01 人工智能对现代性概念的颠覆内森·加德尔斯: 我们人类仍不清楚的是,我们通过人工智能创造的机器智能的本质,以及它如何改变我们对自己的理解。作为一名哲学家,您不是在象牙塔里思考这个问题,而是在“野外”,在谷歌和其他地方的工程实验室里思考这个问题,您对此有何看法? 托拜厄斯·里斯: 人工智能从根本上动摇了人类认知框架。我们依赖大量隐含概念理解世界,而这些现代性基石正被人工稚嫩那个颠覆。例如,人类与机器的传统二分法——前者是开放、智能的生命体,后者是封闭的机械系统——自17世纪起定义了“人性”。但AI打破了这一逻辑:它既是人造物,又具备学习、推理等类人能力,迫使我们对“智能”“创造力”等概念重新审视。 人工智能之所以成为如此深刻的哲学事件,是因为它颠覆了许多最基本、最理所当然的概念(或哲学),而这些概念或哲学定义了现代时期,并且大多数人仍然以它们为生。人工智能确实让这些概念或哲学显得不足,从而标志着一个深刻的停顿。 举个具体的例子,现代社会最基本的一个假设就是,人类和机器之间存在着明显的区别。 这里的人类是生物体,开放且不断进化,具有智慧,因而具有内在性。 那里有机器,没有生命的机械之物;有封闭的、固定的、确定性的系统,缺乏智能和内在性。 这种区分最早出现于 17 世纪 30 年代,构成了现代人性概念的组成部分。例如,17 世纪至 19 世纪期间发明的几乎所有词汇都是为了描述什么是真正的人性,这些词汇都基于人类/智能-机器/机械的区分。 能动性、艺术、创造力、意识、文化、存在、自由、历史、知识、语言、道德、游戏、政治、社会、主观性、真理、理解。所有这些概念的提出都是为了让我们了解什么是真正独特的人类潜能,这种独特性基于这样的信念:智慧使我们超越一切——而其他一切最终都可以被充分描述为一个封闭的、确定的机械系统。 人机区别为现代人类提供了理解自身和周围世界的框架。人工智能(即构建的智能技术系统)的哲学意义在于它们打破了这一框架。 这意味着,持续了近 400 年的稳定时代即将结束,或者似乎即将结束。 从诗意的角度来说,这有点像人工智能将我们和世界从我们对自己和世界的理解中解放出来。它让我们处于开放状态。 我坚信,那些打造人工智能的人应该理解人工智能的哲学意义。正因如此,我才成为了你所说的“野外哲学家”。 加德尔斯:你说人工智能是智能的。但许多人怀疑人工智能是否“真的”智能。他们认为人工智能只是人类发明的所有技术中的一种工具。 里斯:这种质疑源于对人类例外论的怀念。过去二十年,智能概念已扩展至细菌、章鱼甚至地球系统。AI是智能的另一种形式,正如鹈鹕不能宣称只有自己会飞。关键在于,AI的智能与人类存在差异:它能处理海量数据、发现隐藏模式,例如破解围棋新策略或预测蛋白质折叠,这种“超人类”能力开启了全新认知维度。 人工智能告诉我们事实并非如此。当然,不仅仅是人工智能。在过去的二十年里,智能的概念不断增加。我们现在知道还有很多其他类型的智能:从细菌到章鱼,从地球系统到星系的螺旋臂。我们是一系列智能中的一个。人工智能也是如此。 认为这些其他生物不是“真正”的智能,因为它们的智能与我们不同,这种说法有点愚蠢。这就像一种鸟类,比如鹈鹕,坚持认为只有鹈鹕“真正”知道如何飞翔。 我们最好摆脱“真的”,简单地承认人工智能是智能的,尽管它与我们略有不同。 加德尔斯:什么是智力? 里斯:今天,我们似乎知道智力有一些基本特质,比如从经验中学习、逻辑理解以及从所学知识中抽象出解决新情况的能力。 人工智能系统具备所有这些特质。它们可以学习,可以进行逻辑理解,可以形成抽象概念,从而应对新情况。 然而,经验、学习、理解或抽象对人工智能系统和我们人类的意义并不完全相同。这就是为什么我认为人工智能在智能上与我们略有不同。 “人工智能违背了许多最基本、最理所当然的概念或哲学,这些概念或哲学定义了现代时期,并且大多数人类仍然遵循这些概念或哲学生活。” 加德尔斯:人工智能可能是另一种智能,但我们能说它比我们更聪明,或者可以比我们更聪明吗? 里斯:对我来说,问题不一定在于人工智能是否比我们更聪明,而是我们不同的智能是否可以互补。我们能一起变得更聪明吗? 让我概括一下我所看到的一些差异。 人工智能可以在微观和宏观层面上运作,这超出了人类的逻辑理解和能力。 例如,人工智能拥有的信息比我们多得多,而且它能够比我们更快地访问和处理这些信息。它还能发现数据中的逻辑结构,也就是模式,而我们却看不到这些模式。 也许我们必须停下来思考一下才能认识到这有多么非同寻常。 人工智能可以让我们进入人类无法发现和进入的空间。这有多神奇?已经有很多这样的例子。从发现围棋或国际象棋等游戏中的新动作,到发现蛋白质如何折叠,再到了解整个地球系统。 鉴于这些超越人类的品质,人们可以说人工智能比我们更聪明。 然而,人类的聪明才智并不能简化为人工智能所具有的那种智力或聪明才智。它具有人工智能似乎不具备的其他维度。 在这些额外的维度中,也许最重要的是我们个人对过上人类生活的需要。 这是什么意思?至少这意味着我们人类依靠内心世界来探索外部世界。我们必须通过思考,即思考自我来定位自己。这些思考自我必须理解、领悟并被洞见所震撼。 无论人工智能有多聪明,它都无法让我变得聪明。它可以为我提供信息,甚至可以让我参与思考过程,但我仍然需要在思考方面自我定位。我仍然需要有自己的经验和自己的见解,这些见解使我能够过好自己的生活。 话虽如此,人工智能,即它所具有的特定非人类智能,在引领人类生活方面可以提供极大的帮助。 我能想到的最有力的例子是,它可以以人类无法做到的方式让自己看到自己。 想象一下,一个设备上的人工智能系统——一个只存在于你的设备上且不连接到互联网的人工智能模型——可以访问你的所有数据。你的电子邮件、你的信息、你的文档、你的语音备忘录、你的照片、你的歌曲等等。 我强调设备上的数据,因为这很重要,因为第三方无法访问您的数据。 这样的人工智能系统可以让我以我或其他人类无法做到的方式被自己看到。它确实可以让我超越自我。它可以从外部向我展示我自己,向我展示定义我的思维和行为模式。它可以帮助我理解这些模式,并与我讨论它们是否在限制我,如果是,那么是如何限制我的。更重要的是,它可以帮助我研究这些模式,并在适当的情况下,让我摆脱它们并获得自由。 从哲学角度来说,人工智能可以帮助我将自己转变为一个我可以与之联系并可以对其采取行动的“思想对象”。 自我对自我的研究构成了希腊哲学家所说的 meletē 和罗马哲学家所说的 meditatio 的核心。我在这里提到的那种人工智能系统将是哲学家的梦想。它可以让我们人类以任何人类对话者都无法做到的方式在我们之外被我们自己看到,摆脱对话自恋。 你看,我们的智能和人工智能的智能之间的重叠和差异中可能存在着令人难以置信的美丽。 归根结底,我并不认为人工智能是一个与我们竞争的自我封闭、自主的实体。相反,我认为它是一种关系。 加德尔斯:基于深度学习的人工智能系统与旧有的人机二分法相比,具体有何新特点? 里斯:1950年代的符号AI试图用机器逻辑解释人类,但深度学习是革命性的。它不依赖预设规则,而是通过数据自主构建“潜在空间表征”——一种高维逻辑结构。这种自我学习能力使AI具备初级的“真伪判断”,打破了“生命/非生命”“自然/人工”的二元对立。
“人工智能可以让我们人类以任何人类对话者都无法做到的方式在我们自己面前显现,让我们摆脱对话自恋。” 它被称为“符号人工智能”,因为这些系统背后的基本思想是,我们可以将知识存储在数学符号中,然后为计算机提供如何从这些符号表示中得出相关答案的规则。 一些哲学家,尤其是赫伯特·德雷福斯和约翰·塞尔,对此深有感触。他们开始捍卫这样的观点:人类不仅仅是机器,也不仅仅是基于规则的算法。 但 2010 年代初以来兴起的人工智能,即所谓的深度学习系统或深度神经网络,却是完全不同的类型。 符号人工智能系统与所有之前的机器一样,都是封闭的、确定的系统。这意味着,首先,它们所能做的事情受到我们给它们的规则的限制。当它们遇到规则未涵盖的情况时,它们就会失败。可以说它们没有适应性,没有学习行为。这也意味着它们能做的事情完全取决于制造它们的工程师。最终,它们只能做我们明确指示它们做的事情。也就是说,它们没有自己的代理权,没有代理能力。简而言之,它们是工具。 深度学习系统则不同。我们不会将知识传授给它们。我们也不会对它们进行编程。相反,它们会自行学习,并根据所学知识应对各种情况或回答从未见过的问题。也就是说,它们不再是封闭的确定性系统。 相反,它们具有某种开放性和某种主动行为,一种深思熟虑或决策空间,这是之前的任何技术系统都不具备的。有人说人工智能“只”具有模式识别。但我认为模式识别实际上是一种发现事物逻辑结构的形式。大致来说,当你有一个学生识别出数据背后的逻辑原理,并能根据这些逻辑原理回答问题时,你不觉得这叫做理解吗? 事实上,我们可以更进一步说,人工智能系统似乎能够区分真假。这是因为真假与一致的逻辑结构呈正相关。可以说,错误都是独一无二的或不同的。而真假则不然。我们在人工智能模型中看到的是,它们可以区分符合它们发现的模式的陈述和不符合的陈述。 从这个意义上来说,人工智能系统已经拥有了新生的真理感。 简而言之,深度学习系统所具有的特性直到最近才被认为只对一般生物体、特别是人类才有可能实现。 当今的人工智能系统兼具两者的特质,因此无法简化为两者之一。它们介于旧的区别之间,表明我们理解现实的非此即彼的逻辑——要么是人,要么是机器,要么是生命,要么是非生命,要么是自然的,要么是人工的,要么是生命,要么是事物——是远远不够的。 只要人工智能能够摆脱这些二元区别,它就会把我们带入一个无法用语言描述的领域。 我们可以说,它为我们打开了世界之门。它以我们从未见过的方式向我们展现现实。它向我们表明,我们可以用超越现代时期逻辑区分的方式来理解和体验现实和我们自己。 深度学习系统既非纯粹工具,亦非生命体,而是新本体类别。它们能区分真理与谬误(真理与逻辑结构一致性相关),并展现类似生命的“开放性”与“代理行为”。 加德尔斯:那么,深度学习系统是否可能成为具有自主性的“行动者”? 里斯:传统认为“代理性”需以生命和意识为前提,但AI证明并非如此。例如,设备端AI可分析个人数据,揭示人类难以自察的行为模式,成为哲学意义上的“反思之镜”。这种能力类似古希腊的“自我修炼(meletē)”,但突破了人际对话的局限。 我们过去认为,能动性有两个先决条件:活着和有内在性,也就是有自我意识或意识。现在,我们可以从人工智能系统中了解到,情况显然并非如此。有些东西有能动性,但它们不是活着的,它们没有意识或思想,至少不是我们以前理解的那种意识或思想。 这种洞察力,这种将能动性与生活和内心分离的洞察力,强烈地激励我们以不同的方式看待世界——以及我们自己。 例如,对于能动性而言,它不需要生命和内在性,这一点是否也适用于智力、创造力或语言等事物?如果是这样的话,我们将如何对世界上的事物进行不同的分类或归类? “人工智能之所以成为一项哲学事件,是因为这些系统打破了人类与机器、生物与非生物之间以前明确的区别。” 天体物理学家莎拉·沃克 (Sarah Walker) 在《Noema》杂志上发表的文章中表示,“我们需要摆脱将所有事物分为生命或非生命这一二元分类”。 我最感兴趣的是从人工智能向我们展现的中介性视角重新思考我们从现代时期继承的概念。 从人工智能的中介性角度看,创造力是什么?什么语言?什么思维? AI的智能不取代人类,而是拓展认知边界。人类与AI的结合可能催生多维思维架构——人类思考是三维的,而AI可达数百万维,这种差异性与互补性将重塑意识与创造力的定义。 02 轴心时代与新轴心时代加德尔斯:卡尔·雅斯贝尔斯最出名的是他对所谓的轴心时代的研究,当时所有伟大的宗教和哲学都诞生于两千年前,相对而言是同时诞生的——中国的儒教、印度的奥义书和佛教、荷马时代的希腊和希伯来先知。雅斯贝斯认为这些文明是在他所谓的“第一个普罗米修斯时代”之后兴起的,当时人类开始使用火并发明了最早的发明。
雅斯贝尔斯 对于查尔斯·泰勒来说,第一个轴心时代是人们从孤立的社区及其自然环境中“大脱离”的结果,当时人们有限的意识仅限于部落的生计和生存,由口头叙事神话指导。泰勒认为,从封闭的世界中解脱出来是由于书面语言的出现。这种象征能力的获得使人们能够基于持久的文本进行“反思”,这些文本为人们提供了一个超越当前环境和当地叙事的共享意义平台。 长话短说,这种“超越”反过来又导致了普遍哲学、一神教和广泛道德体系的可能性。脱离嵌入反思的批判性自我疏离元素进一步演变为社会学家罗伯特·贝拉所说的“理论文化”,演变为科学发现和催生现代性的启蒙运动。对于贝拉来说,“柏拉图完成了向轴心时代的过渡”,其理论思想“使心灵能够从具体表现中抽象出伟大和渺小的事物本身来‘看待’它们。” 最大的问题是,人工智能所达到的新的符号能力水平,是否会在催生“新轴心时代”方面发挥类似的作用,就像书面语言第一次出现时催生了新的哲学、伦理体系和宗教一样。 里斯:我不确定当今的人工智能系统是否具备现代所谓的符号能力。 这与我们已经讨论过的内容有关。 自从约翰·洛克以来,就有这样的观点:我们人类具有思维,我们将经验以符号或符号表示的形式存储起来,然后从这些符号中得出答案。 我们可以假设,在整个现代时期,这种概念被理解为智能的基本基础设施。 19 世纪末,恩斯特·卡西尔等哲学家对此进行了阐释。他认为,理解人性的关键在于认识到我们人类发明了符号或意义,而符号的创造或意义的创造正是我们与其他物种的区别所在。 总体而言,深度学习,尤其是生成式人工智能,已经打破了以人类为中心的智能概念,并用其他东西取而代之:智能基本上是两件事:学习和推理。 从本质上讲,学习意味着能够发现抽象的逻辑原则,这些原则可以组织我们想要学习的东西。无论这是实际的数据集还是我们人类的学习经历,都没有区别。我们称之为逻辑理解。 智力的第二个定义特征是能够持续稳定地完善和更新这些抽象的逻辑原理和理解,并通过推理将它们应用于我们所处的境况以及我们必须应对或解决的境况。 深度学习系统在第一部分表现最为出色,但第二部分则不然。基本上,一旦经过训练,它们就无法修改所学的内容。它们只能进行推断。 无论如何,这里并没有什么象意义。至少不是传统意义上的象征意义。 我之所以强调这种象征的缺失,是因为它可以完美地表明深度学习已经导致了相当强大的哲学断裂:隐含在新的智能概念中的是对人类本质的一种根本不同的本体论理解,事实上,是对现实是什么或其结构和组织方式的理解。 我认为,理解这种与旧有的智能概念以及人类/世界本体论的决裂,是理解你的实际问题的关键:我们是否正在进入一个你所说的新轴心时代,在这个时代,人工智能将类似于大约 3,000 至 2,000 年前的文字? “我们是否正在进入所谓的新人工智能轴心时代,其中人工智能将达到与大约 3,000 至 2,000 年前的文字类似的东西?” 如果我们够幸运的话,答案是肯定的。潜力是绝对存在的。 但请让我尝试阐明我所认为的挑战是什么,以便我们能够真正实现这一目标。 让我们以文字的出现、内在词汇的诞生、以及抽象或理论思维的兴起之间的关联作为起点。 我会像之前的回答一样,反思我们所处概念的历史性,指出它们有多么新近,它们并不是永恒的或普遍的,然后询问人工智能是否挑战和改变了它们。 布鲁诺·斯内尔 (Bruno Snell) 写过一本很棒的书,名为《心灵的发现》。 这部作品的核心论点是,我们今天所说的“思想”、“意识”和“内心生活”并不是天生就有的。它并不是一直存在或一直被体验到的。相反,它是一个逐渐出现的概念。 斯内尔以优美、迷人的散文追溯了我所认为的“内在词汇”诞生的最早实例。 例如,他指出,荷马的作品中没有“心灵”或“灵魂”这种一般的抽象概念。相反,有一大堆很难翻译的术语。例如,thymos可能最好被表述为一种征服和吞噬人的激情,或者noos最初的意思是感官意识和心灵,荷马和他的同时代人最常用它来指代“呼吸”或有生命的东西,而不是我们今天所说的心灵。
简单来说,荷马史诗中根本没有关于内在性的词汇。赫西奥德的著作中也没有。 在从古希腊语转向古典希腊语时,这种情况发生了变化。我们开始看到一种内在词汇的诞生,以及描述内心体验的日益复杂的方式。这里最重要的参考可能是萨福。她的诗歌是对我们今天所说的主观体验和个人情感的最早探索之一。 我不想通过重述斯内尔的整本书来偏离主题。相反,我感兴趣的是传达我们之前讨论过的一种可能性:我们人类并不总是像今天这样体验自己。每一种形式的经验、思考或理解都是由概念介导的。对于内在性和内心生活的概念来说,情况也是如此,也许尤其如此。 斯内尔的书之所以如此精彩,是因为他展示了新概念的不连续、渐进的出现,这些新概念相当于这样一种观点,即存在着一种类似内在性的东西,而这种内在性——一种内在景观——是一个单一的、自我同一的“我”所在的地方。 现在,至关重要的是,文字的引入(可能始于荷马时代)对于内在性概念词汇的出现至关重要。 斯内尔只是顺便提到了这一点,但后来的作品,特别是杰克·古迪、埃里克·哈夫洛克和沃尔特·翁的作品,都明确地关注了这一点,并且都或多或少得出了相同的结论:书写实践为分析性思维创造了新的可能性,从而产生了越来越抽象、分类的名词,以及一种在人类历史上以前从未见过的系统性知识搜索和生产形式。 这些作者还明确指出,斯内尔著作的唯一遗憾是他在书名中使用了“发现”一词。心灵不是被发现的。它是被构造的,是被发明的,如果你愿意的话。也就是说,它可以以不同的方式构造。这正是古迪、翁等人充分展示的。心灵是什么,内在性是什么,在其他地方是不同的。 让我简单总结一下,书写技术对人类的本质、我们如何体验和理解自己产生了绝对重大的影响。在这两项影响中,也许最重要的就是自我反思和抽象思维的系统性出现。 人工智能能否像改变写作一样改变人类的意义? 人工智能能否开启一个全新的、或许是完全不连续的篇章,让我们了解心智、内在性和思考的意义?它能否帮助我们思考那些如此新颖、如此不同的想法,以至于无论我们迄今为止如何理解自己,这些想法都会变得过时? “人工智能是否能够标志着心智、内在性和思考能力的一个全新、甚至可能是完全不连续的篇章的开始?” 哦,是的,可以!人工智能绝对有潜力成为如此重大的哲学事件。 展示人工智能潜力的最美丽、最迷人、最令人大开眼界的方式可能就是工程师所说的“潜在空间表征”。 当LLM学习时,它会逐渐从所提供的数据中提取出更加抽象的逻辑原理。 最好将这个过程想象成与结构主义分析大致相似:人工智能识别组织(实际上是基础)其所训练的全部数据的逻辑结构,并以概念的形式存储或记忆它。它这样做的方式是发现数据中不同元素之间关系的逻辑。因此,在文本中,大致来说,这将是这些词:训练数据中不同单词之间的接近度是多少? 如果你愿意,大模型 (LLM) 可以发现单词之间多种不同程度的关系。 有趣的是,这个学习过程产生的是一个高维的关系空间,工程师称之为潜在空间(即隐藏空间)。 首先,这意味着在训练过程中,LLM 内部会生长出一些东西。AI 会逐渐发现单词之间关系逻辑的隐藏地图。我说内部是因为我们人类无法从外部观察到这张地图。 第二,它的意思是,这张地图不只是一张列表,而是一种空间排列。 想象一个三维点云,其中每个点代表一个单词,并且点之间的距离反映了训练数据中单词彼此之间的距离。 只是,这是第三点,这个空间地图不只有长度、宽度、深度这三个维度,我们的意识思维可以在其中舒适地运作。相反,它有更多维度。数万个维度,而根据最新模型,甚至可能是数百万个维度。 也就是说,LLM 所形成的理解是一种空间架构。它具有一种几何学,它确实决定了对于 LLM 来说什么是可以思考的。 它实际上是大模型的可能性的逻辑条件——先验。 据我们所知,人类大脑也会创建潜在空间表征。我们大脑中的神经元的工作方式与神经网络中的神经元的工作方式非常相似。 然而,尽管有相似性,但人类大脑产生的潜在空间表征和人工智能产生的潜在空间表征似乎彼此不同。 这两个潜在空间表示可能重叠,但由于人工智能的维数范围更大,它们在种类和质量上也存在显著差异。 现在想象一下,我们可以构建人工智能,以便定义人类大脑的可能性逻辑获得额外的潜在空间。 想象一下,我们创建人工智能是为了为人类思维添加逻辑空间,使人类可以旅行但无法自行创造。结果就是我们人类可以发现真理,思考人工智能之前人类无法想到的事情。在这种情况下,没有人知道人类思维在哪里结束,人工智能在哪里开始。 我们可以从全新的角度来探讨任何主题。想象一下,人类和人工智能之间的这种共同思考会对我们当前的内在性概念产生怎样的影响!你能想象它会对我们理解思想、想法、有想法或有创造力等术语产生怎样的影响吗? 当我勾勒出这一愿景时,我听到了一些批评的声音。他们告诉我,我把人工智能说得像一个哲学项目,而开发人工智能的公司有着截然不同的动机。 我完全清楚自己赋予了人工智能哲学和诗意的尊严。我这样做是有意识的,因为我认为人工智能有可能成为一场非凡的哲学盛会。作为哲学家、艺术家、诗人、作家和人文主义者,我们的任务就是让这种潜力变得可见和有意义。 所有这一切无疑预示着一个新的关键时代的到来。 加德尔斯:要理解深度学习如何通过人工智能科学家所谓的反向传播(通过逻辑结构的人工神经网络输入新信息)实现内在性和意图,从生物学的唯物主义观点来看意识如何产生的类比可能会有所帮助。这里的核心问题是无形智能是否可以通过深度学习模仿有形智能。 AI 的出发点是什么?它与诺贝尔奖得主、神经科学家 Gerald Edelman 所描述的神经达尔文主义有何相似之处?Edelman 所说的“可重入相互作用”与“反向传播”非常相似。 “想象一下,我们创造人工智能是为了给人类思维增加可能性的逻辑空间,这样人类就可以旅行,但不能自己生产。” 根据埃德尔曼的说法,“根据先前由进化生存决定的‘价值’,环境中的优势竞争会增强某些突触或神经连接的传播和强度。这种神经回路的差异量非常大。某些回路比其他回路更适合环境呈现的任何情况,因此被选中。为了响应极其复杂的信号群,系统会根据达尔文的种群原理进行自组织。正是这个庞大网络的活动通过我们所谓的‘可重入相互作用’将‘现实’组织成模式,从而产生了意识。 丘脑皮层网络在进化过程中被选中,因为它们为人类提供了进行高阶辨别和以更优越的方式适应环境的能力。这种高阶辨别赋予了想象未来、明确回忆过去和意识到自己有意识的能力。 因为每个回路通过从丘脑到皮层再返回的不同路径完成回路,从而达到闭合,所以大脑可以“填补”并提供超出您立即听到、看到或闻到的知识。由此产生的辨别力在哲学中被称为感质。这些辨别力解释了无形的情绪意识,它们定义了绿色的绿色和温暖的温暖。这些感质共同构成了我们所说的意识。” 里斯:人工智能系统中发生的神经过程与人类的神经过程相似,但并不相同。 大脑中似乎存在某种形式的反向传播。我们刚刚谈到了生物神经网络和人工神经网络都构建了潜在空间表征这一事实。还有更多。 但我并不认为这使得它们具有我们所理解的内在性或意向性。 事实上,我认为人工智能的哲学意义在于它让我们重新思考我们以前理解这些术语的方式。 您观察到的反向传播和再入之间的紧密联系就是一个很好的例子。 可能对使反向传播概念更容易理解和广为人知做出最大贡献的人是戴维·鲁梅尔哈特 (David Rumelhart),他是一位非常有影响力的心理学家和认知科学家,与埃德尔曼一样,他生活和工作在圣地亚哥。 鲁梅尔哈特和埃德尔曼都是联结主义学派的核心人物。我之所以这么说,是因为我认为折返和反向传播之间的理论推动力几乎相同:努力开发一个概念词汇,使我们能够区分生物和人工神经网络,以便更好地理解大脑并构建更好的神经网络。 一些人认为,联结学派的工作是尝试从计算机的角度思考大脑——但人们也可以说,这是尝试从生物学的角度思考计算机或人工智能。 从根本上讲,重要的是发明一种不需要作出区分的词汇。 中间有一个空间,一个重叠。 很难过分强调这种概念性工作在过去 40 年里有多么强大。 可以说,鲁梅尔哈特和埃德尔曼等人的工作已经催生出一种可以用与基质无关的方式描述的智能概念。这些概念不仅仅是理论概念,更是具体的工程可能性。 这是否意味着人类大脑和人工智能是同一件事? 当然不是。鸟类、飞机和无人机都是一回事吗?不是,但它们都利用了空气动力学的一般规律。大脑可能也是如此。智能的物质基础设施非常不同——但组织这些基础设施的一些原理可能非常相似。 在某些情况下,我们可能希望构建类似于人脑的人工智能系统。但我认为,在很多情况下,我们并不想这样做。在我看来,人工智能的吸引力在于,我们可以构建尚不存在但完全有可能实现的智能系统。 我经常将人工智能视为一种非常早期的实验胚胎学。事实上,我经常认为人工智能对智能的作用就像合成生物学对自然的作用一样。也就是说,合成生物学将自然变成了一个广阔的可能性领域。自然界中存在的事物数量与自然界中可能存在的事物相比微不足道。事实上,在进化过程中存在的东西比现在多得多,我们没有理由不能将 DNA 链组合起来并制造出新的东西。合成生物学是可以将这些可能的东西变成现实的实践领域。 “我认为,人工智能的吸引力在于,我们可以构建尚不存在但完全可能的智能系统。” 人工智能和智能也是如此。如今,智能不再由单个或少数现有智能实例来定义,而是由可能存在的大量智能事物来定义。 加德尔斯:早在 20 世纪 30 年代,从海德格尔到卡尔·施密特,许多哲学家都反对将人类与“存在”疏远的新兴技术系统。正如施密特当时所说,“技术思维与所有社会传统格格不入;机器没有传统。卡尔·马克思的一项开创性社会学发现是,技术是真正的革命原则,除此之外,所有基于自然法的革命都是过时的娱乐形式。因此,一个完全建立在进步技术之上的社会只会是革命性的;它很快就会自我毁灭,并摧毁其技术。”正如马克思所说,“一切坚固的东西都会烟消云散。” 人工智能的本质是否会让施密特的观点变得过时,还是仅仅是他的观点的实现? 里斯:我认为答案是肯定的,而且我认为这是个好消息,它使得施密特的观点变得过时。 我先说说施密特,他的思想本质上是末世论的。 和所有末世论思想家一样,他有着或多或少明确的本体论世界观,在他看来,也是一种宗教世界观。他所处的世界中的一切都具有明确的形而上学意义。他认为现代自由世界、启蒙世界,就是为了摧毁永恒的、最终神圣的事物秩序。更重要的是,他认为,当这一切发生时,一切都将崩溃,世界末日将开始来临。 你引用的这些话说明了这一点。一方面是现代、启蒙时代、工厂、技术、无实质、金钱的相对性等——另一方面是社会,即种族定义的民族传统、形象和符号。 施密特担心自由主义秩序会使世界失去实体性。一切都会变得相对。至少如果我们从他的著作来看,他认为犹太人是世界失去实体性的主要驱动力之一。众所周知,施密特是一个狂热的反犹主义者。 他非常担心世界末日,因此他与希特勒和纳粹党以及他们的议程保持一致。 当然,从今天的角度来看,显然纳粹是那些利用现代技术来使人类非实体化、剥夺人类人性并在工业规模上屠杀人类的人。 这里很难不去评论海德格尔,他试图“捍卫存在,反对技术”。话虽如此,我认为两者之间存在重要差异。 但是让我转到我答复的第二部分,为什么我认为人工智能使他的世界变得过时。 人工智能已经证明,施密特思想核心的非此即彼逻辑并不成立。施密特对马克思的奇妙借用就是一个例子。 众所周知,马克思曾将内燃机推动的工业崛起描述为非人性化事件。在资本家发现如何使用内燃机制造商品之前,大多数商品都是在手工血汗工厂生产的。也许这些血汗工厂是艰苦的地方。但马克思认为,它们也是人类尊严和精湛技艺的场所。 为什么?因为这些血汗工厂的核心是使用工具的人。正如马克思所见,工具本身并没有什么价值。一个人能用工具做什么完全取决于使用它的人的想象力和技艺。
随着内燃机的出现,一切都发生了变化。它催生了工厂,工厂里的货物由机器而不是工匠制造。然而,机器并不是完全自主的。它们需要人类的帮助。也就是说,机器需要的不是工匠。它们需要的不是人类的想象力和精湛技艺。相反,它们需要的是能够作为机器延伸的人类。这让这些人类失去了思维,沦为纯粹的机器。 这就是为什么马克思把机器描述为人类的“他者”,把工厂描述为人类被剥夺自身人性的地方。 施密特利用这一点作为自己的论据,将他的物质思维与现代技术世界并列。最终的结果是,你现在拥有了永恒、实质性、形而上学的真理与现代机器、技术、功能、价值相对论、无物质人类的世界并列。 因此,对于施密特来说,技术被视为一种针对形而上学的永恒和真实的非自然暴力。 “反对人工智能的另一种选择是进入人工智能并尝试展示它的可能性。” 施密特的区分肯定不是永恒的,而是现代时期所固有的,并且深深地归功于新机器与旧人类相对的范式。 我们今天所拥有的基于深度学习的人工智能系统挑战并摆脱了施密特——或者马克思、海德格尔以及所有追随他们的人的“非此即彼”的区分。 人工智能清晰而美妙地向我们展示了这些区别之间的整个世界。这个世界充满了各种事物,人工智能只是其中之一,它们既具有智能的特质,又具有机器的特质——而且这些特质都无法简化为任何一种。这些事物既是自然的,又是人造的。 人工智能让我们从这种中间状态重新思考自己和世界。 我要说的是,我理解让人类生活变得有意义的愿望。让思想和知识洞察力变得具有批判性,让艺术、创造力、发现、科学和社区也变得具有批判性。我完全理解并分享这种愿望。 但我认为,将所有这些事物都放在一边,将人工智能及其创造者放在另一边,这种说法有些令人惊讶和不幸。 基于这种区别的批判精神再现了它所反对的世界。 反对人工智能的另一种选择是进入人工智能领域,并尝试展示它能做什么。我们需要更多的中间人。如果我说人工智能是划时代的突破,这种说法只是略微准确,那么我真的看不出还有什么替代方案。 这段名为“溢出”的视频是 Limn AI 系统根据提示生成的,提示诱使 AI 对模糊绘图进行分类。该视频反映了 AI 努力研究其学习到的表示类别 — — 却从未得出稳定的表示,从而探索现有表示类别之间的隐藏空间。(LIMN/Noema 杂志) 03 中间性与共生性加德尔斯:我想知道,你的“中间性”观点与 Blaise Agüeras y Arcas 的观点之间是否存在对应关系,Blaise Agüeras y Arcas 认为,进化不仅通过自然选择,而且通过“共生”实现——通过传递新信息,将不同的实体结合成一个相互依存的有机体,例如,细菌携带的 DNA 片段被“复制粘贴”到它们所穿透的细胞中。结果不是非此即彼,而是共生创造了新的东西。 里斯:我相信布莱斯和我一样,受到了美国计算机科学家约瑟夫·利克莱德1960 年发表的一篇名为《人机共生》的文章的影响。 这篇文章的开头是这样的: “无花果树仅靠昆虫Blastophaga grossorun授粉。昆虫的幼虫生活在无花果树的卵巢中,并从那里获取食物。因此,树木和昆虫相互依存:没有昆虫,树木就无法繁殖;没有树木,昆虫就无法进食;它们共同构成了不仅可行而且富有成效和蓬勃发展的伙伴关系。这种合作的“两个不同生物的亲密关系,甚至紧密结合”被称为“共生”。 Licklider 继续说道:“目前(…)还没有人机共生。本文的目的是提出这一概念,并希望通过分析人与计算机之间交互的一些问题、引起人们对人机工程适用原则的关注以及指出一些需要研究解答的问题,来促进人机共生的发展。希望在不久的将来,人类大脑和计算机将紧密结合在一起,由此产生的伙伴关系将以人类大脑从未有过的方式思考,并以我们今天所知的信息处理机器无法接近的方式处理数据。” 共生是什么意思?它意味着一个生物体没有另一个生物体就无法生存,而另一个生物体属于不同的物种。更具体地说,它意味着一个生物体依赖于另一个生物体所执行的功能。从哲学角度来说,共生意味着中间存在不可区分性。无法说出一个生物体在哪里结束,另一个(或其他生物体)在哪里开始。 未来人类和人工智能之间是否也会出现这种相互依存的关系? 传统的答案是:绝对不是。旧观念认为,人类属于自然,更具体地说,属于生物,属于能够自我繁殖的生物。另一方面,计算机属于完全不同的本体论范畴,即人工范畴,仅仅是技术范畴。它们不会生长,而是被建造和建造。它们既没有生命,也没有存在。 按照旧思维,共生只可能发生在自然界中,只可能发生在生物之间。按照这种思维方式,人机共生是不可能实现的。 我认为,利克莱德的意思是将人类纳入机器概念。也许就像一个机器人。而由于人类被认为比机器更多或不同,这意味着我们失去了人类的特质,失去了我们与机器的区别。 “人工智能无需拥有生命或成为人类,便可拥有自主权、创造力、知识、语言和理解力。” 但正如我们所讨论的,人工智能使得这种在活生生的人类或生物与无生命的机器或物体之间的古老的、经典的现代区分变得不够充分。 人工智能将我们带入了这些旧有区别之外的领域。如果进入这个领域,我们就会发现,人工智能等事物可以拥有自主性、创造力、知识、语言和理解力,而无需活生生或成为人类。 也就是说,人工智能为我们提供了重新体验世界的机会,并重新思考我们迄今为止如何组织世界上的事物以及我们为它们分配的类别。 但问题是:从刚才描述的不可区分的意义上来说,人类与人工智能的共生是否有可能在这个新兴领域——这个中间领域——实现? 我认为是这样。我对此感到很兴奋。有点像利克莱德,我期待着一种“伙伴关系”,它将使我们能够“以人类大脑从未思考过的方式思考,以我们今天所知的信息处理机器无法接近的方式处理数据”。 当我们能够思考而没有人工智能则无法思考时,当人工智能能够以它自己无法做到的方式处理数据时,没有人能说清楚人类在哪里结束,人工智能在哪里开始。然后我们就有了不可区分性,一种共生关系。 让我补充一点,我和利克莱德在这里描述的并不是人类对人工智能的逐渐依赖,我们将所有的思考和决策都外包给人工智能,直到我们几乎无法自行思考或决定。 恰恰相反。我描述的是人类求知欲达到最大限度的状态。在这种状态下,人性超越人性。人类与人工智能之间的认知界限变得模糊不清。 从本体论意义上讲,这与真菌树关系有何不同? 他们的关系本质上是一种交流,他们一起思考。任何一方都无法独自产生或处理这种交流中交换的信息。信息的实际处理——认知——发生在他们之间的界面上:称之为共生。 人类与人工智能共生之间是否存在本体论差异?我看不出有什么区别。 加德尔斯:也许无机智能和有机智能的这种共生关系将催生出本杰明·布拉顿所说的“行星智慧”,人工智能可以帮助我们更好地理解自然系统并与之协调? 里斯:如果我们将人工智能与这种真菌-树木共生关系联系起来会怎么样?人工智能可以读取和翻译来自真菌-树木-土壤网络的化学和电信号。这些信号包含有关生态系统健康、营养流动、压力反应的信息。也就是说,人工智能可以让人类实时理解真菌-树木之间的交流。 这样,我们人类就可以理解一些东西,并可能提出问题,从而进行交流,而这些是我们无法独立于人工智能之外做到的。同时,我们可以帮助人工智能提出正确的问题,并以人工智能无法独立处理的方式处理信息。 现在让我们扩大范围:如果人工智能可以将我们与没有人工智能就无法了解的大型行星系统联系起来,那会怎样?事实上,如果人工智能变成一个类似自我监控的行星系统,我们直接被纳入其中,那会怎样?正如布拉顿所说,“只有当智能变成人工智能,并能扩展到超越生物有机体狭窄范围的大规模分布式系统时,我们才能了解我们生活的行星系统。” 也许在某种程度上——因为 DNA 是我们所知信息的最佳存储器——部分信息存储和人工智能所依赖的计算实际上是由菌根网络完成的?
不管怎样,我迫不及待地想要拥有这样一个整个地球的共生状态——并成为这种互惠交流形式的一部分。 加德尔斯:下一步,我们要如何引导人类与智能机器实现共生,从而为人工智能前所未有地增强人类体验提供可能性? 里斯:我们这个时代,哲学研究真的很重要。我的意思是,真的、真的很重要。 正如我们在本次对话中所阐述的那样,我们生活在一个哲学上不连续的时代。世界的发展已经超越了我们长期以来所遵循的概念。 对某些人来说,这非常令人兴奋。然而对许多人来说,情况并非如此。不安全感和混乱是普遍存在的,也是真实的。 如果历史可以作为借鉴,我们可以假设将会发生政治动荡,并可能产生深远的影响,包括试图强制坚持过去的独裁强人。 防止此类不幸结果的一种方法是进行哲学工作,以产生新概念,使我们所有人都能探索未知的道路。 “人工智能可以让人类实时理解真菌树之间的交流。” 然而,所需的哲学工作无法在象牙塔中孤独地完成。我们需要在野外、在人工智能实验室和公司中的哲学家。我们需要能够与工程师一起工作的哲学家,共同探索人工智能可能为我们提供的新的思维和体验方式。 我梦想的是哲学研发实验室,可以在哲学概念研究、人工智能工程和产品制造的交叉点进行实验。 加德尔斯:您能举一个具体的例子吗? 里斯:我认为我们生活在一个前所未有的时代,所以很难举出一个例子。不过,有一个重要的历史参考,那就是包豪斯学校。 1919 年,当沃尔特·格罗皮乌斯 (Walter Gropius) 创立包豪斯时,许多德国知识分子对工业时代深感怀疑。但格罗皮乌斯却并非如此。他体验到了玻璃、钢铁和混凝土等新材料所带来的可能性,这是与 19 世纪概念上的决裂。 因此,他的观点与主流观点截然相反,他认为,建筑师和艺术家的职责是探索这些新材料,发明能够让人们摆脱 19 世纪束缚、步入 20 世纪的形式和产品。 今天,我们需要类似于包豪斯的东西——但专注于人工智能。 我们需要哲学研发实验室,让我们能够探索和实践人工智能的实验哲学。 当今世界,人们投入了数十亿美元研究人工智能的各个方面,但投入到能够帮助我们发现和发明新概念(即人类的新词汇)的哲学研究却少之又少。布拉顿领导的伯格鲁恩研究所的安提基西拉项目是个小例外。 哲学研发实验室不会自动出现,如果我们不进行战略投资,就不会产生新的指导哲学或哲学思想。 在没有新概念的情况下,人们(无论是公众还是工程师)将继续用旧概念来理解新概念。由于这种方式行不通,将会有数十年的动荡。
AI既非末日预言中的威胁,亦非单纯工具,而是“中间性”存在。我们应构建人机共生关系——如同真菌与树木的化学对话,AI可成为地球系统的“翻译器”,帮助人类理解行星尺度的信息交换。唯有融合哲学与工程实践,才能释放AI的哲学潜能,引领人类进入认知新纪元。
原始翻译来自公众号“科技世代千高原”,有删改
来源:思庐哲学(公众号)
链接:https://mp.weixin.qq.com/s/Hjk0uo_cznlSXK1j_nYyVg
编辑:李梦瑶
|