【案例】
维赫雅|论优质人工智能 【作者】维赫雅(Bart Verheij),荷兰格罗宁根大学人工智能系主任、教授、博士生导师, 斯坦福大学法律信息学研究中心研究员,国际人工智能与法协会主席(IAAIL)。 【译者】黎娟,中南大学法学院讲师,荷兰蒂尔堡大学法学博士。 【摘要】如何才能在实现人工智能伟大梦想的同时,不让最糟糕的恐惧成为现实呢?这需要开发能够进行建设性批判讨论的论证系统。这一经试验和检测的系统工具可以更好地服务于科学研究、政治、家庭生活。只有基于这样的论证系统,才能开发出面向好的答案、提供好的理由、做出明智选择的优质人工智能。开发优质人工智能的一个瓶颈是架构起知识系统和数据系统之间的桥梁。数据系统的本质是基于已有数据描述数据,并尽可能多地提供好答案,但数据系统本身不能做出选择,也不能提供明确的理由,因其内部操作不透明性而被视为“黑箱”;知识系统使用逻辑,可以给出好答案、提供好理由、做出好选择,但其弊端在于难以规模化,也不能处理视觉和其他几何结构化信息。为此,需要将知识和数据系统各自具备的良好特征结合起来,在寻求正确的数学基础上,开发出能够构建和评价论证的计算机程序。最终,这一基于推理开展批判性讨论的论证系统将弥合知识系统和数据系统之间的鸿沟,并为优质人工智能的实现奠定基础。 【关键词】知识系统;数据系统;论证系统;法律与人工智能 一、人工智能的梦想和恐惧 近来,许多报纸都在刊登关于人工智能的故事。故事的数量不断上升。这些故事的主题充满了梦想和恐惧。看上去,计算机似乎已无所不能:如果头条新闻可信,机器现在可以踢足球、开卡车,还有提供就业咨询。同时,人工智能也激发了无穷的想象力。在公共道路上,自动驾驶汽车已驰骋多年;在经典棋类竞技赛中,最优秀的人类棋手接连成为计算机的手下败将;在工作场所,出现了科幻小说中描述的类人机器人。伴随着梦想,恐惧也在滋生。尽管现在许多工作仍然只有人类才能完成,自动化的不断延伸将深刻改变劳动力市场;当我们在网上公开个人信息时,公司和政府可以通过自动分析获得对我们更多的控制;而让武器系统自主做出是否继续攻击的决定,这一想法本身就十分可怕。上述论断足以让我们对人工智能保持警惕。 不出意外地,越来越多的注意力开始投向如何将人工智能合理地嵌入社会之中。近期,欧盟咨询机构之一——欧洲经济与社会委员会(European Economic and Social Committee)发表的一份意见呼吁对人工智能采取“人类控制”的方式。在这一方式中,机器是机器,而人类将始终控制这些机器。最近,包括特斯拉和谷歌在内的100多家机器人和人工智能公司的高层领导签署了一封公开信,呼吁禁绝“杀手机器人”。除了人类控制和禁绝之外,本文将解释另一条将人工智能合理嵌入社会的途径,那就是开发优质人工智能。本文将论证通往这一美好目标的路径是:开发论证系统,即在推理基础上开展批判性讨论的系统。 二、何为优质人工智能? (一)人工智能的分类 为了解人工智能所包含的内容,有必要先区分专用人工智能、通用人工智能和超级人工智能。 专用人工智能是目前常见的一种能够执行经具体描述的智能任务的人工智能。当今所有的人工智能都是专门化的,包括那些能把填报纳税申报单变得像儿童游戏般简单的电脑程序,还有擅长在大量照片集中准确找出如树木类图片的智能手机app。多数研究者研究的是专用人工智能。 通用人工智能是指那些即便在极其多样化情境和复杂繁琐问题中,也能如人类般做到自我管理的计算机程序或机器。例如,它们不仅能读懂书也能进行创作,它们可以学习怎么在荷兰繁忙的街道上骑自行车,即便它们并非“出生”于荷兰。通用人工智能至今并不存在。如何实现通用人工智能和找出其不能实现的原因,是困扰研究人员的主要问题。超级人工智能是一种让许多人倍感担忧的人工智能形式。 超级人工智能的理念是,一旦通用人工智能实现,人类智能将不可逆转地落后于它。那么,在发明超级人工智能后,人类还会有一席之地吗? 没人能知道。尽管许多研究人员乐意在聚会和茶歇时就超级人工智能的议题交换意见,但在日常工作中,他们仍忙于应对各自专业领域中存在的科学瓶颈。 (二)人工智能的发展瓶颈 发展人工智能的一个瓶颈是如何架构起知识系统和数据系统之间的桥梁。在知识系统中,需要完成复杂任务的知识被输入电脑中,知识被表示出来且用于自动推理。数据系统则是通过对示例数据库的自动分析来学习如何处理问题。 最初,知识和数据这两类智能系统之间并不存在鸿沟。当人工智能作为一个研究领域于20世纪中叶诞生时(“人工智能”一词于1955年被创造出来),计算机编程本身是全新的,几乎所有通往人工智能的可能性方案都被一一实验。逐渐地,基于表示和推理的知识系统研究和基于示例学习的数据系统研究开始向不同的方向发展,两种研究运用的数学也各不相同——知识系统研究多使用逻辑,数据系统研究使用概率论。 以荷兰制定法中所规定的非法致损行为的赔偿条款为例,一方的手机因另一方的过失而跌落致损,根据《荷兰民法典》第6条第162.1款:一方不法行为使另一方受损,且该行为可归因于致损者,则致损者必须赔偿损失。这一法律条文的表述对四个条件做了区分,它们共同决定损害赔偿的义务。如果(IF)有损害且(AND)行为不合法且(AND)可归责且(AND)行为和损害之间存在因果关系,那么(THEN)就有损害赔偿的义务。图1是逻辑形式表示,这一矢量图显示了能更宽泛表达包含更多规则和例外的条文。 将这样一种类似规则的知识表示引入计算机程序中,可以构建出多样化的智能系统。例如,格罗宁根人工智能专业的学生已经为全科医生分类、诗歌分类、数字牧师建立了智能系统,甚至药剂师的专业知识也曾被知识系统所抓取。 在数据系统中,问题是通过学习如何分析示例数据库加以解决的。例如,在神经网络的“输入”端显示了各种形式的大写字母A,神经网络的内部结构(中间有一个“隐藏层”)不断进行调整,从而在“输出”端正确识别出这些字母。神经网络曾经被认为存在根本性局限,现在它已发展成一种强大的数据分析技术。 (三)优质人工智能的必要特征 笔者认为,需要开发的优质人工智能应该具备三个必要的特征:能够为问题提供好的答案;能够为答案提供好的理由;能够做出明智的选择。 1.关于好的答案 数据系统不是为了提供好答案而设计的,而是为了尽可能多地提供好的答案。在所有领域中,数据系统都擅长于此。通常,它们给出的好答案比人类要多。尽管表现不俗,但数据系统也会犯一些人类不至于很快会犯的错误。试举一例说明。人们经常会携带手机出行,这样,谷歌等软件可以很方便地追踪人们的行迹,并且为人们的行程绘制地图。在平时上下班中,笔者常骑自行车往返于帕德斯沃尔德与格罗宁根之间。谷歌数据库通过将往返路线标成绿色,往往能准确假设出笔者的自行车之旅,但是也有例外。情况发生在笔者偶然的一次格罗宁根与阿姆斯特丹的往返经历中。笔者在去程中(格罗宁根到阿姆斯特丹)选乘了火车,谷歌相应地将去程路线标记为蓝色。然而,出乎意料的是,谷歌却将返程路线标记成绿色,这意味着那是一趟自行车之旅。实际上,笔者在返程时选乘的也是火车。显然,在一个正常工作日,一趟190公里的自行车之旅并不太合乎常理。也许有人会很自然地想去纠正数据系统,因为一个普通人不太可能花两个小时从阿姆斯特丹骑车返回到格罗宁根。但这其实并不符合数据系统的工作方式。然而,这种纠偏适用于知识系统。 2.关于好的理由 数据系统不能回答它为什么会给出某个答案,因为它并没有明确的理由。所有数据组成一个整体以支撑答案。上述火车之旅之所以被意外地识别为自行车之旅,其实是数据系统分析其已有数据的结果。根据数据系统,相较于火车之旅,谷歌认为此次旅行更接近于数据库中的自行车之旅。这一结果的准确依据很难被确定。数据系统因此被视为“黑箱”,即人们无法深入数据系统的内部,而其内部操作并不透明。以笔者设计的“穷人的沃森”程序为例。该程序受IBM超级电脑“沃森”的启发。2011年,IBM“沃森”在美国智力问答竞赛节目《危险边缘》(Jeopardy!)中击败了两位最成功的选手,而这应归功于人类长期的研究努力。相比之下,“穷人的沃森”是一位研究员仅花一个下午就编写出来的程序(“穷人的沃森”因此而得名)。以“穷人的沃森”为例,是因为笔者想说明使用谷歌和维基百科的简单脚本可以做些什么,从而更好地理解《危险边缘》结局的特殊之处。由此看来,“穷人的沃森”在某些方面已经非常智能化了。当被问及创作《哥德尔• 埃舍尔• 巴赫》一书的作者且于1945年出生的人是谁时,“穷人的沃森”能准确回答出是“道格拉斯• 霍夫施塔特”,甚至还能补充“在巴尔的摩出生的发明之母的创始人”的正确答案(至少笔者几日前测试时是这个结果)。这是因为系统连接了互联网并能随时获取网络信息,因此任何事情都变得可能。但有的时候,长时间运行良好的事情会突然不起作用。曾经有一段时间,以“1940年出生”为关键词能检索出“在巴尔的摩出生的弗兰克•扎帕”,但现在它却不再显示。就此而言,数据系统并不能给出解释,因为系统没有理由。在上述旅行的例子中,也许有人会想问数据系统:“为什么你认为我是骑车从阿姆斯特丹去格罗宁根的?”但数据系统并不能答复这一问题。而知识系统可以。 3.关于正确的选择 数据系统本身不能做出选择, 而是基于已有数据描述数据。这一客观立场有利也有弊。当数据好时,选择便是好的。但数据并不总是好的。一个有名的例子是微软开发的聊天机器人Tay。2016年6月23日,Tay上线,它从与用户交流的示例中学习。不过,网络就是网络。网络与Tay的对话变得越来越古怪、不愉快,有时甚至带有攻击性,而这就是网络对话本来的样子。16个小时后,微软让Tay下线。另一个例子是新闻中高频出现的搜索引擎引发的种族歧视。这激发了笔者想要了解真实情况的好奇心。于是,笔者在搜索引擎中输入“人类”一词后,确实看到了很多人类的照片。结果显示,搜索出来的36个人中有4个是女性,其中一个是卡通人物形象。卡通形象所显示的女人是唯一明显不是白人的“人”。不过,谷歌数据显然将其视作了人类形象。由此,仅描述数据并不足以理解一个复杂的世界。为达到预想的效果,人们往往需要远离数据。不仅如此,还要教化数据系统停止这些侮辱性言论,但数据系统并不会接纳这些建议。相比之下,知识系统会。 三、开发面向优质人工智能的论证系统 知识系统可以给出好的答案,可以提供理由,可以做出明智选择。这些正是优质人工智能的特征。但是,知识系统并不擅长数据系统所擅长的。众所周知,知识系统并不是为了从数据中学习而设计的。知识系统难以规模化,也不能处理视觉和其他几何结构化信息。而数据系统却很擅长这些方面。因此,需要将知识系统和数据系统各自所具备的良好特征结合起来。唯一的问题是,应该怎样结合所使用到的不同技术呢? 为寻求突破,笔者主张开发能基于论证进行批判性讨论的论证系统,并将其界定为:论证系统是可以开展批判性讨论的系统,在讨论中,假设可以基于合理的论证被构建、检验和评价。 举一个案例对论证进行说明。当证人证明犯罪嫌疑人不在犯罪现场,这就说明嫌疑人有不在场证明,而不在场证明能证成犯罪嫌疑人无罪。如果这是唯一的线索,说明嫌疑人是无辜的。但假如证人是嫌疑人的同伙,这说明证言是谎言,这反过来能证成证人不在场证明是不可信的。这一案例说明,更多的信息可以改变论证立场。换言之,嫌疑犯一开始被相信是无辜的,其后被怀疑直至被确信其并非无辜。这就是一种非单调逻辑系统。 (一)论证系统的发展自古以来,人们就研究论证。 论证于20世纪中叶一度发展成研究富矿(恰巧与人工智能发展同期)。当数学和形式方法威力渐显,论证理论的讨论却还停留在彼时的形式方法并不适合用来理解论证上,原因在于论证多出现“在野外(in the wild)”(如政治场合、法院或家中)。巧合的是,与知识系统和数据系统之间的鸿沟类似,形式方法也逐渐分化为逻辑学理论和概率论理论,进而形式论证研究和非形式论证研究之间的鸿沟出现。上世纪七十年代以来,非形式论证理论开始走上正轨。形式论证理论则自本世纪初开始发展。尽管进展缓慢,但在人工智能中的论证系统研究的影响下,形式论证和非形式论证理论逐渐融合。论证研究的最新发展主要体现在两个方面:论证的数学基础、法庭证据正确推理和法律中规则以及案例之间的联系。 1、论证的数学基础 在关于形式论证和非形式论证的文献中,论证结构都颇受关注。前面所讨论的证人证词的论证就是其中一例,案例表明,评价相互攻击或通过反击来防御论证的数学总是惊人地多变并且异常有趣。自90年代中期以来,这种数学被作为图论的一种形式加以研究。图2显示了五种论证,箭头表示这些论证是如何互相攻击的。例如,论证α和β互相攻击,论证α也攻击γo。对攻击图形的评价是建立在论证不仅相互攻击也相互防御基础上的。当论证α没有被攻击时,它是未击败的,并最终成为论证辩论中的赢家(如图3所示)。当论证β攻击α时,攻击者β获胜而α失败。当β被论证γ攻击时,β失利。论证α不再因为γ对β的成功防御而失败。可以说,这一论证已被修复。 由此发展起来的数学可以作为构建和评价论证的计算机程序设计的基础。例如,笔者在ArguMed程序中对论证示例进行了构建和评估。该程序的一个形式特征是图表的图形结构与数学的逻辑结构同型,即图表中的箭头对应于逻辑中的条件句。 事实证明,通常没有唯一的方法来评估攻击图形。图4(左)以粗体显示了抽象论证的发明者董番明(Phan Minh Dung)所区分的四种原始语义及其之间的关系: 稳定语义、偏好语义、扎根语义和完整语义。笔者在博士研究中发现了另外两种:半稳定语义和阶段语义。这已经给出了六种可能性。当推理所支持的攻击被允许时,还会有更多的可能性。图4(右)已经显示了11种。不过,奇怪的是,在真实的论证中,语义是否是扎根的、完整的、偏好的或者稳定的,似乎从来都不是问题。问题在于,这种“美丽而有趣”的数学是否准确契合它所涵摄的现象,即论证。换言之,它是正确的数学吗? 2. 寻找正确的数学 为了寻找正确的数学,笔者和研究团队成员开始研究刑法中的法庭证据推理。吊诡的是,有三种理论方法可以用来组织和评估证据推理。第一种方法以论证为基础。如前所示,证人给出了嫌疑犯不在场的证明,但后来证人却被证明是嫌疑人的同伙。由此,论证分析的关键在于论点的收集和权衡。 第二种方法是使用情节。在证据的情节分析中,若干个与证据相关的情节被组织起来并相互比较。例如,“不在场证明”情节可以与公诉方提出的“犯罪”情节相比较。在情节分析中,起作用的是情节间的内在联系和融贯性。例如,没有动机或没有凶器的谋杀情节是不完整的。 第三种方法以概率论为基础。DNA证据在当今刑法中的作用不可或缺,其中DNA排除统计分析的作用尤为突出。由于匹配概率太小,DNA痕迹与嫌疑人的DNA完全匹配的情况很少出现。由此可见,以概率推理可能导致可怕的错误。 以三种方法为起点,我们开始探索三者之间存在的关系。最初,在荷兰国家科学基金委的资助下,论证和情节之间的关系成为我们的研究重点。这直接催生了弗洛里斯·贝克斯(Floris Bex)的博士论文。该论文由亨利·帕肯(Henry Prakken)、彼得·范·柯本(Peter van Koppen)和笔者共同指导。文中提出了一种新的对论证和情节之间的关系做形式化阐述的理论。如图5所示,横向的两种情节是犯罪中可能发生的,纵向的是支持和反对情节细节的论证。 之后,受荷兰国家科学基金法庭科学项目的资助,我们开始关注概率建模。贝叶斯网络是研究的起点,它结合了图形网络结构和概率,成为人工智能中一种有用的建模技巧。图6是一个关于贝叶斯网络的示例,包含三个节点和与之对应的概率表格和条件概率表格。贝叶斯网络的一个重要特点是可以利用变量之间的独立性对概率函数进行有效建模。夏洛克·弗莱克(Charlotte Vlek)在其博士论文中研究了情节和概率之间的关系。她开发了一种在贝叶斯网络中为犯罪案件情节建模的方法。在弗莱克博士构造的图形中,情节被表示为节点集,证据是灰色可视的。她还展示了如何用情节解释贝叶斯网络。舒尔德·梯马(Sjoerd Timmer)的博士论文更深入探究了论证和概率之间的关系。他开发了一种可以从贝叶斯网络中提取论证与反论证的算法。在梯马博士构造的图形中,背景是贝叶斯网络,中间是贝叶斯网络生成的支持图,前面是基于贝叶斯网络生成的论证。他还展示了如何在贝叶斯网络中对论证方案建模。 以上两篇博士论文是与亨利•帕肯(Henry Prakken)、西娅•卢努伊(Silja Renooij)、约翰•儒勒•迈耶(John Jules Meyer)和瑞内克•弗布鲁克(Rineke Verbrugge)卓有成效的合作成果,并吸收了贝克斯(Floris Bex)的许多建议。通过对贝叶斯网络中人工智能技术的研究,研究人员更深入地了解到,使用论证和以情节和论证作为评估证据推理的工具之间的关系。就此而言,笔者和研究团队成员得以用论证、情节和概率影响证据推理安全方法的讨论。 论证、情节和概率三者的结合最终产生了一种新型的论证数学。该数学的第一个形式化版本在加利福尼亚诞生,由图形化“语言”构成,用以表示对犯罪案件过程中已发生事件所做假设的构建、检验和评价。 3. 电影《捉贼记》的图形阐释 这里,以一个犯罪故事为例进行说明。阿尔弗雷德·希乔克(Alfred Hitchock)于1955年拍摄了一部精彩的电影《捉贼记》(To Catch A Thief),故事背景设在法国南部。由加里·格朗(Cary Grant)扮演的罗比Robie曾是一名小偷,以其杂技般的攀爬技巧而出名。图7中的每一排都显示了所收集的新证据和被构建、检验和筛选的假设。矩形代表可能的假设,而每一排的概率空间在变小。最上端是两个被构建的假设:左边矩形表示罗比曾经实施过的不凡盗窃行为,右边矩形表示他不是小偷。证据是新实施的一系列盗窃行为与罗比多年前杂技风格行为之间的相似性。一开始,警方并没有偏向于其中任一假设。因此,第一排矩形面积是大小相等的。第二排右边矩形表示,由于罗比从警察那里逃脱了,他的清白和可信度降低了。但是,在一次夜间伏击和激战后,法国抵抗运动的参与者福萨德自屋顶跌落摔死。由此,罗比不再有嫌疑。因此,第三行中,代表罗比罪行的矩形消失了。现在福萨德是嫌疑人,但也存在无辜的可能性。当福萨德因腿上安装了假肢而不可能完成那些必要的特技动作时,他的嫌疑很快被洗脱了。在电影的后段中,福萨德的女儿在盗窃时被当场抓获并逮捕。她供述了在哪里可以找到被盗的珠宝。当在指定的地方找到珠宝后,没有人再怀疑她不是小偷。这就是为什么在最底端处只剩下一个矩形,它表示福萨德的女儿有罪。 矩形代表所有的概率和所有被认为可能的情形。当所有直线上的矩形被一个一个叠加上去时,这一点变得尤为明显。这就出现了图8中的模型。该模型由七个矩形组成,每个矩形代表事情发生的概率。矩形一代表罗比再次成为小偷的概率。矩形三代表的是福萨德的女儿最终被指认为小偷的概率。矩形的相对大小代表了它们的相对概率和相对可信度。在故事中,这些概率是逐渐被构建出来的,并伴随着不知道该相信什么的不确定性。直到最后,当所有的不确定性都被决定性证据排除后,只剩下了一个矩形。那么,所有合理的不确定性都被排除了,因为最后找不出关于不确定性的确切原因了。模型中展示了一个所有合理怀疑都被排除的过程;模型中也能确定福萨德的女儿就是小偷。而这一切只有在扩大可想象的概率的情形下才会发生改变。 这种图形语言包含了三个重要方面: 首先,推理的有效性可以从一系列可能的假设中推导出来。由此,形式主义为论证和反论证提供了语义。 其次,与贝叶斯网络不同,图形语言几乎不需要数字,而重点关注相对比例和数字顺序。 最后,逻辑学和概率论之间有一种天然联系。这一点令人惊讶。如前述及,形式和非形式论证研究(也包括笔者的研究)往往因逻辑学和概率论之间的差异而受到启发。 (二)以案例为中心的形式主义 对图形语言的形式阐述催生了一种以案例为中心的形式主义。图中的矩形与案例相对应。每个案例代表一种概率,一组能同时发生的属性。案例模型的数学定义如下。案例由逻辑一致、逻辑上不同(互不兼容)语句表示。它们是一种全前序,其关系是全序传递的,但不必然是反对关系。 定义:案例模型是一个序对(C,≥),其中有穷C⊆L,对于所有的φ、ψ 和x∈C而言,定义如下: 1. ¬φ; 2.如果 φ↔ψ ,那么╞ ¬(φ∧ψ ); 3.如果╞ φ↔ψ ,那么φ=ψ ; 4.φ≥ψ 或 ψ ≥φ; 5.如果φ≥ψ 且ψ ≥x,那么φ≥x。 可以用案例模型来定义论证的三种逻辑有效性。融贯论证支持一个可能的案例;推定论证支持一个极大优先的案例;决定性论证允许不融贯攻击。 定义:令(C,≥)是一个案例模型。对于所有的φ、ψ和x∈L: 1.(C,≥)╞(φ、ψ),当且仅当,∃ω∈C:ω╞ φ∧ψ 那么,就案例模型而言,从φ到ψ的论证是融贯的。 2.(C,≥)╞ φ⇒ψ,当且仅当,∃ω∈C:ω╞ φ∧ψ,且∀ω∈C: 如果ω╞ φ,那么,ω╞ φ∧ψ。 那么,就案例模型而言,φ到ψ的论证是决定性的。 3.(C,≥)╞ φ⇝ψ,当且仅当,∃ω∈C: (a) ω╞ φ∧ψ;且 (b) ∀ω'∈C:如果ω '╞ φ,那么ω≥ω '。 就案例模型而言,从φ到ψ的论证是推定有效的。当这一论证并非是决定性的,则它可被适当废止。当(φ∧χ, ψ)并非推定有效,χ情形可反驳或允许攻击。当(φ∧χ, ¬ψ)推定有效,则攻击情形可反驳,否则这些情况可底切。当(φ∧χ,ψ)不连贯时,攻击情形具有排斥性。 正是数学上的精确性和哲学上的相关性使得全前序被视作是那些从数值上可实现的序。这些排序既可定性也可定量,既可包含也可不包含数值。因此,案例模型的优先排序也可数值化,事实证明,它甚至可以用一种与概率论衔接的方式实现。因此,三种有效论证的定义可以用定量的方式改写。在给定前提下,连贯论证对应于正条件概率下的结论;推定论证与高于阈值的概率相符;决定性论证与等于1的概率相符。这样,论证就架起了逻辑学与概率论的桥梁。逻辑描述案例的性质,概率论描述案例的优先序。 (三)论证、案例和规则的结合 如前所述,案例模型的数学是通过思考法庭证据的正确推理而发展起来的,其后,它在论证、情节和概率如何实现互不干扰地共存的思考中继续发展。至此,问题的关键在于,一个复杂论证结构的有效性能否通过案例模型得以重构?更确切地说,在给定包含规则及其例外情形的规则结构的前提下,是否存在这样一种所包含的规则都有效的案例模型呢? 事实证明这是可能的。前文述及的法律中论证、案例和规则之间的关系就是一个好例子。关于三者之间关系的议题,最先源于笔者和笔者所指导的第一个博士生(前期与雅普•哈赫合作指导,后期与汉斯姆•克罗伯格合作指导)的研究关注点。起先,荷兰法律中有关非法行为损害赔偿的形式结构要点成为需要解决的问题(对此,笔者以“荷兰制定法中所规定的非法致损行为的赔偿条款”为例对知识系统进行了说明)。为此,一个包含16种情形的案例模型被建构出来,模型中的结构是有效的(图9)。尤为特别的是,这些几乎不结构化的案例集使复杂的论证结构变得有效。因而,图1(左)中论证结构中的知识正是根据图9案例集的数据表述出来的。 四、迈向优质人工智能 回到搭建人工智能的桥梁,尤其是搭建知识系统和数据系统之间桥梁的话题上来。由于案例模型中的案例可以被视为可用于学习的数据(如数据系统中的数据),而案例模型中的规则可被视为有效的(如知识系统中的知识结构),因此,成熟的数学能为弥合知识和数据之间鸿沟的论证系统奠定基础(图10)。这一论证体系可以成长为优质人工智能。这一成长中的智能系统可以给出好的答案、提供好的理由、做出明智选择。 首先是好的答案。论证系统为批判性讨论中的复杂问题寻找答案,如果找不到这样的答案,它就会寻找最佳答案。这远远超过我们所能从数据系统中获得的好答案的最大值。同时,论证体系中的知识可以持续稳定地扩充,这一扩充是通过利用可得数据而建构并评价新的假设而实现的。 然后是好的理由。在论证体系中理由至关重要。在回答“为什么”的问题时,论证体系会对一系列支持或反对给定答案的理由进行分类,并时常补充一些可能的选项。这样,论证结构在与数据保持连接时,也能从“内部”洞察知识结构。 最后是明智的选择。论证系统可以固守规则,也可以在考虑特定情形时遵循所获取的规范。基于其批判性讨论的能力,论证体系可以给出批判性反驳,这正是正式讨论中关于明智选择所必须具备的内容。 结语 随着论证系统的发展,人工智能的梦想越来越近,恐惧更加可控。相较于现有的规制人工智能的两个提议——加强人类控制和禁绝“杀手机器人”,笔者的主张开辟了另一条规制人工智能的替代性进路。论证系统为人们在合理论证的基础上开展批判性讨论铺平了道路。尽管赢得这样的批判性讨论并不总是很容易,甚至有的时候我们会输。就此而言,这与人们所习惯的科学、政治和日常生活并无二致。但这就是问题的关键:智能行为并不是为了赢得讨论,而是为了在一个复杂多变的世界里为生活中的难题找到好的答案。正如人们从科学、政治和日常生活中所体味的,这需要批判性讨论。开发优质人工智能能帮助人们实现这一愿望,然而,到目前为止,这一项迷人且具有挑战性的任务依然只有人类才能完成。显然,在实现优质人工智能(计算机和机器人会是批判性讨论中严谨的“伙伴”)之前,仍需要完成大量的研究。 说明:(1)本文英文版系维赫雅教授就职于格罗宁根大学的演说稿。图表有小部分删节,另外,由于参考文献数量较多,此处不一一罗列。关于完整的参考文献,请参见演说稿的英文版,下载地址:http://www.ai.rug.nl/~verheij/ssail2019/ 本文翻译中,得到熊明辉、郑珩、魏翔等师友指正,特此致谢。(2)本文中文版发表在《甘肃社会科学》2019年第4期第92-99页,微信版推送删除了注释部分,引用请以杂志发表版为准。 编辑:王豪
|