【案例】 为什么人工智能大多像“人工智障”似的? 谁还记得那些年大火的“互联网+”吗……“衣食住行加互联网”,一夜之间诞生了许多现在的互联网大厂,不过时过境迁尘埃落定之后,现在似乎已经是人工智能的时代了。 但是但凡体验过若干次人工智能不那么智能的时刻,总是不免从脑海深处发出灵魂之问:人工智能?就这? 在电影中,人工智能是这样的,无所不能、追求进步、感情丰富、思考着我是谁我从哪里来我到哪里去的深刻命题……然而现实中呢?机械地接受指令还常常阴差阳错,遇上一些突发情况立马整不会,更别说跟你沟通交流情感往来这些场景了。 B站上的一些人工智障表现,常常有数百上千万人围观。例如,一篇长使英雄泪满襟的《出师表》在谷歌翻译看来,那就是纵横古今三千年的跨学科大作文,充斥着偶尔点题的前言不搭后语,让人哭笑不得。 再譬如说疫情以来,得到广泛应用的智能人脸识别系统更是引起了很多争议和讨论,人们在担心自己隐私泄露和安全性问题的同时,也发现人脸识别系统常常给人以“惊喜”: 有时候化个妆或者戴个眼镜就完全识别不出来,有时将图片识别为真人,之前更是出现了王者荣耀的人脸识别将狗认作了人脸这种新闻。 正是因为现有的人工智能技术在大多情况下,都不能善解人意地解决实际需求,在互联网上还诞生了一批反其道而行的大发明家,他们的产品生动地展现了,“什么叫做别人家的产品要钱,他们家的人工智能产品要命”。 所以说,你是否思考过这个问题,为什么现在的人工智能存在着那么多的诟病?真的只是因为发展时间短暂赞不成熟吗?还是说从根本上就南辕北辙了呢? 01 主流人工智能为什么不“智能”? 一些人工智能之所以并不像想象起来那么智能,那是因为其实他们都只是专用人工智能,而非像人类那样能够胜任各种任务的通用人工智能系统(Artificial General Intelligence)。 目前主流AI研究所提供的产品都不属于“AGI”的范畴,例如曾经因为打败李世石与柯洁而名震天下的谷歌公司的Alpha Go,其实就是一个专用的人工智能系统。 它除了用来下围棋之外,甚至不能用来下中国象棋或是日本将棋,更别说进行医疗诊断,或是为家政机器人提供软件支持了。 虽然驱动Alpha Go工作的“深度学习”技术本身,可以在进行某些变通之后被沿用到其他人工智能的工作领域中去,但进行这种变通的是人类程序员而不是程序本身。 不妨追溯人工智能的起源,它的诞生本来就是哲学思辨的产物,很多人或许看过《模仿游戏》,主角图灵其实对于AI科学的兴起起到了至关重要的作用。 在1950年,他的一篇论文中提出了著名的“图灵测验”,并认为人造机器具备人工智能的条件,就是它的言语行为是否能够成功模拟人类的言语行为。(也就是说我们和机器对话时会误以为它是真人)。 其实从诞生时起,AI研究就要探讨,什么是“智能”?究竟是能解决具体问题,还是在行为层面和人类相似?而判断AI系统好不好,也往往取决于它能否达到设计者最初的目标,这和物理实验判断假设合理性的路径不同。 在目前AI研究进路多样的阶段中,没有哪一种获得了绝对优势,不过我们可以大致将它分为符号主义和联结主义两个进路。 不要被这些晦涩术语所吓到,所谓符号主义进路,其实就是用现代的形式逻辑进行推演,就比如在计算机编程的时候,输入一些现实的数据,然后通过逻辑进行推理达到结果。这种进路其实被广泛应用,但是它存在一些根本问题,也造成了很多灾难: 比如2019年的这场空难,它的事故源自飞机上的AI系统,这个系统自动控制飞机头和地面的角度,而且人很难找到手动控制的按钮,只能依赖AI。 它的工作原理很简单,机头有个传感器探测飞机和地面角度,之后把数据给系统,系统就自动调整直到符合标准。 然而,一个根本问题是,如果传感器本身坏了怎么办?这种AI系统无法解决这个问题,因为它的原理就是根据给定的经验数据进行机械的逻辑推演,它无法灵活根据现实环境的变化临时判断。 其实这种进路的AI系统,都是运用了现代的形式逻辑思维,虽然它也很难满足另一派基于联结主义的深度学习技术发展(想必大家在科技类新闻中常常会见到“深度学习”这一热词,尽管可能不清楚它的意思)。 但是,在真实的生活中,我们一般人经常不会采用形式逻辑思维,而且这种思维本身看似比我们的“直觉”、“想象”要更加理性、科学,但是也会造成很多问题: 比如说,形式逻辑无法检查自己处理的经验性命题本身的真假,上述中那场空难就是例子,而为了克服这一点,设计者通常预设了很多经验事实在推理中起到了真理的作用,进而将经验世界加以固化了。 人类可以轻松在变化的经验世界和不变的逻辑世界中进行切换,但是依赖形式逻辑的AI却无法做到。 又比如说,形式逻辑的语义注重刻画“边界明确”的极端情况,但是日常生活中很多表述都处于语义模糊的“灰色地带”。 一个具体例子是“张三有钱”这句话,按照现代逻辑的表述,哪怕只有一分钱属于张三,“张三有钱”这句话就是真的,但人们日常的表述显然意味着,张三的财富必须远超一般人。 而一个现实的问题是,形式逻辑不考虑经济性和可行性,只关注有效性,这意味着在实际应用到AI编程时,它不在意所需的大量公理和推理步骤。但是实际的AI编程显然要考虑成本问题和工程效率。 至于所谓的联结主义AI研究,并不关注符号层面上对人类的信息处理过程进行逻辑重构,而是注重如何以数学方式模拟人类神经网络的运作方式,并通过对于此类神经元网络的“训练”,以使其能够给出用户所期望的合格输出。 02 深度学习对人类文明有隐藏威胁 时下流行的“深度学习”技术,其前身其实就是联结主义,或者叫做“人工神经元网络”技术。 关于这一技术,有个浅显易懂的类比。假设有一个外国人跑到少林寺学武术,而且他和师父之间语言不通,那么他就先观察师父的动作,再跟着学习。 师父则通过简单的肢体交流告诉徒弟学的是否对,假如徒弟知道自己错了,他也不能通过语言知道自己究竟哪里错了,只有无限地猜测并模仿,直到师父肯定为止。 这种方式显然效率很低,但是“胡猜”却是联结主义的实质,因为这种AI系统不知道输入的信息意味着什么,它是通过一次次猜测可能的结果,如果与人类预先给定的“理想解”符合,则加以保存“记忆”,并在此基础上继续“学习”。 而所谓“深度”学习,其实并不意味着AI可以深度理解学习内容,它的原文“deep learning”翻译为“深层学习”或许更不容易引发歧义。 它的意思是通过系统技术升级,增加隐藏的单元层、中间层数量,这种方式显然依赖于硬件的提高和互联网普及所带来的大量数据。 那么,深度学习为何会对人类文明造成潜在威胁呢? 这里说的威胁,不是那种科幻式的想象,而是一种基于现实的考量。简单说来,“深度学习系统的大量运用会在短期内对特定领域内的人类工作岗位构成威胁,由此也会对人类专家的稳定培养机制构成威胁,并使得深度学习未来的智慧汲取对象变得枯竭”,由此,人类文明在耗尽了深度学习的短期红利后,可能走向衰落。 这段话究竟是什么含义? 我们从医学中的肿瘤AI诊断说起,这种新兴技术在设计深度学习框架时,必须依赖专家医生进行数据的标注,但是专家医生本人的读图能力却是数十年的学习和实践中积累的。 换言之,当这种AI技术得到推广,医学院的学生可能没有精神动力再耗费多年心血进行相关学习,从长远来看,这会造成人类医生相关能力的衰弱。 而且,由于深度学习的统计学机制会剔除偶然数据,很多罕见病例的肿瘤形态不会被标注,这种情况下,只能依赖人类医生,长远来看,AI肿瘤诊断也会对人类医生诊断罕见病例的能力产生负面影响。 徐英瑾老师认为,深度学习技术对专业领域劳动力的剥削和取代,实际上对人类文明的人文资源产生了剥削和威胁。 所谓的人文资源,包括了稳定而不僵化的知识培养体系,使得劳动力在专业技能和文化素质等方面都能有所发展,而且每个人的思想与技能水平的差异性,又使得人文资源充满丰富性和多样性,这是一个社会的人文资源能够可持续发展的重要前提。 但是现有的AI系统不能像真人那样对同一价值内容产生多样性的认识,深度学习机制实际上是收集了大量的一般性认识,并加以平均化,它无形中排除了很多个性化的认知,但是却无法产生新的历史发展可能性。 这种僵化和平均化的一个后果,是人类提出新动议时被AI所限制。比如说,喜欢创新的影视制作者提出新的方案时,如果资本方依赖深度学习所提供的信息处理方式,就会以“缺乏数据支持”为由反对这种创新,那么有想法的导演和编剧就无法得到资本界的支持来从事创新性的文艺创作。 03 对眼下的主流的AI研究的批评 传统的的AI系统需要对系统所面对的环境,或者是所要处理的任务类型给出非常清楚的界定,因此不具备那种针对开放式环境的适应性。 然而,现实生活中,即使是鸟类的自然智能,也都具有那种处理“全局性”性质的能力。譬如说,乌鸦所面临的原始环境肯定是不包含城市的,但是这并不妨碍日本东京的乌鸦成了一种高度适应城市环境的生物。 此外,自然智能常常能用相对经济的方式对环境作出回应。例如我们很难想象一只猴子为了辨认出它的母亲,需要像基于深度学习的人脸识别系统那样先经受海量“���脸”信息的轰炸,就像我们很难设想柯洁在获得与“Alpha Go”一决高下的能力之前,需要像它那样自我对弈几百万棋局一样。 要从这种局面中找到出路,创新性的哲学思维就显得很重要。例如如果我们能够开拓出一种基于小数据的(而非大数据的)、并由此在原则上就不需要大量获取用户个人信息的新AI发展思路,就完全可能由此规避美国目前针对我国的大多数政策限制。 来源:哲学之路(微信公众号) 编辑:屈妍君
|