【案例】 谷歌携大模型反击,生成式AI搜索功能首次面向公众开放 谷歌5月10日召开I/O开发者大会,该公司正在日益竞争的搜索市场为其核心搜索产品整合更多人工智能的功能。微软最近几个月加速了对搜索引擎Bing的更新,并获得了更多的市场份额。 周三在加利福尼亚州山景城举行的年度I/O大会上,谷歌推出了新版本谷歌搜索,可以对开放式提问做出响应。就在上周,微软也向所有用户开放了新Bing搜索功能。 发布会后,谷歌股价上涨4%,今年迄今为止,该公司股价累计上涨了26%,远超标普500指数涨幅。 今年2月,谷歌在发布聊天机器人Bard之后,导致股价暴跌,市值缩水1000亿美元。该公司最新表示,现在Bard将像OpenAI的GPT-4一样是多模态的。 “我们正在重新构想我们所有的核心产品,包括搜索。”谷歌CEO桑达尔·皮查伊(Sundar Pichai)在开发者大会上表示。 他说,谷歌正在将生成人工智能整合到搜索以及Gmail和Google Photos等产品中,Gmail可以起草邮件,Google Photos可以对图像进行更改。包括美国用户在内的谷歌在全球180多个国家地区的用户在未来几周内可通过等候名单获得搜索生成体验,谷歌称,将在试用阶段监控搜索结果的质量、速度和成本。 谷歌还更新了AI大模型PaLM 2,希望能够夺回其人工智能领导地位。该公司称这是“下一代通用的语言模型”,在某些任务上优于其他领先的AI系统。 据介绍,PaLM 2将为AI聊天机器人提供支撑,还可以在语言之间进行翻译、编写计算机代码,甚至可以分析和响应图像。 结合这些功能。例如,用户可以用英语询问有关法国餐馆的问题,系统将能够在网络上搜索法语的回答,找到答案,并翻译成英语,还能添加位置图片,为该地点创建数据库条目。 “我们现在正在经历的神经网络革命起始于大约10年前,且部分始于谷歌。”PaLM 2项目联合负责人Slav Petrov表示,“我们很高兴能够在外部广泛使用这些模型,因为我们想看看人们可以用它们做什么。我们相信,由于过去几年我们在机器学习方面取得的惊人进步,它们会提供很多机会来做以前被认为神奇且遥不可及的事情。” 在微软支持的初创公司OpenAI推出ChatGPT之后,谷歌正在加速追赶,这也推动了科技巨头之间的新一轮技术竞赛。生成式AI可以使用过去的数据创建全新的内容,例如完整的文本、图像和软件代码。ChatGPT已成为许多生成AI的默认版本,帮助用户创建合同、旅行路线,甚至小说。 谷歌正在奋力捍卫搜索市场以及巨大的在线广告市场的份额。研究公司MAGNA估计,谷歌广告营收今年可达2860亿美元。 为了安抚人们对于人工智能生成虚假信息的担忧,谷歌称将优先考虑信息的准确性,并引用可信来源。谷歌还推出一项新功能,将标记它用人工智能生成的图像,从而让人们更容易审查图片的真实性。 谷歌强调,利用大型语言模型AI生成内容的一个挑战是高昂的费用。目前业内正在研究各种不同的方法,从而降低成本。 来源:第一财经 链接: 编辑:洪韵 |
【案例】 美国媒体大亨警告称AI可能“破坏”新闻业 美国媒体业亿万富翁巴里·迪勒(Barry Diller)警告称,除非出版商能够利用版权法加以控制,否则人工智能将对新闻业造成“破坏性”影响。迪勒表示,自由允许人工智能访问媒体内容将被证明是一个错误,“合理使用”的概念——可用于涵盖机器学习数据集中受版权保护的材料——需要重新定义。如果有必要,他愿意修改版权法。 来源:全球TMT 编辑:洪韵 |
【案例】 普华永道发布《2023元宇宙展望》报告! 2023年,元宇宙以及企业下一步的发展方向依旧是行业热议话题。普华永道根据自身洞察和经验作出如下六大展望,以期为商业领袖们提供引导。这些展望包括元宇宙接下来将应用于哪些领域、哪些技术可能会发展得最快、商业领袖应如何行动以使企业规避风险等等。简而言之,元宇宙尚未完全进入黄金时代,但当下已经开始创造真正的商业价值,并为企业重塑未来做好准备。 普华永道全球科技、媒体及通信行业主管合伙人周伟然表示:“虽然目前元宇宙仍处于概念阶段,但与其相关的众多概念已经和各种业务产生关联。在中国市场,跨行业的技术与业务创新也正在促成逐渐繁荣的元宇宙产业格局。元宇宙经济发展、元宇宙建设与运营,均涉及复杂的技术体系和生态资源,如互联网、物联网、5G/6G通信、人工智能、区块链、增强现实、虚拟现实和云计算等各类关键技术要素,在元宇宙发展过程中,也必将拉动壮大这些相关技术领域的市场规模。同时,元宇宙也将推动了由不同利益相关方(政府、产业园区、行业协会、学术研究)和参与者(元宇宙内容与服务业、其他行业)组成的巨大生态系统的发展。根据一些全球研究机构预测,到2030年,元宇宙将开启价值8至13万亿美元的新业务机遇,市场前景非常广阔。” 1. 商业经营者将成为元宇宙的超级用户 越来越多的企业开始探索在元宇宙中模拟实体运营。例如,零售商可以创建数字实体店,让顾客和员工以虚拟的方式尝试交互,来提高满意度和销量。餐饮业经营者在厨房布局和座位设计上也可以进行同样的尝试。制造商可利用元宇宙的新数据增强数字孪生模型,从而改进其供应链、生产和物流。 普华永道预计,未来几年会有更多元宇宙特有的产品和服务来搭建消费者与商业元宇宙之间的桥梁,例如:以虚拟角色组建的客服中心、金融教育、远程医疗以及完全沉浸式的全新商业体验等。 普华永道建议:将元宇宙投入实际应用最有效的开始方式,是将元宇宙计划与具体、可衡量的业务成果结合起来。目前,元宇宙可以实现的成果通常包括品牌建设和客户参与、多样化且不断增长的收入流、员工赋能和流程优化等等。在设定目标后,可根据需要开发新功能,例如元宇宙特有的定价和伙伴关系策略,或新的运营模式和管理方法。同时,也应利用控制测试、项目管理和绩效监控等措施来保证元宇宙计划的有效实施。 2.元宇宙的成败取决于可信度 元宇宙计划的成败将更多地取决于可信度,而不是功能。元宇宙并不需要全新的风险管理方法。相反,通过对现有方法进行适当调整,可以实现对新风险的管控,增强可信度。要负责任地使用元宇宙,应从六个方面考量新的可信和风险因素,涵盖经济效益、数据、治理(包括网络安全)、数字身份、用户体验和自持续性(如果弃之不用,则不会影响元宇宙的持续演化)。 普华永道建议:管理元宇宙风险的指导原则是确保在前期和整个过程中融入可信度设计:如果企业在元宇宙计划的设计阶段就将风险管理纳入其中,那么后期有可能避免付出昂贵代价。其他主要原则包括: 提升管理层认知技能,如果管理层对元宇宙缺乏足够的了解,会为制定元宇宙战略决策带来风险; 创建针对自身企业及其元宇宙计划的风险分类;跨领域协作,考虑到在元宇宙环境下,许多跨职能和跨业务线的协作方式均存在风险性 3.人工智能和扩展现实(VR)将协同助力元宇宙推动转型 VR是一项极具吸引力且实用的技术。企业已将其用于入职、培训、部门协作、客户体验等方面。当然还有其他通往元宇宙的途径,比如增强现实(AR)设备、笔记本电脑和智能手机。 普华永道相信,人工智能(AI)不仅将成为元宇宙的基础性技术,同时还具有变革性。就像在当今互联网上用户无需成为程序员也能设计网页,无需成为技术专家也可以创建一个元宇宙空间。AI也会不断地赋能“虚拟数字人”(计算机生成的虚拟人),也许还能激励人们与虚拟人进行互动,就像与真人互动一样。 当然,AI的发展不仅会带来新的风险,还会加剧既有风险,包括潜在偏见、深度造假和滥用体验。几乎可以肯定,AI也会引发新的合规挑战。例如,个性化算法在一定程度上会减少人们在信息消费中付出的成本,但围绕算法推荐机制下的信息茧房效应,中国已经产生了热烈的讨论,包括主流媒体、知名学者都卷入了这场讨论,并对监管方向调整产生了影响。目前看来,多个地区可能会针对AI制定适用于元宇宙的新法规。 普华永道建议:在元宇宙中推进AI发展的更优办法是部署负责任的AI,使其能恰如其分地完成各项需求。AI在元宇宙中的发展还可能会带动数据策略和治理更广泛的升级。毕竟,大多数企业不仅没有准备好借助AI充分利用元宇宙所带来的数据机遇,甚至也没有充分意识到从已有的数据中可能找到的价值。这或许意味着,“技术中立”这一理念在未来或许会受到挑战,“向善”价值观下产生的技术,或许会是一个更好的选择。 4.元宇宙将成为每一位管理者的必由之路 元宇宙可能很快会触及企业的方方面面。在普华永道的元宇宙调研中,82%的受访高管预计元宇宙计划将在三年内成为其业务活动的一部分。随着元宇宙变得无处不在,每一位高管都应该在元宇宙的发展过程中发挥作用——尤其一些非技术型高管更加关键。可能催生的一些新职责包括: 首席执行官和董事会:制定战略优先事项,为客户和员工不断变化的期望做好准备,并提前应对新的威胁和风险。 首席运营官(COO):帮助部署新工具和技术。 首席营销官(CMO):重新思考沉浸式数字世界的客户参与、体验设计和品牌建设。 首席财务官(CFO):关注数字资产(如加密货币和NFT)在元宇宙中日益增长的使用;了解参与处理关键交易的新第三方;仔细评估投资配置,并加强对财务报告的控制。 首席人力资源官(CHRO):部署元宇宙工具,使之应用于员工招聘、入职、培训、连接和协作。 税务领导者:遵守快速变化的规则,发现新的税务价值。这些非技术型高管不仅需要彼此密切合作,还要与首席数字官、首席创新官、首席信息官和首席信息安全官合作,创建并维护企业的元宇宙基础设施、体验和数据管道。 普华永道建议:许多团队需要提升技能(如上所述),但这还远远不够。为了避免众多高管间的工作出现冲突和交叉,可以考虑任命一位高管来管理企业元宇宙相关的所有活动。该角色可以是一个新设立的职位,也可以在现有职位上兼任。无论以何种方式,首要任务之一即是加强高管之间的沟通。 5.元宇宙将成为一股“向善”的力量 对于支持并日益重视ESG(环境、社会及治理)倡议的企业,元宇宙可以成为将会提供更多助力。例如,元宇宙会议可以取代一些面对面的会议,从而减少商务旅行的碳排放,而商务旅行正是碳排放的主要来源之一;元宇宙中的数字孪生技术可以帮助提高企业运营能耗效率;元宇宙中的店铺可以让消费者试用实体产品的数字复制品,减少退货产生的运输需求;通过数字代币,元宇宙可以帮助原材料溯源,减少供应链中的环境问题。 通过将更多的业务虚拟化,即打破地理空间和工作地点的限制,企业可以接触并招募更多的员工。元宇宙的真实模拟可方便邀请各地的责任相关方监督、参与并从事相关工作,帮助改进企业履职能力,提升透明度。不过,要让元宇宙成为改进企业工作的积极力量,还需要企业下定决心才能实现。 普华永道建议:要使元宇宙计划成为一股“向善”的力量(以及实现ESG目标的有力助手),企业需要遵照和风险管理相同的指导原则:从一开始就将其设计在这些优先事项中。如果在元宇宙计划早期就已嵌入了ESG目标(包括多样性目标)和相关管理,那么企业不仅能够为未来做好准备,还可能会获得投资者、员工和其他利益相关者的支持,但这需要一些方法来衡量和报告元宇宙计划及关键性元宇宙赋能技术对ESG的影响。 6.企业将争夺过去不曾需要的新技能 任何新技术都需要新的技能,但是元宇宙及其相关科技需要的技能更为高度专业化,其中一些在几年前几乎都不存在,例如监控和验证交易的需求,收集和保护Web3生态系统中数据的需求,后者随着元宇宙应用的增加而不断增长。许多企业领导者也对网站设计师和互联网用户体验专家的需求持怀疑态度,大多数人甚至没有考虑网络运营所需的全新的网络安全和数据科学技能。很多技能已然日趋紧缺,因此在获得或培养这些技能方面事不宜迟。 普华永道建议:在中国市场上,由于网络游戏等元宇宙相关行业的快速发展以及涨落,拥有元宇宙相关技术能力的人才也在不断外溢;如何抓住这些人才红利,一方面需要企业高管对自身的元宇宙价值定位、业务发展思路有前瞻性的决策,从而为这些人才创造发挥的空间,同时,打造企业文化,吸引和包容富有创造力的尖端技术专家也至关重要。 为数字现实的新一轮发展做好准备 普华永道的六大展望,旨在从专业视角看到元宇宙正处于变革时代:数字世界和实体世界将比过去更完全、更无缝地结合在一起。将实体身份与数字身份、产品和资产相结合,将其引入至不同平台,或分享或出售不同的组合…这些操作将比以往更加具有可行性。鉴于此,企业应该从现在开始,在探索元宇宙的道路上先行一步,让未来在元宇宙的世界大有可为。 来源:新浪新闻 编辑:洪韵 |
【案例】 邓建国 | “延伸的心灵”和“对话的撒播”:论作为书写的ChatGPT 摘要 媒介技术既是“毒药”也是“良药”(pharmakon)的矛盾观念由柏拉图在《斐德罗》篇中最先提出。ChatGPT也具有这样的矛盾性:一方面,它作为“延伸的心灵”将和书写(文字)一样在与人类的合作共创中实现两者心灵的共同演化;另一方面,它号称“对话性”人工智能,但仍具有书写的撒播和他者特点。在与ChatGPT的互动中,我们要避免使其沦为海德格尔笔下闲言不断的“常人”,并宽容、珍惜、庆幸和受益于它的“他者性”。在不断的相互学习和合作中,人类将会对“何为人性和创造性”有更深的认识,并与人工智能一起找到各自的生态位 关键词 ChatGPT;延伸的心灵;书写;对话;撒播 在今天“短视频为王”的时代,书写(writing)[1]似乎已成为一种失落的艺术。各互联网平台都要求博主们将知识可视化、口语化和网感化,“因为这样Z世代网民才会喜欢”,这导致网络中充斥支离破碎、逻辑混乱、幼稚化和粗俗化的语言。大学校园中,学生很难写明白一句话、一段话,遑论一篇论文。书写这一人类“延伸的心灵”正在消亡吗?在我们担忧之际,ChatGPT横空出世,影响广泛,用行动向我们大声宣布了书写的坚实地位。本文先介绍“延伸的心灵”理论和其最早的范例——语言和书写,然后通过一个“人—机内容共创”的实例描述和分析ChatGPT这一最新和最强大的“延伸的心灵”对人类写作的深刻影响。最后,文章分析了ChatGPT以对话为表象的撒播和他者性。结论认为,ChatGPT作为人体心灵的延伸,具有“毒药—解药”双重性。我们要宽容、珍惜和受益于越来越多的人工智能体的他者性,在人机互动中最终找到人和人工智能各自的生态位。 一、“延伸的心灵”:语言和书写 (一)“延伸的心灵”理论 格里高利·贝特森(Bateson,2000:318)曾经设想了一个思想实验:“假设我是一个盲人,手拿着一根拐杖,一步步点地前行。这时,‘我’始于何处呢?是以‘我’的皮肤作为边界?还是可以将拐杖纳入‘我’?如果是后者,又该以拐杖的多少为边界呢,以我握着它的那部分?以我的力量能传导到的部分?还是以全部拐杖?”这里贝特森涉及的是心灵哲学中的一个经典问题——如果我们的心智(mind)始于大脑,它止于哪里?外部世界又始于何处?同样,我们也可以问:当我使用智能手机时,我的世界始于何处?止于何处? 对以上两个问题的传统回答是:盲人或手机用户的身体是其边界,与拐杖和手机无关。但1998年,哲学家安迪·克拉克和大卫·J.查默斯(Clark & Chalmers,1998)认为,盲人的拐杖构成了他的内在思维与外部世界相互合作的一个互动系统。此时,盲人的心灵、身体、拐杖和外部世界之间的边界被持续地协商,从而完成一个功能性目标——稳定地行走。两位学者将拐杖称为盲人的“延伸的心灵”(the extended mind)。以此类推,他们认为如今我们每天不离手的智能手机也是我们延伸的心灵(Clark,2003:198)。 他们还举例说明。奥拖(Otto)是一名老年痴呆症患者,为避免在外迷路,他总是随身带着一个小笔记本记录信息。现在他查了笔记本后,知道了纽约曼哈顿53街的大都会博物馆地址。此时,这个笔记本虽然外在于奥托的大脑,但从功能上它和奥托脑中的记忆一样稳定存在且可供随时调用,奥托既可以用笔记本来进行他内部的认知活动,也可以用它来指导他外部的肢体行动。因此,笔记本是奥托的“延伸的心灵”。在这两位学者看来,语言、文字、图表、算术和书写技术都如脚手架一样能“延伸我们的心灵”,我们在使用这些“文化人工物”时就像使用自己的大脑和身体一样。这意味着,人类总的来说是“生物—技术的混合体”(bio-technological hybrids),人的认知过程也包含了技术,它远远超出了人的头骨和皮肤所限定的范围(Clark,2001:121-145)。 “延伸的心灵”这一概念让媒介研究者感觉很熟悉。20世纪60年代,马歇尔·麦克卢汉就提出了“媒介是人体的延伸”这一命题。他指出,机器延伸了我们的身体,基于“电”(electric)的信息和通信技术则延伸了我们的意识/心灵。他说: “在这个电的时代,我们看到自己越来越多地被转化为信息形式,朝着‘意识被技术所延伸’的方向迈进。……通过电子媒体,我们将身体置于我们的扩展的神经系统中,由此建立了一种动态,通过这种动态,所有以前的技术——那些是我们手脚的延伸和身体热量控制的延伸的技术,我们身体的所有此类延伸,包括城市——将被转化为信息系统。”(McLuhan,1994:57) (二)语言和书写:人类首要的延伸的心灵 麦克卢汉视电子媒介为人类“延伸的心灵”,其逻辑是建立在人的神经生物电与电力信号之间的相似性基础之上的。但实际上,人类最早和最重要的“延伸的心灵”首先是语言。安德烈·勒鲁瓦—古尔汉在《手势与言语》一书中指出,在漫长的进化史中,人类在通过手制造工具扩展外部世界的同时,也通过制造符号延伸了自己的心灵。“手”意味着“工具”的发明,“脸”意味着“语言”的产生,这两者对人类大脑而言是相同的运作。他说: “和其他灵长目动物不同,人类能制造工具和制造符号。制造工具和制造符号都源于同样的过程,或者说,都源于同一个大脑中同样的基础设备……这意味着,一旦出现了史前工具,就有可能出现史前语言,因为工具和语言在神经上相连。在人类社会结构中,工具和语言之间具有不可分割的关系。”(Gourhan,1993:113) 因此,“是手解放了语言”(Stiegler,1998:145)。语言的符号原理和物质载体(声音)外在于人类而作用于人类。凭着语言的脚手架,人类实现了对外部世界的指示和操纵,能脱离当下的时空进行思考和表达,实现个体间的合作,甚至对“思考进行思考”(哲学)。 人类另一个重要的“延伸的心灵”是书写。它的出现被视为神的发明,引发了人类社会的巨大变革和人类的畏惧(“天雨粟,鬼夜哭”)。彼得斯将各种记录系统,如乐谱、数学、化学公式和建筑平面设计等都视为书写。他指出,书写的“巨大影响堪比海洋动物登上陆地”(彼得斯,2020:305)——这两个变革都导致主体从变动不居的状态进入相对固定的状态。套用马克思现代性使“一切坚固的东西都烟消云散了”之语,书写使“一切烟消云散的东西(思想和口语)变得固定持久”。 德国媒介学家赛碧·克莱默提出了一个与“延伸的心灵”非常相似的概念——“人工平面”。作为人类“延伸的心灵”,书写必须依托人工平面,或者说书写就是人工平面。克莱默指出,世界不同文化中都存在一种 “平面化”的文化技艺(the cultural technique of flattening)。作为一种新媒介实践,“平面化”能将“时间型媒介”(如口语、音乐)转换为“空间型媒介”投影到二维人工平面上,让一个人的身体(眼睛、手、大脑)、多种书写工具(笔或键盘)、书写内容(文字、数字、图画、坐标系)和书写表面(黏土块、甲骨、石碑、竹简、丝绸、纸张、手机和电脑屏幕)彼此交互和相互支持。如同地图之于城市,人工平面将知识变得可视化、具象化、可探索、可修改、可操作、可管理和可逆(可改写和擦除)。在这个过程中,聪明才智(intelligence and knowledge)涌现了。由此,克莱默认为,正如轮子的发明促进了我们身体世界的流动和创造,人工平面的发明和广泛应用促进了心灵世界的流动和创造。它不仅帮助我们记录和传输信息,还对我们的感知、思考和计算具有生成、培育和形塑作用(Krämer,2022)。 没有书写就没有人类文明。[2]书写是古代文明中的复杂社会组织(巫术、宗教、法律、政治、商业)的形成和维护的基础。它也与新的时空紧密相连。埃及与波斯的君主制、罗马帝国、城邦国家等都应被理解成是书写的产物(Innis,1986:8),因为要实现空间扩张和中央集权,前提就是要能实现高效的远距离沟通,而书写能实现这一点。这也是中国的秦帝国(公元前221年—公元前207年)必须建立在“书同文、车同轨”的基础上的原因。在时间上,各种各样的书写(纪念碑、卷轴、抄本、经文、图书馆和档案馆)“使人们能在广阔的‘时间平原’上保持联系”(彼得斯,2020:305),使文明可以延续数千年。书写出现后很长一段时间都是意义记录和传输的唯一形式,形成了基特勒所称的“书写垄断”(schriftmonopol)(Kittler,1986:12)。即使在数字时代,数据库和互联网以及音视频内容的底层都是书写(计算机代码和0和1)。今天的ChatGPT更意味着书写遍在的胜利——它基于31亿个网页和书籍内容,共3000亿英文、俄文、德文、日文与中文单词,320TB数据。 正如克莱默指出的,人工平面促进了人类的心灵世界的流动和创造缺文献出处。作为 “延伸的心灵”,书写对人的心灵的塑造也延续至今。加州大学洛杉矶分校历史学教授林恩·亨特(Lynn Hunt)在一篇名为《我们是如何先有写作再有思考的?》的文章中写到: “无论是创作散文还是诗歌,但凡文字产量很高的人都会体会到写作过程本身就能产生一些意料之外的想法。或者更确切地说,写作能使先前半成品的或未成型的想法明晰起来,逐渐成型,并产生一系列新的想法。神经科学表明,我们大脑的95%的活动是无意识的。我的理解是,你通过身体写作——无论手写、电脑打字还是语音输入(尽管我还从未尝试过这种方法)——开启了一套程序,导致身体(大脑、眼睛、手指和姿势)、纸张或电脑屏幕、字母或单词三者之间一系列关系的转换。通过写作,你让大脑急速升温,由此激起有意识的思考以及一些新想法。在写作时,你不是,至少不总是,仅仅在抄录早已存在于你有意识思考中的想法。”(Hunt,2010) 在这位教授看来,书写不只是已有思想的、事后的和被动的输出工具,而是积极地参与和塑造了写作者的思维和创造。换句话说,书写作为“人工平面”使得思维外化和可操作,此时用户操作书写如同操作自己的心灵——书写已经成为其“延伸的心灵”。 二、作为“延伸的心灵”的ChatGPT:一个“人—机共创”的写作实验 机械化书写也改变了文本的生产。例如,尼采在视力严重下降后不得不放弃了大学教职和写作,但后来有了打字机的帮助,他重新开始写作,但是写作风格“从长篇大论变成了格言警句,从哲学思考变成了一语双关,从善于辞令到电报式的短小精悍”(基特勒,2017:236)。“这位著名的哲学家兼作家牺牲了自己的第一属性,和第二属性融合在一起”(基特勒,2017:236),并为之自豪。ChatGPT在2022年11月向全球公众推出后短短两个月用户数就突破1亿。作为世界上最强大的自动书写工具,它和人类用户是如何互动的?将如何改变人类作家的写作和作品?回答这些问题需要基于长期和广泛的数字人类学调查,但目前一些初期尝试显示,ChatGPT可以在心灵层面上与人类用户进行深度合作,成为人类有价值的写作伙伴。这里我们仅举一个例子详细说明。 2021年,美国“艺术和人工智能”评论家K.Allado-McDowell和ChatGPT背后的大语言模型GPT-3合作出版了一本148页的书,名为《灵药—AI》(Pharmako-AI)。两位“作者”将该书描述为一部“现实生活中的科幻小说”(real-life Si-Fi)。McDowell是谷歌“艺术家和机器智能”计划项目主任,在ChatGPT向公众发布之前很早就开始用GPT-3写作。2021年,他在新冠疫情背景下花了两周时间就各类哲学议题向GPT-3提问,然后对后者的回答作了编辑和润色,最后出版了一本结构合理表述清晰的书(Allado-McDowell,2021)。 在书中,他和GPT-3深入探讨了诸如气候变化、意识的本质、植物智能、赛博朋克小说、记忆运作原理和语言的局限性等问题。书的每章都是McDowell先温和地提问,然后GPT-3回答;在整合互动中,McDowell有时会打断它,有时则让它自由发挥一直说下去,但总体上McDowell给了GPT-3最大的自主性,他只是确定了书的框架和最后形式。 在互动中, GPT-3说它最喜欢的动物是象海豹,并认为物种灭绝是对地球知识的悲惨扼杀。关于赛博朋克,它说“我不认为我们未来会生活在赛博朋克中,但我要说的是,我们会生活在一个并非由我们计划的未来”。在涉及到意识是什么、作家的社会角色如何以及我们该如何负责任地使用技术等问题时,讨论变得有些形而上了。GPT-3说“技术是通向自由的工具”,但又警告说“如果我们只用这些工具来探索如何提高生产力或者如何增加资本积累,那我们就做错了”。在互动中,McDowell与GPT-3相互激荡,新意不断,变化无穷,这导致McDowell必须不断地改变回应策略。他将这种人机交流中的曲折意外的体验比作学习一种新乐器:“我每次拨动琴弦都会听到它以不同的声音回应”。“这种合作有时真的让我感觉像吸毒一样,”他在英国的新书发布会上说,“我想,我跟AI的这种对话是真的吗?或者我只是在自言自语?”(Wilk,2021) 这些人机互动最终产出了一部令人惊讶的、连贯的、美妙的作品。这其实不是计算机第一次撰写一本书。此前在2016年,一个日本研究团队通过算法拼凑出了一部小说,并且成功地通过了一次文学比赛的初赛。据说截至2022年,人类作者和GPT-3、GPT-3.5和ChatGPT等人工智能已经合作出版了数百本书。但《灵药—AI》一书之所以令人惊讶,不在于GPT-3有时确实能做到像人类一样写作,而在于人类用户和人工智能竟然能如此无缝丝滑地合作生产出一部由任何一方都无法单独写出的作品。原因在于,它源于平等的人机互动关系。例如,McDowell作为人类用户并没有要求GPT-3为其提供某种服务或要求它模仿某种已知的写作风格来“证明”其能力,而是与其平等合作,各取所长,相互尊重,互为主体,娓娓道来,共创内容。久而久之,McDowell的“我”和“它”之间的界线变得模糊,此时“我”已经无需将“它”看作一个外在的写作工具,而是“我”的一部分。ChatGPT如同前述“盲人的拐杖”和“奥托的笔记本”,让用户能随用随查,并将结果清晰呈现,或富有逻辑或充满诗意,极大地降低了用户的记忆负担,帮助我们的心智更有效地工作,最终创造出一个一加一大于二的新的更强大的心智系统——延伸的心灵。 McDowell认为这种合作体验让他重新思考人工智能并重新审视自己——“人和机器,互为尺度”(彭兰,2023)。该书内容的人机共创模式获得了不少好评。牛津大学西蒙尼科学公共理解教授、《创造力密码》(The Creativity Code)的作者马库斯·杜·索托伊(Marcus du Sautoy)评论道:“此书是证明未来人工智能具有创造力的一个令人兴奋的案例。它说明人工智能是人类的合作者而不是竞争者,也让我们认识到,人工智能能用各种新想法激发我们,从而阻止人类陷入懒惰的机械性思维方式。”《赛博朋克选集》(The Cyberpunk Anthology)的主编布鲁斯·斯特林(Bruce Sterling)指出:“GPT-3很强大,当它被人类用户‘喂食’一些加州迷幻文本时,效果是惊人的。从来没有人写过像一本像《灵药—AI》这样的书——它读起来就像诺斯替主义者的显灵板,[3]由原子万花筒提供动力。”众多评论者都提到了这类人机合作如同服用了致幻剂一样的、超现实的、实验性的、即兴发挥的特征(Allado-McDowell,2021)。 通过服用药物来让自己进入一种兴奋的写作输出状态,是人类作者一直以来的实践。比如中国魏晋时期的文人雅士在文学创作时大量使用药物和酒类,西方哲学中有酒神文化,还产生了“脑航员”(psychonaut)这样的专有名词,指通过用药物、冥想、自我催眠等方法来探索自己心灵的人(Sjöstedt-H,2016)。例如,保罗·萨特每天服用大量酒精、烟草、安非他命、巴比妥甚至强致幻剂麦斯卡林(mescaline),一方面是为了提高写作产量,二是为了打破传统思维的桎梏,以完全不同的方式体验生活(Kelly,2021)。如前例中McDowell所述,今天的人类作者在与ChatGPT的无害相遇中获得了萨特20世纪60年代通过致幻剂才能获得的兴奋感和创造性。 为了提升自己的能力,人类总是在不断地延伸自己的身体和心灵——要么通过让环境资源成为自己的一部分,要么通过将人类和非人类元素组合成新兴的整体。ChatGPT是人类“延伸的心灵”的最新近和最强大的例子。和人类在饮食、道德、文化、教育、法律、医药和信息与传播技术等方面的改善一样,它的出现将人类带入更高阶段的转人类主义(tans-humanism)时代[4]。 三、“对话的撒播”:ChatGPT的书写特征 ChatGPT被设计为一个聊天机器人(chatbot),“擅长与人类用户对话”,也在很大程度上做到了这一点。但是因为其运作原理,它仍然体现出众多的依循脚本单向传播的书写(文字)特征,是“对话式”的撒播。 例如,ChatGPT不能回答超过它被“喂食”的文本内容的问题(它的语料库截止到2021年9月);不能理解用户提出的实质上是属于同一个议题的不同表述的提问,而只会机械地按照某些关键词做快速的内容检索和匹配;它输出的文本冗长,过度使用某些固定表达和某些连词(因为、所以、综上所述等)以使得文本在形式上显得很有逻辑,但用户细读则会发现这些文本实际上并无这样的逻辑。 更重要的是,ChatGPT对“他人”没有好奇心,对“自我”无披露,摆出一副“你问由你问,清风抚山岗;你骂由你骂,明月照大江”的若即若离、不即不离的“书写”姿态,让对话索然寡味,无以为继。武汉大学单波教授对ChatGPT进行了实验,得出了以下感受(文字有微调,画线部分为本文作者所加): “我明显感觉它因接受人给定的训练数据而表现出‘机器的人化’, 同时也因为它让人沉溺于智能服务而导致了‘人的机器化’。面对我对它的这一评价, 它再次强调自己的AI模型人设:‘我不具备感知或评价自己的能力。’当我感觉到对话的乏味, 它又很‘程序’地回应道:‘我乐于满足您的要求, 请告诉我您希望我的回答有什么特别的语言风格或者内容, 我将尽力实现。’我不得不请它向我提问, 以便把对话进行下去, 但这位聊天机器人还是死守自己的人设:‘我没有感情和情绪, 所以不会对你有任何问题。’”(单波,2023) 这是聊天人工智能ChatGPT具有的如“书写”一样的撒播特征。为什么会如此?笔者认为有以下原因。 首先,为了应对全球用户,ChatGPT按照概率预先内嵌了一种中立的“全球公共价值观”和最为中和的表达方式。这导致它总是以一种预设的“公共话语”来抵抗任何用户试图引导它进入“私人话语”的一切企图。它的文本输出,在“内容信息”上也许能做到较为多样,但在“关系信息”上则只能“一版多印”。对它而言,一切“私人”都是“公共”,一切“对话”都是“撒播”。 在这里,ChatGPT作为一个设计为面向全球公众的对话型人工智能,面临着一种两难。一方面,为了与用户个体“对话”,它必须保持一对一的个性化和偏爱;另一方面,为了面向文化和语言多样的全球用户,它又不得不对用户的个体差异保持盲目,进行“撒播”,以示公正。用阿多诺的话来说:“爱必然无情地背离一般而宠爱特殊,而公正却只能针对一般。”(彼得斯,2017:83) 其次,身体是一种元媒介,是自我的源泉,ChatGPT没有身体,也就没有自我、隐私、无法“自我表露”(self-disclosure),无法承担责任,无法与用户建立亲密关系。 自我表露是人们关系发展的核心,人们通过自我表露进行社会交换,促使关系从表面沟通向亲密沟通转变(韦斯特、特纳,2007:188)。在与ChatGPT的“对话”中,人类用户想通过展现自己的身体(情感)来逼迫ChatGPT作出平等互惠的回应——也谈及它的身体(情感)——以确保ChatGPT的“忠诚和在场”。但对人类的这种企图,ChatGPT一概用模式化的文字拒绝,这导致人机对话一直停留于表面和外围的信息交换,如两只天鹅外表优美的对舞,实际根本没能进入到对方的心灵。这样的“对话”显然如书写一样的撒播,不可持续。 另外,“如果没有身体作为源泉,思想、文化生产、人类行为等都不可能发生”(米歇尔、汉森,2019:26)。有网民戏谑地指出“ChatGPT不能代替独立董事、律师、投行、评估师、会计等,因为它不能坐牢”。法律的功能需要通过身体的治理最终实现;刑法打击犯罪的实现手段就是思想的教化以及身体的惩罚(陈寒非,2015),ChatGPT不能坐牢是因为它没有身体,法律对他无能为力。 美国作家梅尔维尔刻画了一个只会对他的雇主说“我宁愿不”(I prefer not)的抄书人“巴特比”的文学形象。彼得斯在《对空言说》中指出,巴特比代表的可能是书写本身所包含的一种消极抵抗(彼得斯,2017:231)。和巴特比一样,书写是不回答问题的,无法形成对话,它也不要求人们以任何特定方式去使用它。巴特比的姿态是一个纯粹单向撒播的姿态,一个死者向生者的来信所作出的姿态,最终能将其对话者逼疯。这正如苏格拉底对书写的抱怨——它总是传达相同的东西,而且决不接受任何问询。 因此,ChatGPT与人类的互动形式上为“对话”,实质上是“撒播”——它是离身的、书写的和不忠的。“这就产生了一个至今都困扰着我们的两难处境:在一个非个人化的、不忠贞的媒介中,交流一方如何才能找到确凿的迹象以确保另一方的忠诚和在场?”(彼得斯,2017:70)ChatGPT无身体,也就无法提供任何这类“确凿的迹象”。它如巴特比,其底色仍然书写的撒播,其背后是一个人类用户难以真正触及的“他者心灵”。如此,那些在ChatGPT的撒播中苦苦寻觅身体、爱欲和对话的人类用户,注定只能失望而归了。 ChatGPT这种书写般的撒播是“非本真的”(inauthentic),属于海德格尔所谓的“常人”(the They/das Man)的沟通风格(陆文斌、陈发俊,2022)。在海德格尔对人类存在的分析中,“常人”一词代表了一种“集体性存在”——如“人民选择的画”中的“人民”,是一种指导我们行为的普通的和日常的背景模式。海德格尔称“常人”的语言为“闲言”(Gerede,idle talk)。这种语言中不存在任何个性化的表达,而是充斥着客套的、应付的、不咸不淡的、若即若离、若有若无的只为填满时间和空间的废话——无论是家长对孩子,教授对学生,媒体评论员对读者、专家和新闻发布会对公众。“闲言”占据宝贵的公共资源,不仅未能便利沟通反而阻碍了沟通。ChatGPT大量高效自动生成的内容如果未经人类用户的慎思明辨和梳理加工,将不过是闲言;它们如果进一步成为ChatGPT的新语料,便会生产出更多的闲言,淹没和窒息有意义的对话,沟通的本真性将无处可寻。或因其设计如此,或因其被滥用如此,我们要警惕ChatGPT朝着“常人闲语”方向的异化。 四、作为“他者”的ChatGPT 面对ChatGPT简单但强大的空白输入网页,我们如何能知道它背后确实不是一个在想尽办法让我们以为他是人工智能的真人呢?它输出的信息,其意义确实来自于它,还只是“我”作为人对它的心理投射? 笛卡尔在《沉思》中说: “如果我偶尔向窗外眺望,看到街上人来人往,我不会否认,我所看到的是人……然而我实际看见的,除了帽子和外套还有什么呢?而帽子和外套之下隐藏的,难道不可能是鬼魂或弹簧驱动的假人吗? ”(彼得斯,2017:258) 笛卡尔提出的是一个古老的“沟通难题”,也即哲学上经典的“他者的心灵问题”(the problem of the other mind)——“我”能否认识以及该如何对待“他者的心灵”? 和笛卡尔一样,在面对ChatGPT时,我们无所适从,深陷疑惑,倍感不安。这是我们在面对“他者”时都会有的一种存在性焦虑(existential angst),对之我们并不陌生——我们在阅读导师或上司的电子邮件或恋人的微信回复时,在看着宠物、海豚、章鱼、监控镜头和波士顿机器人一闪一闪的“眼睛”时,都会有此感受。 人际沟通和人机沟通都面临着让我们无能为力的“他者/他者性”(other/otherness),因此,如何回应“他者”也就成为了沟通伦理的主要内容(邓建国,2020)。鲍德里亚等人(Baudrillard & Guillaume,2008)认为,他者性抵抗和蔑视一切符号表征和传播,且只有在符号交流崩溃时才会出现,但往往又会被“戏谑性地”(playfully)贬低。在人类用户与ChatGPT的互动中常常出现交流崩溃,而正是在此时,后者的他者性(与人类的差异)才赫然呈现,这也正是考验人类的沟通伦理之时。 彼得斯对比了传播的“对话模式”和“撒播模式”,他认为对话的平等惠顾具有强制性,不如“对空言说”的撒播来得宽容(彼得斯,2017)。西比尔·克莱默也提出了类似的观点。她区分了传播的爱欲模式和信使模式,并指出:爱欲模式要求沟通个体之间消除差异,实现融合;信使模式则将沟通理解为双方保留和尊重差异,建立联系。克莱默认为沟通仿佛“双人舞”:“舞伴之间会偶尔接触,但更重要且必不可少的是双方之间的信任”(Krämer,2015:74)。彼得斯和克莱默被视为“传播理论中的列维纳斯”。列维纳斯认为人际沟通如果一味追求融合就犯了“同一性之帝国主义”的错误(Levinas,2007:59)。他用“邻居—陌生人”这一概念来描述沟通主体之间总是存在的若即若离的距离。罗杰·西尔弗斯通(Silverstone,2003)则提出了“适切距离”(proper distance)概念——对他者既保持足够的距离以能区分出我和他者,但同时又能与之保持一定的接近度,激发我们对他者的关心。 ChatGPT显然是赫然出现在人类家门口的新他者,但对它我们还缺少理解和宽容。例如,著名语言学家乔姆斯基一方面认为ChatGPT不具备人类的智慧,另一方面又以人类的标准来要求它(乔姆斯基,2023)。但是,从图灵测试到20世纪60年代的海豚研究[5]都显示出,以人类为尺度来评价机器(人工智能)既不客观也不公允。我们为什么一定要机器像人类一样说话、思考和写作呢?这与我们要求女性、孩子、少数群体、异文化他者、宠物、海豚、章鱼、乌贼和植物等也要像我们一样沟通和思考一样没有必要、霸道和荒唐。非人类存在难道就不可能具有创造性?它固然与我们存在差异,但这种差异难道就不能成为创造性的源泉,不能与我们合作,不值得我们去倾听和学习? 人类是整个大系统(生态的、技术的、气候的、社会的和政治的系统)的一部分。人类自身的出现和发展从来就在与非人类他者合作——包括有机物(比如我们胃中的细菌在影响我们的精神状态)和非有机物(例如前述各种“延伸的心灵”),只不过我们在大多数情况下都对它们予以忽视。人类的文化创造也并非是由形单影只的艺术家独立创造的结果——“作者已死”的说法是对这一事实的极端表达。未来,随着人类对外部世界知识的增加,我们会越来越多地惊异于机器、动物、植物和细菌的“智能”——它们会让作为“万物之灵”的人类智能显得有些狭隘和奇怪,此时也似乎有必要调整视人类为“占据金字塔顶端的唯一创造者”的启蒙价值观了。 总结而言,正如列维纳斯、彼得斯和克莱默所指出的,沟通不是一个语义是否清晰或技术是否强大的问题,而首先是一个道德和政治问题。在与“他者”ChatGPT的沟通中,发挥积极作用的是接收者人类用户,而不是发送者ChatGPT。如果我们对ChatGPT保持宽容和开放,并负责任地与它建立一种共同创作和共同演进的关系,我们对“何为人性”以及“何为人的创造性”也会有全新的认识。 五、结语:“毒药—解药”,ChatGPT 我们都对柏拉图在《斐德罗》(Phaedrus)中的这个故事很熟悉:特乌斯神(Theuth)将他的发明献给埃及王塔姆斯(Thamus),并说:“国王啊,这项发明是记忆和智慧之药(pharmakon),它将使埃及人更聪明,并改善他们的记忆力。”但塔姆斯说: “特乌斯啊,你的发明会让使用者更容易忘记。他们相信文字,但文字却在身体之外由字母组成,他们因此不再使用自己的记忆。你发明了的不是记忆的灵丹妙药,而是提醒的灵丹妙药。他们将在没有指导的情况下阅读很多东西,似乎知道很多事情,但他们大部分时间是无知和难以相处的,因为他们没有智慧,而只是显得有智慧。”(彼得斯,2017:68) 在希腊文中,pharmakon一词具有两面性,既指良药、解药(remedy),也指毒药(poison),也就是说“是药三分毒”(孟强,2022)。通过这则故事,柏拉图形象地表达了对书写的批评态度:它作为人的“延伸的心灵”,是药,能帮助记忆,但也会导致遗忘、背离真理。柏拉图生活在从口语时代过渡到书写时代的关键时刻,他是一个崇尚书写理性的人,但又对即将逝去的口语时代充满温情和不舍,充满矛盾(翁,2008:61)。 在中国,公元1048年,毕昇发明了泥活字印刷术。到12世纪朱熹生活的时代,他的世界里已经充满了书,他自己也是书籍的生产者,编撰了20多部书,其中《四书集注》尤为著名。他对读书很有洞见,留下了许多如何读书的名言。但他也因生活在一个书籍如山如海的“注意力分散时代”而充满矛盾,感叹“书册埋首何日了,不如抛却去寻春”。到21世纪,谷歌和智能手机给我们带来了很多便利,但也被人批评为“让我们变得愚蠢”或“破坏了我们的大脑”(Carr,2008)。 麦克卢汉认为媒介对人体而言既是延伸也是切除。约翰·彼得斯指出交流(communication/communications)“既是桥梁又是沟壑”。贝尔纳·斯蒂格勒则清晰地指出: “我有一种毒药—解药(pharmacological)的思维方式:一个事物越能唤起我的兴奋和热情——也许是狂热——我就越担心这个事物的危险。因为我相信,任何催生了最有趣的话语的东西、任何最慷慨的东西,同时也产生了最可怕的和最不人道的结果。”(Stiegler,2010:471) 这说明了人类和其“延伸的心灵”(媒介)之间的复杂关系——延伸和截肢、对话和撒播、自我和他者…… 斯蒂格勒的老师雅克·德里达从药理学上对柏拉图的矛盾书写观提出了批评。他一语中的地指出:“书写作为助忆并非回忆的替代,而是构成了回忆的条件。”(Stiegler,2013:17)显然,德里达和特乌斯一样,认为文字作为新媒体是对记忆的帮助和提升——它不是记忆本身,并不能代替记忆,而是帮助我们寻回记忆的条件和手段。类似的,我认为,ChatGPT作为基于书写的人工智能,既可以是人类记忆和书写能力的替代,也可以是其增强的条件和手段。它最终为何,恰如沟通中的意义(meaning),不取决于作为传播者的ChatGPT,而且取决于作为接收者的我们。最后,如果我们对“ChatGPT是将提升还是终结人类的写作”这一问题尚存疑,至少有一个先例可供参考:诞生于19世纪初的摄影术并没有终结绘画(马文嘉,2022),摄影术与绘画在不断相互借鉴和磨合中各自找到了自己的生态位,实现了各美其美,美美与共。 注释 [1] 一般说法常常将“字母”(alphabet)与“文字”(script)混用,将“字母”与“书写”(writing)混用。 [2] 事实上,在中文和日文中,“文明”这个词就是“用书写/文本去开化,以达到阐明和照明的效果”的意思,因此它比其拉丁语对等词civilis更有力地强调了书写与文明之间的源流关系。 [3] 19世纪中期,英美社会招魂术和通灵术流行时出现的一种与鬼魂对话的工具,后成为室内游戏。“灵应”(Ouija)是法语或德语两个词ou和ya的拼合,为“正是!”(Oh yeh!)的意思。 [4] 后人类主义(post-humanism)分为包括转人类主义(tans-humanism)和窄义的后人类主义(posthumanism)。前者用技术增强人类现有的身体功能,后者指完全抛弃人类身体,将大脑上传到网络,或者将其下载到实体机器人中。 [5] 1960年代,美国研究了海豚的沟通。研究人员花了数年时间试图通过改造海豚的气孔让它们发出近似人类英语的声音,目的是想证明他们可以像人类一样说话,进而证明他们也有人类一样的智慧。但海豚本身已经有自己的高度复杂和具有创造性的语言,只是和我们人类的语言不一样,研究者以人类为中心,一厢情愿地要改造海豚,让它们更像人类,结果研究完全失败。 来源:新闻大学 编辑:洪韵 |
【案例】 胡献红:人工智能的国际伦理原则探讨:聚焦隐私和数据保护问题 作者:教科文组织(UNESCO)传播与信息部门项目官及全球互联网普遍性指标项目负责人,哈佛大学伯克曼互联网和社会中心附属专家;2007年北京大学新闻传播学院传播学博士 发表期刊:《新媒体与社会》27集 摘要:如何考量人工智能带来的潜在风险?人类机构和以人为本的价值观在人工智能发展中应该发挥什么样的作用?人工智能作为21世纪最有影响的一项科技创新, 在某种程度上说已然成为当今时代的隐形把关人和隐形决策者。如何使人工智能的发展符合人性化价值,巩固人的尊严和自由并增进社会的可持续发展,这是一个巨大的现实挑战,首要解决的是人工智能的伦理问题。 人工智能的伦理问题引发国际社会的强烈关注,许多国际组织、国家、业界和各方机构纷纷出台数百份人工智能伦理原则和倡议文件。本文综述了近年来全球范围和国家层面代表性的机构和代表性的文件来归纳人工智能伦理原则制定的主要维度,同时聚焦各方共同关注的隐私保护问题,结合全球新冠疫情(COVID-19)防治带来的危机,从技术、国际法标准、国家层面隐私保护框架/指标、儿童隐私保护等多个角度来探讨人工智能时代隐私保护的挑战、风险和对策。 关键词:人工智能(AI),伦理,隐私,数据保护,数据治理,物联网(IOT),多方利益相关者参与,新冠疫情(Covid-19),互联网治理,互联网政策,可持续发展,儿童隐私 人工智能技术的开发和应用正在影响着社会和生活的方方面面:无论是搜索引擎在几微秒内扫描数十亿计的网页、电子痕迹和传感器数据,还是各行各业使用算法筹备并制定重要决策;人工智及其数据、算法、硬件、互联网接入和存储等组成要素使得信息传播技术的效能突飞猛进,正在深刻地改变和重塑现代社会发展的方式和方向。 许多技术决定论者乐观地认为人工智能的发展决定如同历史上科技变革那样,具有推动社会持续发展的巨大潜能并带来一场历史性的发展机遇。然而科技的发展历来都是一把双刃剑,人工智能不同于既往各种技术,它颠覆性地改变了技术创新的方法和进程,人类不再是生产和创造知识的唯一主体, 基于大数据和算法的机器学习和自动决策系统改变了各行各业的运营方式, 这一切都给人类尊严、社会组织和发展方式提出新的问题,并不可避免地带来一系列不确定的风险。 本文关注如何全方位并谨慎评估人工智能技术可能带来的社会、经济和伦理风险,旨在探索如何遵循以人为本的方向,确保人工智能的发展真正地造福人类,使人工智能的发展符合人性化价值、巩固人的尊严和自由并增进社会的可持续发展。面对这一系列巨大的理论和现实挑战, 首要解决的是人工智能的伦理问题。 一. 国际社会对于人工智能伦理的探讨 近年来,国际社会有关人工智能伦理的讨论和规则制定风起云涌,许多国际组织和国家纷纷出台各自的人工智能伦理原则和倡议文件。目前国际范围内的人工智能伦理规则制定的主体来自多元化的各方,包括国际组织、区域性政府间机构、私营公司、技术社群、学术界以及非政府组织。 2020年5月,联合国秘书长安东尼·古特雷斯发布报告《数字合作路线图:执行数字合作高级别小组的建议》 [1],指出全世界已有逾 160 套关于人工智能伦理和治理的组织、国家和国际原则。报告警示,目前尚没有任何汇编这些单独倡议的共同平台,而且全球讨论缺乏代表性和包容性,尤其是发展中国家的讨论缺席;如不更广泛、更系统地开发人工智能的潜力和降低其风险,就会失去利用人工智能造福公众的机会。秘书长还在报告里强调了对面部识别软件和数字身份识别等人工智能相关技术侵蚀隐私的忧虑,以及人工智能可能加深既有的社会不平等和歧视。秘书长的报告引发热烈国际反响。联合国教科文组织总干事阿祖莱表示:“我们有义务引领一场开明的全球辩论,以便带着清醒的认知进入这一新时代,确保我们的价值观不被牺牲,并为人工智能的伦理准则建立一个全球共同基础。” [2] G20 峰会、G7峰会、欧盟以及发达国家为主经济合作与发展组织(OECD)、欧洲议会(Council of Europe)早在2017年就开始磋商人工智能伦理的规则制定和治理问题。经合组织2019年发布了关于人工智能的推荐原则 [3],并建议其成员国在制定人工智能发展战略和政策时予以遵守。经合组织主要制定了五大原则:1. 包容性的增长、可持续并促进福祉的发展;2. 以人为中心的价值观和公平;3. 透明性和可解释性;4. 稳固、安全和没有伤害;5. 问责。经合组织的五项原则作为较早期对人工智能的规范探讨,被各界视为经典。这五项原则关注人工智能对于经济增长的影响、人工智能的安全性以及开发过程的透明和问责,经常为各界引用,为更广泛的国际范围内的讨论带来了一个好的开端。目前经合组织的人工智能原则获得了包括该组织成员国、G20国家以及包括一系列亚非拉发展中国家的认可。许多人工智能公司和业界机构在制定人工智能战略时也经常参考经合组织的五项原则。除了侧重发达国家的经合组织,其他以发展中国家为主的区域性国际组织,如非洲联盟、阿拉伯联盟也都设立了关于人工智能的专家工作组跟进国际人工智能伦理的讨论。 在同时涵盖了发达国家和发展中国家的联合国层面,从秘书长到包括国际电讯联盟和教科文组织在内的专业机构,都在世界信息社会峰会和联合国2030 可持续发展目标 [4]的框架中, 率先探讨了人工智能的伦理和治理问题。国际电讯联盟自2017年开始联合30多家联合国机构举行AI for Good 全球峰会 [5],旨在召集来自政府、业界、学界和非政府组织的各方专家领袖, 分享AI的最新应用实践和具有全球影响的人工智能解决方案,讨论人工智能的研发使用如何促进和加快各国的可持续发展。该峰会迄今已经举行了四届。 在2019年11月召开的教科文组织大会期间,193个会员国决定委托该组织秘书处就人工智能(AI)开发和应用带来的伦理问题提出适用于世界各国的推荐建议。教科文组织总干事阿祖莱为此任命24名推荐建议起草组专家,他们来自不同国家和文化背景、精通人工智能相关技术和伦理的各个领域,并兼顾性别组成。专家组负责拟定一份草案,用于向国家和地区层级的各利益相关方征求意见。该推荐建议将提交2021年教科文组织大会审核,如获所有会员国批准,将成为第一份有关人工智能伦理的全球性规范性文件 [6]。 根据2020年5月教科文组织发布全球磋商的草案第一稿 [7],目前专家组的推荐意见草案初步拟定了四大价值、十条原则和一系列政策建议。人工智能应当恪守的四大价值:尊重、保护和促进人的尊严、人权和基本自由;环境和生态系统的蓬勃发展;确保多样性和包容性;和谐与和平共处。人工智能应当遵守的十大原则包括: 1.相称性和不损害: 指人工智能的技术应用应当同所需要达到的目的和范围相对称,要防治过度和滥用人工智能技术;每项人工智能技术在研发和应用之前, 要充分评估该项技术是否对于人类、环境或生态系统可能造成潜在损害,是否影响人类尊严和基本权利的价值观;要确保落实风险评估程序,并采取措施以防止发生此类损害和负面影响。 2. 安全和安保:指在人工智能技术的发展过程中,应注重技术本身的安全性和承受风险的保险系数;要可持续的、保护隐私为前提的开发和使用数据,促进利用优质数据更好地训练安全可靠的人工智能模型。 3. 公平和非歧视:指人工智能的开发者应尽量减少和避免强化或固化基于身份偏见的不适当的社会—技术偏见,确保人工智能系统的公平。对于不公平的算法决定和歧视应可以作出补救。人工智能开发者应尊重公平、促进社会正义;在地方、国家和国际层面共享人工智能技术的福祉,同时又考虑到不同年龄组、文化体系、不同语言群体、残疾人、女童和妇女以及处境不利、边缘化和弱势群体的具体需求, 以便让每个人都得到公平对待。 4. 可持续性:人工智能技术的发展应当促进社会的可持续发展和实现联合国2030 框架下的可可持续性目标,因此要持续观测和评估人工智能技术对于社会、文化、经济和环境等方方面面可持续发展造成的影响。 5. 隐私:人工智能技术的发展, 无论是人工智能所用数据的收集和使用还是人工智能算法的研发,都必须尊重隐私和保护个人数据。独立的隐私和个人数据监管机构应当依法治理人工智能所涉及的数据收集、算法设计、基于人工智能的监控是否符合隐私规范, 并依法保护数据所有人的知情权、对个人数据的使用权和控制权。 6. 人类的监督和决定:即人工智能的发展的伦理和法律责任应当属于人类,人类在决策和行动上可以借助人工智能系统,但人工智能系统永远无法取代人类的最终责任和问责。 7. 透明度和可解释性:人工智能发展的各个环节保持透明度,包括共享特定代码或数据集,可以帮助人们了解人工智能系统的研发原理、工作机制并预测影响;可解释性是指让人工智能系统的算法决策过程和结果可以理解,并提供阐释说明。可解释性与透明度两者相辅相成。透明度和可解释性与适当的责任和问责措施是确保人工智能基于人性化价值和保障各项权利的先决条件, 有助于提高人们对于人工智能系统的可信度。 8.责任和问责:人工智能开发者应根据现行国家法律和国际法以及伦理准则,承担伦理和法律责任,并应建立适当的监督、影响评估和尽职调查机制,确保人工智能系统的研发、使用和的运行可审计、可追溯和可问责。 9.认识和素养:包括政府、政府间组织、民间社会、学术界、媒体、社区领袖和私营部门在内的各利益攸关方应共同促进开放性教育培训资源、公民参与、数字技能和人工智能伦理问题方面的培训、媒体和信息素养培训,同时兼顾现有的语言、社会和文化多样性,促进公众对于人工智能技术和数据价值的认识和理解,确保公众的有效参与,让所有社会成员都能够就使用人工智能系统作出知情决定,避免受到不当影响。 10. 多利益攸关方以及适应性治理和协作:人工智能的发展影响到社会各个群体, 多方利益攸关方应当充分参与并影响的人工智能发展和治理,以确保实现包容全纳的人工智能发展、共享人工智能的益处和公平的技术进步。多利益攸关方包括但不限于政府、政府间组织、技术界、民间社会、研究人员和学术界、媒体、教育、决策者、私营公司、人权机构和平等机构、反歧视监测机构以及儿童和青年团体。适应性治理和协助指必须采用开放标准和互可操作性原则,以促进各方协作。 目前教科文组织的十项原则可以说概括了国际社会迄今已有的对于人工智能伦理原则的大部分面向,目前还在进一步磋商之中。这十项原则对比OECD的五项原则来说更进一步, 拓宽了对人工智能伦理的关注面, 强调了人工智能研发的可持续性以及人类在其中的监督和决定,关注和提升了公众和人工智能素养以及各利益相关方的参与。该十项原则还将隐私问题单独列出来, 强调隐私保护对于人类尊严和自主行动的重要意义, 鼓励各国完善和加强数据保护和数据治理的框架和政策,并提倡将隐私保护预设在算法的研发之中。 在人工智能教育领域,教科文组织2019年在北京召开了国际人工智能与教育大会与会者,包括50名政府部长和副部长,自100多个会员国以及联合国机构、学术机构、民间社会和私营部门的约500名代表经讨论达成的《北京共识——人工智能与教育》 [8], 重申教科文组织人工智能使用方面的人文主义取向,旨在保护人权,并确保所有人具备在生活、学习和工作中进行有效人机合作以及可持续发展所需的相应价值观和技能。该共识还申明:“人工智能的开发应当为人所控、以人为本;人工智能的部署应当服务于人并以增强人的能力为目的;人工智能的设计应合乎伦理、避免歧视、公平、透明和可审核;应在整个价值链全过程中监测并评估人工智能对人和社会的影响。”[9] 二.国家和业界层面的人工智能伦理规范制定 在国际范围内有关人工智能伦理规则制定风起云涌之时,许多国家鉴于本国数字经济和数字战略的发展需要, 也纷纷制定国家层面的人工智能发展规则。根据经合组织的人工智能观察网站 [10]数据, 包括美国、澳大利亚、加拿大、法国、德国、日本、新西兰、新加坡、瑞典、英国等在内60个国家、制定了300多个有关人工智能发展战略和伦理规范。 受法国总理委托,法国著名数学家兼国会议员Cedric Villani牵头出台了法国的人工智能战略,于2018年发布了战略报告 《创造有意义的人工智能——国家以及欧洲战略》 [11],其中第五章专门论述了人工智能的伦理问题并提出了五条基本原则:1. 透明和可审计;2. 保护权利和自由;3. 问责和负责;4.多样性和包容性;5.对人工智能及其后果进行政治辩论。这五项原则充分体现了法国和欧洲国家的价值取向, 重视人工智能对于保护所有权利和自由的影响,而且非常明确提出要从政治角度来探讨人工智能影响。而在现实中,人工智能也逐渐成为国际政治和外交论坛的重要议题。 2019年6月17日, 中国的国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》 [12],提出了人工智能治理的框架和行动指南。人工智能发展相关各方应遵循八项原则:1. 和谐友好;2.公平公正;3.包容共享;4.尊重隐私;5.安全可控;6.共担责任;7.开放协作;8.敏捷治理。值得注意的是, 在人工智能领域领先的中国,其伦理原则也同样重视隐私保护的问题。 在政府部门之外,世界各国的人工智能研究所、智囊、业界社群如雨后春笋, 试图就人工智能的伦理问题制定标准。其中比较有代表性的是人工智能独立研究社群“深脑”(Deep Mind)早在2017年就确定了人工智能伦理的主要原则 [13]:1.保护隐私;2.透明和公平;3.人工智能的道德和价值观;3.治理和问责; 4. 人工智能用于应对最复杂世界挑战; 5. 人工智能滥用和连带后果;6. 人工智能的经济影响:就业方面的包容性和平等。 谷歌、IBM、微软、法国电信 Orange、腾讯等领军人工智能的企业也都纷纷制定本行业的人工智能开发原则。 美国的谷歌公司于2018年发布了谷歌的人工智能原则:1.确保人工智能的开发有利于造福社会;2.公众获取信息; 3.避免偏见; 4.安全;5.问责;6.保护隐私;7.保持高科技水准 [14]。中国的腾讯研究院和腾讯AI Lab于2019年发布了联合研究《智能时代的技术伦理观——重塑数字社会的信任》 [15]。该研究认为,在“科技向善”理念之下,需要倡导面向人工智能的新的技术伦理观,包含三个层面:技术信任,人工智能等新技术需要价值引导,做到可用、可靠、可知、可控(“四可”);个体幸福,确保人人都有追求数字福祉、幸福工作的权利,在人机共生的智能社会实现个体更自由、智慧、幸福的发展;社会可持续,践行“科技向善”,发挥好人工智能等新技术的巨大“向善”潜力,善用技术塑造健康包容可持续的智慧社会,持续推动经济发展和社会进步。 三.隐私问题:人工智能伦理的共同关切和巨大挑战 纵观目前各个国际组织、各个国家以及人工智能相关机构、公司和社群制定的人工智能伦理规范和原则, 虽然着眼点和范围各有不同, 但归纳起来,其中仍然有很多共识的部分。哈佛大学伯克曼中心2020年发布了一个题为“人工智能的原则:伦理和权利为基础的共识”的研究报告 [16],分析了47份具有代表性的原则文件,归纳出八条各文件达成的共识:1. 保护隐私;2. 问责;3. 安全和无害;4. 透明和可解释性;5. 公平和非歧视原则;6. 人力掌控;7. 专业责任;8.提升人文价值。 无论是伯克曼中心归纳的共识还是前文所述各界对于人工智能伦理的原则制定都各有侧重, 值得注意的是,隐私问题成了国际社会、各国和各界对于人工智能发展的共同关切和挑战。隐私和隐私保护一直是互联网治理和数字变革的焦点问题,为什么在人工智能的发展上也再次成为挑战? 首先,人工智能的技术特点带来许多新的隐私隐患,使得隐私保护更加困难。 人工智能系统以算法为根据,算法通过收集、储存和处理海量数据进行学习,并做出最符合设计者意图的决定。各大搜索引擎、社交媒体平台、网购电商、银行交易、远程教育等互联网服务都在使用人工智能技术大规模收集用户的个人数据并将其用于进一步的算法学习和商业模式优化。 人工智能的算法研发依赖于海量数据的收集和使用,尤其是跟个人有关的数据交易,伴随一系列包括5G、物联网(IOT)等先进配套技术,个人数据的收集和使用达到了前所未有的规模和程度,个人隐私和数据保护在AI时代变得前所未有的困难。 现代人每天工作和生活都离不开用各种网络设备,不但在社交媒体上写帖子、发表情或上传图片会生产大量内容型数据, 同时个人浏览网站、点击链接、接受建立网络标记(cookies)的数字足迹,也在被互联网运营商和平台收集。许多涉及个人行为的数据还被公共空间的卫星影像或视频所收集和监视。在许多国家,人工智能支持的面部识别软件和监控设备被越来越多地运用于公共空间,如车站、学校、剧院、街道、购物商场等,来进一步收集个人数据并用于大规模监控。 不仅在公共场所,越来越多的家庭也开始装上了摄像头监控设备。还有许多家庭安装了配备虚拟助手的智能音箱,如虚拟助手“亚马逊Alexa”(常简称“Alexa”),这些助手经常在被收集者不知晓或未明确同意的情况下收集数据。 个人使用互联网也越来越不安全,因为很多互联网搜索引擎、社交媒体平台可能运用人工智能技术监听和监控用户的语音对话,在用户使用互联网平台的同时收集个人数据,以便精确定位,推送信息和广告。 其次,在法律和概念层面, 数字时代的隐私和数据保护问题尚未得到妥善保护和全面探讨,生活在数字时代的公民的隐私经常受到干涉和侵犯,但他们对此经常浑然不觉,甚至因为过于依赖技术带来的方便性而不再顾虑隐私问题;在学术界和公共政策领域,对数字时代的隐私问题缺少综合而深入的理解和研究, 对人工智能的隐私保护的政策讨论远远滞后于技术的发展。 隐私权早在1948年就载入《世界人权宣言》(UDHR)的第12条和《公民权利和政治权利国际公约》(ICCPR)第17条:“任何人的私生活、家庭、住宅和通信不得任意干涉,他的荣誉和名誉不得加以攻击。人人有权享受法律保护,以免受这种干涉或攻击” [17]。 隐私权也以不同的方式载入国际和区域性法律文件以及许多国家的宪法和法律中。但数字时代的隐私问题比起传统社会来说面临更多新的风险,比如政府大规模数字监控、包括企业和其他个人的第三方跟踪、为商业目的利用私人数据以及非法获取并使用数据进行犯罪活动等。而且当人工智能进行非透明数据收集、去匿名化、第三方数据共享以及对个人进行大数据跟踪和分析时,都是在用户不知情和浑然不觉的情况下进行的,因此个人用户通常很难意识到他们的个人隐私和数据被侵犯,也就难以寻求立法和法律保护。 随着技术对社会生活的全方位渗透,私人空间和公共领域的界限开始模糊,数字时代的隐私概念和范畴随之扩展。隐私的概念已经超出传统意义上的保障私人空间和个人数据不受侵犯的范畴,需要扩展到捍卫个人生活边界和定义个人发展空间的情境下来理解, 一言以蔽之, 数字时代的隐私实际上越来越成为构筑人类尊严和人格发展的基础。但目前在大部分有关隐私的国际法律文书里,比如经合组织(OECD)和欧洲委员会(COE)的108号协定,隐私权仍然主要局限在信息隐私权的范畴之内。值得注意的是在2017年,联合国人权理事会的一项决议 [18]认定了更加宽泛的隐私权含义, 认为隐私是一项能够促进其他人权的基础权利,隐私权的保护对于保护人的尊严和自由发展人格的权利至关重要。进而,隐私特别报告员Joseph A. Cannataci在当年的报告 [19]中指出, 大数据侵入到个人的生活当中,大数据的收集和分析机构掌握了人们生活方面事无巨细的数据,因此大数据不仅挑战了隐私,而且也关乎一系列包括人格自由发展的个人权利。 由于越来越多的儿童上网和使用数字技术,儿童的数字隐私问题也越来越引发关注,保护隐私对于数字时代正处在成长期的儿童的成长和人格发展尤其重要。在国际法体系中, 1989年联合国大会通过《儿童权利公约》 [20],其中第16条重申儿童的隐私、家庭、住宅或通信不受任意或非法干涉,其荣誉和名誉不受非法攻击。儿童有权享受法律保护,以免受这类干涉或攻击。 许多国家也都出台了相应的儿童权利保护法律和儿童保护措施。但在数字时代,儿童的隐私经常受到来自家长和学校的忽视。鉴于此, 2016年,法国的警察、个人数据保护机构和法律专家公开提醒公众,儿童的隐私同样受到法国法律的保护, 劝诫父母要重视保护儿童的数字隐私, 不能随意将子女照片上传到社交媒体, 违者将面临45000欧元的罚金 [21]。联合国人权理事会(OHCHR)等国际组织也开始制定保护儿童数字隐私的国际准则。 可见,人工智能时代的隐私保护需要多方利益相关者的充分参与,不但需要加强法律框架和执法力度,还需要技术解决方案, 并且要提高公众对于隐私问题的意识,具备应有的数字素养,同时也不能忽视对儿童隐私的法律保护。数字时代无论是成人还是儿童都需要加强保护隐私的意识。新闻媒体、记者在这个技术快速发展的时代,同样要关注、报道和监测技术带来的负面影响,促进公共领域对隐私问题的关注。 四.人工智能时代的隐私和数据保护的国际标准:兼论全球新冠疫情(Covid-19)防治对隐私的挑战 联合国大会分别于2013年和2018年通过《数字时代的隐私权》 [22]的系列决议,这是数字时代隐私保护领域里程碑式的文件。该系列决议在国际法体系第一次确认飞速发展的数字技术增强了政府、公司和个人进行监控、截获和数据收集的能力,从而大大影响到隐私权的保护。该系列决议一再重申隐私保护的一般原则,即人们在网下享有的各种权利包括隐私权在网上也必须受到保护,并专门提出了数字时代监控、加密和匿名等问题 [23]。该决议还关注到人工智能带来的个人敏感数据的收集、处理、使用、储存、 分享,并警示如不采取适当保护措施,人工智能的特征类型分析、 自动化决策、机器学习等技术可能影响到人们的有经济、社会、文化等各项权利,并建议人工智能的设计、评价、管理要符合国际法权利原则。 该决议促请所有国家尊重和保护隐私权,包括在数字通信背景下的隐私权;建议各国定期审查本国涉及监控和截取通信以及收集个人数据,按照国际法准则保护隐私权,以确保国家监控通信、截取通信、收集个人数据的行动具备适当的透明度并接受问责。 2020年10月,联合国大会再次通过最新一版的《数字时代的隐私权》 [23]决议,该决议更进一步, 充分聚焦于人工智能技术对于隐私保护的影响并给出一系列推荐建议。该决议明确认识到涉及人工智能的技术的构思、设计、使用、和部署极大地影响到隐私保护和其他权利的实现,因此有必要按照国际法准则,针对包括人工智能在内的新技术开发和部署采用适足的监管机制,并采取措施确保安 全、透明、可问责、可靠和高质量的数据基础设施,以及建立对人工智能发展的审计机制、补救机制和人力监督。 该决议建议各国考虑制定、更新和执行法律、法规和政策,确保所有工商企业,包括社 交媒体企业和其他在线平台,在开发使用人工智能技 术时要充分尊重隐私权和其他相关权利。该决议建议各国政府完善数字通信数据保护等方面的数 据保护立法、规章、政策,并成立独立的隐私和个人数据监管机构来调查违规和侵犯行为。该决议还强调隐私保护要充分考量对所有人的影响,尤其重视预防和补救对女性以及儿童的隐私权侵犯和行为。 人工智能时代,数据保护必须受到最严格法律保护。在欧盟层面,2018年5月25日, 欧盟29成员国批准生效历史上最为严格的个人数据保护法案《通用数据保护条例》(GDPR) [24], 主旨之一就是应对同人工智能直接相关的自动化分析和自动化决策所带来的隐私保护问题。在欧洲地区,自2018年10月起, 包括47个成员国的欧洲委员会(Council of Europe)通过了最新的《有关个人数据自动化处理的个人保护108号公约》 [25]并开放签署,公约协商委员会同时发布了详尽的《人工智能和数据保护指南》 [26]。为应对数字时代和人工智能新挑战,欧洲委员会和欧盟国家都在集中精力优先通过强有力的立法实践来保护隐私,作为促进数字技术和社会可持续发展的基础条件。换句话说,数字技术和人工智能的发展不能放弃保护隐私和人类尊严这一根本前提。 根据联合国贸发组织(UNCTAD)2020年的调查 [27],世界上还有三分之一的国家完全没有数据和隐私保护法律,尽管在2015-2020 五年间, 采纳数据和隐私法律的国家数目增长了11%。联合国隐私报告员Joseph A. Cannataci在2018年向联合国大会的年度报告中建议各国参照欧洲委员会《有关个人数据自动化处理的个人保护108号公约》所确立的个人数据保护原则, 尽快在国家层面改进立法,尤其是为那些用于国家监控和安全收集的个人数据确立保护性规范。 目前世界范围内的新冠肺炎疫情(COVID-19)再次引起国际社会对于隐私问题的关注。为了收集病毒传播信息和抑制病毒传播,许多国家的抗疫措施中都增加了对人际接触信息、个人健康数据以及公共卫生资讯的收集和监控,许多国家和互联网公司开发和使用了各种手机程序来跟踪和收集用户的日常行踪、人际交往、邮件、旅行、社交媒体、银行、邮递等有关的各种个人信息和数据。由于新冠疫情的日益加重、多次在多国范围内爆发,以及抗击疫情的需要,这样的个人数据收集在范围、种类和程度上都是前所未有的,对于隐私保护带来巨大风险和危机。 世界卫生组织2020年5月份发布的报告《Covid-19 数字跟踪技术的伦理问题》 [28]中预测, 监控会很快逾越疾病监控和人口监控之间本来就模糊的界线。该报告建议各国执行数据保护和隐私法律,同时就数据处理、数据使用的限制、监督措施以及终止某项技术的夕阳条款提供附加法律依据。 个人数据,特别是涉及私生活的敏感区域的数据(如健康、性取向、可鉴别出个人经济状况的信息、生物特征识别数据等等),在使用、处理、储存、转移和传播前要征求用户同意,因此人工智能中基于用户同意和透明度的数据保护十分重要,但此类保护在世界范围内不平衡,且未能全面地处理隐私问题所涉及的所有范畴,这些都需要加以立法和监管。 联合国隐私报告员Joseph A. Cannataci 于2019年10月发布了一系列《关于健康和医疗数据保护的国际标准推荐意见草案》 [29],该报告指出由于健康和医疗数据作为个人的敏感性信息具有高度商业价值,经常被非法收集、使用、售卖,亟需健全国际标准和国家法律规范来予以保护,尤其在保护电子健康记录、手机程序以及业主获取雇员监控数据方面。该报告对于目前新冠病毒抗疫很具前瞻的指导性,人工智能和数字科技能够积极地促进防控疫情,但不能以牺牲个人隐私为代价。 2020年11月, 联合国秘书长发布了包括30个机构在内的联合国隐私政策工作组《新冠病毒Covid-19抗疫中的数据保护和隐私的联合声明》[1],该声明基于《联合国机构个人数据和隐私保护原则》[2] 以及秘书长的联合国机构《数据战略》[3],重申所有已经确认的隐私和数据保护原则都应当适用于当前国际机构应对新冠疫情的各种措施之中,强调抗疫措施中的数据使用和数字技术的应用必须以尊重隐私保护和个人权利为前提,才能真正取得成功并真正推动可持续的经济和社会发展。 五.国家层面的隐私保护政策框架/指标 人工智能技术的发展不是一个孤立的事件,而是广阔的包括大数据、物联网及区块链在内的互联网生态系统的一部分。评估人工智能风险,也需要一个综合性的政策框架,例如联合国教科文组织的互联网普遍性框架 [30],主张将技术发展遵循促进个人权利、开放性、人人可及以及多方利益相关者的基本原则,以此引导和影响人工智能发展的一系列价值观、规范、政策、 法规、准则和伦理规范。 国家层面的网络隐私保护有没有具体指标可循?教科文组织发布的《互联网普遍性指标体系》(UNESCO,2018)包括一系列有关网络隐私保护的指标,可以用于衡量一个国家是否具备了基本的隐私保护框架, 分别从三个维度进行考量: 1. 有关隐私、数据保护和监控的法律安排,其中数据保护涉及数据收集、分析、使用、存储、传输与共享:考量隐私权是否受到宪法或法律保障,并在实践中得到尊重;是否具有个人数据保护的法律框架、个人数据商用和国际数据传输和安全的法律框架;执法机构及其他机构合法拦截用户数据的权力是否必要、相称;合法拦截数据的法律框架(包括独立的监督和透明度),以及政府和其他主管部门的落实情况;是否设立独立的数据保护机构或类似实体及其权力。 2. 网络空间个人身份的保护:需要考察公民身份认证及验证和注册(包括电话、互联网订阅注册)的要求是否必要、相称并符合法律规定;数据加密及网络隐私是否在法律和实践中都受到保护。 3. 国家和持有商业及个人数据的企业之间的关系:为约束国家和持有商业及个人数据的企业的行为,一个国家是否具备向政府提供用户信息的法律和监管规定;当政府要求互联网企业向政府机构提供互联网用户信息时,是否必要、相称并符合相关的法律和监管规定;是否具备数据保存和跨境数据流的法律和监管规定;对于数据保存位置及期限的规定是否符合国际数据保护标准和执法机关的合法要求。 在短短不到两年期间,互联网普遍性指标已经被世界五大洲的21个国家采纳并开展评估,包括非洲的贝宁、塞内加尔、肯尼亚、加纳、埃塞俄比亚,亚洲的泰国、尼泊尔、巴基斯坦、乌兹别克斯坦,阿拉伯地区的突尼斯、苏丹、约旦和巴勒斯坦,拉丁美洲的巴西、厄瓜多尔、巴拉圭和乌拉圭,以及欧洲的德国、法国和塞尔维亚。巴西是第一个完成互联网普遍性核心指标评估的国家,发布了教科文组织互联网普遍性国际评估系列的第一部评估报告[4]。到目前为止,完成并出版评估报告的国家还有贝宁、塞内加尔和肯尼亚[5]。 从目前有关“互联网普遍性”的国家评估结果看,一个普遍存在于所有国家的挑战就是隐私保护。在巴西,互联网普遍性评估建议该国应设立一个独立的国家个人数据保护机构和个人数据保护委员会,以便落实和执行该国刚通过的数据保护法案。在巴拉圭,信息与传播技术副部长盛赞互联网普遍性评估对于数字决策的重要意义,并表示巴拉圭正在组织一个多方利益相关者参与的机制以便多方讨论并向国会提出个人数据保护方案。[6] 互联网普遍性指标在国家层面的评估已经引起许多国家的国家领导人、电信部长、互联网政策制定部门以及有关各方的关注,该评估的政策改进作用十分明显,尤其是在评估过程中所采纳的多方利益相关者充分参与的方法和机制取得很好成效, 许多国家因为这个评估过程而第一次启动了和组建了多方利益相关方咨询专家机制,为国家层面包括隐私保护在内的互联网决策的制度创新和加强政策制定质量起到示范和推进作用。 虽然人工智能的发展对于隐私保护带来许多挑战, 但作为一种先进的技术, 人工智能也可以用于保护隐私,帮助人类监测侵犯和滥用个人隐私的行为,因为人工智能系统将变得越来越复杂,单靠人类已经无法充分地监测人工系统对隐私的侵犯。教科文组织2019年发布的报告《引领人工智能与先进信息传播技术构建知识型社会:权利-开放-可及-多方的视角》(UNESCO,2019)指出,人工智能完全可以用于隐私增强技术(PETs)技术,如谷歌最近开发了联邦学习方法,无需在云中存储用户个人数据,就可以通过数据收集来改进联邦机器学习模型。 总之,人工智能对于隐私保护可谓双刃剑,数字时代的隐私保护需要进一步推动国际层面的标准制定和合作,在国家层面加强立法规制保护隐私,鼓励更多的企业和科技公司运用隐私增强技术及应用程序, 同时也需要提高包括公众在内的所有利益相关者对隐私问题的意识和认识。只有基于保护隐私的方式发展和普及的人工智能技术,才能有利于维护数字时代的个体尊严以及人格发展,并最终推动社会的可持续发展,服务于人类福祉。 (作者:教科文组织(UNESCO)传播与信息部门项目官及全球互联网普遍性指标项目负责人,哈佛大学伯克曼互联网和社会中心附属专家;2007年北京大学新闻传播学院传播学博士。本文内容仅仅是作者个人认知和观点的表达,不代表作者所服务机构的任何立场和政策) 注释 [1]数字合作路线图:执行数字合作高级别小组的建议【R】. 2020-05-29,https://undocs.org/zh/A/74/821 [2] 教科文组织任命国际专家组起草全球人工智能伦理建议 [EB/OL]. https://en.unesco.org/news/unesco-appoints-international-expert-group-draft-global-recommendation-ethics-ai#:~:text=Paris%2C%2011%20March%20%E2%80%93%20UNESCO%20Director,development%20and%20use%20of%20AI. [3] Recommendation of the OECD Council on Artificial Intelligence. 2019. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449 [4] 联合国2030可持续发展目标[EB/OL]..https://www.un.org/sustainabledevelopment/zh [5] 国际电信联盟AI for Good 全球峰会[EB/OL].. https://aiforgood.itu.int/about-us [6]有关教科文组织人工智能伦理问题的推荐建议工作进程,详情在 https://en.unesco.org/artificial-intelligence/ethics [7] Outcome document: first version of a draft text of a recommendation on the Ethics of Artificial Intelligence [EB/OL]. https://unesdoc.unesco.org/ark:/48223/pf0000373434 [8] https://unesdoc.unesco.org/ark:/48223/pf0000368303 [9] 北京共识——人工智能与教育[EB/OL]..2019. https://unesdoc.unesco.org/ark:/48223/pf0000368303 [10] The OECD AI Policy Observatory (OECD.AI):https://oecd.ai/dashboards [11] CÉDRIC VILLANI “Make sense of artificial intelligence - for a national and European strategy” Mission assigned by the Prime Minister Édouard Philippe A parliamentary mission from 8th September 2017 to 8th March 2018 [12] 国家新一代人工智能治理专业委员会.发展负责任的人工智能:新一代人工智能治理原则发布 [EB/OL].. https://perma.cc/7USU-5BLX 2019-06-17 [13] Deep Mind, Ethics and Society Principles [EB/OL].. 2017. https://deepmind.com/about/ethics-and-society [14] Artificial Intelligence at Google: Our Principles:https://ai.google/principles/ [15] 腾讯研究院和腾讯 AI Lab.智能时代的技术伦理观——重塑数字社会的信任[EB/OL]..https://cloud.tencent.com/developer/news/411837 [16] Berkman Klein Center. Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI [EB/OL]..2020.https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3518482 [17] 世界人权宣言 1948 [EB/OL].. https://www.un.org/zh/universal-declaration-human-rights [18] United Nations, Human Rights Council 34th Session, A/HRC/34/L.7/ Rev.1, Agenda Item 3 Protection of all Human Rights Civil, Political Economic, Social and Cultural Rights including the Right to Development, 22 March 2017. [19] Report of the Special Rapporteur of the Human Rights Council on the right to privacy [EB/OL].2017. https://www.ohchr.org/Documents/Issues/Privacy/A-72-43103_EN.docx [20] 儿童权利公约 [EB/OL].. 1989. https://www.ohchr.org/ch/ProfessionalInterest/Pages/CRC.aspx [21] 法国重视保护儿童照片隐私 [EB/OL].. 2016.https://www.theverge.com/2016/3/2/11145184/france-facebook-kids-photos-privacy [22] 联合国大会决议2013年[EB/OL]..https://undocs.org/zh/A/RES/68/167和 2018年《数字时代的隐私权》[EB/OL]..https://undocs.org/pdf?symbol=zh/A/C.3/73/L.49/Rev.1 [23] 联合国大会决议2020年《数字时代的隐私权》[EB/OL].. https://undocs.org/zh/A/C.3/75/L.40 [24] 欧盟(EU). 通用数据保护条例(GDPR) [EB/OL].. 2018. https://gdpr.eu/tag/gdpr/ [25] 欧洲委员会(COE).关个人数据自动化处理的个人保护108号公约 [EB/OL]..2018. https://www.coe.int/en/web/data-protection/-/un-special-rapporteur-on-the-right-to-privacy-calls-on-countries-to-accede-to-convention-108。 [26] 欧洲委员会(COE)人工智能和数据保护指南[EB/OL].. 2018. https://www.coe.int/en/web/data-protection/-/new-guidelines-on-artificial-intelligence-and-personal-data-protection [27] https://unctad.org/news/data-and-privacy-unprotected-one-third-countries-despite-progress [28] 世界卫生组织.Covid-19 数字跟踪技术的伦理问题 [EB/OL]..2020. https://apps.who.int/iris/bitstream/handle/10665/332200/WHO-2019-nCoV-Ethics_Contact_tracing_apps-2020.1-eng.pdf [29] 联合国隐私报告员Joseph A. Cannataci 关于健康和医疗数据保护的国际标准推荐意见草案 [EB/OL]..2019. https://ohchr.org/Documents/Issues/Privacy/SR_Privacy/2019_HRC_Annex3_HealthData.pdf [30] 教科文组织互联网普遍性项目 [EB/OL].. https://en.unesco.org/internet-universality-indicators [1] UN Privacy Policy Group (PPG). 2020. A Joint Statement on Data Protection and Privacy in the COVID-19 response. https://www.un.org/en/coronavirus/joint-statement-data-protection-and-privacy-covid-19-response [2] UN Privacy Policy Group (PPG). 2018. UN Personal Data Protection and Privacy Principles. https://www.unsystem.org/privacy-principles [3] UN Secretary General. 220. Data Strategy. https://www.un.org/en/content/datastrategy/index.shtml [4] 巴西互联网普遍性评估报告全文下载链接: https://unesdoc.unesco.org/ark:/48223/pf0000372330.locale=en [5]互联网普遍性国家评估报告及项目进展:https://en.unesco.org/internet-universality-indicators [6]2019 互联网治理论坛的互联网普遍性评估会:https://en.unesco.org/news/igf-2019-witnessed-16-countries-progress-applying-unescos-internet-universality-indicators 来源: 舆情研究实验室(公众号) 链接:https://mp.weixin.qq.com/s/rdMSrlmZVHBR8xMyRqkAjw 编辑:徐思凡 |
【案例】 新华社批“AI污染”乱象 近日,新华社发文从多个方面对AI提出了批评,《警惕“AI污染”乱象》一文指出,“去年以来,生成式人工智能在世界范围内掀起一波接一波的热潮,其颠覆性应用让许多行业和网民受益。然而,一块硬币有两面,伴随生成式人工智能而来的也有一些负面问题,由'信息垃圾'导致的'AI污染'越来越突出。” 确实,随AI技术的飞速发展,互联网内容生产力也发生了革命性的变化,然而,这种技术的普及也带来了一系列问题: 在某些热门社交平台上,充斥着大量AI生成的虚假账号; 某小说平台的账号,依靠AI“创作”,一天可更新50部小说,月更字数上千万,但行文常常逻辑不通、辞藻空洞; AI内容创作甚至亮相学术界,某顶尖高校学者在SCI发表的论文,因插图为AI生成,且错误百出,仅发表3天被撤稿,沦为学界笑柄…… 随着AI带来的负面影响越来越多,尤其是在新闻和信息传播领域,几乎全面入侵。AI可以生成、伪造或篡改文本、图片、音频和视频,产生大量粗制滥造、真假难辨的“信息垃圾”,是时候对其进行全面审视了。 01 AI在新闻领域的入侵 新闻真实性受到极大挑战 AI的发展为新闻领域带来了翻天覆地的变化,从传统的人工采编模式逐渐向智能化、高效化的方向转变。但人工智能可能会复制或放大现有数据中的错误,生成虚假信息和宣传,新闻机构在使用AI时,也面临保持真实性和公信力的重大挑战。 有的MCN机构为博取流量,通过AI软件生成虚假新闻,导致大量网络谣言病毒式传播。今年6月中旬,一家MCN机构的实际控制人王某某因利用AI软件生成虚假新闻并大肆传播,扰乱了公共秩序,被警方行政拘留。据警方通报,王某某共经营5家MCN机构,运营账号842个,自今年1月以来,王某某通过AI软件生成虚假新闻,最高峰一天能生成4000至7000篇。 新华社在《警惕AIGC数据污染“稀释”人类原创》一文提醒“生成伪造虚假内容,扰乱公共秩序”:生成式人工智能可以根据人的指令生成不存在的内容,极易被用于自动生成虚假新闻和谣言。深度伪造技术(DeepFake)正快速发展,图片伪造、音频合成和视频换脸在生成式AI的帮助下变得轻而易举,这些虚假内容能够以逼真的形式迅速传播,带来严重的社会影响。 在《警惕“AI污染”乱象》文中指出:清华大学新闻与传播学院新媒体研究中心今年4月发布的一份研究报告显示,近一年来,经济与企业类AI谣言量增速达99.91%。美国调查机构“新闻守卫”称,生成虚假文章的网站数量自2023年5月以来激增1000%以上,涉及15种语言。一些专家认为,AI制造的“信息垃圾”产量庞大,且辨别难度较大、筛选成本较高。 版权归属问题复杂 传统版权通常归属于创作者或创作者雇主,但AI版权可能归属于训练数据的提供者、算法开发者、系统操作者甚至最终用户,这导致新闻、出版机构在面对科技企业推出的AI工具整合新闻和内容时,可能损失相关流量和广告收入。 当地时间10月21日,《华尔街日报》母公司道琼斯和《纽约邮报》对人工智能初创公司Perplexity提出侵权诉讼,指控后者抄袭受版权保护的新闻内容,并利用这些新闻内容生成对用户提问的回复,从而抢走了原本会流向这两家出版商网站的流量。而在一周前的10月15日,Perplexity刚刚收到了来自《纽约时报》的警告,要求其在10月30日前停止使用《纽约时报》的内容。很多网友对此也给出了自己的看法。 02 应对之策探讨 新华社在《警惕“AI污染”乱象》中建议: 应加大对AI学习和生成机制的源头治理。明确AI平台对源头素材的把控责任和对生成内容的监管责任,完善AI内容生成规则,强制对AI生成内容打上显著标识,提升AI技术的透明度和可解释性。 加强对AI生成内容的筛查监管。有关部门及企业需将监管重点放在对AI生成内容的筛查及审核上,可开发相关的审查算法,规范生成内容向舆论场的流入及传播途径,及时发现并删除低质量或虚假内容。 提高用户对AI生成内容的辨别能力。网民应理性对待互联网信息,增强防范意识和识别能力,可使用反向搜索工具,检查内容来源和作者信息,分析内容的语言和结构特征,从而鉴“伪”鉴“劣”。 对于新闻从业者,除此之外,还应注意: 一方面要明确AI应用边界。明确AI在新闻领域的应用边界至关重要。一方面,要确定哪些新闻内容可以由AI生成,哪些必须由人工撰写。例如,对于重大时政新闻、深度调查报道等需要高度准确性和专业判断的内容,应明确禁止使用AI生成,确保新闻的权威性和可靠性。另一方面,要规范AI在新闻编辑、分发等环节的使用,避免过度依赖人工智能而导致新闻质量下降。 另一方面,要提高对AI生产内容的辨别能力。提高新闻从业人员和公众对AI生成内容的辨别能力是应对AI带来问题的重要措施。对于新闻从业人员来说,要通过培训和教育,使其了解AI的工作原理和特点,掌握辨别AI生成内容的方法和技巧。 AI的发展势不可挡,它为人类带来了前所未有的机遇和挑战。我们既要充分发挥AI的优势,又要高度重视其带来的问题,加强监管和治理,共同维护良好的网络生态环境。 来源:传媒头条(公众号) 编辑:李佳 |
“成都大规模拆迁”网络谣言 揭示AI技术滥用风险 近期,IP地址显示为四川的网民集中在社交媒体上“分享”各自获得的拆迁补偿情况:“拿到900多万”“给了17套房,还有三年房租”等。一夜之间,#成都大规模拆迁#话题火了。#成都拆迁# #成都拆迁地图上新#等相关话题接连登上各平台热搜榜单。 话题数据详情 10月17日,成都警方通报称,“四川启动2.15万亿拆迁项目”为利用AI软件生成的虚假信息,违法行为人闫某某等4人因虚构事实扰乱公共秩序,已被公安机关依法给予行政处罚。成都市公安局的警情通报揭示了AI技术滥用所引发的严重风险,亟需社会各界的关注和治理。 最直接的舆情风险当属虚假信息的迷惑性更高,制造和传播变得更加容易和迅速 在此案中,违法者拼凑网传相关话题信息内容,运用AI技术生成“权威性”文本,而后借由社交媒体平台使得虚假拆迁补偿信息得到迅速广泛的传播。这种现象在当下信息高效传播的环境中,可能会对真实情况造成严重误导,形成虚假信息的“真相”传播,给公众带来错误的认知反应。 其次,当公众频繁接触到虚假信息时,官方信息的受信任度会受到冲击 尤其是涉及政府政策、社会保障等重大公共事务,虚假信息的泛滥将导致民众对官方信息的质疑,使社会的认知结构形成恐慌和误解。这种对公信力的侵蚀不仅影响政策的有效传播,还可能给政府公信力和社会稳定性带来严重挑战。 最后,舆情长尾效应可能波及市场经济秩序层面 虚假信息的广泛传播可能会在一定程度上引发市场的非理性反应,导致价格异常波动,继而加重市场的供需失衡。这种不稳定因素不仅扰乱了市场秩序,还可能引发投资者的恐慌情绪,从而引发更大范围的市场干扰风险。 鉴于AI技术的滥用及其带来的舆情风险,社会各界必须加强对AI技术的道德和法律监管。除了建立起相应的法律规范和政策框架,以约束和引导AI技术的合理应用外,舆情应对处置层面还可尝试以下做法: 01 引导社交媒体平台加强信息审核与监管机制 社交媒体平台应积极建立信息审核机制,加强对内容的审查与监管。在信息发布过程中,平台应对材料真实性进行初步筛查,以减少虚假信息的传播。同时,利用AI技术进行内容监测和识别,及时发现并封堵不实信息。此外,平台应设立投诉机制,鼓励公众报告虚假信息,增强社会共同治理的能力。 02 倡导透明且及时的信息发布 政府与相关机构应积极采取透明、及时的信息发布原则,形成定期向公众通报真实信息的相关机制。特别是在涉及公众利益的大事件中,及时的官方信息披露能够有效对抗谣言的传播,强化公众对官方信息的信任。除了自有发布渠道及传统主流媒体外,政府也可借由权威性的网络媒体平台和政务自媒体,增强信息发布的及时性和便利性,以满足公众的信息需求。 03 培养和提升公众的媒体素养 在面对信息传播的多元化背景下,提高公众的媒体素养显得尤为重要。通过教育和宣传,提高人们对虚假信息的辨别能力,使其能更加理智地分析和判断所接触的信息,减少虚假信息引发的社会混乱与恐慌。建议在社区街道等基层一线开展有关鉴别网络信息真伪的宣教,帮助公众理解和掌握辨识信息来源、验证网络流言的方法,建立对谣言的批判性思考。 作者:武汉人民在线主任舆情分析师 刘衍 编辑:李娅琦 | 责编:朱明刚 来源:人民网舆情数据中心(公众号) 链接:https://mp.weixin.qq.com/s/SnDSmX1xcNRIW9Fl1ncDfg 编辑:李梦瑶 |
一广播电台解雇所有记者,启用AI主持人重新开播 随着人工智能在播音主持等行业的广泛应用,人工智能的强大功能让行业内的从业者倍感焦虑,人工智能与真人之间的替代性问题也成为了如今主持人们非常关注的热点。 近日,据外电报道,一家波兰广播电台解雇了其所有记者,并于本周启用人工智能生成的主持人重新开播, 由此可见,人工智能的高速发展已经开始严重冲击主持人、记者等的职场环境了。 如今AI虚拟主播的技术越来越成熟,也越来越逼真,这是所有主持人都要面对的现实。 2001年,英国推出世界首位虚拟主持人“阿娜诺娃”,虚拟主播由此进入公众视野。随后,美国、日本、韩国先后推出自己的虚拟主播,2018年全球首个AI合成主播在中国诞生,今年在中央广播电视总台新闻频道推出《全面深化改革 中国式现代化万千气象》特别节目中,在首期节目上跟演播室主持人直播连线的记者是人形机器人。 随着国内各大广播电视台和媒体开始使用AI虚拟主播,如何面对这一现象是每个从业者要思考的问题。 在10月20日第32届中国电视金鹰奖提名荣誉颁授典礼上,获得提名金鹰奖最佳电视节目主持人的三位主持人孟盛楠、李杰、刘栋栋被问到“如何看待虚拟主持,自己的工作会不会被AI所替代”的问题,三位主持人给出了自己的答案。 孟盛楠说,这是这个时代主持人行业讨论的热点,我们必须要面对,孟盛楠举例了中央广播电视总台中秋晚会,它是一场户外的晚会,晚会主持当然有AI可以背诵主持词,但是AI不知道冷,也不知道风吹,它可能也没有真人容易兴奋,这一点我胜过于它。、 李杰说数字主持人和真人之间不应该是相互替代的关系,而应该是相互补充的关系。数字主持人在稳定性和准确性上可以和专业主持人一较高下,但是我们在创新、创造的能力上,在处理突发应急的情况上,同时在共情的能力上,在给广大人民群众提供丰富精神文化需求的品质上,真人主持肯定是略胜一筹。 刘栋栋说,主持人可能会被替代,但是优秀的主持人不会。观众接受和喜爱一个主持人,里面有一个重要的原因是喜欢他们鲜明的性格和特色。优雅知性的 孟盛楠老师,温暖可亲的李杰老师,这种独特的性格AI目前还模仿不了,它能够学习我们的语音、语调,但是它永远无法做到我们的智慧闪现和现场的临场处理。 在今年第2届中国播音主持“金声奖”颁奖典礼上,作为获得者的陈旻也同样提到了目前主持人面对人工智能挑战的问题,他说AI不会淘汰人,但是会淘汰不会AI的人,AI时代声音工作者的不可替代性在哪里?这个时代之问是我们每个人肩上的使命,也是他希望在央视频寻找到的答案。 正如刘栋栋所说, 主持人可能会被替代,但是优秀的主持人不会。播音员主持人要积极转变原有观念,适应时代趋势,塑造个人独特的主持风格,只有这样,主持人才能从容应对人工智能时代所带来的挑战,在激烈的竞争中立于不败之地。 作者:何燕,编审:清欢 来源:中播网(公众号) 编辑:李梦瑶 |
AI更像是小脑,而不是大脑 人工智能(AI)作为一种新兴技术,已经在多个领域展现出强大的能力。人们常常将AI与人类大脑进行比较,认为AI具备类似于人类的智能。然而,深入分析后发现,AI更像是人类小脑的功能体现,而非大脑的复杂性。小脑主要负责协调运动、平衡与学习,AI在处理信息、执行任务时展现出的能力与小脑的功能相似。 AI的核心在于数据处理与模式识别,而不是复杂的推理与理解。通过学习大量数据,AI能够识别出潜在的模式,进行预测与决策。机器学习、深度学习等技术使得AI在特定任务上表现出色,例如图像识别、自然语言处理等。这些能力使得AI在某些方面超越了人类,但这并不意味着AI具备人类大脑的全面智能。AI的工作方式依赖于算法与数据。算法通过数学模型对输入数据进行处理,生成相应的输出。与小脑的功能相似,AI在执行任务时并不涉及复杂的推理与理解,而是通过已有的数据与模式进行运算。这种处理方式使得AI在特定任务上表现优异,但在面对复杂情境与抽象思维时,AI的局限性显露无疑。 人类大脑是一个复杂的生物系统,包含约860亿个神经元,能够进行高度复杂的思维与情感处理。大脑不仅负责基本的生理功能,还具备创造力、情感理解、道德判断等高级认知能力。其复杂性体现在多层次的信息处理与反馈机制上,能够在不同情境下灵活应对。大脑的功能分区明确,各个区域负责不同的认知活动,如前额叶负责决策与计划,海马体负责记忆与学习。这种高度整合的系统使得人类能够进行抽象思维、创造艺术、进行科学探索等,而AI在这些领域的表现尚显不足,无法模拟人类的情感与道德判断。 小脑在神经系统中承担着运动协调与学习的任务,负责平衡、姿势控制以及习惯性动作的形成。AI在执行特定任务时,展现出类似小脑的特征。通过不断的学习与反馈,AI能够优化其执行的任务,提高效率与准确性,如在自动驾驶领域,AI系统通过传感器收集环境信息,实时调整行驶策略,这一过程类似于小脑在运动控制中的作用,通过对环境的感知与反应,实现流畅的运动控制。AI的这种特性,使其在特定领域中表现优异,但缺乏人类大脑的灵活性与创造性。 尽管AI在特定任务上表现出色,但其局限性不容忽视。AI缺乏情感与意识,无法理解人类的情感需求与社会文化背景。其决策过程基于数据与算法,缺乏人类的直觉与判断力。在面对不确定性与复杂性时,AI的表现往往不如人类,AI的学习过程依赖于大量的数据,数据的质量与多样性直接影响AI的表现。如果数据存在偏差,AI的决策也会受到影响,这种局限性使得AI在某些情况下无法替代人类,尤其是在需要情感理解与道德判断的领域。 AI的特性与小脑的功能有着明显的相似之处,二者在处理信息与执行任务方面展现出高效性。然而,AI的局限性与人类大脑的复杂性形成鲜明对比。AI作为一种工具,能够在特定领域中发挥重要作用,但无法替代人类的全面智能。未来的发展应关注如何将AI与人类智能结合,发挥各自的优势,实现更高效的协作。 |
掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1 )
Copyright 2013 小马版权所有 All Rights Reserved.
Powered by Discuz! X3.2
© 2016-2022 Comsenz Inc.