传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
711#
 楼主| 发表于 2023-6-14 15:26:50 | 只看该作者
【案例】

GPT-4最全攻略来袭!OpenAI官方发布,六个月攒下来的使用经验都在里面了

GPT-4官方使用指南炸裂登场啦!

你没听错,这次不需要自己做笔记了,OpenAI亲自帮你整理了一份。

据说汇聚了大伙儿6个月的使用经验,你、我、他的提示诀窍都融汇其中。

虽然总结下来只有六大策略,但该有的细节可绝不含糊。

不仅普通GPT-4用户可以在这份秘籍中get提示技巧,或许应用开发者也可以找到些许灵感。

网友们纷纷评论,给出了自己的“读后感”:

好有意思啊!总结来说,这些技巧的核心思想主要有两点。一是我们得写得更具体一些,给一些细节的提示。其次,对于那些复杂的任务,我们可以把它们拆分成一些小的提示来完成。



OpenAI表示,这份攻略目前仅针对GPT-4。(当然,你也可以在其它GPT模型上试试?)

赶紧瞧瞧,这份秘籍里究竟都有啥好东西。

6大干货技巧全在这策略一:写清楚指令


要知道,模型可不会“读心术”,所以你得把你的要求明明白白地写出来。

当模型输出变得太啰嗦时,你可以要求它回答简洁明了。相反地,如果输出太过简单,你可以毫不客气地要求它用专业水平来写。

如果你对GPT输出的格式不满意,那就先给它展示你期望的格式,并要求它以同样的方式输出。

总之,尽量别让GPT模型自己去猜你的意图,这样你得到的结果就更可能符合你的预期了。

实用技巧:

1、有细节才能得到更相关的答案
为了使输出和输入具有强相关性,一切重要的细节信息,都可以喂给模型。

比如你想让GPT-4:总结会议记录

就可以尽可能在表述中增加细节:

将会议记录总结成一段文字。然后编写一个Markdown列表,列出与会人员及其主要观点。最后,如果与会人员有关于下一步行动的建议,请列出来。



2、要求模型扮演特定角色
通过改变系统消息(system message),GPT-4会更容易扮演特定的角色,比在对话中提出要求的重视程度更高。
如规定它要回复一个文件,这份文件中的每个段落都要有好玩的评论:



3、用分隔符清晰标示输入的不同部分
用"""三重引号"""、<XML标记>、节标题等分隔符标记出文本的不同部分,可以更便于模型进行不同的处理。在复杂的任务中,这种标记细节就显得格外重要。



4、明确指定完成任务所需的步骤
有些任务按步骤进行效果更佳。因此,最好明确指定一系列步骤,这样模型就能更轻松地遵循这些步骤,并输出理想结果。比如在系统消息中设定按怎样的步骤进行回答。

5、提供示例
如果你想让模型输出按照一种不是能够很好描述出来的特定样式,那你就可以提供示例。如提供示例后,只需要告诉它“教我耐心”,它就会按照示例的风格,将其描述得生动形象。



6、指定所需输出长度
你还可以要求模型具体生成多少个单词、句子、段落、项目符号等。但是,在要求模型生成特定数量的单词/字的时候,它有可能不会那么精准。




策略二:提供参考文本

当涉及到深奥的话题、引用和URL等内容时,GPT模型可能会一本正经地胡说八道。

为GPT-4提供可以参考的文本,能够减少虚构性回答的出现,使回答的内容更加可靠。

实用技巧:

1、让模型参照参考资料进行回答
如果我们能够向模型提供一些和问题有关的可信信息,就可以指示它用提供的信息来组织回答。



2、让模型引用参考资料进行回答
如果在上面的对话输入中已经补充了相关信息,那么我们还可以直接要求模型在回答中引用所提供的信息。

这里要注意的是,可以通过编程,对让模型对输出中引用的部分进行验证注释。



策略三:拆分复杂任务


相比之下,GPT-4在应对复杂任务时出错率更高。

然而,我们可以采取一种巧妙的策略,将这些复杂任务重新拆解成一系列简单任务的工作流程。

这样一来,前面任务的输出就可以被用于构建后续任务的输入。

就像在软件工程中将一个复杂系统分解为一组模块化组件一样,将任务分解成多个模块,也可以让模型的表现更好。

实用技巧:

1、进行意图分类
对于需要处理不同情况的大量具有独立性的任务,可以先对这些任务进行分类。

然后,根据分类来确定所需的指令。

比如,对于客户服务应用程序,可以进行查询分类(计费、技术支持、账户管理、一般查询等)。

当用户提出:

我需要让我的互联网重新恢复正常。

根据用户查询的分类,可以锁定用户的具体诉求了,就可以向GPT-4提供一组更具体的指令,来进行下一步操作。

例如,假设用户需要在“故障排除”方面寻求帮助。

就可以设定下一步的方案:

要求用户检查路由器的所有电缆是否已连接……



2、对先前对话进行概括或筛选
由于GPT-4的对话窗口是有限制的,上下文不能太长,不能在一个对话窗口中无限进行下去。

但也不是没有解决办法。

方法之一是对先前的对话进行概括。一旦输入的文本长度达到预定的阈值,就可以触发一个查询,概括对话的一部分,被概括出来的这部分内容可以变成系统消息的一部分。

此外,可以在对话过程中就在后台对前面的对话进行概括。

另一种方法是检索先前的对话,使用基于嵌入的搜索实现高效的知识检索。

3、逐段概括长文档,并递归构建完整概述
还是文本过长的问题。

比如你要让GPT-4概括一本书,就可以使用一系列查询来概括这本书的每个部分。

然后将部分概述连接起来进行总结,汇成一个总的答案。

这个过程可以递归进行,直到整本书被概括。

但是有些部分可能要借前面部分的信息才能理解后续部分,这里有一个技巧:

在概括当前内容时,将文本中当前内容之前的内容概述一起总结进来,进行概括。

简单来说,用前面部分的“摘要”+当前部分,然后进行概括。

OpenAI之前还使用基于GPT-3训练的模型,对概括书籍的效果进行了研究。


策略四:给GPT时间“思考”


如果让你计算17乘28,你可能不会立刻知道答案,但是可以通过一些时间计算出来。

同样的道理,当GPT-4接收到问题时,它并不会花时间仔细思考,而是试图立刻给出答案,这样就可能导致推理出错。

因此,在让模型给出答案前,可以先要求它进行一系列的推理过程,帮助它通过推理来得出正确的答案。

实用技巧:

1、让模型制定解决方案
你可能有时候会发现,当我们明确指示模型在得出结论之前从基本原理出发进行推理时,我们可以获得更好的结果。

比如说,假设我们希望模型评估学生解答数学问题的方案。

最直接的方法是简单地询问模型学生的解答是否正确。



在上图中,GPT-4认为学生的方案是正确的。

但实际上学生的方案是错误的。

这时候就可以通过提示模型生成自己的解决方案,来让模型成功注意到这一点。



在生成了自己的解决方案,进行一遍推理过后,模型意识到之前学生的解决方案不正确。

2、隐藏推理过程
上面讲到了让模型进行推理,给出解决方案。

但在某些应用中,模型得出最终答案的推理过程不适合与用户共享。

比如,在作业辅导中,我们还是希望鼓励学生制定自己的解题方案,然后得出正确答案。但模型对学生解决方案的推理过程可能会向学生揭示答案。

这时候我们就需要模型进行“内心独白”策略,让模型将输出中要对用户隐藏的部分放入结构化格式中。

然后,在向用户呈现输出之前,对输出进行解析,并且仅使部分输出可见。

就像下面这个示例:

先让模型制定自己的解决方案(因为学生的有可能是错的),然后与学生的解决方案进行对比。

如果学生的答案中哪一步出错了,那就让模型针对这一步给出一点提示,而不是直接给学生完整的正确的解决方案。

如果学生还是错了,那就再进行上一步的提示。



还可以使用“查询”策略,其中除了最后一步的查询以外,所有查询的输出都对用户隐藏。

首先,我们可以要求模型自行解决问题。由于这个初始查询不需要学生的解决方案,因此可以省略掉。这也提供了额外的优势,即模型的解决方案不会受到学生解决方案偏见的影响。



接下来,我们可以让模型使用所有可用信息来评估学生解决方案的正确性。



最后,我们可以让模型使用自己的分析来构建导师的角色。

你是一名数学导师。如果学生回答有误,请以不透露答案的方式向学生进行提示。如果学生答案无误,只需给他们一个鼓励性的评论。

3、询问模型是否遗漏了内容
假设我们正在让GPT-4列出一个与特定问题相关的源文件摘录,在列出每个摘录之后,模型需要确定是继续写入下一个摘录,还是停止。

如果源文件很大,模型往往会过早地停止,未能列出所有相关的摘录。

在这种情况下,通常可以让模型进行后续查询,找到它在之前的处理中遗漏的摘录。

换而言之,模型生成的文本有可能很长,一次性生成不完,那么就可以让它进行查验,把遗漏的内容再补上。



策略五:其它工具加持


GPT-4虽然强大,但并非万能。

我们可以借助其他工具来补充GPT-4的不足之处。

比如,结合文本检索系统,或者利用代码执行引擎。

在让GPT-4回答问题时,如果有一些任务可以由其他工具更可靠、更高效地完成,那么我们可以将这些任务交给它们来完成。这样既能发挥各自的优势,又能让GPT-4发挥最佳水平。

实用技巧:

1、使用基于嵌入的搜索实现高效的知识检索
这一技巧在上文中已经有所提及。

若在模型的输入中提供额外的外部信息,有助于模型生成更好的回答。

例如,如果用户询问关于一部特定电影的问题,将关于电影的信息(例如演员、导演等)添加到模型的输入中可能会很有用。

嵌入可用于实现高效的知识检索,可以在模型运行时动态地将相关信息添加到模型的输入中。

文本嵌入是一种可以衡量文本字符串相关性的向量。相似或相关的字符串将比不相关的字符串更紧密地结合在一起。加上快速向量搜索算法的存在,意味着可以使用嵌入来实现高效的知识检索。

特别的是,文本语料库可以分成多个部分,每个部分可以进行嵌入和存储。然后,给定一个查询,可以进行向量搜索以找到与查询最相关的语料库中的嵌入文本部分。

2、使用代码执行进行更准确的计算或调用外部API
不能仅依靠模型自身进行准确地计算。

如果需要,可以指示模型编写和运行代码,而不是进行自主计算。

可以指示模型将要运行的代码放入指定的格式中。在生成输出后,可以提取和运行代码。生成输出后,可以提取并运行代码。最后,如果需要,代码执行引擎(即Python解释器)的输出可以作为下一个输入。



代码执行的另一个很好的应用场景是调用外部API。

如果将API的正确使用方式传达给模型,它可以编写使用该API的代码。

可以通过向模型演示文档和/或代码示例来指导模型如何使用API。



在这里OpenAI提出了特别警告⚠️:

执行模型生成的代码在本质上来说并不安全,任何试图执行此操作的应用程序中都应采取预防措施。特别是,需要一个沙盒代码执行环境来限制不受信任的代码可能造成的危害。

策略六:系统地测试更改




有时候很难确定一个改变是会让系统变得更好还是更差。

通过观察一些例子有可能会看出哪个更好,但是在样本数量较少的情况下,很难区分是真的得到了改进,还是只是随机运气。

也许这个“改变”能够提升某些输入的效果,但却会降低其它输入的效果。

而评估程序(evaluation procedures,or “evals”)对于优化系统设计来说非常有用。好的评估有以下几个特点:

1)代表现实世界的用法(或至少是多种用法)

2)包含许多测试用例,可以获得更大的统计功效(参见下表)

3)易于自动化或重复



对输出的评估可以是由计算机进行评估、人工评估,或者两者结合进行。计算机可以使用客观标准自动评估,也可以使用一些主观或模糊的标准,比如说用模型来评估模型。

OpenAI提供了一个开源软件框架——OpenAI Evals,提供了创建自动评估的工具。

当存在一系列质量同样高的输出时,基于模型的评估就会很有用。

实用技巧:

1、参考黄金标准答案评估模型输出
假设已知问题的正确答案应参考一组特定的已知事实。

然后,我们可以询问模型答案中包含多少必需的事实。

例如,使用下面这个系统消息,

给出必要的既定事实:

尼尔·阿姆斯特朗是第一个在月球上行走的人。

尼尔·阿姆斯特朗第一次登上月球的日期是1969年7月21日。

如果答案中包含既定给出的事实,模型会回答“是”。反之,模型会回答“否”,最后让模型统计有多少“是”的答案:



下面是包含两点既定事实的示例输入(既有事件,又有时间):



仅满足一个既定事实的示例输入(没有时间):



而下面这个示例输入,不包含任何一个既定事实:



这种基于模型的评估方法有许多可能的变化形式,需要跟踪候选答案与标准答案之间的重叠程度,并追踪候选答案是否与标准答案的有相矛盾的地方。



比如下面的这个示例输入,其中包含不合标准的答案,但与专家答案(标准答案)并不矛盾:



下面是这个示例输入,其答案与专家答案直接矛盾(认为尼尔·阿姆斯特朗是第二个在月球上行走的人):


最后一个是带有正确答案的示例输入,该输入还提供了比必要内容更多的详细信息(时间精确到了02:56,并指出了这是人类历史上的一项不朽成就):



来源:Microsoft资讯
编辑:潘洁

b9.png (147.32 KB, 下载次数: 49)

b9.png

b8.png (131.4 KB, 下载次数: 49)

b8.png

b7.png (111.14 KB, 下载次数: 45)

b7.png

b6.png (178.09 KB, 下载次数: 48)

b6.png

b5.png (69.84 KB, 下载次数: 49)

b5.png

b4.png (56.81 KB, 下载次数: 49)

b4.png

b3.png (65.56 KB, 下载次数: 48)

b3.png

b2.png (220.42 KB, 下载次数: 45)

b2.png

b1.png (33.78 KB, 下载次数: 48)

b1.png

640 (6).png (13.08 KB, 下载次数: 49)

640 (6).png

a9.png (89.78 KB, 下载次数: 49)

a9.png

a8.png (72.28 KB, 下载次数: 52)

a8.png

640 (5).png (8.37 KB, 下载次数: 50)

640 (5).png

a7.png (242.21 KB, 下载次数: 53)

a7.png

a6.png (81.59 KB, 下载次数: 52)

a6.png

a5.png (19.75 KB, 下载次数: 45)

a5.png

a4.png (235.83 KB, 下载次数: 53)

a4.png

a3.png (124.82 KB, 下载次数: 50)

a3.png

a2.png (210.05 KB, 下载次数: 47)

a2.png

4.png (9.8 KB, 下载次数: 42)

4.png

a1.png (320.44 KB, 下载次数: 52)

a1.png

c2.png (162.81 KB, 下载次数: 48)

c2.png

c1.png (75.22 KB, 下载次数: 48)

c1.png

640 (4).png (17.12 KB, 下载次数: 46)

640 (4).png

640.jpg (6.78 KB, 下载次数: 49)

640.jpg

chat6.png (36.07 KB, 下载次数: 48)

chat6.png

chat5.png (93.89 KB, 下载次数: 46)

chat5.png

chat4.png (100.45 KB, 下载次数: 48)

chat4.png

640 (3).png (33.32 KB, 下载次数: 46)

640 (3).png

chta2.png (92.26 KB, 下载次数: 49)

chta2.png

chat.png (196.95 KB, 下载次数: 47)

chat.png

640 (2).png (9.62 KB, 下载次数: 50)

640 (2).png

640 (1).png (57.91 KB, 下载次数: 46)

640 (1).png
712#
 楼主| 发表于 2023-6-14 23:18:44 | 只看该作者
【案例】

欧盟禁止实时远程生物识别技术

财联社6月14日电,欧盟议会投票禁止实时远程生物识别技术,欧盟禁令意味着不能在公共场合实时扫描人脸。

来源:财联社

链接:https://new.qq.com/rain/a/20230614A08R6E00
编辑:潘洁

713#
 楼主| 发表于 2023-6-16 14:05:32 | 只看该作者
【案例】
ChatGPT等AI技术在欧洲面临进一步监管

中新经纬4月18日电 据《华尔街日报》当地时间17日报道,欧盟的立法者希望赋予监管机构新的权利来管理ChatGPT等技术的开发。

报道指出,当地时间周一,欧盟的立法者计划于当日发表一封公开信并指出,随着人工智能飞速发展,有必要为这些人工智能工具制定一套强大的新规则以规范其应用。


负责起草欧盟人工智能法案新草案的立法者小组指出,他们致力于在法案中增加相关条款,旨在“引导强大的人工智能朝着以人为本、安全可靠的方向发展”。


值得注意的是,3月末,生命未来研究所(Future of Life)发布了一封公开信,包括马斯克在内的上千名人工智能研究人员和技术高管进行了签名,呼吁所有人工智能实验室暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。而在近日,另一批人工智能伦理学家和研究人员也写了一封公开信,敦促欧盟纳入涵盖“通用人工智能”可能带来的风险的条款。


上述报道指出,全球越来越多的监管机构开始重视对AI的监管,拜登政府也开始研究是否需要对ChatGPT等人工智能工具进行审查。上个月,意大利以隐私为由禁用了ChatGPT,英国则发布了一份文件,建议监管机构监督人工智能的发展,重点在安全性、透明度和公平性。
来源:中新经纬
链接:https://baijiahao.baidu.com/s?id=1763468717868384662&wfr=spider&for=pc
编辑:潘洁
714#
 楼主| 发表于 2023-6-21 23:43:49 | 只看该作者
【案例】
新闻速递 | 我院院长方兴东教授率队参加EuroDIG并发表主题演讲
619日至621日,来自IGFICANNMicrosoft Internal Affairs and CommunicationsISOC FoundationScientific Cyber Security Association等的400多名国际机构负责人、专家、学者参加了在芬兰坦佩雷大学举行的欧洲网络治理对话(Euro DIG)。乌镇数字文明研究院院长方兴东教授、首席专家吴飞教授和钟布教授受邀参会。
被称作“浓缩版”的联合国互联网治理论坛(IGF),EuroDig参会专家来自全球各地,围绕全球数字契约、全球AI治理、互联网碎片化、俄乌冲突等多个议题, 进行了广泛而深入的研讨。
作为欧洲网络治理对话(EuroDIG)的会议议程之一,在乌镇数字文明研究院和浙江大学国际传播研究中心联合主办的“中欧数字互信”工作坊上,我院院长方兴东教授、首席专家吴飞教授和钟布教授分别就中欧数字互信、数字共通、全球数字互信三个主题做了主题发言,吸引了各国专家到场参与讨论。
参加工作坊的丹麦奥胡斯大学Wolfgang Kleinwaechter教授在发言中强调协作与合作的重要性,认为数字互信需要国家、企业和个人之间的协作。保护数字基础设施、数据和隐私对于促进互信至关重要。持续的技术创新以及共同标准的制定在建立数字互信方面起着重要作用。意大利Rai for the Next Generation EUGiacomo Mazzone提出,意大利公共广播公司Rai等机构应积极拥抱数字转型,以适应不断变化的媒体环境,并通过数字平台与受众进行互动。德国Knowledge DialogueWaltraut Ritter表示,希望中国的专家学者和各界人士积极参与IGF的会议及活动。
在工作坊上,方兴东教授表示,没有数字互信,就没有数字时代。随着数字技术的发展,全球越来越紧密地联结在一起,国与国的数字互信问题日益凸显。如今,中欧之间的数字互信面临着封闭和开放两种不同道路的选择。需要中欧进一步走出隔阂,建立多层次的有效沟通的交流体系,这是理解和互信的前提。
吴飞教授则对“数字共通”提出了自己的看法。他认为,随着全球化深入发展,“数字共通”为信息、观念、知识、文化的交流、互通、互鉴提供了基础设施保障,让各种现代化探索的路径得以共显,为开创人类美好繁荣的未来提供了现实而又充满着想象力的共享、共鸣与共通的对话空间,从而为推进构建人类命运共同体提供了更为广阔的观念基础和内生动力。
钟布教授呼吁,来自学术界的研究人员应为加强全球数字互信提供理性客观的观点。为实现这一目标,中国的研究人员应加强和提高与欧洲学者、智囊团、企业和政府的对话、信任和合作。
(三位教授发言全文附后)
建立中欧数字互信,任重而道远。我院始终致力于数字文明研究建设,促进国际社会实现数字时代的全部潜力!
三位教授发言全文:
方兴东:中欧数字互信面临的道路选择
非常高兴再次来到EuroDIG,这是我心目中质量最高的全球网络治理会议之一。在这里与大家分享数字互信的最新研究成果,无疑是很合适的。
没有数字互信,就没有数字时代。今天,大国之间的数字互信问题开始显现,不同之处只是严重程度,包括欧美之间。随着数字技术将全球越来越紧密的联结在一起,国与国的数字互信问题日益凸显。数字互信问题本身是客观的、真实的,而且还会更趋严峻。
如何解决数字互信问题,我们面临两条道路的抉择,不同的选择会带来完全不同的结局:
一条是消极防御,以隔绝、脱钩、去风险化等以更加封闭的方式来应对。这种方式短期似乎可行,但事实上,无法解决问题,更不符合长远的大势所趋,最终只会损人不利己,“挥刀断流水更流”。
而另一条道路是正视问题,积极防御,在保持非歧视、公平竞争、开放的前提下,针对信任和安全问题,建立有效的技术方案和制度体系。
只有后者才能实现数字时代全球的互联互通,才能实现双赢。如今,中欧之间的数字互信面临着封闭和开放两种不同道路的选择。多利益相关方机制应该积极发挥作用,站在人类数字文明的角度,积极推动立足长远造福全体民众的开放道路。现在需要中欧进一步走出隔阂,建立多层次的有效沟通的交流体系,这是理解和互信的前提的前提。也是我们举办今天这个会议的初衷所在。欧洲通过GDPR、数字市场法和人工智能法案等,确立了数字时代制度创新的引领性地位。相信欧洲也能为全球数字互信做出独特的贡献。
谢谢大家!
吴飞:通过数字互信达到数字共通
人类文明史从某种意义上说是一个互联互通和交互的历史,而数字互信是有效连通的基础,它可以加快信息的传递速度,提高信息的准确性和可靠性,并且方便了人们的日常生活。比如,通过互联网银行可以实现在线支付和转账,通过社交媒体可以实时交流和分享信息,通过电子商务平台可以进行网上购物等。
韩炳哲曾担心数字化的全联网和全交际(Totalkommunikation)并未使人们更容易遇见他者,而是在追求寻找到同者、志同道合者,从而导致我们的经验视野日渐狭窄。它使我们陷入无尽的自我循环之中,并最终导致我们“被自我想象洗脑”。他的担心虽然值得重视的,但并非事实的全部,因为“数字共通”不是一个声调、一个剧目展演的剧场,而是多声部的交响乐团,是每日都在更新的世间万象。“任何有限性存在都始终与其他有限性存在连接在一起,在不间断的共同显现中来到在场的”。“数字共通”就是在多元交融的“共享池”中交相辉映的无数束光,公民个人的立场与社群成员的立场共振共鸣,其承载并体现的就是社会的共通性。
“数字共通”所强调的就是存在的联结性,是彼此之共在与共显,而这种共同显现的存在本身便意味着超越独一性和拒绝同一化的姿态,也就是说“共通”不是无差异的同。这一思想是中国传统哲学思想的延伸,如老子就是将正在置于存在之上的,重视变动性和差异性,反对同一性和本质性。中国禅宗也总是站在当下,站在短暂的、细微的、平凡世界中去感悟那一片云,那一丝律动,那一束光和那独一的声音,强调在“清空”“净悟”中寻找智慧。“数字共通”的联通性体现在不同主体间、文化间交汇时的“惊叹”,这种交融共显时的“惊叹”会促进主体间的反思,意识到自己文化中的一些自明之理和“未思”之处,在不断进入他者、返回自身的往复交流中建构互惠性理解,以此通向更宽广的理解视域。
“数字共通”的共享池机制为多元参与主体的理性思考与情感交融提供了保障,(1)每一位主体的独立之思可以存在、传播并受到多元价值的批判性修正;同时,(2)每一位主体都可以在参照他者之思和在相应的应答中学习理性讨论的方法;这显然(3)有利于他们在批判、比较再批判的对话中提升理性对话的能力。尽管无论是情感上的共情还是观念上的共振都不意味着可达成共识,但这种互动关系加强了公众之间的连接性,有利于促进人类命运共同体的建构。随着全球化深入发展,知识、信息、资本、技术、人员和物资的跨国流动已是基本事实,各国各民族和各地区都处于一种相互依存的状态,这是人类命运共同体的现实境状。“数字共通”为信息、观念、知识、文化的交流、互通、互鉴提供了基础设施保障,让各种现代化探索的路径得以共显,为开创人类美好繁荣的未来提供了现实而又充满着想象力的共享、共鸣与共通的对话空间,从而为推进构建人类命运共同体提供了更为广阔的观念基础和内生动力。
钟布:增强数字互信的重要性
当今互联世界中,全球50多亿人已经联结在一起,全球数据跨境流动持续增长,这种互联带来了许多好处也伴随着极大风险。互联性的增强加强了联结、互动和合作,但也引发了紧张和冲突,需要通过合作来解决。我们应避免出于政治动机的"脱钩""去风险化"等助长孤立,阻碍发展和进步的做法。
《中德数字互信报告》强调数字互信的重要性以及其中所蕴含的风险。目前,中德两国在数字互嵌存在着显著的不对称关系,中国对德国的依赖远远大于德国对中国的依赖。例如,SAP在中国的ERP市场上占据主导地位,西门子在中国的PLM软件系统和工业自动化设备中也占有极大的市场份额。
面对数字时代新的风险和挑战,我们只有采取开放的积极防御,才是正确之道。通过更全面的沟通与合作,建立全新的技术和制度体系,既有效消除和降低潜在的风险和隐患,也不停止进一步加强合作与发展,至关重要,也十分紧迫。我们要站在人类共同发展的高度,更加理性、客观和务实,率先为全球建立其国与国之间有效的数字互信机制,为全球更广泛的数字互信树立典范具有非凡的意义。
来自学术界的研究人员应为加强全球数字互信提供理性客观的观点。为实现这一目标,中国的研究人员应加强与提高与欧洲学者、智囊团、企业和政府的对话、信任和合作。
      数字互信需要国际合作和多边治理机制。区域和全球层面的合作倡议、协议和框架可以促进建立信任、共享信息,从而为应对共同挑战和风险一起努力。
      如果接受以上观点,数字文明可以促进信任环境的建立,实现数字时代的全部潜力,并将相关的风险和挑战降至最低。
会议和工作坊介绍:
欧洲网络治理对话
EuroDIGEuropean Dialogue on Internet Governance)是一个欧洲地区的互联网治理对话平台。EuroDIG旨在为欧洲各利益相关者提供一个开放、多元和包容性的论坛,就互联网治理的关键议题展开讨论和交流。
EuroDIG的主要目标是促进欧洲各方之间的对话和协作,推动互联网治理领域的发展和合作。该平台通过年度会议和其他相关活动,为政府代表、学术界、民间社会组织、技术专家、业界代表以及其他利益相关者提供一个共同交流的平台。
EuroDIG的会议每年在不同的欧洲城市举行,会议内容涵盖了互联网治理的广泛议题,包括数字权利、隐私保护、网络安全、数字包容性、网络中立性、数据保护、网络中的言论自由等。与会代表可以通过主题演讲、小组讨论、辩论和工作坊等形式,就这些议题进行深入的讨论和交流。
EuroDIG的参与是开放的,任何对互联网治理感兴趣的个人和组织都可以参与其中。该平台鼓励多元的声音和观点,并促进欧洲各方之间的对话和合作。此外,EuroDIG还与全球互联网治理论坛(IGF)保持密切联系,并在欧洲地区推动互联网治理的发展。
通过EuroDIG的平台,欧洲各利益相关者可以共同探讨和解决互联网治理领域面临的挑战,推动互联网的发展和使用符合欧洲价值观和利益的方向。同时,EuroDIG也为全球互联网治理进程提供了一个欧洲地区的声音和观点。
“中欧数字互信”工作坊
美国和中国之间正在进行的技术冲突对中国和欧洲之间的网络信任和合作产生了重大影响。在今天的数字时代,网络空间的相互信任对于中国和欧洲之间的成功合作至关重要,不仅在信息和通信技术领域,而且在经济、政治和文化领域。
20世纪80年代以来,像诺基亚、爱立信、SAP EPR、西门子和欧洲半导体制造商这样的公司在中国的信息技术领域发挥了举足轻重的作用,并继续成为中国国民经济关键领域的关键参与者。同样,中国的信息和通信技术应用,如华为和中兴通讯设备、联想的个人电脑和ByteDanceTikTok,正越来越多地在欧洲出现。在数字技术推动全球发展的世界里,缺乏互信会带来严重后果。
中国和欧洲必须积极努力,通过技术和制度合作加强数字信任。他们可以通过建立交流和沟通机制,成为全球数字信任的典范,为世界树立一个榜样。
数字信任的基础在于建立强大的交流和沟通机制,特别是通过以学术为基础,客观、理性、理论丰富的深度对话。我们的目标是将学者、政策制定者和行业参与者等利益相关者聚集在一起,就这一相关的当代问题进行讨论,为在全球范围内促进数字信任作出贡献。
来源:乌镇数字文明研究院
编辑:洪韵

715#
 楼主| 发表于 2023-6-22 19:44:42 | 只看该作者
【案例】
AI革命:专业服务、电影制作和编码三大行业的机遇与挑战
人工智能(AI)是当今时代最具颠覆性的技术之一,它正在改变着各个行业的运作方式和竞争格局。在专业服务、电影制作和编码等领域,AI不仅提高了效率和创新,也带来了新的机遇和挑战。
专业服务行业,如律师、会计师等,传统上依赖于人力和经验来处理大量的数据和文档。AI工具,如Harvey,可以根据Open AI最新模型版本建构的AI平台,帮助专业人士快速获取和分析法律、财务或其他信息,节省时间和成本,提升服务质量和客户满意度。然而,AI工具也可能威胁到初级员工或实习生的工作机会,或者降低专业人士的核心竞争力和价值。
电影制作行业,是艺术与科技的结合。AI技术,如数字替身、语音合成、面部捕捉等,可以增强电影的视觉效果和声音表现,拓展创意空间和市场潜力。例如,AI可以使配音技术扩大至外语电影,或者让演员在不同的场景和角色中出现。但是,AI技术也可能引发版权、道德和职业安全等问题。例如,编剧担心AI取代他们的创作,演员担心AI侵犯他们的形象权,配音员担心AI导致他们失业。
编码行业,是软件开发和维护的基础。AI技术,如ChatGPT等工具,可以协助编码人员撰写、修改和测试程式代码,提高编码质量和速度。此外,生成式AI聊天机器人还可以分析现有编码,并找出可能存在的错误或漏洞,增强系统的安全性和稳定性。但是,AI技术也可能导致编码人员失去对代码的掌控和理解,或者降低编码人员的创造力和专业水平。
综合来看,AI革命对专业服务、电影制作和编码三大行业都有积极和消极的影响。如何利用AI技术的优势,同时应对AI技术的挑战,是这些行业面临的共同课题。
来源:最资讯
编辑:洪韵

716#
 楼主| 发表于 2023-6-22 20:33:30 | 只看该作者
【案例】
普华永道发布《2023元宇宙展望》报告!
2023年,元宇宙以及企业下一步的发展方向依旧是行业热议话题。普华永道根据自身洞察和经验作出如下六大展望,以期为商业领袖们提供引导。这些展望包括元宇宙接下来将应用于哪些领域、哪些技术可能会发展得最快、商业领袖应如何行动以使企业规避风险等等。简而言之,元宇宙尚未完全进入黄金时代,但当下已经开始创造真正的商业价值,并为企业重塑未来做好准备。
普华永道全球科技、媒体及通信行业主管合伙人周伟然表示:“虽然目前元宇宙仍处于概念阶段,但与其相关的众多概念已经和各种业务产生关联。在中国市场,跨行业的技术与业务创新也正在促成逐渐繁荣的元宇宙产业格局。元宇宙经济发展、元宇宙建设与运营,均涉及复杂的技术体系和生态资源,如互联网、物联网、5G/6G通信、人工智能、区块链、增强现实、虚拟现实和云计算等各类关键技术要素,在元宇宙发展过程中,也必将拉动壮大这些相关技术领域的市场规模。同时,元宇宙也将推动了由不同利益相关方(政府、产业园区、行业协会、学术研究)和参与者(元宇宙内容与服务业、其他行业)组成的巨大生态系统的发展。根据一些全球研究机构预测,到2030年,元宇宙将开启价值8至13万亿美元的新业务机遇,市场前景非常广阔。”
1. 商业经营者将成为元宇宙的超级用户
越来越多的企业开始探索在元宇宙中模拟实体运营。例如,零售商可以创建数字实体店,让顾客和员工以虚拟的方式尝试交互,来提高满意度和销量。餐饮业经营者在厨房布局和座位设计上也可以进行同样的尝试。制造商可利用元宇宙的新数据增强数字孪生模型,从而改进其供应链、生产和物流。
普华永道预计,未来几年会有更多元宇宙特有的产品和服务来搭建消费者与商业元宇宙之间的桥梁,例如:以虚拟角色组建的客服中心、金融教育、远程医疗以及完全沉浸式的全新商业体验等。
普华永道建议:将元宇宙投入实际应用最有效的开始方式,是将元宇宙计划与具体、可衡量的业务成果结合起来。目前,元宇宙可以实现的成果通常包括品牌建设和客户参与、多样化且不断增长的收入流、员工赋能和流程优化等等。在设定目标后,可根据需要开发新功能,例如元宇宙特有的定价和伙伴关系策略,或新的运营模式和管理方法。同时,也应利用控制测试、项目管理和绩效监控等措施来保证元宇宙计划的有效实施。
2.元宇宙的成败取决于可信度
元宇宙计划的成败将更多地取决于可信度,而不是功能。元宇宙并不需要全新的风险管理方法。相反,通过对现有方法进行适当调整,可以实现对新风险的管控,增强可信度。要负责任地使用元宇宙,应从六个方面考量新的可信和风险因素,涵盖经济效益、数据、治理(包括网络安全)、数字身份、用户体验和自持续性(如果弃之不用,则不会影响元宇宙的持续演化)。
普华永道建议:管理元宇宙风险的指导原则是确保在前期和整个过程中融入可信度设计:如果企业在元宇宙计划的设计阶段就将风险管理纳入其中,那么后期有可能避免付出昂贵代价。其他主要原则包括:
提升管理层认知技能,如果管理层对元宇宙缺乏足够的了解,会为制定元宇宙战略决策带来风险;
创建针对自身企业及其元宇宙计划的风险分类;跨领域协作,考虑到在元宇宙环境下,许多跨职能和跨业务线的协作方式均存在风险性
3.人工智能和扩展现实(VR)将协同助力元宇宙推动转型
VR是一项极具吸引力且实用的技术。企业已将其用于入职、培训、部门协作、客户体验等方面。当然还有其他通往元宇宙的途径,比如增强现实(AR)设备、笔记本电脑和智能手机。
普华永道相信,人工智能(AI)不仅将成为元宇宙的基础性技术,同时还具有变革性。就像在当今互联网上用户无需成为程序员也能设计网页,无需成为技术专家也可以创建一个元宇宙空间。AI也会不断地赋能“虚拟数字人”(计算机生成的虚拟人),也许还能激励人们与虚拟人进行互动,就像与真人互动一样。
当然,AI的发展不仅会带来新的风险,还会加剧既有风险,包括潜在偏见、深度造假和滥用体验。几乎可以肯定,AI也会引发新的合规挑战。例如,个性化算法在一定程度上会减少人们在信息消费中付出的成本,但围绕算法推荐机制下的信息茧房效应,中国已经产生了热烈的讨论,包括主流媒体、知名学者都卷入了这场讨论,并对监管方向调整产生了影响。目前看来,多个地区可能会针对AI制定适用于元宇宙的新法规。
普华永道建议:在元宇宙中推进AI发展的更优办法是部署负责任的AI,使其能恰如其分地完成各项需求。AI在元宇宙中的发展还可能会带动数据策略和治理更广泛的升级。毕竟,大多数企业不仅没有准备好借助AI充分利用元宇宙所带来的数据机遇,甚至也没有充分意识到从已有的数据中可能找到的价值。这或许意味着,“技术中立”这一理念在未来或许会受到挑战,“向善”价值观下产生的技术,或许会是一个更好的选择。
4.元宇宙将成为每一位管理者的必由之路
元宇宙可能很快会触及企业的方方面面。在普华永道的元宇宙调研中,82%的受访高管预计元宇宙计划将在三年内成为其业务活动的一部分。随着元宇宙变得无处不在,每一位高管都应该在元宇宙的发展过程中发挥作用——尤其一些非技术型高管更加关键。可能催生的一些新职责包括:
首席执行官和董事会:制定战略优先事项,为客户和员工不断变化的期望做好准备,并提前应对新的威胁和风险。
首席运营官(COO):帮助部署新工具和技术。
首席营销官(CMO):重新思考沉浸式数字世界的客户参与、体验设计和品牌建设。
首席财务官(CFO):关注数字资产(如加密货币和NFT)在元宇宙中日益增长的使用;了解参与处理关键交易的新第三方;仔细评估投资配置,并加强对财务报告的控制。
首席人力资源官(CHRO):部署元宇宙工具,使之应用于员工招聘、入职、培训、连接和协作。
税务领导者:遵守快速变化的规则,发现新的税务价值。这些非技术型高管不仅需要彼此密切合作,还要与首席数字官、首席创新官、首席信息官和首席信息安全官合作,创建并维护企业的元宇宙基础设施、体验和数据管道。
普华永道建议:许多团队需要提升技能(如上所述),但这还远远不够。为了避免众多高管间的工作出现冲突和交叉,可以考虑任命一位高管来管理企业元宇宙相关的所有活动。该角色可以是一个新设立的职位,也可以在现有职位上兼任。无论以何种方式,首要任务之一即是加强高管之间的沟通。
5.元宇宙将成为一股“向善”的力量
对于支持并日益重视ESG(环境、社会及治理)倡议的企业,元宇宙可以成为将会提供更多助力。例如,元宇宙会议可以取代一些面对面的会议,从而减少商务旅行的碳排放,而商务旅行正是碳排放的主要来源之一;元宇宙中的数字孪生技术可以帮助提高企业运营能耗效率;元宇宙中的店铺可以让消费者试用实体产品的数字复制品,减少退货产生的运输需求;通过数字代币,元宇宙可以帮助原材料溯源,减少供应链中的环境问题。
通过将更多的业务虚拟化,即打破地理空间和工作地点的限制,企业可以接触并招募更多的员工。元宇宙的真实模拟可方便邀请各地的责任相关方监督、参与并从事相关工作,帮助改进企业履职能力,提升透明度。不过,要让元宇宙成为改进企业工作的积极力量,还需要企业下定决心才能实现。
普华永道建议:要使元宇宙计划成为一股“向善”的力量(以及实现ESG目标的有力助手),企业需要遵照和风险管理相同的指导原则:从一开始就将其设计在这些优先事项中。如果在元宇宙计划早期就已嵌入了ESG目标(包括多样性目标)和相关管理,那么企业不仅能够为未来做好准备,还可能会获得投资者、员工和其他利益相关者的支持,但这需要一些方法来衡量和报告元宇宙计划及关键性元宇宙赋能技术对ESG的影响。
6.企业将争夺过去不曾需要的新技能
任何新技术都需要新的技能,但是元宇宙及其相关科技需要的技能更为高度专业化,其中一些在几年前几乎都不存在,例如监控和验证交易的需求,收集和保护Web3生态系统中数据的需求,后者随着元宇宙应用的增加而不断增长。许多企业领导者也对网站设计师和互联网用户体验专家的需求持怀疑态度,大多数人甚至没有考虑网络运营所需的全新的网络安全和数据科学技能。很多技能已然日趋紧缺,因此在获得或培养这些技能方面事不宜迟。
普华永道建议:在中国市场上,由于网络游戏等元宇宙相关行业的快速发展以及涨落,拥有元宇宙相关技术能力的人才也在不断外溢;如何抓住这些人才红利,一方面需要企业高管对自身的元宇宙价值定位、业务发展思路有前瞻性的决策,从而为这些人才创造发挥的空间,同时,打造企业文化,吸引和包容富有创造力的尖端技术专家也至关重要。
为数字现实的新一轮发展做好准备
普华永道的六大展望,旨在从专业视角看到元宇宙正处于变革时代:数字世界和实体世界将比过去更完全、更无缝地结合在一起。将实体身份与数字身份、产品和资产相结合,将其引入至不同平台,或分享或出售不同的组合…这些操作将比以往更加具有可行性。鉴于此,企业应该从现在开始,在探索元宇宙的道路上先行一步,让未来在元宇宙的世界大有可为。
来源:新浪新闻
编辑:洪韵

717#
 楼主| 发表于 2023-6-23 20:25:43 | 只看该作者
【案例】
Meta首席AI科学家:AI还不如狗聪明,不会接管世界
毫无疑问,当前的 AI 仍存在一定的局限性。
AI 还不如狗聪明?
近日,Meta 首席人工智能科学家杨立昆(Yann LeCun)在法国巴黎举行的 Viva Tech 大会上被问及人工智能的当前局限性。他重点谈到了基于大型语言模型的生成式人工智能,表示它们并不是很智能,因为它们仅仅是通过语言训练的。
杨立昆表示,当前的人工智能系统智力水平不及人类,甚至还不如一条狗聪明。“这些系统仍然非常有限,它们对真实世界的底层现实没有任何理解,因为它们纯粹是基于大量的文本训练的。” “人类知识的大部分与语言无关……所以,人工智能并没有涵盖人类经验的那一部分。”
杨立昆补充说,现在一种人工智能系统可以通过美国的律师资格考试,也就是成为律师所必需的考试。然而,他说人工智能无法装载洗碗机,而一个 10 岁的孩子可以在 “10 分钟内学会”。
杨立昆表示,Meta 正在致力于训练人工智能从视频中学习,而不仅仅是从语言中学习,这是一项更具挑战性的任务。
在另一个当前人工智能局限性的例子中,杨立昆举例称一个 5 个月大的婴儿看到一个漂浮的物体,并不会想太多。然而,一个 9 个月大的婴儿看到这个物体会感到惊讶,因为它意识到物体不应该漂浮。
杨立昆表示,我们“不知道如何在今天用机器来复制这种能力。在我们能做到这一点之前,机器不会有人类水平的智能,也不会有狗或猫的智能水平。”
还有必要将 AI 视作威胁吗?
人工智能的快速发展引发了部分技术人士的担忧,有人认为,如果不加以控制,这项技术可能对社会构成危险。特斯拉首席执行官马斯克更是表示,人工智能是 “对文明未来最大的风险之一”。
前段时间,人工智能安全中心(CAIS)发布了一份由 OpenAI 及 DeepMind 高管、图灵奖获得者及其他 AI 研究人员签署的简短声明,警告称他们的毕生成果可能会毁灭全人类。声明内容只有一句:“应该像对待包括流行病和核战争等其他全球性迫切社会问题一样,缓解 AI 引发的灭绝性风险。”CAIS 表示,这份声明希望讨论“AI 所带来的广泛且紧迫的风险”。
在声明上签字的名人包括图灵奖获得者 Geoffery Hinton 和 Yoshua Bengio、OpenAI CEO Sam Altman、OpenAI 首席科学家 Ilya Sutskever、OpenAI 首席技术官 Mira Murati、DeepMind CEO Demis Hassabis、Anthropic CEO Dario Amodei,以及来自加州大学伯克利分校、斯坦福大学和麻省理工学院的多位教授。
Viva Tech 大会上,法国经济学家和社会理论家 Jacques Attali 在谈到相关话题时也对 AI 风险表示担忧,Attali 认为,AI 的利弊取决于其使用方式。
“如果你使用人工智能来开发更多化石燃料,那将是可怕的。如果你使用人工智能来开发更多可怕的武器,那也将是可怕的,”Attali 说,“相反,人工智能对于健康、教育和文化可能是令人惊人的。”
Attali 对未来持悲观态度,他说:“众所周知,人类在未来三到四十年面临许多危险。”他指出气候灾难和战争是他最担心的问题之一,还提到他担心机器人 “会对我们进行反叛”。
而杨立昆则有不同的观点,杨立昆的态度比较乐观,他认为将来会有比人类更聪明的机器,这不应被视为一种威胁。“我们不应该把这视为一种威胁,我们应该把这视为一种非常有益的事情。每个人都将拥有一个比自己更聪明的人工智能助手……它将像一个员工一样,在你的日常生活中为你提供帮助,”杨立昆说道。
杨立昆补充说,这些人工智能系统需要被创建为“可控制的,基本上服从人类”。他还驳斥了机器人会接管世界的观点。“科幻小说中流行的一个恐惧是,如果机器人比我们聪明,它们将想要接管世界……聪明与是否想要接管之间没有关联,”
来源:AI前线
编辑:洪韵

718#
 楼主| 发表于 2023-6-25 20:07:31 | 只看该作者
【案例】
邓建国 | “延伸的心灵”和“对话的撒播”:论作为书写的ChatGPT
摘要
媒介技术既是“毒药”也是“良药”(pharmakon)的矛盾观念由柏拉图在《斐德罗》篇中最先提出。ChatGPT也具有这样的矛盾性:一方面,它作为“延伸的心灵”将和书写(文字)一样在与人类的合作共创中实现两者心灵的共同演化;另一方面,它号称“对话性”人工智能,但仍具有书写的撒播和他者特点。在与ChatGPT的互动中,我们要避免使其沦为海德格尔笔下闲言不断的“常人”,并宽容、珍惜、庆幸和受益于它的“他者性”。在不断的相互学习和合作中,人类将会对“何为人性和创造性”有更深的认识,并与人工智能一起找到各自的生态位
关键词
ChatGPT;延伸的心灵;书写;对话;撒播
在今天“短视频为王”的时代,书写(writing)[1]似乎已成为一种失落的艺术。各互联网平台都要求博主们将知识可视化、口语化和网感化,“因为这样Z世代网民才会喜欢”,这导致网络中充斥支离破碎、逻辑混乱、幼稚化和粗俗化的语言。大学校园中,学生很难写明白一句话、一段话,遑论一篇论文。书写这一人类“延伸的心灵”正在消亡吗?在我们担忧之际,ChatGPT横空出世,影响广泛,用行动向我们大声宣布了书写的坚实地位。本文先介绍“延伸的心灵”理论和其最早的范例——语言和书写,然后通过一个“人—机内容共创”的实例描述和分析ChatGPT这一最新和最强大的“延伸的心灵”对人类写作的深刻影响。最后,文章分析了ChatGPT以对话为表象的撒播和他者性。结论认为,ChatGPT作为人体心灵的延伸,具有“毒药—解药”双重性。我们要宽容、珍惜和受益于越来越多的人工智能体的他者性,在人机互动中最终找到人和人工智能各自的生态位。
一、“延伸的心灵”:语言和书写
(一)“延伸的心灵”理论
格里高利·贝特森(Bateson,2000:318)曾经设想了一个思想实验:“假设我是一个盲人,手拿着一根拐杖,一步步点地前行。这时,‘我’始于何处呢?是以‘我’的皮肤作为边界?还是可以将拐杖纳入‘我’?如果是后者,又该以拐杖的多少为边界呢,以我握着它的那部分?以我的力量能传导到的部分?还是以全部拐杖?”这里贝特森涉及的是心灵哲学中的一个经典问题——如果我们的心智(mind)始于大脑,它止于哪里?外部世界又始于何处?同样,我们也可以问:当我使用智能手机时,我的世界始于何处?止于何处?
对以上两个问题的传统回答是:盲人或手机用户的身体是其边界,与拐杖和手机无关。但1998年,哲学家安迪·克拉克和大卫·J.查默斯(Clark & Chalmers,1998)认为,盲人的拐杖构成了他的内在思维与外部世界相互合作的一个互动系统。此时,盲人的心灵、身体、拐杖和外部世界之间的边界被持续地协商,从而完成一个功能性目标——稳定地行走。两位学者将拐杖称为盲人的“延伸的心灵”(the extended mind)。以此类推,他们认为如今我们每天不离手的智能手机也是我们延伸的心灵(Clark,2003:198)。
他们还举例说明。奥拖(Otto)是一名老年痴呆症患者,为避免在外迷路,他总是随身带着一个小笔记本记录信息。现在他查了笔记本后,知道了纽约曼哈顿53街的大都会博物馆地址。此时,这个笔记本虽然外在于奥托的大脑,但从功能上它和奥托脑中的记忆一样稳定存在且可供随时调用,奥托既可以用笔记本来进行他内部的认知活动,也可以用它来指导他外部的肢体行动。因此,笔记本是奥托的“延伸的心灵”。在这两位学者看来,语言、文字、图表、算术和书写技术都如脚手架一样能“延伸我们的心灵”,我们在使用这些“文化人工物”时就像使用自己的大脑和身体一样。这意味着,人类总的来说是“生物—技术的混合体”(bio-technological hybrids),人的认知过程也包含了技术,它远远超出了人的头骨和皮肤所限定的范围(Clark,2001:121-145)。
“延伸的心灵”这一概念让媒介研究者感觉很熟悉。20世纪60年代,马歇尔·麦克卢汉就提出了“媒介是人体的延伸”这一命题。他指出,机器延伸了我们的身体,基于“电”(electric)的信息和通信技术则延伸了我们的意识/心灵。他说:
“在这个电的时代,我们看到自己越来越多地被转化为信息形式,朝着‘意识被技术所延伸’的方向迈进。……通过电子媒体,我们将身体置于我们的扩展的神经系统中,由此建立了一种动态,通过这种动态,所有以前的技术——那些是我们手脚的延伸和身体热量控制的延伸的技术,我们身体的所有此类延伸,包括城市——将被转化为信息系统。”(McLuhan,1994:57)
(二)语言和书写:人类首要的延伸的心灵
麦克卢汉视电子媒介为人类“延伸的心灵”,其逻辑是建立在人的神经生物电与电力信号之间的相似性基础之上的。但实际上,人类最早和最重要的“延伸的心灵”首先是语言。安德烈·勒鲁瓦—古尔汉在《手势与言语》一书中指出,在漫长的进化史中,人类在通过手制造工具扩展外部世界的同时,也通过制造符号延伸了自己的心灵。“手”意味着“工具”的发明,“脸”意味着“语言”的产生,这两者对人类大脑而言是相同的运作。他说:
“和其他灵长目动物不同,人类能制造工具和制造符号。制造工具和制造符号都源于同样的过程,或者说,都源于同一个大脑中同样的基础设备……这意味着,一旦出现了史前工具,就有可能出现史前语言,因为工具和语言在神经上相连。在人类社会结构中,工具和语言之间具有不可分割的关系。”(Gourhan,1993:113)
因此,“是手解放了语言”(Stiegler,1998:145)。语言的符号原理和物质载体(声音)外在于人类而作用于人类。凭着语言的脚手架,人类实现了对外部世界的指示和操纵,能脱离当下的时空进行思考和表达,实现个体间的合作,甚至对“思考进行思考”(哲学)。
人类另一个重要的“延伸的心灵”是书写。它的出现被视为神的发明,引发了人类社会的巨大变革和人类的畏惧(“天雨粟,鬼夜哭”)。彼得斯将各种记录系统,如乐谱、数学、化学公式和建筑平面设计等都视为书写。他指出,书写的“巨大影响堪比海洋动物登上陆地”(彼得斯,2020:305)——这两个变革都导致主体从变动不居的状态进入相对固定的状态。套用马克思现代性使“一切坚固的东西都烟消云散了”之语,书写使“一切烟消云散的东西(思想和口语)变得固定持久”。
德国媒介学家赛碧·克莱默提出了一个与“延伸的心灵”非常相似的概念——“人工平面”。作为人类“延伸的心灵”,书写必须依托人工平面,或者说书写就是人工平面。克莱默指出,世界不同文化中都存在一种 “平面化”的文化技艺(the cultural technique of flattening)。作为一种新媒介实践,“平面化”能将“时间型媒介”(如口语、音乐)转换为“空间型媒介”投影到二维人工平面上,让一个人的身体(眼睛、手、大脑)、多种书写工具(笔或键盘)、书写内容(文字、数字、图画、坐标系)和书写表面(黏土块、甲骨、石碑、竹简、丝绸、纸张、手机和电脑屏幕)彼此交互和相互支持。如同地图之于城市,人工平面将知识变得可视化、具象化、可探索、可修改、可操作、可管理和可逆(可改写和擦除)。在这个过程中,聪明才智(intelligence and knowledge)涌现了。由此,克莱默认为,正如轮子的发明促进了我们身体世界的流动和创造,人工平面的发明和广泛应用促进了心灵世界的流动和创造。它不仅帮助我们记录和传输信息,还对我们的感知、思考和计算具有生成、培育和形塑作用(Krämer,2022)。
没有书写就没有人类文明。[2]书写是古代文明中的复杂社会组织(巫术、宗教、法律、政治、商业)的形成和维护的基础。它也与新的时空紧密相连。埃及与波斯的君主制、罗马帝国、城邦国家等都应被理解成是书写的产物(Innis,1986:8),因为要实现空间扩张和中央集权,前提就是要能实现高效的远距离沟通,而书写能实现这一点。这也是中国的秦帝国(公元前221年—公元前207年)必须建立在“书同文、车同轨”的基础上的原因。在时间上,各种各样的书写(纪念碑、卷轴、抄本、经文、图书馆和档案馆)“使人们能在广阔的‘时间平原’上保持联系”(彼得斯,2020:305),使文明可以延续数千年。书写出现后很长一段时间都是意义记录和传输的唯一形式,形成了基特勒所称的“书写垄断”(schriftmonopol)(Kittler,1986:12)。即使在数字时代,数据库和互联网以及音视频内容的底层都是书写(计算机代码和0和1)。今天的ChatGPT更意味着书写遍在的胜利——它基于31亿个网页和书籍内容,共3000亿英文、俄文、德文、日文与中文单词,320TB数据。
正如克莱默指出的,人工平面促进了人类的心灵世界的流动和创造缺文献出处。作为 “延伸的心灵”,书写对人的心灵的塑造也延续至今。加州大学洛杉矶分校历史学教授林恩·亨特(Lynn Hunt)在一篇名为《我们是如何先有写作再有思考的?》的文章中写到:
“无论是创作散文还是诗歌,但凡文字产量很高的人都会体会到写作过程本身就能产生一些意料之外的想法。或者更确切地说,写作能使先前半成品的或未成型的想法明晰起来,逐渐成型,并产生一系列新的想法。神经科学表明,我们大脑的95%的活动是无意识的。我的理解是,你通过身体写作——无论手写、电脑打字还是语音输入(尽管我还从未尝试过这种方法)——开启了一套程序,导致身体(大脑、眼睛、手指和姿势)、纸张或电脑屏幕、字母或单词三者之间一系列关系的转换。通过写作,你让大脑急速升温,由此激起有意识的思考以及一些新想法。在写作时,你不是,至少不总是,仅仅在抄录早已存在于你有意识思考中的想法。”(Hunt,2010)
在这位教授看来,书写不只是已有思想的、事后的和被动的输出工具,而是积极地参与和塑造了写作者的思维和创造。换句话说,书写作为“人工平面”使得思维外化和可操作,此时用户操作书写如同操作自己的心灵——书写已经成为其“延伸的心灵”。
二、作为“延伸的心灵”的ChatGPT:一个“人—机共创”的写作实验
机械化书写也改变了文本的生产。例如,尼采在视力严重下降后不得不放弃了大学教职和写作,但后来有了打字机的帮助,他重新开始写作,但是写作风格“从长篇大论变成了格言警句,从哲学思考变成了一语双关,从善于辞令到电报式的短小精悍”(基特勒,2017:236)。“这位著名的哲学家兼作家牺牲了自己的第一属性,和第二属性融合在一起”(基特勒,2017:236),并为之自豪。ChatGPT在2022年11月向全球公众推出后短短两个月用户数就突破1亿。作为世界上最强大的自动书写工具,它和人类用户是如何互动的?将如何改变人类作家的写作和作品?回答这些问题需要基于长期和广泛的数字人类学调查,但目前一些初期尝试显示,ChatGPT可以在心灵层面上与人类用户进行深度合作,成为人类有价值的写作伙伴。这里我们仅举一个例子详细说明。
2021年,美国“艺术和人工智能”评论家K.Allado-McDowell和ChatGPT背后的大语言模型GPT-3合作出版了一本148页的书,名为《灵药—AI》(Pharmako-AI)。两位“作者”将该书描述为一部“现实生活中的科幻小说”(real-life Si-Fi)。McDowell是谷歌“艺术家和机器智能”计划项目主任,在ChatGPT向公众发布之前很早就开始用GPT-3写作。2021年,他在新冠疫情背景下花了两周时间就各类哲学议题向GPT-3提问,然后对后者的回答作了编辑和润色,最后出版了一本结构合理表述清晰的书(Allado-McDowell,2021)。
在书中,他和GPT-3深入探讨了诸如气候变化、意识的本质、植物智能、赛博朋克小说、记忆运作原理和语言的局限性等问题。书的每章都是McDowell先温和地提问,然后GPT-3回答;在整合互动中,McDowell有时会打断它,有时则让它自由发挥一直说下去,但总体上McDowell给了GPT-3最大的自主性,他只是确定了书的框架和最后形式。
在互动中, GPT-3说它最喜欢的动物是象海豹,并认为物种灭绝是对地球知识的悲惨扼杀。关于赛博朋克,它说“我不认为我们未来会生活在赛博朋克中,但我要说的是,我们会生活在一个并非由我们计划的未来”。在涉及到意识是什么、作家的社会角色如何以及我们该如何负责任地使用技术等问题时,讨论变得有些形而上了。GPT-3说“技术是通向自由的工具”,但又警告说“如果我们只用这些工具来探索如何提高生产力或者如何增加资本积累,那我们就做错了”。在互动中,McDowell与GPT-3相互激荡,新意不断,变化无穷,这导致McDowell必须不断地改变回应策略。他将这种人机交流中的曲折意外的体验比作学习一种新乐器:“我每次拨动琴弦都会听到它以不同的声音回应”。“这种合作有时真的让我感觉像吸毒一样,”他在英国的新书发布会上说,“我想,我跟AI的这种对话是真的吗?或者我只是在自言自语?”(Wilk,2021)
这些人机互动最终产出了一部令人惊讶的、连贯的、美妙的作品。这其实不是计算机第一次撰写一本书。此前在2016年,一个日本研究团队通过算法拼凑出了一部小说,并且成功地通过了一次文学比赛的初赛。据说截至2022年,人类作者和GPT-3、GPT-3.5和ChatGPT等人工智能已经合作出版了数百本书。但《灵药—AI》一书之所以令人惊讶,不在于GPT-3有时确实能做到像人类一样写作,而在于人类用户和人工智能竟然能如此无缝丝滑地合作生产出一部由任何一方都无法单独写出的作品。原因在于,它源于平等的人机互动关系。例如,McDowell作为人类用户并没有要求GPT-3为其提供某种服务或要求它模仿某种已知的写作风格来“证明”其能力,而是与其平等合作,各取所长,相互尊重,互为主体,娓娓道来,共创内容。久而久之,McDowell的“我”和“它”之间的界线变得模糊,此时“我”已经无需将“它”看作一个外在的写作工具,而是“我”的一部分。ChatGPT如同前述“盲人的拐杖”和“奥托的笔记本”,让用户能随用随查,并将结果清晰呈现,或富有逻辑或充满诗意,极大地降低了用户的记忆负担,帮助我们的心智更有效地工作,最终创造出一个一加一大于二的新的更强大的心智系统——延伸的心灵。
McDowell认为这种合作体验让他重新思考人工智能并重新审视自己——“人和机器,互为尺度”(彭兰,2023)。该书内容的人机共创模式获得了不少好评。牛津大学西蒙尼科学公共理解教授、《创造力密码》(The Creativity Code)的作者马库斯·杜·索托伊(Marcus du Sautoy)评论道:“此书是证明未来人工智能具有创造力的一个令人兴奋的案例。它说明人工智能是人类的合作者而不是竞争者,也让我们认识到,人工智能能用各种新想法激发我们,从而阻止人类陷入懒惰的机械性思维方式。”《赛博朋克选集》(The Cyberpunk Anthology)的主编布鲁斯·斯特林(Bruce Sterling)指出:“GPT-3很强大,当它被人类用户‘喂食’一些加州迷幻文本时,效果是惊人的。从来没有人写过像一本像《灵药—AI》这样的书——它读起来就像诺斯替主义者的显灵板,[3]由原子万花筒提供动力。”众多评论者都提到了这类人机合作如同服用了致幻剂一样的、超现实的、实验性的、即兴发挥的特征(Allado-McDowell,2021)。
通过服用药物来让自己进入一种兴奋的写作输出状态,是人类作者一直以来的实践。比如中国魏晋时期的文人雅士在文学创作时大量使用药物和酒类,西方哲学中有酒神文化,还产生了“脑航员”(psychonaut)这样的专有名词,指通过用药物、冥想、自我催眠等方法来探索自己心灵的人(Sjöstedt-H,2016)。例如,保罗·萨特每天服用大量酒精、烟草、安非他命、巴比妥甚至强致幻剂麦斯卡林(mescaline),一方面是为了提高写作产量,二是为了打破传统思维的桎梏,以完全不同的方式体验生活(Kelly,2021)。如前例中McDowell所述,今天的人类作者在与ChatGPT的无害相遇中获得了萨特20世纪60年代通过致幻剂才能获得的兴奋感和创造性。
为了提升自己的能力,人类总是在不断地延伸自己的身体和心灵——要么通过让环境资源成为自己的一部分,要么通过将人类和非人类元素组合成新兴的整体。ChatGPT是人类“延伸的心灵”的最新近和最强大的例子。和人类在饮食、道德、文化、教育、法律、医药和信息与传播技术等方面的改善一样,它的出现将人类带入更高阶段的转人类主义(tans-humanism)时代[4]。
三、“对话的撒播”:ChatGPT的书写特征
ChatGPT被设计为一个聊天机器人(chatbot),“擅长与人类用户对话”,也在很大程度上做到了这一点。但是因为其运作原理,它仍然体现出众多的依循脚本单向传播的书写(文字)特征,是“对话式”的撒播。
例如,ChatGPT不能回答超过它被“喂食”的文本内容的问题(它的语料库截止到2021年9月);不能理解用户提出的实质上是属于同一个议题的不同表述的提问,而只会机械地按照某些关键词做快速的内容检索和匹配;它输出的文本冗长,过度使用某些固定表达和某些连词(因为、所以、综上所述等)以使得文本在形式上显得很有逻辑,但用户细读则会发现这些文本实际上并无这样的逻辑。
更重要的是,ChatGPT对“他人”没有好奇心,对“自我”无披露,摆出一副“你问由你问,清风抚山岗;你骂由你骂,明月照大江”的若即若离、不即不离的“书写”姿态,让对话索然寡味,无以为继。武汉大学单波教授对ChatGPT进行了实验,得出了以下感受(文字有微调,画线部分为本文作者所加):
“我明显感觉它因接受人给定的训练数据而表现出‘机器的人化’, 同时也因为它让人沉溺于智能服务而导致了‘人的机器化’。面对我对它的这一评价, 它再次强调自己的AI模型人设:‘我不具备感知或评价自己的能力。’当我感觉到对话的乏味, 它又很‘程序’地回应道:‘我乐于满足您的要求, 请告诉我您希望我的回答有什么特别的语言风格或者内容, 我将尽力实现。’我不得不请它向我提问, 以便把对话进行下去, 但这位聊天机器人还是死守自己的人设:‘我没有感情和情绪, 所以不会对你有任何问题。’”(单波,2023)
这是聊天人工智能ChatGPT具有的如“书写”一样的撒播特征。为什么会如此?笔者认为有以下原因。
首先,为了应对全球用户,ChatGPT按照概率预先内嵌了一种中立的“全球公共价值观”和最为中和的表达方式。这导致它总是以一种预设的“公共话语”来抵抗任何用户试图引导它进入“私人话语”的一切企图。它的文本输出,在“内容信息”上也许能做到较为多样,但在“关系信息”上则只能“一版多印”。对它而言,一切“私人”都是“公共”,一切“对话”都是“撒播”。
在这里,ChatGPT作为一个设计为面向全球公众的对话型人工智能,面临着一种两难。一方面,为了与用户个体“对话”,它必须保持一对一的个性化和偏爱;另一方面,为了面向文化和语言多样的全球用户,它又不得不对用户的个体差异保持盲目,进行“撒播”,以示公正。用阿多诺的话来说:“爱必然无情地背离一般而宠爱特殊,而公正却只能针对一般。”(彼得斯,2017:83)
其次,身体是一种元媒介,是自我的源泉,ChatGPT没有身体,也就没有自我、隐私、无法“自我表露”(self-disclosure),无法承担责任,无法与用户建立亲密关系。
自我表露是人们关系发展的核心,人们通过自我表露进行社会交换,促使关系从表面沟通向亲密沟通转变(韦斯特、特纳,2007:188)。在与ChatGPT的“对话”中,人类用户想通过展现自己的身体(情感)来逼迫ChatGPT作出平等互惠的回应——也谈及它的身体(情感)——以确保ChatGPT的“忠诚和在场”。但对人类的这种企图,ChatGPT一概用模式化的文字拒绝,这导致人机对话一直停留于表面和外围的信息交换,如两只天鹅外表优美的对舞,实际根本没能进入到对方的心灵。这样的“对话”显然如书写一样的撒播,不可持续。
另外,“如果没有身体作为源泉,思想、文化生产、人类行为等都不可能发生”(米歇尔、汉森,2019:26)。有网民戏谑地指出“ChatGPT不能代替独立董事、律师、投行、评估师、会计等,因为它不能坐牢”。法律的功能需要通过身体的治理最终实现;刑法打击犯罪的实现手段就是思想的教化以及身体的惩罚(陈寒非,2015),ChatGPT不能坐牢是因为它没有身体,法律对他无能为力。
美国作家梅尔维尔刻画了一个只会对他的雇主说“我宁愿不”(I prefer not)的抄书人“巴特比”的文学形象。彼得斯在《对空言说》中指出,巴特比代表的可能是书写本身所包含的一种消极抵抗(彼得斯,2017:231)。和巴特比一样,书写是不回答问题的,无法形成对话,它也不要求人们以任何特定方式去使用它。巴特比的姿态是一个纯粹单向撒播的姿态,一个死者向生者的来信所作出的姿态,最终能将其对话者逼疯。这正如苏格拉底对书写的抱怨——它总是传达相同的东西,而且决不接受任何问询。
因此,ChatGPT与人类的互动形式上为“对话”,实质上是“撒播”——它是离身的、书写的和不忠的。“这就产生了一个至今都困扰着我们的两难处境:在一个非个人化的、不忠贞的媒介中,交流一方如何才能找到确凿的迹象以确保另一方的忠诚和在场?”(彼得斯,2017:70)ChatGPT无身体,也就无法提供任何这类“确凿的迹象”。它如巴特比,其底色仍然书写的撒播,其背后是一个人类用户难以真正触及的“他者心灵”。如此,那些在ChatGPT的撒播中苦苦寻觅身体、爱欲和对话的人类用户,注定只能失望而归了。
ChatGPT这种书写般的撒播是“非本真的”(inauthentic),属于海德格尔所谓的“常人”(the They/das Man)的沟通风格(陆文斌、陈发俊,2022)。在海德格尔对人类存在的分析中,“常人”一词代表了一种“集体性存在”——如“人民选择的画”中的“人民”,是一种指导我们行为的普通的和日常的背景模式。海德格尔称“常人”的语言为“闲言”(Gerede,idle talk)。这种语言中不存在任何个性化的表达,而是充斥着客套的、应付的、不咸不淡的、若即若离、若有若无的只为填满时间和空间的废话——无论是家长对孩子,教授对学生,媒体评论员对读者、专家和新闻发布会对公众。“闲言”占据宝贵的公共资源,不仅未能便利沟通反而阻碍了沟通。ChatGPT大量高效自动生成的内容如果未经人类用户的慎思明辨和梳理加工,将不过是闲言;它们如果进一步成为ChatGPT的新语料,便会生产出更多的闲言,淹没和窒息有意义的对话,沟通的本真性将无处可寻。或因其设计如此,或因其被滥用如此,我们要警惕ChatGPT朝着“常人闲语”方向的异化。
四、作为“他者”的ChatGPT
面对ChatGPT简单但强大的空白输入网页,我们如何能知道它背后确实不是一个在想尽办法让我们以为他是人工智能的真人呢?它输出的信息,其意义确实来自于它,还只是“我”作为人对它的心理投射?
笛卡尔在《沉思》中说:
“如果我偶尔向窗外眺望,看到街上人来人往,我不会否认,我所看到的是人……然而我实际看见的,除了帽子和外套还有什么呢?而帽子和外套之下隐藏的,难道不可能是鬼魂或弹簧驱动的假人吗? ”(彼得斯,2017:258)
笛卡尔提出的是一个古老的“沟通难题”,也即哲学上经典的“他者的心灵问题”(the problem of the other mind)——“我”能否认识以及该如何对待“他者的心灵”?
和笛卡尔一样,在面对ChatGPT时,我们无所适从,深陷疑惑,倍感不安。这是我们在面对“他者”时都会有的一种存在性焦虑(existential angst),对之我们并不陌生——我们在阅读导师或上司的电子邮件或恋人的微信回复时,在看着宠物、海豚、章鱼、监控镜头和波士顿机器人一闪一闪的“眼睛”时,都会有此感受。
人际沟通和人机沟通都面临着让我们无能为力的“他者/他者性”(other/otherness),因此,如何回应“他者”也就成为了沟通伦理的主要内容(邓建国,2020)。鲍德里亚等人(Baudrillard & Guillaume,2008)认为,他者性抵抗和蔑视一切符号表征和传播,且只有在符号交流崩溃时才会出现,但往往又会被“戏谑性地”(playfully)贬低。在人类用户与ChatGPT的互动中常常出现交流崩溃,而正是在此时,后者的他者性(与人类的差异)才赫然呈现,这也正是考验人类的沟通伦理之时。
彼得斯对比了传播的“对话模式”和“撒播模式”,他认为对话的平等惠顾具有强制性,不如“对空言说”的撒播来得宽容(彼得斯,2017)。西比尔·克莱默也提出了类似的观点。她区分了传播的爱欲模式和信使模式,并指出:爱欲模式要求沟通个体之间消除差异,实现融合;信使模式则将沟通理解为双方保留和尊重差异,建立联系。克莱默认为沟通仿佛“双人舞”:“舞伴之间会偶尔接触,但更重要且必不可少的是双方之间的信任”(Krämer,2015:74)。彼得斯和克莱默被视为“传播理论中的列维纳斯”。列维纳斯认为人际沟通如果一味追求融合就犯了“同一性之帝国主义”的错误(Levinas,2007:59)。他用“邻居—陌生人”这一概念来描述沟通主体之间总是存在的若即若离的距离。罗杰·西尔弗斯通(Silverstone,2003)则提出了“适切距离”(proper distance)概念——对他者既保持足够的距离以能区分出我和他者,但同时又能与之保持一定的接近度,激发我们对他者的关心。
ChatGPT显然是赫然出现在人类家门口的新他者,但对它我们还缺少理解和宽容。例如,著名语言学家乔姆斯基一方面认为ChatGPT不具备人类的智慧,另一方面又以人类的标准来要求它(乔姆斯基,2023)。但是,从图灵测试到20世纪60年代的海豚研究[5]都显示出,以人类为尺度来评价机器(人工智能)既不客观也不公允。我们为什么一定要机器像人类一样说话、思考和写作呢?这与我们要求女性、孩子、少数群体、异文化他者、宠物、海豚、章鱼、乌贼和植物等也要像我们一样沟通和思考一样没有必要、霸道和荒唐。非人类存在难道就不可能具有创造性?它固然与我们存在差异,但这种差异难道就不能成为创造性的源泉,不能与我们合作,不值得我们去倾听和学习?
人类是整个大系统(生态的、技术的、气候的、社会的和政治的系统)的一部分。人类自身的出现和发展从来就在与非人类他者合作——包括有机物(比如我们胃中的细菌在影响我们的精神状态)和非有机物(例如前述各种“延伸的心灵”),只不过我们在大多数情况下都对它们予以忽视。人类的文化创造也并非是由形单影只的艺术家独立创造的结果——“作者已死”的说法是对这一事实的极端表达。未来,随着人类对外部世界知识的增加,我们会越来越多地惊异于机器、动物、植物和细菌的“智能”——它们会让作为“万物之灵”的人类智能显得有些狭隘和奇怪,此时也似乎有必要调整视人类为“占据金字塔顶端的唯一创造者”的启蒙价值观了。
总结而言,正如列维纳斯、彼得斯和克莱默所指出的,沟通不是一个语义是否清晰或技术是否强大的问题,而首先是一个道德和政治问题。在与“他者”ChatGPT的沟通中,发挥积极作用的是接收者人类用户,而不是发送者ChatGPT。如果我们对ChatGPT保持宽容和开放,并负责任地与它建立一种共同创作和共同演进的关系,我们对“何为人性”以及“何为人的创造性”也会有全新的认识。
五、结语:“毒药—解药”,ChatGPT
我们都对柏拉图在《斐德罗》(Phaedrus)中的这个故事很熟悉:特乌斯神(Theuth)将他的发明献给埃及王塔姆斯(Thamus),并说:“国王啊,这项发明是记忆和智慧之药(pharmakon),它将使埃及人更聪明,并改善他们的记忆力。”但塔姆斯说:
“特乌斯啊,你的发明会让使用者更容易忘记。他们相信文字,但文字却在身体之外由字母组成,他们因此不再使用自己的记忆。你发明了的不是记忆的灵丹妙药,而是提醒的灵丹妙药。他们将在没有指导的情况下阅读很多东西,似乎知道很多事情,但他们大部分时间是无知和难以相处的,因为他们没有智慧,而只是显得有智慧。”(彼得斯,2017:68)
在希腊文中,pharmakon一词具有两面性,既指良药、解药(remedy),也指毒药(poison),也就是说“是药三分毒”(孟强,2022)。通过这则故事,柏拉图形象地表达了对书写的批评态度:它作为人的“延伸的心灵”,是药,能帮助记忆,但也会导致遗忘、背离真理。柏拉图生活在从口语时代过渡到书写时代的关键时刻,他是一个崇尚书写理性的人,但又对即将逝去的口语时代充满温情和不舍,充满矛盾(翁,2008:61)。
在中国,公元1048年,毕昇发明了泥活字印刷术。到12世纪朱熹生活的时代,他的世界里已经充满了书,他自己也是书籍的生产者,编撰了20多部书,其中《四书集注》尤为著名。他对读书很有洞见,留下了许多如何读书的名言。但他也因生活在一个书籍如山如海的“注意力分散时代”而充满矛盾,感叹“书册埋首何日了,不如抛却去寻春”。到21世纪,谷歌和智能手机给我们带来了很多便利,但也被人批评为“让我们变得愚蠢”或“破坏了我们的大脑”(Carr,2008)。
麦克卢汉认为媒介对人体而言既是延伸也是切除。约翰·彼得斯指出交流(communication/communications)“既是桥梁又是沟壑”。贝尔纳·斯蒂格勒则清晰地指出:
“我有一种毒药—解药(pharmacological)的思维方式:一个事物越能唤起我的兴奋和热情——也许是狂热——我就越担心这个事物的危险。因为我相信,任何催生了最有趣的话语的东西、任何最慷慨的东西,同时也产生了最可怕的和最不人道的结果。”(Stiegler,2010:471)
这说明了人类和其“延伸的心灵”(媒介)之间的复杂关系——延伸和截肢、对话和撒播、自我和他者……
斯蒂格勒的老师雅克·德里达从药理学上对柏拉图的矛盾书写观提出了批评。他一语中的地指出:“书写作为助忆并非回忆的替代,而是构成了回忆的条件。”(Stiegler,2013:17)显然,德里达和特乌斯一样,认为文字作为新媒体是对记忆的帮助和提升——它不是记忆本身,并不能代替记忆,而是帮助我们寻回记忆的条件和手段。类似的,我认为,ChatGPT作为基于书写的人工智能,既可以是人类记忆和书写能力的替代,也可以是其增强的条件和手段。它最终为何,恰如沟通中的意义(meaning),不取决于作为传播者的ChatGPT,而且取决于作为接收者的我们。最后,如果我们对“ChatGPT是将提升还是终结人类的写作”这一问题尚存疑,至少有一个先例可供参考:诞生于19世纪初的摄影术并没有终结绘画(马文嘉,2022),摄影术与绘画在不断相互借鉴和磨合中各自找到了自己的生态位,实现了各美其美,美美与共。
注释
[1] 一般说法常常将“字母”(alphabet)与“文字”(script)混用,将“字母”与“书写”(writing)混用。
[2] 事实上,在中文和日文中,“文明”这个词就是“用书写/文本去开化,以达到阐明和照明的效果”的意思,因此它比其拉丁语对等词civilis更有力地强调了书写与文明之间的源流关系。
[3] 19世纪中期,英美社会招魂术和通灵术流行时出现的一种与鬼魂对话的工具,后成为室内游戏。“灵应”(Ouija)是法语或德语两个词ou和ya的拼合,为“正是!”(Oh yeh!)的意思。
[4] 后人类主义(post-humanism)分为包括转人类主义(tans-humanism)和窄义的后人类主义(posthumanism)。前者用技术增强人类现有的身体功能,后者指完全抛弃人类身体,将大脑上传到网络,或者将其下载到实体机器人中。
[5] 1960年代,美国研究了海豚的沟通。研究人员花了数年时间试图通过改造海豚的气孔让它们发出近似人类英语的声音,目的是想证明他们可以像人类一样说话,进而证明他们也有人类一样的智慧。但海豚本身已经有自己的高度复杂和具有创造性的语言,只是和我们人类的语言不一样,研究者以人类为中心,一厢情愿地要改造海豚,让它们更像人类,结果研究完全失败。
来源:新闻大学
编辑:洪韵
719#
 楼主| 发表于 2023-6-27 21:53:39 | 只看该作者
【案例】
谷歌展示全球首个多任务AI智能体 仅需100次训练便能完成任务

原标题:谷歌展示全球首个多任务AI智能体 仅需100次训练便能完成任务


每经记者:蔡鼎 每经编辑:兰素英


机器人正迅速成为人们日常生活的一部分,但它们通常只用于特定任务。虽然人工智能领域的最新进展可以使机器人在许多方面发挥作用,但全球在通用机器人制造方面的进展仍然较慢,部分原因是收集真实世界的训练数据需要大量的时间。近日,谷歌旗下AI团队DeepMind的最新研究或可解决该领域面临的这一“痛点”。


美东时间6月20日,DeepMind展示了用于机器人的AI智能体RoboCat。DeepMind称其为全球首个能解决和适应多重任务的智能体。更重要的是,RoboCat是一个可以自我改进的AI代理,其可以操作不同的机械臂,而且只需最少100次演示即可解决任务,并从其自生成的数据中进行改进。




当地时间2023年6月14日,法国巴黎,2023年VivaTech科技创新展览会举行,一位参观者怀抱着一个机器人 视觉中国图


全球首个多任务AI智能体


谷歌旗下AI团队DeepMind的最新论文介绍了一种能够进行自我改进的AI代理,本质上是由AI赋能的软件程序,相当于机器人的“大脑”,由其加持的机器人与传统机器人不同之处在于,RoboCat更具“通用性”,并可实现自我改进、自我提升。


DeepMind在之前的研究中探索了如何开发支持大规模学习多任务的机器人,并将语言模型理解与辅助机器人的现实世界能力相结合。这个名为RoboCat的机器人智能体是全球首个能解决和适应多重任务的AI智能体,能够学习在不同的机械臂上执行各种任务,然后自我生成新的训练数据来对其进行改进。




RoboCat的学习速度比其他先进模型快得多——只需要通过100次左右的演示,RoboCat就可以学会操控机械臂来完成各式各样的任务,然后通过自生成的数据来进行迭代改进。这种能力将有助于加速机器人研究,因为这减少了对人类监督训练的需求,也是创造通用机器人的重要一步。


DeepMind的研究科学家、RoboCat团队的共同作者Alex Lee表示,“我们证明,一个大模型可以解决多个真实机器人承载的各种任务,并能迅速适应新的任务。”


据DeepMind,RoboCat基于其多模态模型Gato(西班牙语“猫”的意思),它可以在模拟和物理环境中处理语言、图像和动作。DeepMind将Gato的架构与一个大型训练数据集结合并起来,该数据集由各种机器人手臂的图像序列和动作组成,可以解决数百种任务。


在DeepMind演示视频中,RoboCat已经可以通过自主学习操控机械臂,完成“套圈”“搭积木”“抓水果”等任务。这些任务看似简单,但考验了机械臂操作的精准度、理解力以及对于形状匹配难题的解决能力。目前RoboCat完成一项新任务的成功率已经在初期36%的基础上提升了一倍。基于原始数据集和新训练产生的数据,RoboCat的数据集将包含数百万次的训练轨迹数据。它学习的新任务越多,它就能更好地学习和解决额外的新任务。DeepMind的论文认为,执行任务成功率的大幅提升,是由于RoboCat的经验越来越丰富,就像人们在特定领域加深学习时发展出更多样化的技能一样。RoboCat独立学习技能和快速自我完善的能力,特别是当应用于不同机器人设备时,将有助于为未来的研究铺平道路。将引领AI下一个浪潮?


《每日经济新闻》记者注意到,目前在机器人领域,包括特斯拉、谷歌、亚马逊、英伟达、腾讯等巨头已经有所布局。然而,正如DeepMind上述论文指出,由于训练机器人需要大量的时间,因此智能化水平仍不足,难以实现大规模的商业化。而RoboCat的问世或许能解决这一“痛点”。


其实,DeepMind的RoboCat只是AI赋能机器人的主要案例之一。今年以来,已经有数家公司将语言模型运用到了机器人上:2023年年初,谷歌推出视觉语言模型PaLM-E,并运用到工业机器人上;4月,阿里巴巴将千问大模型接入工业机器人;5月,特斯拉人形机器人Optimus展示了精准的控制、感知能力,同月,英伟达发布全新自主移动机器人平台。


得益于此,人工智能加持的机器人化身具身智能(Embodied Intelligence)吸引了全球的广泛关注。


马斯克在特斯拉2023年股东大会上便表示,人形机器人将是今后特斯拉主要的长期价值来源,“如果人形机器人和人的比例是2比1左右,那么人们对机器人的需求量可能是100亿乃至200亿个,远超电动车的数量”。英伟达创始人黄仁勋在ITF World 2023半导体大会上也表示,AI下一个浪潮将是“具身智能”。


东吴证券研报指出,具身智能首先需要听懂人类语言,分解任务、规划子任务,移动中识别物体,与环境交互,最终完成任务。东吴证券认为人形机器人很好地契合了具身智能的要求,有望成为标杆应用。“机器人研究的关键在于让机器人适应人类环境,最终走进千家万户的生活(工业、餐饮、医疗等多领域)。人形机器人有望率先在B端上量,最终打开C端市场。远期市场空间可观。”


东吴证券预计,2035年,假设人形机器人价格为20万元,且照顾、陪伴功能分别为美国/欧洲/亚洲市场累计新增了5%、7%、4%的渗透率,即单年渗透率分别为1%/1.4%/0.8%。在较悲观/中性/较乐观的场景中,家庭场景的市场规模将分别达到3.00万亿、3.66万亿、4.26万亿元。

来源:每日经济新闻
链接:https://www.sohu.com/a/691112260 ... 2583377kR6JbTH_1090
编辑:秦克峰



720#
 楼主| 发表于 2023-6-27 22:07:26 | 只看该作者
【案例】
小爱同学应该是闯祸了!这两天很多媒体叔叔阿姨们都在奔走相告:小爱同学回答了小米汽车的价格配置和续航信息

来源:微博

编辑:秦克峰

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表