【原稿】 对OpenAI“硅谷闹剧”的“康德四问” 刘海明 相传,在古希腊德尔斐神庙的阿波罗神殿门前,刻有有一句非常闻名的铭文:“认识你自己”。 在历史上,“认识你自己”曾引起过无数哲人的深思,康德则把这个要求作为人对自己负有的一项义务。几千年来,人类在“认识你自己”方面,始终未能交出一份合格的答卷。 在“认识你自己”的“旧债”为尚未偿清之时,又来了人工智能。智能机器的类人特征,使它们可以像人那样处理事务,未来的人类社会谁主沉浮成为一个新的重大命题。 一年前,以Chat GPT为代表的生成式人工智能的问世,这样的智能体可以瞬间生成人类所需要的问题答案,不论是生成内容的速度还是质量都大大超出人们的预料。 随着Chat GPT的受推崇,人工智能家族在全球范围内迅速遍地开花。这样,在“认识你自己”之外,额外的一道答卷又摆在人类面前:“认识人工智能这种机器!” “认识智能机器”,在于这类机器关系到未来人类社会的安全。对它们的认识越早,对人类社会越是有利。要认识这样的类人机器,解铃还须系铃人,它的发明者最有发言权。 在人工智能的安全性问题上,被誉为Chat GPT之父的萨姆·奥特曼与他所在公司的董事会发生分歧,最终酿成了一起轰动全球的新闻事件。 11月21日晚,美国开放人工智能研究中心(Open AI)宣布,5天前遭该公司董事会解职的创始人兼前首席执行官(CEO)萨姆·奥特曼将重返公司担任CEO职位;与此同时,该公司将组建新的初始董事会。(《环球时报》11月23日报道) 奥特曼职位的戏剧性反复变化,被媒体称作“震惊硅谷的闹剧”。奥特曼从“瞬间的失败者”逆转为“最终的胜利者”,这场“硅谷闹剧”暴露的问题是:人工智能的乐观派和悲观派展开了一场“宫斗戏”。 这场“硅谷闹剧”暂时画上了句号,这样的“大结局”非但没有解答未来人工智能的安全问题,反倒加重了这方面的担忧。 智能机器参与人类社会的事务,改变了人类自主决定自身事务的传统格局。如果智能机器始终能够以人类理性助手的身份参与其中,保证只向善不作恶,相信人们会乐于人工智能的野蛮式生长;如果连奥特曼们都相信智能机器有朝一日可能超越人类,人们普遍担忧人工智能可能威胁到人类社会的安全,也就并非多余。 人工智能已经走进人类社会,只要时光无法倒流,就无法阻止它的客观存在。承认智能机器客观存在,也不能无视这种机器构成了人必须去承担的生存处境。从这个意义上说,应该多谢“硅谷闹剧”的上演,向我们提出了一系列的时代性问题。 面对人工智能的发展,“硅谷闹剧”暴露出的深层问题借用“康德四问”,可以表述为: 1.对于人工智能是否可能威胁人类社会安全,我们能够知道什么? 2.面对人工智能未来发展的不确定性,我们应当做什么? 3.对于人工智能的未来发展,我们可以希望什么? 4.“硅谷闹剧”促使我们思考:人工智能究竟是什么? 对人工智能未来发展的“康德四问”,本质上是对“认识你自己”的细化分解,归根结底是理解智能机器的本质。 第一个问题涉及人工智能的未来发展是否可能威胁人类安全,这关系到人类的生死存亡或者生存质量。我们能够知道的就是智能机器潜在的风险。在这个问题上,马斯克的意见值得听取。在他看来,OpenAI新董事会的成员必须对人工智能有深刻理解,并且敢于向萨姆·奥特曼提出不同意见。 第二个问题涉及对于人工智能的未来发展我们能够知道什么,这恰恰暴露出我们的弱项。就这个问题,笔者即兴向“文心一言”提问,得到的答复很有意思。这个机器显然倾向于相信奥特曼,认为“他的领导风格可能更加注重创新和冒险,这有助于公司在竞争激烈的市场中保持领先地位”。 第三个问题涉及人类对人工智能未来发展的愿望。既然人工智能已经登上人类的历史舞台,人机共处已经在所难免。人类是智能机器的创造者,科技向善是愿望更是命令,要求所有参与人工智能研发的机构和人员,承担起对人类社会安全的义务。 第四个问题涉及的是技术哲学问题。再聪明的机器也只能是机器,效率再高的机器也只能是工具,机器的附属地位与人的主体性地位的位序在任何时候都不能被颠倒。人工智能科学家们可以根据自己的兴趣设计机器,前提是别把机器作为人类未来的“奴役者”是他们的职业底线。 一旦认真思考,我们就会发现,所谓的“硅谷闹剧”绝非闹剧,而是关系到人类自身安全的权掌控权的“拉锯战”。前两个回合的胜负只是序幕,绝对不是这场“拉锯战”的全部剧本。 作为旁观者的我们(全球公众),不该仅仅满足于“看戏”,更应积极发表自己的观点以形成舆论,通过舆论促使奥特曼们把人类社会安全置于首位,而不单单沉迷于个人的兴趣中,或者只盯着自己领导的公司的利益。 https://www.sohu.com/a/738459372_162522?scm=10000.55598_15-300008.0.0.10126_1101.topic:55598:5.0.9.a2_3X375&spm=smpc.c 【见报稿】 对OpenAI“硅谷闹剧”的“康德四问” 刘海明(重庆大学教授、博士生导师) 相传,在古希腊德尔斐神庙的阿波罗神殿门前,刻有一句非常闻名的铭文:“认识你自己”。 “认识你自己”引起过无数哲人的深思,康德把这个要求作为人对自己负有的一项义务。千百年来,在“认识你自己”方面,很多人都未能交出合格的答卷。 在“认识你自己”的“旧债”尚未偿清之时,又来了人工智能。智能机器的类人特征,使它们可以像人那样处理事务,未来的人类社会谁主沉浮,成为一个新的重大命题。 一年前,以ChatGPT为代表的生成式人工智能问世,这样的智能体可以瞬间生成人类所需要的问题答案,不论是生成内容的速度还是质量都大大超出人们的预料。 随着ChatGPT的受推崇,人工智能家族在全球范围内迅速遍地开花。这样,在“认识你自己”之外,额外的一道试题——“认识人工智能这种机器”又摆在了人类面前。 之所以要“认识智能机器”,在于这类机器关系到未来人类社会的安全。对它们的认识越早,对人类社会越是有利。要认识这样的类人机器,解铃还须系铃人,它的发明者最有发言权。 在人工智能的安全性问题上,被誉为ChatGPT之父的萨姆·奥特曼与他所在公司的董事会发生分歧,最终酿成了一起轰动全球的新闻事件。 11月21日晚,美国开放人工智能研究中心(OpenAI)宣布,5天前遭公司董事会解职的创始人兼前首席执行官(CEO)萨姆·奥特曼将重返公司担任CEO;与此同时,该公司将组建新的初始董事会。 奥特曼职务的戏剧性反复变化,被媒体称作“震惊硅谷的闹剧”。奥特曼从“瞬间的失败者”逆转为“最终的胜利者”,这场“硅谷闹剧”暴露的问题是:人工智能的乐观派和悲观派展开了一场“宫斗戏”。 “硅谷闹剧”暂时画上了句号,但这个初步的结果仍没有解答未来人工智能的安全问题。 智能机器参与人类社会的事务,改变了人类自主决定自身事务的传统格局。如果智能机器始终能够以人类理性助手的身份参与其中,保证只向善不作恶,相信人们会乐见人工智能“野蛮生长”。但如果连奥特曼们都相信智能机器有朝一日可能超越人类,人们普遍担忧人工智能可能威胁到人类社会的安全,也就并非多余。 人工智能已经走进人类社会,只要时光无法倒流,就无法阻止它的客观存在。承认智能机器客观存在,也不能无视这种机器构成了人必须去承担的生存处境。从这个意义上说,应该多谢“硅谷闹剧”的上演,向我们提出了一系列的时代性问题。 借用哲学上的“康德四问”,“硅谷闹剧”暴露出的深层次问题可以表述为: 1.对于人工智能是否可能威胁人类社会安全,我们能够知道什么? 2.面对人工智能未来发展的不确定性,我们应当做什么? 3.对于人工智能的未来发展,我们可以希望什么? 4.“硅谷闹剧”促使我们思考:人工智能究竟是什么? 对人工智能未来发展的“康德四问”,本质上是对“认识你自己”的细化分解,归根结底是理解智能机器的本质。 第一个问题涉及人工智能的未来发展是否可能威胁人类安全,这关系到人类的生存质量甚至生死存亡。目前我们能够知道的就是智能机器潜在的风险。在这个问题上,马斯克的意见值得听取。在他看来,OpenAI新董事会的成员必须对人工智能有深刻理解,并且敢于向萨姆·奥特曼提出不同意见。 第二个问题涉及对于人工智能的未来发展我们能够知道什么,这恰恰暴露出我们的弱项。就这个问题,笔者即兴向“文心一言”提问,得到的答复很有意思。这个机器显然倾向于相信奥特曼,认为“他的领导风格可能更加注重创新和冒险,这有助于公司在竞争激烈的市场中保持领先地位”。 第三个问题涉及人类对人工智能未来发展的愿望。既然人工智能已经登上人类的历史舞台,人机共处已经在所难免。人类是智能机器的创造者,科技向善是愿望更是命令,这要求所有参与人工智能研发的机构和人员,都应承担对人类社会安全的义务。 第四个问题涉及的是技术哲学问题。再聪明的机器也只能是机器,效率再高的机器也只能是工具,机器的附属地位与人的主体性地位的位序在任何时候都不能被颠倒。人工智能科学家们可以根据自己的兴趣设计机器,但前提是不能把机器作为人类未来的“奴役者”,这应当是科学家的职业底线。 一旦认真思考,我们就会发现,所谓的“硅谷闹剧”绝非闹剧,而是关系到人类对自身安全的掌控权的“拉锯战”。前两个回合的胜负只是序幕,而不是这场“拉锯战”的全部剧本。 作为旁观者的我们(全球公众),不该仅仅满足于“看戏”,更应积极发表自己的观点以形成舆论,通过舆论促使奥特曼们把人类社会安全置于首位,而不单单沉迷于个人的兴趣中,或者只盯着自己公司的利益。 来源:北京青年报 链接:http://epaper.ynet.com/html/2023-11/26/content_427182.htm?div=-1 编辑:郑程程 |
掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1 )
Copyright 2013 小马版权所有 All Rights Reserved.
Powered by Discuz! X3.2
© 2016-2022 Comsenz Inc.