随着人工智能的高速发展,其可能带来的风险也引发广泛关注。 继此前马斯克等千人签署公开信,呼吁暂停AI开发六个月后,近期,OpenAI首席执行官Sam Altman等多位行业专家又来提示风险。 350名行业高管和学界大拿发出警告 当地时间5月30日,非营利组织人工智能安全中心(CAIS)发布一封公开信,信中只有一句简单有力的话:减轻AI(给人类)带来的灭绝风险应成为全球性的优先事项,与大流行病及核战争等其他影响社会的大规模风险处于同等级别。 该信的签署者多达350名行业专家和企业高管,包括OpenAI首席执行官Sam Altman、DeepMind首席执行官Demis Hassabis、Anthropic首席执行官Dario Amodei以及微软和谷歌的高管等。 学界上,2018年图灵奖获得者、“人工智能教父”Geoffrey Hinton和Yoshua Bengio位列其中。 此外,签署者还包括中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园等中国学者。 AI监管成共识 目前来看,AI可能带来的风险已经受到世界各国和各界的重视。此前,意大利等国家对ChatGPT发起监管,暂停其的使用。而且,欧盟正在推进《AI法案》,对AI形成监管。 对此,Sam Altman曾威胁离开欧洲。他在伦敦大学学院的一个小组会议上说:“我们将努力遵守,如果我们能遵守,我们会的。如果不能,我们将停止运营。”几天后,他又改口称,OpenAI没有离开欧洲的计划。 美国方面,本月早些时候,Sam Altman会见了美国总统拜登,并在参议院司法委员会作证,要求加强对AI行业的监管。 他在作证时说:“我最担心的是我们会对世界造成重大伤害。如果AI出了问题,那这个问题可能就会很大。” 上周,他还与OpenAI的另外两位联合创始人发表的一篇博客文章,呼吁进行三项重大改革,包括加强世界各地人工智能开发者之间的协调,以及创造一种可以控制人工智能创造的潜在“超级智能”先进技术。 他还鼓励成立一个结构类似于国际原子能机构的人工智能技术全球监管小组,有权检查系统、要求审计和测试是否符合安全标准。
来源:腾讯新闻(格隆汇) 链接:https://view.inews.qq.com/k/20230531A01Q7A00?no-redirect=1&web_channel=wap&openApp=false&uid=&shareto=&openwith=wxmessage 编辑:程博 |
掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1 )
Copyright 2013 小马版权所有 All Rights Reserved.
Powered by Discuz! X3.2
© 2016-2022 Comsenz Inc.