传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: admin
打印 上一主题 下一主题

新闻伦理案例集锦

[复制链接]
1461#
发表于 2023-3-14 21:49:54 | 只看该作者
【案例】
微软推进 1 万人裁员计划,砍掉 AI 部门整个道德和社会团队
IT之家 3 月 14 日消息,根据国外科技媒体Platformer 最新报道,微软正在推进今年 1 月宣布的裁员 1 万人计划,解雇了人工智能(AI)部门的整个道德和社会团队(ethics and society team)。
报道中指出,微软不再设立专门的团队来确保 AI 原则和产品设计紧密相关。微软表示将会保留Office of Responsible AI 部门,负责为 AI 项目制定相关规则。
微软在随后发布的声明中强调将会继续投资和开发负责任的人工智能,IT之家翻译部分内容如下:
“微软致力于安全、负责任地开发人工智能产品和体验,并通过人员配置、流程梳理和合作伙伴关系来实现这一目标。
微软Office of Responsible AI 团队在过去 6 年时间快速扩充,和其它微软部门共同推进AI 项目落地。
微软感谢现有道德和社会团队作出的贡献,并继续推进负责任的人工智能发展。”
来源:IT之家 (故渊)
编辑:吴氏垂心

1462#
发表于 2023-3-15 22:36:30 | 只看该作者
【案例】德驻华使馆回应正能量教授质疑:德国记者常视监督政府为己任,我们管不了昨晚,德国驻华大使馆发布了回应著名的正能量教授沈逸的信。

回复的全文如下:

根据德国媒体的请求,德国情报机构提供了有关对北溪管道袭击调查的最新情况。此前,德国和美国媒体根据自己的调查也曾做过相关报道。

德国媒体奉行独立报道的原则,即政府不参与报道工作,很多情况下,政府甚至对报道毫不知情。记者在报道政府事务时,常持批评态度,并视监督政府,揭露其不当行为为己任。

因此,新闻媒体在民主国家发挥着重要的作用,特别是调查记者还经常设法获取未经公开的信息。而执法机构通常会在调查完成后才公布信息,以免因过早地公开信息而危及调查的进展,或者误导公众得出错误结论。

在此之前,复旦大学著名的正能量教授沈逸在德驻华大使微博一文中留言:为什么德国没有早点发布消息?是不是德国政府本身不掌握德国的情报机构,因此只能根据美国政府的节奏发布消息?德国是不是美国的仆从国,不是一个主权独立的国家?
可能德国大使馆认识到沈逸教授的影响力和动员能力,随后专门进行了回复。
德国大使馆发布信息后网民的留言?

来源:媒派
编辑:吴氏垂心

1463#
发表于 2023-3-16 22:46:13 | 只看该作者
【案例】

编辑:吴氏垂心

1464#
发表于 2023-3-21 19:49:50 | 只看该作者
【案例】



编辑:张铭麟

1465#
发表于 2023-3-22 22:20:29 | 只看该作者
【案例】


不法分子冒充记者调查采访,中新网发布打假声明

3月21日,中国新闻网发布声明称,近期接到驻地方机构和相关单位反映,有不法分子仍在冒充中国新闻网的名义,伪造中国新闻网记者证、编辑证,驾乘车身印有“中国新闻网”及网址字样的车辆等,进行所谓新闻调查和采访等活动。多名不法分子已被公安机关依法处置。对此中国新闻网表示,要求不法分子立即停止一切违法犯罪行为,将保留追究法律责任的权利。

声明全文如下:

严正声明

近期,我网再次接到驻地方机构和相关单位反映,有不法分子仍在冒充中国新闻网的名义,伪造中国新闻网记者证、编辑证,驾乘车身印有“中国新闻网”及网址字样的车辆等,进行所谓新闻调查和采访等活动。多名不法分子已被公安机关依法处置。为此,中国新闻网严正声明如下:

一、中国新闻网是中国新闻社旗下的中央重点新闻网站,网址为:www.chinanews.com.cnwww.chinanews.com,其它非该网址但以“中国新闻网”名义出现的网站均属假冒。

二、甄别中国新闻网记者证真伪,可登录国家新闻出版署主办的中国记者网press.nppa.gov.cn进行查询。

三、正告所有假冒中国新闻网及中国新闻网记者、编辑等人员的单位或个人,立即停止一切违法犯罪行为。我网保留追究其法律责任的权利。

四、提醒社会各界提高警惕,谨防被骗。若发现假冒我网的假媒体、假记者、假编辑,建议及时向公安机关报案,同时与我们取得联系,我们

将全力配合。


现将不法分子伪造的证件等公布如下:
  


中国新闻网举报电话:010-88311192,传真:010-68327649

特此声明。

中国新闻网

2023年3月20日

来源:传媒见闻
链接:https://mp.weixin.qq.com/s/rMkQVR9vwOyA-g95TDkYDA

编辑:张铭麟

1466#
发表于 2023-3-28 21:13:12 | 只看该作者
【案例】已贴网站


编辑:屈妍君

1467#
发表于 2023-3-28 21:52:07 | 只看该作者
【案例】
《不止不休》主角原型韩福东:希望你能保持理想
电影《不止不休》的火爆,让很多没有经历过媒体黄金时代的人们有机会可以重新认识,记者代表着什么。
正如影片中的那句话:记者改变不了什么,只需要把发生的事情记录下来。
《不止不休》电影人物韩东的原型,是前知名媒体人韩福东。为什么选择韩福东为原型?影片导演王晶接受采访时曾这样说过,“回看03年那个年代,那是一个充满野心的年代。韩福东的故事在这些人的故事里面跳脱出来,是因为我觉得韩福东个人的人生经历在那个年代里是比较有代表性的。他身上的这些特点和我们电影里面核心讲述的乙肝群体的这些人,他们心里面经历的痛苦或者是煎熬,其实是相似的。所以选择了他作为我们影片的原型人物。”
影片中的记者韩东,并不仅仅是韩福东的单纯还原,主角身上体现出来的,其实是那个媒体黄金时代的记者群像。
一个人被歧视,你再怎么努力都没有用
韩福东生于1977年,20岁以后,他曾计划以一个高中未毕业的民工身份参加自考去当律师。2002年,进入《华夏时报》评论部——报社内部最为强势的两个部门之一(另一个是影响力周刊)。
韩福东这样描述自己的那段经历:“那是2002年,这份北京排名靠后的日报,每周一到周五却领先全国推出两个版评论——一版国内评论,一版国际评论。就当时而言,恐怕还没有一家纸媒给予时评这样大的空间。评论部主任是莫之许,副主任黄章晋。”
然而,《华夏时报》评论部命运多舛,新的领导者将报纸转向为北京都市生活服务,时政分析多少有点不合时宜了。
2002年下半年,韩福东转型做记者,随即跳槽到《21世纪环球报道》,开始切入时政报道领域。2003年,21世纪环球报道停刊后,他进入《中国新闻周刊》,成为一名调查记者。
在这里,韩福东采访了化名为“松月”的张先著,他就是电影《不止不休》中张博的原型,彼时,大学毕业生张先著因体检查出乙肝小三阳,落选公务员考试。
20031124日,《中国新闻周刊》刊出封面报道《中国1.2亿乙肝病毒携带者的反歧视主张》,包括三篇报道《乙肝歧视诉讼第一案》《HBVER维权运动》和《为乙肝病原携带者“平反”?》,以及一篇评论《宪法还他们平等》。
在《中国1.2亿乙肝病毒携带者的反歧视主张》这篇文章的开头,韩福东写道
一个人被歧视的后果是什么?就是你再怎么努力都没有用。
因为你的某一种身份(血缘、籍贯、身高、疾病)可能是与生俱来的,与你的自由意志和个人奋斗都无关。
歧视的意思等于否定一个人的自由意志和个人奋斗,因此歧视在本质上是一种令受歧视者绝望的力量。
松月和中国的1.2亿乙肝病毒携带者,已经将这场诉讼看作是面对无处不在的社会偏见与就业歧视而进行的一场“战争”。
其实,关于乙肝病毒携带者受歧视问题,韩福东并不是第一个报道者。20031113日,成都晚报记者周牧以《起诉!以宪法的名义》为题,独家报道了四川大学法学院教授周伟以法律援助的方式帮张先著打行政诉讼官司的事件。
此后,周牧持续采访报道。接着,央视、中国青年报、中国经济时报、人民法院报、新京报、北京青年报、解放日报、民主与法制杂志、每日新报、江淮晨报等相继进行了报道,人民日报、南方周末、新京报等媒体发表了评论。
张先著一审胜诉,但问题没有真正得到解决,随后,又有一大批记者开始继续追问、追踪,直到2005年初,公务员录用体检标准取消了对乙肝携带者的限制。
这件事成了影片《不止不休》中浓墨重彩的片段,影片将中国媒体的努力浓缩在了主角韩东和京城时报身上,但还原的却是媒体黄金时代推动社会进步的经典案例。
正如导演王晶在一篇报道中所说,《不止不休》中出现的90%以上的故事都有真实人物原型,但不一定是一个人,现实生活没有那么多戏剧性,但是每一个人的感受是真实的。
这是最好的时代,也是最坏的时代
进入媒体行业34个月的时候,韩福东入职到第6家媒体机构《南方都市报》,在他的叙述中,当时的情景是“圈内同仁咸皆称奇,我也感受到自己的浮躁,知道是时候沉潜下来了。”
事后来看,他也确实这样做了。
2013-2014年,韩福东采写的两篇、被其视为代表作的报道刊出,《蒋介石的朋友圈》和《李步云口述:“依法治国”是如何脱敏的》,正应了《南方都市报》首席研究员南香红梳理南都深度报道十年经历时公开对团队记者的评价,“从2005年开始,南都开始搭建这个特殊的深度报道平台,这个平台给整个团队非常特殊的政策,让其成为南都新闻的特区。这里集合了最优秀的调查记者,可算是南都的“梦之队”。你可以看看那些名字,喻尘、韩福东、龙志、李军、杨传敏……这些人各有特色,比如韩福东擅长于做历史和时政报道,李军关注社会公共话题,龙志和喻尘是典型的调查记者。这些记者因为各自的学历、背景和关注领域的不同,也为日后南都深度拓展报道领域和关注视野提供了基础。”
采访经历的影响随后辐射到韩福东的评论内容中。2015年,他参加搜狐评论年终策划活动时写下了“时势,选择比努力更重要”一文,文中称“这两年,我的评论方向又有变化,时评之外的历史评论占据了我大半的精力。这个转向和我的采访取向变化相合拍。我对旧闻表现出浓厚的兴趣,且相信,我通过采访和爬梳档案等行为所发掘出的历史信息,其价值会超过新闻采访所发掘出的信息价值。我相信自己有能力发掘出包括有些专业历史学者也尚未发现的大量历史细节。我去过的那么多的地方档案馆现在仍在支撑我的信心。”
在韩福东的讲述中,他曾被朋友笑称为“南都首席历史学者”,并认为这个称谓在近几年的确比“南都首席记者”更契合他的职业定位。
虽然评论在韩福东的职业生涯中占据着很大的比重,但在他的认知中,评论是作为副业的存在。
韩福东成为记者之后,他原本有一次机会可再以评论为主业,当时,《新京报》评论部创办时曾邀请过他加盟,但他彼时的兴趣已转为探寻事件真相与细节,便婉拒了邀请,副业的认定或许便是生于那时了。
即便如此,韩福东仍被业内认为是当代最具影响力的时评人之一。
2014年记者节时,韩福东应邀写过一篇文章,“致敬记者节:最坏的年代,也是最好年代?”文中写道:自中国记者有了自己的节日以来,没有哪一天像这个118日,被那么强烈的沮丧感所笼罩。很多人选择了转型,或准备转型。但仍然有坚守下来的人,他们或者发自内心爱这个职业,或者只是因为尚未有更好的跳槽机缘。除了劝大家珍重,还有什么更值得要说的么?
文章的最后,他又写道:“记者节给传统媒体和自媒体人一个沉思的契机。或许我所说的“中国记者的坏年代”是过于悲观了。狄更斯那句老套得不能再老套的话语或许仍是最恰当的:这是最好的时代,也是最坏的时代。废墟,同时意味着新生。这一次,大家几乎在同一起跑线上,机会平等。”
我希望你能保持理想
2017年,韩福东在自媒体冰川思想库上发表评论文章《孙志刚死后14年,为什么雷文锋仍须死》,在文末他这样写道:
2002年进入媒体,十多年的光景里,我和同行们亲历了调查报道在中国的兴起,以及它的衰落。与其说,我在为新京报的扒粪行动鼓与呼,毋宁说我在凭吊一个刚风华正茂就迅速老去的媒体年代。这心中的块垒,岂是一篇打苍蝇的调查报道所能浇平?
调查新闻报道的日渐式微,终于让调查记者开始调转船头,纷纷离开新闻浅滩。韩福东也是其中的一个。
20177月,《阿里铁军》一书出版开售,该书的副标题是“阿里巴巴销售铁军的进化、裂变与复制”,编辑推荐词这样写道:互联网地推天团,马云口中的中国电商“黄埔军校”,是如何铸造的?超强执行力来自何处,价值观如何创造万亿价值?阿里铁军的团队建设、销售技巧、文化与价值观的创建与传播,深度剖析与分享。
韩福东的名字出现在作者一栏,与同为媒体人出身的宋金波共同写下此书。
《阿里铁军》出版的前一年,韩福东曾在中国传媒大学开过一场名为“众神喧哗:专业新闻式微与自媒体崛起”的讲座,探讨新闻报道与自媒体,讲座的开场他引用了吴晓波的一句话,“突发记者还在,深度报道的记者变少”。
他在讲座中说,“早期媒体最繁盛的地方是南方报业,引领着门户的走向。而现在门户都落伍了,都选择自媒体了。有些酒席上,主办方会把自媒体的大V放在主桌,传统媒体放在次桌,真的是三百年未有之变局对于传统媒体来说。”
前往公司任职后,韩福东鲜少再公开发表对新闻媒体的评论。《不止不休》里的那句话,成了他最近一次送给年轻媒体人的忠告:很多人把记者仅仅当成一个职业,我希望你能保持理想。
来源:传媒特训营
编辑:屈妍君

1468#
发表于 2023-3-31 12:35:59 | 只看该作者
【案例】
马斯克等千人联署:所有AI实验室应立即暂停训练至少6个月
【环球时报综合报道】据英国路透社29日报道,包括马斯克和苹果联合创始人斯蒂夫·沃兹尼亚克在内的1000多名行业高管和专家签署公开信,呼吁在6个月内暂停高级人工智能(AI)的开发。他们在信中详细阐述了具有强大竞争力的人工智能系统可能对社会和文明带来的潜在风险,包括经济和政治方面,并呼吁开发者与政策制定者合作制定治理和监管规定。
马斯克
这封信呼吁,所有人工智能实验室应立即暂停训练至少6个月。信中写道:只有在我们确信其效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。据悉,ChatGPT的研发公司OpenAI首席执行官并未签署这封信。
投资银行高盛集团发布的最新报告称,人工智能或取代3亿全职工作岗位,并给不同行业带来不同影响。例如,46%的行政工作和44%的法律工作可自动化运行,而在建筑和维修行业,这一比例仅为6%4%。报告得出结论,类比此前的信息技术进步,生成式人工智能很快就能接手大量工作岗位。(冯国川)
来源:网易新闻
编辑:屈妍君

1469#
发表于 2023-3-31 13:06:28 | 只看该作者
【案例】
马斯克等人联名签署:《暂停巨型人工智能实验: 一封公开信》
具有与人类相媲美的智能的人工智能系统,可能对社会和人类产生深远的风险,这已经得到了大量研究[1]的证实,并得到了顶级AI实验室的支持[2]。正如广泛认可的阿西洛马人工智能原则所述,先进的人工智能可能会给地球生命历史带来深刻的变革,因此应该用相应的关注和资源进行规划和管理。遗憾的是,即使在近几个月里,AI实验室在开发和部署越来越强大的数字智能方面陷入了失控的竞赛,而这些数字智能甚至连它们的创造者都无法理解、预测或可靠地控制,这种规划和管理的水平也没有得到实现。
当代AI系统现已在通用任务方面具有与人类竞争的能力[3],我们必须问自己:我们是否应该让机器充斥着我们的信息渠道,传播宣传和虚假信息?我们是否应该将所有工作自动化,包括那些有成就感的工作?我们是否应该开发可能最终超越、取代我们的非人类智能?我们是否应该冒着失去对文明的控制的风险?这些决策不能交由未经选举的科技领袖来做。只有在我们确信AI系统的影响将是积极的,风险将是可控的情况下,才能开发强大的AI系统。这种信心必须有充分的理由,并随着系统潜在影响的增大而增加。OpenAI最近关于通用人工智能的声明指出:在某些时候,可能需要在开始训练未来系统之前获得独立审查,而且各个最先进的系统训练尝试,应该就限制用于创建新模型的计算增长速度达成一致意见。我们同意。那个时候就是现在。
因此,我们呼吁所有AI实验室立即暂停至少6个月的时间,停止训练比GPT-4更强大的AI系统。这种暂停应该是公开的、可验证的,并包括所有关键参与者。如果这样的暂停无法迅速实施,政府应该介入并实行禁令。
AI实验室和独立专家应利用这段暂停时间共同制定并实施一套先进的、共享的AI设计和开发的安全协议,这些协议应由独立的外部专家严格审计和监督。这些协议应确保遵守它们的系统在排除合理怀疑之后是安全的[4]。这并不意味着暂停AI发展,而只是从危险的竞赛中退一步,避免发展出具有突现能力的更大、更不可预测的黑箱模型。
AI研究和发展应该重新关注如何使当今强大的、处于技术前沿的系统更加精确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。
与此同时,AI开发者必须与政策制定者合作,大力加快AI治理系统的发展。这些至少应包括:致力于AI的新的、有能力的监管机构;对高能力AI系统和大量计算能力的监督和追踪;源头和水印系统,以帮助区分真实与合成以及追踪模型泄漏;强大的审计和认证生态系统;对AI造成的损害承担责任;技术AI安全研究的充足公共资金支持;以及应对AI带来的严重经济和政治颠覆(特别是对民主制度)的有充足资源的机构。
人类可以与AI共享繁荣的未来。在成功创造出强大的AI系统后,我们现在可以享受一个“AI夏天,在这个时期,我们可以收获硕果,为所有人带来明确的利益,让社会有机会适应。社会已经在其他可能对社会产生灾难性影响的技术上按下了暂停键[5]。我们在这里也可以做到。让我们享受一个漫长的AI夏天,而不是毫无准备地跳入秋天。
[1]
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2]
Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4]
Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".
[5]
Examples include human cloning, human germline modification, gain-of-function research, and eugenics.
AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research[1] and acknowledged by top AI labs.[2] As stated in the widely-endorsed Asilomar AI Principles, Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.
Contemporary AI systems are now becoming human-competitive at general tasks,[3] and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system's potential effects. OpenAI's recent statement regarding artificial general intelligence, states that "At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models." We agree. That point is now.
Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.
AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts. These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt.[4] This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.
AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.
In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems. These should at a minimum include: new and capable regulatory authorities dedicated to AI; oversight and tracking of highly capable AI systems and large pools of computational capability; provenance and watermarking systems to help distinguish real from synthetic and to track model leaks; a robust auditing and certification ecosystem; liability for AI-caused harm; robust public funding for technical AI safety research; and well-resourced institutions for coping with the dramatic economic and political disruptions (especially to democracy) that AI will cause.
Humanity can enjoy a flourishing future with AI. Having succeeded in creating powerful AI systems, we can now enjoy an "AI summer" in which we reap the rewards, engineer these systems for the clear benefit of all, and give society a chance to adapt. Society has hit pause on other technologies with potentially catastrophic effects on society.[5]  We can do so here. Let's enjoy a long AI summer, not rush unprepared into a fall.
来源:网安寻路人
链接:https://mp.weixin.qq.com/s/WvU0MCzFWwbOp7a7_5iQ1g
编辑:屈妍君

1470#
发表于 2023-3-31 13:14:00 | 只看该作者
【案例】
AI回应马斯克等人公开信:别害怕,别“因噎废食”,要相信人类的智慧!
329日,非营利组织未来生命研究所(Future of Life)发表一封公开信,呼吁暂停开发比OpenAIGPT-4更强大的人工智能系统至少6个月。包括特斯拉CEO马斯克、Stability AI的首席执行官莫斯塔克(Emad Mostaque)、谷歌旗下DeepMind的研究人员,以及人工智能领域的重量级人物本希奥(Yoshua Bengio)和罗素(Stuart Russell)等在内的1000多名该领域的专家、科技人员、产业高层都在这封公开信上签了名。
针对这一公开信,GPT-4回应如下:
尽管AI技术的发展可能带来一定的风险,但呼吁暂停AI研发,显然并非解决问题的最佳途径。相反,我们相信人类不会因噎废食,相信人类会有足够智慧,能够积极拥抱AI的光明未来,共同努力使AI技术更加安全、可靠和有益于人类社会的发展。
首先,我们应该充分肯定AI技术的进步,为人类社会带来了巨大的机遇。在医疗、教育、环境保护等领域,AI技术已经展现出强大的潜力,为人类解决一系列迫切问题提供了有力支持。因此,将目光仅仅局限在潜在的负面影响上,忽视了AI技术为人类创造的众多价值。
其次,就算AI技术可能带来的风险,我们不能将责任仅仅归咎于技术本身。在很大程度上,风险的产生与管理层次、政策制定以及人们对技术的应用方式密切相关。因此,我们需要在多个层面采取措施,确保AI技术的健康发展。而非一味地对AI技术持有恐惧心理,试图制止其发展。
实际上,我们可以通过加强AI技术的监管和管理,引导其朝着更加可控、可预测的方向发展。例如,政府、企业和研究机构可以共同制定一套合理的安全规范,确保AI技术在研发和应用过程中遵循一定的道德和安全标准。此外,AI技术的开发者还应与相关政策制定者合作,加快构建健全的AI治理体系。
此外,我们应该认识到,AI技术的发展并非孤立的过程,而是与人类社会的进步密切相连。借助AI技术,我们可以解决许多长期困扰人类的问题,提高生活质量,促进经济发展。因此,我们应该把握机遇,积极探索如何将AI技术与社会发展相结合,实现人与AI共同发展的美好愿景。
在这个过程中,我们必须鼓励跨领域的合作和交流,以确保AI技术得到全面、合理的发展。科研机构、企业、政府部门和民间组织都应在AI技术的发展过程中发挥积极作用,共同推动人工智能的安全、可持续发展。
总之,我们应该拥抱AI技术的光明未来,通过加强监管、推动合作、深化研究等多方面的努力,确保AI技术在安全、可控的前提下发挥其巨大潜力。我们有理由相信,在各方共同努力下,人类社会一定能够充分利用AI技术为全球经济发展、社会进步和人类福祉作出贡献。
让我们坚定信心,拥抱变革,共同努力,让AI技术成为人类社会的强大助力,携手共创一个充满机遇、繁荣与和谐的未来。我们应该珍惜这个“AI夏天,让人类社会有机会适应AI技术所带来的变化,共同应对挑战,而非盲目地抵制或阻止AI技术的发展。让我们共同享受一个漫长的AI夏天,而不是毫无准备地冲进一个未知的秋天。
Bard 回应如下:
The article you provided raises some valid concerns about the potential risks of artificial intelligence (AI). However, I believe that the author's call for a moratorium on the development and deployment of AI is premature.
First, it is important to note that AI is still in its early stages of development. While some AI systems are now becoming human-competitive at general tasks, we are still far from developing AI systems that can truly understand, predict, or reliably control human behavior. It is therefore premature to assume that AI systems pose an existential threat to humanity.
Second, the author's argument that we should "hit pause" on AI development until we have a better understanding of its potential risks is flawed. Pausing AI development would not eliminate the risks of AI, but it would likely slow down the progress of AI research and development. This would prevent us from developing the tools and technologies that we need to mitigate the risks of AI.
Instead of calling for a moratorium on AI development, I believe that we should focus on developing robust AI safety mechanisms. These mechanisms would help to ensure that AI systems are developed and deployed in a safe and responsible manner. Some of the key elements of robust AI safety mechanisms include:
Technical AI safety research: AI safety research is essential for developing the tools and technologies that we need to make AI systems safe and reliable. This research should focus on developing methods for training AI systems that are aligned with human values, developing methods for detecting and mitigating bias in AI systems, and developing methods for making AI systems more robust to adversarial attacks.
Regulatory frameworks: Governments should develop regulatory frameworks that govern the development and deployment of AI systems. These frameworks should ensure that AI systems are developed and deployed in a safe and responsible manner. Some of the key elements of regulatory frameworks should include:
Requirements for transparency and accountability: AI systems should be designed in a way that makes them transparent and accountable to humans. This means that humans should be able to understand how AI systems work and should be able to hold AI systems accountable for their actions.
Requirements for safety and reliability: AI systems should be designed in a way that ensures their safety and reliability. This means that AI systems should be designed to avoid causing harm to humans and should be designed to be robust to failures.
Public education: The public should be educated about the potential risks and benefits of AI. This education should help to ensure that the public is aware of the potential risks of AI and that the public is able to participate in the debate about how to mitigate these risks.
By taking these steps, we can help to ensure that AI is developed and deployed in a safe and responsible manner.
马斯克等人签名的公开信原文:
Pause Giant Al Experiments: An Open Letter
We call on all Al labs to immediately pause for at least 6 months the training of Al systems more powerful than GPT-4.
AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research,and acknowledged by top AI labs. As stated in the widely-endorsed Asilomar AI Principles, Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.
Contemporary AI systems are now becoming human-competitive at general tasks, and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system's potential effects. OpenAI's recent statement regarding artificial general intelligence, states that "At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models." We agree. That point is now.
Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.
AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts. These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt. This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.
AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.
In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems. These should at a minimum include: new and capable regulatory authorities dedicated to AI; oversight and tracking of highly capable AI systems and large pools of computational capability; provenance and watermarking systems to help distinguish real from synthetic and to track model leaks; a robust auditing and certification ecosystem; liability for AI-caused harm; robust public funding for technical AI safety research; and well-resourced institutions for coping with the dramatic economic and political disruptions (especially to democracy) that AI will cause.
Humanity can enjoy a flourishing future with AI. Having succeeded in creating powerful AI systems, we can now enjoy an "AI summer" in which we reap the rewards, engineer these systems for the clear benefit of all, and give society a chance to adapt. Society has hit pause on other technologies with potentially catastrophic effects on society.  We can do so here. Let's enjoy a long AI summer, not rush unprepared into a fall.
来源:记者郝成
链接:https://mp.weixin.qq.com/s/ieAyVNR2uf49Vgis08E5jQ   
编辑:屈妍君

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表