西藏“1.07”地震灾情牵动人心,很多民众在互联网上搜索地震现场,想通过图片和视频了解真实的地震灾情,关心当地受灾情况。但在大量的信息中,中文互联网上悄然出现了一批AI生成的虚假地震现场图片,腾讯新闻较真平台第一时间发现造假线索,于1月8日发布辟谣文章《西藏日喀则地震,这个被压在废墟下的小男孩居然是AI生成的》,引发全网关注,大家惊诧于AI造假对新闻现场信息的污染,尤其发生在了灾难性事件中。 “被压在废墟下的戴帽子小男孩”无疑是国内“AI造假新闻现场”影响力最大的案例,成为了互联网虚假信息传播出现新形态的代表性事件,当AIGC工具和能力的多样性、便利性不断提升,AI虚假信息传播带来了哪些危害,我们今后如何应对AI虚假图片和视频带来的信息失真?为此我们分别找来传播学和技术专家一起探讨。 图:腾讯新闻较真平台发布的辟谣文章 一、AI图片造假新闻现场,意味着什么?AI虚假信息传播会造成哪些负面影响? 胡泳|北京大学新闻与传播学院教授:这起事件突显了生成式AI在传播虚假信息方面带来的日益严重的挑战,尤其是在危机期间,将会造成非常严重的影响: 1.在心理和社会影响上,与真实灾难相关的假图片可能引发不必要的恐慌、愤怒或悲伤,损害公众信任,同时分散救援工作的注意力和资源。 2.从道德与法律后果来看,滥用AI内容会破坏公众对信息来源的信任,违反道德准则。在某些极端情况下,这种行为甚至构成犯罪,例如中国法律所明确规定的编造、故意传播虚假信息罪。 3.就新闻业而言,AI虚假图片直接打击可信度,威胁新闻的真实性,使得分辨真实与虚假新闻变得更加困难。这种信任的侵蚀会对媒体机构和社交平台造成长期伤害。 马凌|复旦大学新闻传播学院教授:使用AI 生成图像因技术门槛低,两年来渐成气候。自媒体运营者运用AI作图来美化一般传播内容,在有标注“AI 生成”的情况下,目前并不违法违规。但是在热点新闻事件中,特别是涉及新闻现场的报道中,主流媒体对于图像的真实性有严格要求。目前有些自媒体为了博取流量,使用AI图片冒充新闻现场照片,以假乱真,误导公众,会造成恶劣社会影响。在本次“地震小孩被埋AI造假现场”的传播链条中,原图作者标注了A I生成,且是制作于本次地震之前,是其它传播者的截图、附会、断章取义,加上诸多“好心转发”和“好心评论”造成虚假信息流。根据《治安管理处罚法》相关规定,编造虚假的险情、疫情、灾情、警情,在信息网络或者其他媒体上传播,严重扰乱社会秩序的,可处以有期徒刑、拘役或者管制。需要指出的是,这种行为无论是“善意”还是“恶意”,都不能成为造假的借口。比如2022年在重庆和云南山火事件中,都出现过自媒体使用AI加工的火场图片,因“助力救援”而得到不少网民的点赞和转发,但其实质与此次“地震小孩被埋”没有区别。 方洁|中国人民大学新闻学院副教授:灾难性事件中真实现场的重要性不言而喻。首先,人们需要通过来自灾难现场的真实信息来获知受灾状况,只有传播真实的信息才能满足公众的知情权。其次,传播真实的灾难现场信息不仅是为了满足公众的知情权,也是对遇难者和幸存者的尊重。第三,政府、社会的灾难救援都需要依赖真实灾情信息来做出准确的判断,出现AI造假的信息会消费公众情绪,促使社会不信任感滋生,并进一步导致错误的灾情研判,影响灾难救援工作的顺利展开。此前重庆山火时也出现过AI造假图像。但是,此次事件的影响还是很大的,它或许意味着我们未来将无法避免地面对更多这种AI造假的信息,分辨真实将更加困难。 二、如何应对AI生成虚假内容的挑战? 胡泳|北京大学新闻与传播学院教授:可以预计,AI生成的虚假内容将十分难以杜绝。所以,预防措施需要多管齐下。第一,强制AI内容标识。政府和平台应实施明确、统一的标准,要求所有AI生成的图片、视频和文本都必须标注来源,使内容的真实性透明化。第二,强化平台责任。社交媒体平台需要加强内容审核机制,结合AI技术和人工审核及时识别并标记虚假内容。要在AI生成内容的创作软件中强制添加水印,确保内容无法轻易被滥用。第三,教育与意识提升。开展公众科普和媒体素养教育,帮助人们识别虚假内容,避免受到误导。特别地,要对记者进行专业培训,使其能够识别AI生成的视觉内容,从而保护新闻的真实性。第四,用技术应对技术。开发能够检测AI生成内容的工具,通过分析视觉异常(如六根手指)或元数据等,来识别虚假内容。平台应集成这些技术,确保能够快速识别并移除伪造内容。第五,法律不可缺少。用法律法规规范生成式AI的使用及其误用,确保对散布虚假信息的个人和组织追究责任。 总之,尽管AI生成内容为创意领域提供了无限可能,但其在灾难或其他公共事件中的滥用对社会信任和公共安全构成了重大威胁。为应对这一挑战,需要政府、平台和公众之间的紧密合作,共同打造一个透明和负责任的数字环境。 马凌|复旦大学新闻传播学院教授:对策方面,平台对于AI生成图像的提示应该更快速、对于热点新闻事件中图像的真伪应该加大核查力度。网民需要提高媒介素养,对于AI生成图像更具辨识力。在自媒体中,使用和转发它处图像,提倡核实,避免违法违规。网络管理方则需认真追责,此风不可长。 方洁|中国人民大学新闻学院副教授:对于平台,从技术层面及时对信息做出核查并在第一时间打上标签提示用户很重要,平台还需要敞开和用户的合作,一起对抗虚假信息。同时,普通人可以培养自己的批判性思维,对信息能多一些合理的判断,尤其不轻信“图像”,要明白越是诱人的,越可能是“陷阱”。 三、在生产端增强对AI内容的标记,是否能减少造假的可能?缺乏技术背景的普通人,如何尽量低成本应对和辨别AI假图? sim|腾讯朱雀实验室负责人:现在生产端大模型产品的通用做法,目前都是应监管方的要求给生成内容添加“AI生成”的标识,但这些手段都是治标不治本,如果有用心不良的人,这些标识水印都是可以去掉的。也可以添加隐形水印,但是隐水印的鲁棒性较差,很有可能在传输过程中损失,导致无法追溯。 辨别AI生成的图片,可以重点关注三类方法: 1.图片的视觉纹理特征。一般生成的图片颜色更加鲜艳、纹理更加平滑,经常出现类似文字的乱码内容,这些特征都可以作为区分AI内容和真实内容的依据,但是随着AIGC技术的发展,生成的内容趋向于逼真,人眼根据这些特征只能区分出一些低质量的AI生成内容。 2.图片内容与事实是否相符。比如抽烟的猫、飞翔的狗、西藏废墟小孩的6根手指,这些都是与一般事实不符的内容,极有可能是AI生成的。 3. 借助工具。为应对AI造假的挑战,行业也在持续努力建设AI生成的检测工具,方便普通人使用。目前朱雀实验室初步构建了一套AI生成内容识别工具,结合深度学习算法与大数据分析技术,通过对海量AI生成样本的学习,实现了对AI生成的文本、图像的准确识别,以维护数字内容生态的真实、可信。近期将开放体验,届时诚邀大家试用、体验、提建议。 图:AI 图片检测工具效果 传媒行业应用AI提效和创新仍有广阔空间,如仅需文字和图片描述,即可通过大模型的视频生成能力来制作创意视频,朱雀实验室也正在开发AI生成视频的检测工具,进一步完善检测工具能力。 结语:AI生成的虚假信息已经成为全球治理中的一个重要且长期的难题,需要各方的共同努力。普通人作为信息传播的参与者,在转发信息时也一定要慎重甄别,如果发现难以分辨的信息或不实信息,可以向腾讯新闻较真平台提供线索。 线索提供渠道:1. 关注本公众号,在后台给较真妹留言;2.微信搜索“腾讯较真辟谣”小程序,在“问答”模块留言提问;3.点击【阅读原文】,填写腾讯新闻较真平台不实信息线索收集问卷: 来源:全媒派(公众号) 编辑:王晨雅 |
掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1 )
Copyright 2013 小马版权所有 All Rights Reserved.
Powered by Discuz! X3.2
© 2016-2022 Comsenz Inc.