传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
871#
 楼主| 发表于 2024-6-7 15:10:43 | 只看该作者
案例

24岁提出图灵机,38岁定义机器智能,70年后重识图灵,人工智能之父的传奇人生

“Sometimes it is the people who no one imagines anything of who do the things that no one can imagine.”
在谈到人类智慧与机器智能的交汇时,我们无法绕过一个闪耀的名字——艾伦·图灵。他是数学家、逻辑学家、密码学家,人工智能先驱。从提出划时代的图灵机和图灵测试,到二战时期破解 Enigma,图灵的工作不仅推动了计算机科学的发展,他的思想和创新在当今的科技世界中依然熠熠生辉。70 年前的今天,他离开了这个世界,70 年后的今天,我们缅怀他。


天才科学家的辉煌与遗憾

艾伦·图灵(Alan Turing),1912 年 6 月 23 日出生在英国伦敦的一个富裕家庭。他的母亲希望他走经典教育的道路,但图灵却对数学和科学情有独钟。在中学时,图灵已经显示出卓越的数学才能,特别是在解决复杂问题和逻辑推理方面。
1931 年,他进入剑桥大学国王学院学习。在那里,他的数学天赋得到了充分的展示和发展。1934 年,他以优异成绩获得学士学位,并开始从事更深入的研究。

剑桥大学国王学院,图灵于1931年成为本科生,并在1935年成为研究员。那里的计算机房以他的名字命名。
1936 年,图灵向伦敦权威数学杂志投稿了一篇论文《论可计算数》,在这篇论文中,他提出了图灵机的概念,奠定了现代计算理论的基础。1936 年至 1938 年,图灵在美国普林斯顿大学跟随著名数学家阿隆佐·丘奇学习,并获得了博士学位。在普林斯顿期间,他继续研究数学逻辑和密码学,为后来的工作打下了坚实的基础。1939 年,第二次世界大战开始,在白金汉郡布莱切利庄园的战时密码分析总部,图灵开始了高度保密的工作——破解德国的 Enigma。他在这里发挥了关键作用,特别是在设计和改进用于破解德国 Enigma 的机器(如 Bombe)。图灵的工作极大地加速了密码的破译过程,为盟军获得关键情报并最终赢得战争做出了重大贡献。


他热爱长跑,这是他释放工作压力的最主要方式。他的马拉松最好成绩是 2 小时 46 分 03 秒(手动计时),只比 1948 年伦敦奥运会男子马拉松冠军 Delfo Cabrera 慢了 11 分钟。他将爱好发挥到了极致!

他的人生故事是闪耀的但并非总是光明的,他因同性恋倾向而遭到当时的英国政府迫害,职业生涯尽毁,1954 年 6 月 7 日去世,被发现时身边有一个吃了一半的苹果,普遍推测是食用浸过氰化物溶液的苹果而去世。但也有观点认为他是在进行化学实验时不慎中毒。图灵的神秘去世,至今仍给人留下无尽的猜想和悬念,成为了他传奇一生不可磨灭的一部分。
著名数学家、 逻辑学家戴维斯(Martin Davis)亲自在霍奇斯的《艾伦·图灵传: 如谜的解谜者》中写过一段评论,最后一句是:“对图灵的指控是悲剧,他应该被当作民族英雄。”
2009 年,他终得平反。英国前首相戈登·布朗代表英国政府为图灵当年受到的不公正待遇公开致歉,2013 年他获得了英国皇家特赦。为了纪念他的伟大贡献,ACM 还设立了图灵奖,专门奖励对计算机事业作出重要贡献的个人,被誉为计算机界的诺贝尔奖。

上帝的语言该改成图灵机了
费曼说微积分是上帝的语言。如果我们把第一次工业革命归因于机械和能量,贴上牛顿的标签,而把当下正在经历的第四次工业革命归因于信息和计算,那么,上帝的语言该改成图灵机了。至少,英国 50 英镑钞票的头像刚刚从瓦特(Watt)换成图灵。
图灵最重要的贡献无疑是他 1936 年的那篇文章《论可计算数》(On Computable Numbers, with an Application to the Entscheidungsproblem), 其中他定义了一种机械装置,后来被他的导师丘奇称为“图灵机”。冯诺依曼说这不仅奠定了计算的理论基础,也为现代计算机的工程实现指明了方向,哥德尔也认为图灵机比他自己的递归函数更令人信服。


在这篇论文中,图灵提出了图灵机的概念,将计算过程抽象成一系列简单的操作步骤,可以通过读取和写入纸带上的符号来完成。这种思想虽然简单,却极为强大,奠定了计算理论的基础,使得我们能够理解和设计更复杂的计算系统。
图灵证明了某些数学问题是不可解的,即没有算法能够在有限时间内解决所有输入的情况下得出确定的答案。图灵机的提出不仅解决了希尔伯特的决断问题,表明了数学中存在不可计算的问题,还为现代计算机的设计提供了理论基础。图灵机的概念被广泛用于编程语言、算法设计和复杂性理论等领域。

人工智能的起源机器能思考吗?
图灵 1950 年在哲学杂志《心》上发表的文章《计算机与智能》(Computing Machinery and Intelligence)中把“机器能思考吗”的问题转换为一种模仿游戏——后世称为“图灵测试”,这也是人工智能的起源。

图灵– 1950,《计算机与智能》发表在《心》上

在这个游戏中,一个人(我们叫他 A),一个机器(我们叫它 B),还有一个提问者(我们叫他 C)。
C 的任务是通过文字交流来判断 A 和 B 中谁是人,谁是机器。如果 C 无法区分,或者错误地将机器判断为人,那么这台机器就被认为通过了图灵测试,展现出了与人类相似的智能。
想象一下,你在网上聊天,但看不到对方。如果你发现对方回复得很机智,有逻辑,有情感,你会不会怀疑对方其实是个人?但如果对方真的是一台机器,而你完全没察觉到,那这台机器就厉害了!是不是很像现在的 ChatGPT 呢?
作为市场上最好用的 AI 聊天机器人之一,OpenAI 的 ChatGPT 经常会被怀疑是否能通过图灵测试。答案是肯定的,GPT-4 通过图灵测试了!UCSD 研究团队通过实证研究,人类无法将 GPT-4 与人类进行区分。而且,有 54% 的情况下,它被判定为人类。
正因为图灵机的奠基性工作,才有了今天我们所见证的人工智能的飞跃发展。从最初的理论构想,到今天高度发达的 AI 应用,图灵的思想为无数科学家和工程师指明了方向。
图灵测试不仅仅是衡量机器智能的标准,更是一座桥梁,连接了人类与智能机器之间的鸿沟。如今,图灵的遗产在 GPT-4 这样的先进 AI 中得到了生动体现,证明了他的远见卓识和不朽贡献。
大模型时代,图灵影响力依旧

艾伦·图灵的工作为现代计算理论奠定了基础,尤其是通过图灵机这一概念,不仅帮助我们理解计算的本质,还为自然语言处理和机器学习等复杂过程铺平了道路。此外,图灵测试作为评判 AI 智能的重要标准,激励着人工智能研究的发展,推动我们追求更高级、更自然的机器智能。图灵的计算理论直接影响了从简单算法到复杂大规模 AI 模型的发展,使得今天的深度学习和神经网络成为可能。
现代大模型能够处理多种数据类型,广泛应用于翻译、对话系统、文本生成等领域,这些应用的实现离不开图灵奠定的计算基础。图灵的贡献不仅揭示了计算的本质,还为实际应用提供了坚实的理论支持,他的工作开启了计算机科学的新时代,并引领我们进入了人工智能的辉煌时代。
不仅限于技术层面,图灵的个人遭遇也引起了对性取向和隐私权的广泛讨论,推动了社会对 LGBTQ+ 群体权利的认同和尊重。他的故事成为了争取平等权利和反对歧视的象征。在艺术领域,图灵的形象和故事在电影、书籍、艺术作品和博物馆展览中广泛传播,成为流行文化的一部分。
他的传奇不仅仅是科学和技术的丰碑,更是人类精神和社会进步的象征。在纪念图灵逝世 70 周年之际,我们不仅缅怀他的科学贡献,更铭记他为平等和尊严所作的斗争。

《理解图灵》重磅上市
70 年后的今天,我们缅怀图灵,用一本书向他致敬,不仅是为了纪念他的过去,更是为了启迪我们的未来。《理解图灵》从多角度剖析图灵的一生与学术成就,带你深入图灵的思想世界,领略智能的本质。
这本书由中华优秀出版物图书奖得主、吴文俊奖获得者、央视“2017 年度中国好书”作者张晓东(尼克)创作,是当代最好的一本全方位深入了解图灵的佳作。也是普通人认识图灵的最好的一部作品。

《理解图灵》
尼克|著
图灵 1936 年的文章《论可计算数》奠定了计算机科学的基础;而其 1950 年的文章《计算机与智能》则开启了人工智能,此文开头提到的“模仿游戏”后来被称为“图灵测试”。本书以注释形式对《计算机与智能》进行了细致解读。
书中首先追溯图灵的生平和思想轨迹,特别是他对智能与机器关系的早期洞察,以及他在计算理论方面的重大贡献——提出图灵机;接着通过分析图灵与同时代其他思想家的交流与辩论,如与哲学家维特根斯坦的深入对话,以及在 BBC 广播讨论中与神经生理学家杰弗逊的激烈交锋,逐步揭示了图灵对于机器智能的独到见解及其思想的演进过程。
本书力图使读者在充分理解背景知识的基础上,更加深刻地领会图灵文章的内涵,也使得对图灵思想的探讨更加全面和深入。还附赠人物关系图和经典论文原文:人物关系图助你轻松厘清人物关系。


作者简介
尼克,曾任职于哈佛和惠普,后创业投资。无论忙闲,不忘读书写字,作品多发表于《上海书评》《数学文化》和《中国计算机学会通讯》,并有著作《人工智能简史》《UNIX SYSTEM V内核剖析》和《哲学评书》。其中《人工智能简史》获得第七届中华优秀出版物图书奖、第八届吴文俊人工智能科技进步奖,入围央视“2017年度中国好书”,获选第十三届“文津图书奖”推荐图书。


来源:图灵编辑部(公众号)


编辑:刘诗扬


872#
 楼主| 发表于 2024-6-9 18:48:27 | 只看该作者
案例

大模型成媒体写稿神器?新京报联合中国经济传媒协会开展问卷调查


6月7日,超1300万学子迎战全国高考。
随后全国卷高考作文题目出炉,其中新课标I卷的作文题目与人工智能相关。写高考作文哪家强?一时间媒体人纷纷使用各大厂的生成式人工智能大模型(下称:大模型)写起了高考作文进行“擂台赛”。
ChatGPT到Sora,生成式大模型不断引发各行业关注。今年两会政府工作报告首次提出加快发展新质生产力和开展“人工智能+”行动,多家国内传媒机构也宣布拥抱AIGC技术和大模型。
无论是机构媒体人还是自媒体人,你在日常工作时是否使用过大模型技术?它们对你工作的赋能效果如何?
为此,在北京大学、清华大学、浙江大学、中国传媒大学等高校教授的学术指导下,新京报贝壳财经联合中国经济传媒协会开展媒体行业大模型使用与满足问卷调查,了解传媒业融合前沿科技的一线情况。
正如海德格尔所示:“技术是时代的座驾。”新技术是新闻传播变革的第一生产力,当前以人工智能为代表的媒介技术不断发展,为传媒业注入新时代变量。媒体融合作为国家战略已实施超过十年,我国传媒业的数字化、信息化得到长足发展。但大模型在便利媒体信息生产的同时,也带来深度伪造、威胁就业等隐忧。
媒体人使用大模型时遇到过哪些问题,AI生成的内容是否影响你对行业发展的判断,大模型如何赋能媒体行业等等,仍值得观察和探讨。对此,新京报贝壳财经邀请你根据实际情况填写媒体使用生成式人工智能大模型情况调查问卷。
本次问卷填写时间从即日起至6月16日23时59分止,长按并识别下方二维码参与调查



我们将认真对待每一份问卷,并基于问卷数据、深度访谈和实测结果撰写大模型测评报告。你有哪些关于大模型的使用体验和看法,欢迎参与本次问卷调查!


来源:传媒茶话会(公众号)

编辑:刘诗扬



873#
 楼主| 发表于 2024-6-16 16:43:15 | 只看该作者
【案例】未来,新闻照片都将被人工智能完美修饰?
当下,人工智能技术的影响已经渗透到新闻摄影领域。一方面,人工智能技术极大提升了内容生产效率,带来了自动化和智能化;另一方面,随着人工智能图像模型的不断成熟,虚假影像的泛滥和传播问题已真切地呈现在我们面前,对社会造成了不同程度的影响。摄影记者和图片编辑需要适应新技术,寻找新方法,从而在人工智能时代继续维护新闻真实。
一、被多家媒体、记者质疑的一则《每日邮报》新闻和照片
2023年4月23日,英国《每日邮报》在其网站上刊登了一则题为《独家:22岁加拿大演员为模仿韩星,花费22万美元整容12次后不幸丧命》的“新闻”,文中提到主人公名为“Saint Von Colucci”,死因为“下颚整容手术后的并发症”。翔实的“线索”和劲爆“内容”,以及所谓当事人整容前后的对比图,使该消息在发布一小时内获得近千次转发,多国媒体纷纷跟进报道。然而事件不久就遭遇反转。《每日邮报》在两天内删除了该消息,多个国外媒体、记者对该新闻及配图的真实性提出质疑,他们在查证后认为该新闻是编造的,所谓的对比图大概率由人工智能生成。[1]
《每日邮报》对此次报道的甄别处理显然欠缺专业水准。事后,《每日邮报》仅删除了该则新闻而未做任何表态。笔者认为,从新闻从业人员的角度出发,作为报道者,应当对新闻事实和图片的真实性保持审慎态度和专业水准,守好新闻报道的第一关;作为跟进报道的媒体,切勿盲目跟风,仍旧应当核实新闻线索,避免传播虚假新闻。
二、疯狂传播的“谣言+假照片”
谣言、传闻成为滋生假照片的温床。一些别有用心的人结合人工智能为谣言、传闻配图,伪装成新闻照片进行传播,博取流量,误导受众。2023年3月,一系列所谓的“美国前总统特朗普被捕”的“图片新闻”在网络上迅速传播(图1),后证实为人工智能生成的虚假照片。[2]这一事件引发了网络热议,照片真实性成为热点议题。笔者认为,名人效应及其高度还原、逼真的写实画风是虚假照片传播的重要因素。尽管这些AI照片的作者曾表示“照片”是为练习人工智能软件而制作,但这些虚假照片却恰恰填补了当时传闻的画面空白,得到迅速传播。这是一种具有欺诈及潜在危险的行为,主流人工智能生图模型如Dall-e、Midjourney以及Stable Diffusion可以让人能轻松创造“照片”,这些“照片”看起来可能无害,创作者也以“练习人工智能技术”为理由给自己开脱,但这些“照片”可能会被不法分子用于诈骗、身份盗窃等不法行为,造成恶劣后果。
□ 图1 一组由人工智能技术生成的虚假照片,画面虚构了“美国前总统特朗普被捕”。图中白框部分是人工智能生图模型生成的错误细节
人工智能模型基于大量数据喂养,其生成的图片更接近受众所熟悉的画面,但这些图片并非完美无缺,仔细观察能够发现端倪。首先,从整体图片风格来看,许多由人工智能生成的照片,尤其是人物照片,大多具有一种特定的画风和光泽,例如人物皮肤看起来比正常情况要光滑,有时甚至呈现塑料感;其次,辨别人物细节,注重观察没有衣物遮盖的部位。大多数人工智能生图模型在关节尤其是手部,有较高概率产生错误,如图1所示,有些手指是扭曲变形的,有些只有四根手指,有些看起来缺少了第一和第二指节;第三,人工智能模型在衣服配饰的光影和三维结构处理上也经常犯错。
三、 一组由网民生成的灾难事件“历史照片”
制作精良的人工智能照片也许还有“篡改”历史的能力。2023年4月,一名网民利用人工智能生图模型Midjourney模仿新闻图片的形式生成了20多张“照片”,并取名为《2001年卡斯卡迪亚9.1级地震和海啸》,伪造了一次大型灾难事件。[3]画面中包含了被地震和海啸摧毁的城市街道和房屋,在救援现场采访的加拿大广播公司著名记者皮特·曼斯布里奇等画面。“照片”的逼真程度和“拍摄”角度的多样性使该组“图片报道”显得颇为专业(图2)。有网民表示,看到这组照片,甚至忘记了自己正在“Reddit”网 (“Reddit”是美国著名社交新闻站点)的人工智能生图板块浏览帖子。
□ 图2 一组由外国网民生成的虚假灾难照片,虚构了“2001年卡斯卡迪亚9.1级地震和海啸”。图中白框部分是人工智能生图模型生成的错误细节
如若不明真相的网民将该帖转发,如此逼真和全面的“新闻图片报道”可能会令受众怀疑自己的记忆是否出了问题,竟然忘记了如此大规模的灾难。有网民就此评论道:“2100年的人们不会知道历史的哪些部分是真实的。”尽管如此,我们在这组AI生成的照片中仍能找到人工智能的身影,比如还未渲染完全的汽车下半部分、少了一根手指的右手、没有脸的被救者和以一个非常扭曲的姿势拿着国旗的女子……
四、社交媒体上的AI虚假照片
2024年1月,美国歌手泰勒·斯威夫特的不雅照片不断出现在国外社交媒体上,尽管这些照片很快被发现是通过人工智能生成的虚假图片,发布这些照片的账户也被平台封禁,但该帖发布17小时后,其中一张照片的浏览量仍超过4500万次,造成了恶劣影响。[4]白宫新闻发言人卡里娜·让·皮埃尔表示对此类虚假图像流传“感到担忧”。[5]明星的虚假照片虽然不是什么新鲜话题,但人工智能技术使制作此类假照片的门槛变得更低,只需要键入合适的提示语并不断“修缮”画面细节,便可制作一张足以乱真的假照片,赚足流量。
不只是人类,月球也难逃人工智能的影响。有测试发现,使用三星Galaxy S23 Ultra手机拍摄月球,无论一开始拍摄的图像多么糟糕,甚至翻拍一张经过模糊处理的月球照片,最终总会得到一张看起来不错的照片(图3)。换句话说,三星手机可能提供了一张压根不是本人所拍摄的照片。三星公司承认了使用深度学习算法来提高智能手机拍摄月球照片的质量的行为。[6]
□ 图3 三星Galaxy S23 Ultra手机翻拍经过模糊处理的月亮照片(左)及结果(右)
五、未来,照片都将被人工智能完美修饰?
以上案例中的人工智能都还在我们熟悉和理解的摄影领域里“闹腾”,然而谷歌公司可能在某种程度上重新定义了摄影。谷歌于2023年10月发布了全新智能手机 Pixel 8 和 Pixel 8 Pro,并在摄影和摄像的宣传中特别强调了使用人工智能来编辑并修饰照片,如调整亮度和背景以及移动或删除拍摄主体等。该手机甚至能改变人们在照片中的表情——通过浏览相册,根据现有的人物表情进行混合匹配,将不同照片中的微笑合成到同一张图片中,谷歌称之为“最佳镜头”。[7]
“最佳镜头”的确降低了拍摄“完美”照片的难度和时间成本,或许也迎合了大多数人的喜好,正如剑桥大学图形和显示专家拉法尔·曼蒂克所言:“人们不想捕捉现实,只想要美丽的图像”,[8]Pixel 8手机推出的这项新功能精准地击中了消费者。但仔细想来,传统摄影因物理限制往往无法在同一张照片中包含不同的时间切片(多重曝光、长时间曝光及后期处理等除外),在这样的前提下,玛格南图片社联合创始人亨利·卡蒂埃·布列松说道:“一张照片是在不到一秒的时间里,同时认识到一个事实的意义,以及表现这个事实的肉眼可见的形式的严密安排。”由此,他提出了“决定性瞬间”这一长期且深远影响新闻摄影的经典理论。[9]然而人工智能打破了多年来我们对于“决定性瞬间”的理解,使得最终的图像成为多个真实瞬间的糅合,但这个新的“瞬间”并未真正存在过,它只是世俗意义下“完美”的“最佳镜头”,人工智能或许在一个新的维度已经开始改变人们对于“决定性瞬间”的理解。(作者系宁波工程学院人文与艺术学院讲师、诺丁汉大学博士研究生)
来源:中国记者
编辑:程正元

874#
 楼主| 发表于 2024-6-16 16:49:21 | 只看该作者
【案例】向AI而生——主流媒体需做好 “四则运算”
主流媒体积极拥抱新技术,需要守正创新,统筹发展和安全。既要发挥自身独特优势,又要推动运用,实现降本增效,还要乘势而为,实现从内容到传播再到服务的多点位创新、变革性跃升,更要以冷静和审慎态度,洞察并主动防范和应对系列风险挑战。
当前,以人工智能(AI)为引领的新一轮科技革命和产业变革正在全球范围演进。特别是AI在内容生产及传播领域的加速应用,带来内容创意、采编制作、推送场景、作品分发、用户体验的全新升级,带来舆论生态、媒体格局、传播方式的深刻变化。媒体由技术而兴、因技术而异、随技术而变。在AI浪潮下,主流媒体既要保持定力,发挥自身独特优势,又要抢抓新技术带来的发展红利,培育新质生产力,促进降本增效,还要客观理性看待AI特点与趋势,主动防范算法偏见、模式化窠臼、唯工具理性等新风险,统筹发展和安全,与AI共生共融,加快向智能媒体迭代发展。

“加”持优势,打造核心竞争力全媒体时代,富有现实热度、思想深度、人文厚度、情感温度的优质新闻内容的价值日益凸显。可以说,技术越发达,媒体人的立场观点、能力作风就越重要。主流媒体要发挥主场优势,在AI辅助下更好扬己之长、展人之能,将新闻报道“在现场”“有温度”“有态度”的核心优势长板做得更长。深入新闻源头“在现场”。新闻是真实鲜活的人和事。抵达新闻现场,传递客观真实信息,记录人物真情实感,挖掘事件背后真相,是实现新闻真实性的基本路径,也是必要途径。AI无法替代记者深入新闻现场探访探究、体察体悟,也难以训练出记者在一线采访中积累沉淀的新闻敏感。媒体人的“在场力”和“在场感”,仍将在AI时代的新闻生产过程中发挥不可替代的作用。对于媒体人来说,“抵达现场”不仅仅是履行职责使命的价值观,更是生产优质原创内容的方法论。基层干群的创新创造、城乡发展的跃动脉搏、百姓生活的酸甜苦辣、山水人文的奇绝独特,凡此种种,无限丰富、充满个性、永远鲜活的场景,是值得媒体人深度挖掘的内容富矿。尽管可以运用社交开源情报解决一部分不在现场即无信源的问题,但更多时候还是得通过媒体人的“脚力”,俯下身、沉下心,采写出闭门造车难以炮制的、“别无分店”的好新闻、真故事。突出人文关怀 “有温度”。是否具有意识和情感,是衡量AI发展水平的重要因素。基于模型和数据生成的AI新闻,是对人类间接经验的认知和升华,还无法替代媒体人的直接经验(如对采访对象情绪的捕捉、身处环境的理解等)和内省经验(如对采访对象行为动机的分析,对新闻事件社会影响的探究等)。在新闻生产和传播过程中,“同理心”和“共情力”是媒体人与AI“竞争”的核心优势之一,那些浸润人文情怀的新闻作品更具有传播力和影响力。面对来势汹汹的AI写作,媒体人要着力训练、提升讲故事的能力。宏大主题叙事要小切口,从人的视角、人的故事、人的情感、人的体验出发,讲述时代背景下的发展变迁。重大政策解读要接地气,立足社会关注、民生关切,将政策语言转化为易理解、易掌握、易传播的群众语言。典型人物报道要近视角,通过日常工作、点滴生活的记录和关键时刻现场细节的还原,展现有血有肉、可亲可敬的榜样模范形象。
安徽日报“AI看安徽”系列合肥篇封面图。加强深度调查“有态度”。能够聚焦社会关切、反映事物全貌、揭示逻辑本质、有力引导舆论的高质量深度调查报道在舆论场上是“稀缺品”。面对突发和热点网络舆情,践行马克思主义新闻观,通过扎实调查让事件真相水落石出、脉络条分缕析,既是媒体的政治责任和社会责任,也是提升媒体传播力、引导力、影响力、公信力的有效举措。采制高质量深度调查报道是主流媒体长期积淀、不可替代的专业能力的体现,也是主流媒体在AI时代需要进一步强化的核心能力、看家本领。高质量深度调查报道主要依托的是记者编辑政治站位、思想境界、政策水平、工作作风、知识储备、生活阅历、逻辑推理等综合素质,但在“AI+”时代,提升主流媒体深度调查报道能力,既要发挥媒体人调查研究、践行“四力”的优良传统,也要善于借力数据挖掘、数据可视化等AI辅助,拓展调研范围、改善调研精度、提高调研效率,实现“借梯登高”。
“减”本增效,提升市场应变力AI的迅猛发展特别是AIGC(人工智能生成内容)的日趋成熟,为主流媒体高效配置生产要素、优化重置业务流程提供了前所未有的空间。应抓住机遇推动运用,降本增效并提高应对市场竞争能力。赋能个人生产更全能。主流媒体内容生产专业分工模式,正随着AIGC的落地应用而面临变革。AIGC通过深度学习和自然语言处理等技术手段,能够模拟专业创作过程,自动生成高质量文稿、图片、视频等内容。要努力让媒体从业人员提高人机协作的新“笔力”,熟练掌握AIGC,真正做到“一专多能”——一个人就可以独立完成文稿撰写、图片绘制、视频剪辑和包装制作等多项工作任务,还可以完成多版本的自动生成、多渠道的多向传播,从而有效提升个体生产效率,实现内容生产与传播的一体化、简约化。以外宣工作为例,长期以来专业外语人才一直是制约主流媒体“内容出海”的短板。来自斯坦福大学等AI研究团队创立的Synthesia平台可以为视频自动生成130多种语言的配音,并在海外社交媒体平台上成功实现运用。国内此类技术也已逐步具备单人即可完成的多语种视频翻译和配音能力,有望成为主流媒体快速提升国际传播能力的重要工具。促进团队协作更高效。AI赋能主流媒体内容生产,不仅可以在某些场景下以个人生产代替团队生产,还可以改变团队成员之间的协作方式,促进团队协作更高效。通过AI,可以将视频制作由传统的线性流程变为并行推进。数字人播报视频制作流程即一种全新的“并联”方式,录音、翻译、剪辑、数字人驱动等环节不受场地和设备制约,可以多人同时进行。这种并行推进的工作方式,让同样时长的视频制作周期大幅缩短、人员投入大幅降低,同时还可节省设备租赁等费用。可用AI处理大量繁琐的常规任务,为团队打磨精品腾出精力。如以往需要大量人工完成的文稿撰写、图片绘制、视频剪辑、包装制作等工作,现可通过AIGC快速完成,团队成员则能腾出更多的时间与精力投入更具价值的内容创意策划,进而提升作品质量。可用AI构建“数字人同事”应用场景。运用AI内容审核来替代人工岗位角色,即采用自然语言处理和机器学习等技术识别、标记和过滤敏感词汇和内容,通过图像和视频分析技术,监测、识别和过滤违规内容,达到提升安全水平和团队效率的双重目标。推动组织形态更优化。AI的应用有利于主流媒体优化资源配置、组织形态,提升整体效率和响应速度,以快速应对市场变化。可用AI推动主流媒体内部跨部门协作与资源共享。构建统一的数据平台和算法模型打破部门壁垒,促进不同部门和团队更加便捷地共享信息和资源,降低沟通成本,实现从传统的金字塔形组织向层级更少的网状结构演进,推动媒体组织更加扁平化。可用AI驱动数字化协同平台,实现智能化远程办公,让媒体组织成为“人才联盟”。当然,由于AI技术对算力有较高要求,主流媒体通常无法独立形成AI应用环境,需要通过开放应用程序接口和数据接口,与其他机构或平台进行数据共享和业务合作,共同打造更加丰富和多元的内容生态,这也让媒体的组织边界更具有开放性。
“乘”势创新,培育新质生产力AI是媒体的新质生产力,是推动媒体迭代升级、融合发展的重要引擎。主流媒体应该乘势而为,利用好AI特别是AIGC,实现从内容到传播再到服务的多点位创新、变革性跃升,在高质量发展中展现AI的乘数效应。打开视听新境界。AI在媒体行业的一个重要应用场景是将大模型工具用于提升写作效率的文本类应用以及生成图像的图像类应用。近年来,基于智能语音合成技术的音频类应用以及视频类应用成为新热点,备受瞩目的是以Sora为代表的文生视频大模型。国内主流媒体纷纷跟进并在视听创作领域积极运用AI技术,如今年年初央视网发布利用文生视频和AI配音技术制作的文旅宣传片《AI我中华》,上海广播电视台今年3月份推出综合应用可控图像生成、人物动态生成、文生视频等技术的系列公益广告片《因AI向善》等。主流媒体可以结合实际在文生视频方面加以探索,一方面提高视频创作效率,一方面利用其遵循用户提示、文本输入创造各种逼真的风景、人物、动物、物体的能力,拓展视频创作空间,给受众带来全新的视听体验。
安徽日报推出的“ AI绘节气”系 列海报之“ 雨水”。拓展传播新场景。移动互联网的普及使得用户获取信息的渠道日益多样。主流媒体可以通过AI自动将内容适配到不同的设备和平台,确保用户无论使用何种设备,都能获得优质的内容供给。可以通过AI对用户数据进行深度挖掘和分析,在了解用户兴趣和需求的基础上,为用户提供个性化的内容推荐,力求主流媒体内容能够更精准地触达目标受众,增强用户黏性。可以通过AIGC打造创新性传播场景,通过VR(虚拟现实)、AR(增强现实)等技术创造沉浸式体验,使用户如身临其境般感受新闻现场或节目现场,进一步提升主流媒体产品吸引力和品牌感召力。提升服务新能级。主流媒体要借力AI实现跨平台、跨渠道融合传播,围绕AIGC版权运营、新内容电商、数字创意广告、新文旅IP等方面开发AI应用场景,开拓新领域、新赛道、新产业、新市场,提升“内容+AI+服务”能级。如上海广播电视台今年3月份发布的基于手语大模型交互式数字人手语翻译公益项目“润爱无声助聋门诊场景”,面向听障人士,用AI服务听障人群,助力无障碍城市建设,成为开展社会化应用的有益尝试。
“除”弊立规,增强风险防御力主流媒体在积极拥抱AI时代的同时,必须以冷静和审慎的态度,洞察并主动防范AI应用可能带来的风险和挑战,制定相应的伦理规范与标准,建立完善的审核与监管机制,更好地统筹发展和安全。  完善模型训练,防范算法偏见。算法偏见是AI在媒体行业应用的常见风险之一。主流媒体应用AI生成内容时,算法偏见表现为新闻报道的内容倾向性、信息筛选的不公正性,可能加剧社会偏见和歧视,甚至带来意识形态方面的错误。防范算法偏见,主要手段是完善模型训练,关键是收集并使用更多样化、更具代表性的数据,确保算法在训练过程中接触到各种可能的情况,减少因数据偏差导致的偏见;注意对数据进行预处理和清洗,消除噪声和异常值,提高数据质量。在模型训练过程中,还可以利用恰当方法防止模型过度拟合特定数据集,从而减少偏见;或者采用集成学习方法,结合多个模型的预测结果,提高整体准确性和稳定性。在AI时代,主流媒体要不断加强对算法的审查和监督,建立相应的风险评估和预警机制,通过定期检查和评估算法的性能和公平性,及时发现并纠正可能存在的偏见问题,确保为公众提供客观、准确、全面的信息。严格审核把关,防范模式化窠臼。AI在赋能主流媒体内容生产时易造成内容同质化,甚至会导致媒体人由于过度依赖而逐渐丧失原创能力。因此,主流媒体更须坚持守正创新:一要加强深度原创。鼓励媒体人发挥自身专业能力,结合AI技术优势,创造出更多具有原创性、独特性的内容,避免简单复制粘贴或生成与已有内容高度相似的作品。二要加强AI内容的审核把关。设置多层审核流程,确保内容的创新性、准确性和客观性;任用具备丰富媒体经验和专业知识的审核人员,深入分析和评估AI生成内容;定期对审核团队进行培训,提高其识别和防范模式化窠臼的能力。三要加强与用户互动。将用户的反馈意见作为评价内容质量的重要依据,根据用户意见及时调整内容生产策略,推出更具创新性和吸引力的作品。强化正面引导,防范唯工具理性。工具理性强调效率和手段,而价值理性则关注目的和意义。AI作为一种技术手段,尚难以深刻洞察人类的情感、道德和复杂价值判断,往往把工具理性当成生成内容的首要选择,而工具理性过度占据主导地位,可能会导致媒体内容的价值观扭曲。主流媒体在应用AI,尤其是涉及时政类新闻和复杂内容创作时,必须坚守价值理性,警惕和防范只追求效率和产量的工具理性,努力在技术变革的洪流中提高新闻报道的思想性、人文性、正能量,为公众提供更多有意思、有意义的信息与内容。(作者单位:安徽日报社、安徽广播电视台)
来源:新闻战线
编辑:程正元

875#
 楼主| 发表于 2024-6-16 22:11:55 | 只看该作者
【案例】教你识别AI假照片
广义上,AI照片都是假照片,画面凭空捏造而成,不是现实生活的真实瞬间。狭义上,AI假照片是指那些画面细节违背常识、常理、常态,且故意传播,欺骗受众的AI照片。
一、反复放大,仔细查看
就目前AI假照片的情况看,日常工作中积累的识别“PS”假照片(用图像软件Photoshop合成的假照片)的经验,均适用于辨识AI假照片。
“反复放大,仔细查看”是图片编辑辨识“PS”假照片非常有效的方法,在电脑上反复放大缩小照片,仔细查看画面细节,观察是否有图片造假的痕迹。这一方法由美国《哈特福德报》首先采用,但方法的发明过程很偶然。2003年3月31日,该报一名编辑在印刷厂盯版,恰好遇到设备故障,等待的时间百无聊赖,他就在电脑上反复放大缩小用于头版的新闻照片。照片由《洛杉矶时报》派驻伊拉克前线的资深摄影记者布莱恩·沃斯基(Brian Walski)拍摄。画面上,全副武装的士兵将枪口指向一个抱着孩子企图站起来的伊拉克平民。战争、枪口、孩子、平民……这些元素组合在一幅照片上,形成了强大的震撼力,被图片编辑们视为可能获奖的好照片(图1)。在反复放大缩小这幅照片时,盯版编辑发现背景上有两个人局部姿态及裤子的褶皱竟然一模一样,于是断定“这是一张合成的照片”。《洛杉矶时报》随即与布莱恩·沃斯基核实,布莱恩承认为了达到更好的视觉效果将两张照片“PS”成一张照片。
随后,《洛杉矶时报》自揭家丑,次日以大半版的篇幅澄清事实,揭露布莱恩·沃斯基“PS”图片的过程(图2)。“布莱恩假照片丑闻”后来进入许多国家新闻摄影教科书,成为21世纪新闻摄影发展的一个标志事件,很多人甚至由此得出图像软件Photoshop将对新闻摄影真实性造成毁灭冲击的结论,恐慌的程度不亚于当下AI假照片对新闻摄影界的冲击。此后,“反复放大,仔细查看”也就成为图片编辑识别假照片的自觉行动。
□ 图1 2003年3月31日《洛杉矶时报》头版的主图是布莱恩·沃斯基制作的假照片
□ 图2 2003年4月1日《洛杉矶时报》的版面,揭秘布莱恩·沃斯基“PS”图片的过程
二、从细节破绽上辨识AI假照片
基于机器学习的AI图像生成工具,经过图像数据库训练,学会了识别数据库中与文本请求内容相对应的图像,然后生成受相应图像启发的图片,这些训练用图来自不同渠道,同一物体有多种图像,因此,AI在匹配上会出现误差。
(一)成双成对的视觉元素易露马脚。图3是一张AI照片,画面上是一个戴着眼镜的年轻人。仔细看,两个镜片形状不同,一个更接近椭圆形,而另一个镜片更有棱角。此外,眼镜框也左右各异,材质不同。
图4这张AI照片也出现了类似情况,图中女性佩戴的左右耳环完全不同。对于AI图片生成工具来说,处理复杂的珠宝细节并不容易。通常情况下,生成工具会给图中人物佩戴不同的耳环。以此类推,两只耳朵,两条胳膊,甚至左右衣领,在AI照片里都会存在不一致的情况。
□ 图3 眼镜“穿帮”的AI照片
□ 图4 耳环“穿帮”的AI照片
(二)同质视觉元素更容易出错。处理手指、脚趾、牙齿等数量较多的同质视觉元素,AI图片生成工具常常会“不识数”,生成数量出现明显问题。华东师范大学一名摄影教师用AI图片生成工具Midjourney V4,输入提示词后,生成了长有7根手指的人物(图5)。目前,“不识数”是AI图片生成工具共有的弱点。
三、重视传统摄影技术积累而成的“直觉”
照相机没有测光功能时,摄影师凭直觉就能准确地判断出曝光量;经验丰富的摄影师一按快门,凭直觉就能判断照片质量。此类由常年拍摄经验积累而成的“直觉”,有助于识别AI假照片。
(一)太过完美的照片,更需要怀疑精神。AI图片生成工具的目标之一就是完美,为了生成理想化的图片,竭尽全力地用完美来取悦受众。例如,人物的皮肤看上去极其光洁,毫无瑕疵,甚至头发和牙齿等细节都十分完美,此类照片往往不可信。现实生活中,每个人的外貌都有瑕疵。AI图片生成工具表现完美外表比较容易,生成有瑕疵的外表反而比较困难。因为,完美的皮肤几乎相同,有瑕疵的皮肤却各不相同。近期,人工智能文生视频大模型Sora生成了一段女性逛街的视频,其中,女性脸部的色素沉淀显得非常生硬。
2023年初,美国网红摄影师乔斯·艾弗里(Jos Avery)使用AI图片生成工具Midjourney生成的人物肖像照片在网络上受到追捧。乔斯·艾弗里利用Midjourney生成图片,并用Photoshop进行后期修饰。一番操作后,一幅幅质感超常的图片便呈现在受众面前。这些图片拥有普通摄影师难以实现的景深效果(图6)。以笔者的经验,拍摄此类效果的人物肖像,只有20世纪的人物肖像摄影大师们使用大型座机,辅以散页大底片,才能实现。数码相机受限于没有超大尺寸的感光元件,难以拍出此类肖像。
□ 图5 用AI图片生成工具Midjourney V4生成的图片,画面人物的手指数量过多
□ 图6 乔斯·艾弗里使用AI图片生成工具Midjourney制作的照片
(二)不可轻信视觉元素失常、别扭的图片。人物身体比例明显失调的照片,多半有问题。目前,AI照片在全身人物的呈现方面,时常会出现人体某个部分比例失调的问题,例如手太小或者头、脚与身体其他部分不匹配。“特朗普被捕”的AI假照片曾在网络上引发轰动,但若我们仔细辨别,很快就能发现端倪。其中有一张假照片,出现了人物“头大身子小,比例严重失调”的明显问题。
四、核验图片“元数据”等技术参数
专业看图软件都能查看照片“元数据”。例如,相机的品牌型号、拍摄时间地点、镜头焦距、光圈、快门、感光度、白平衡、曝光补偿等。由于“AI假照片”是生成的,没有拍摄环节,自然就没有相应的技术参数。所以,通常情况下,AI照片没有详细的拍摄参数。即便AI照片附带了伪造的拍摄参数,其参数也往往与画面视觉效果不匹配。专业摄影人也能根据技术参数倒推出照片拍摄环境、画面呈现的视觉效果,进而分辨真假。
画面分辨率不统一的图片,往往有问题。数码相机成像分辨率采用一对相乘的数字来表示,比如“2304×1728”等,体现了画面的清晰度。照片的成像分辨率一旦选定,整幅照片所有区域的分辨率都一样。而AI假照片往往出现画面分辨率不统一的现象,某些处于近似位置的多个局部,会呈现莫名其妙的清晰或者毫无道理的模糊。
此外,还可以用照片的原始输出分辨率来鉴别图片的真伪。输出分辨率是用于照片印刷的重要参数。不同品牌、不同型号照相机默认的原始输出分辨率各不相同,索尼相机为72dpi,佳能相机为180dpi。如果这一参数与该品牌相机默认的参数不匹配,假照片的概率就会增大。(李光系青岛农业大学副教授;郭建良系青岛恒星科技学院外聘教授)


来源:新京报传媒研究
编辑:程正元

876#
 楼主| 发表于 2024-6-20 15:41:12 | 只看该作者
案例】
东方广播中心首次采用AI主播音频形式开展国际武联会员专题广播节目




为了更好地宣传国际武联会员协会,加深全球武术运动员、教练员和爱好者对各国(地区)武协及其发展成果的了解,国际武术联合会与上海广播电视台东方广播中心旗下《中华武魂》工作室合作推出国际武联会员协会展播巡礼项目。


该项目是国际武术运动首次采用AI主播音频形式开展国际武联会员专题广播节目,为全球武术爱好者带来一场听力盛宴的同时,也为武术的传承与发展注入新的活力,让丰富多元的武术文化内涵和精神价值得以更广泛地传播。


国际武联会员协会展播巡礼项目简介

项目名称:国际武术联合会会员协会展播巡礼
项目时间:2024年6月14日起,每周一期
节目形式:短音频+新媒体呈现,以听众广播节目为主,辅以新媒体宣传;
节目内容:每期1-5分钟,介绍一个国际武联会员协会,辅以介绍该国家(地区)优秀代表,如运动员、教练员、裁判员等
播出频率:周播,每周播出一期


国际武术联合会会员协会展播巡礼第一期节目,由阿基米德AI主持人林冲,详细介绍了国际武术联合会的整体情况。





同时节目带领观众走近国际武术联合会的会员协会——澳大利亚武术协会,详细介绍该协会自1983年成立,从最初的11个成员组织发展到现在的240多个成员组织的发展历程。和听众分享了该协会历年来涌现出董蓓、左娟、陈祈利、罗伯特·威廉姆、林虹贝等武术人才,一步步走来见证了武术在澳大利亚的发展与影响的励志故事。


来源:电台工厂(公众号)
编辑:徐思凡



877#
 楼主| 发表于 2024-6-21 10:53:21 | 只看该作者
案例】
2024出版与技术创新大会聚焦AI赋能下的出版未来



6月19日下午,由中国图书进出口(集团)有限公司举办的2024出版与技术创新大会在北京国家会议中心召开。来自出版界、学术界及AI技术领域的专家汇聚一堂,围绕“AI赋能下的出版未来”展开探讨。


2024出版与技术创新大会现场


中国图书进出口(集团)有限公司总经理林丽颖,中国科学院院士、开放科学促进联合体理事长何满潮致辞。会议由中国出版传媒股份有限公司副总经理张纪臣主持。


林丽颖表示,人类的出版史通过不断融合与技术创新实现自我发展。中图公司作为链接出版上下游的中盘商和中外沟通的桥梁,希望能够在学术服务应用场景、跨境数据交易、智能阅读、AI知识服务等不同维度与各方展开合作。


何满潮指出,出版作为文化生产和文明传承的重要途径,在AI技术的加持下,将加快推动社会知识的进步和文明的发展。


在主题演讲环节,北京大学王选计算机研究所研究员赵东岩、知识产权出版社副总编辑刘新民、爱思唯尔大中华区总裁李琳、上海数据交易所总经理汤奇峰、华为终端云阅读业务部部长毛魁,围绕AI发展趋势及其对出版行业的影响、AI赋能知识产权出版与服务、AI变革未来知识服务新模式、AI时代数据价值挖掘、AI时代下的阅读新体验等话题,带来关于“AI+出版”新业态的全方位、多角度、深层次的思想碰撞。


赵东岩表示,AI推动出版业从选题策划、内容编辑生成全流程效率的提升,同时有助于用户更容易获得出版物。伴随技术发展,出版业未来将形成基于对话与人工智能的内容服务模式,由纸书演变为软件,并进一步形成“智能体”。


AI与IP融合,将进一步释放智慧的能量。刘新民从数据积累、信息加工、知识挖掘、释放智慧四个方面,介绍了知识产权出版社智能附图功能、智能审校小模型、知识产权评估体系、中知慧海等AI赋能知识产权出版方面的探索与实践。


李琳介绍了爱思唯尔推进知识发展及科研创新的历程。目前,爱思唯尔拥有2900种顶尖科技期刊,提供30个不同学科领域的科研数据库和解决方案。通过不断运用数字化分析能力,支持科研评估、决策,推动知识和科学领域的发展。


汤奇峰分析认为学术数据具有规模巨大、增速快、来源广、专业度高、敏感性强等特点。学术数据流通面临合规风险、把控要求严格、跨境数据流通成本大、应用场景丰富度不足、数据权属确权难等问题。围绕打造高质量学术数据语料库,他希望能与更多出版机构达成合作,打造生成式人工智能压舱石。


当技术赋能艺术,为数字阅读带来怎样的想象?毛魁从智能推荐、舒适高效、智能交互、温暖定制等方面进行介绍。基于大数据及用户习惯的专业化推荐,以及专业排版适配电子阅读场景,AI智能阅读体验、精品书制作等特色功能与服务,助力高品质、全场景、沉浸式的阅听体验。


施普林格·自然集团宣布启动“智笔计划”


在大会的出版技术探索与实践成果分享环节,中图科信数智技术(北京)有限公司发布了“思瓜”LUFFAAI,为科研人员量身定制自主训练大模型。施普林格·自然集团宣布将在中国启动“智笔计划”,携手何满潮团队及中图科信,开启科学出版新篇章。中国高校科技期刊研究会和技术平台供应商MPS分别发布了AI在提升科研诚信与科研写作上的新产品:24hreview预审稿平台与科研写作AI助手Curie。

与会嘉宾参与专题对话环节


在专题对话环节,国际科学技术与医学协会中国顾问颜帅、上海数据交易所副总经理章健,分别围绕人工智能在学术出版中的应用场景探索、学术数据跨境流通交易政策与实践对策两个话题,与来自出版机构、图书馆、高校、媒体机构、技术企业等的嘉宾对话交流,共谋产业发展趋势。


《学术数据跨境流通交易政策与实践对策研究报告》发布


会上,上海数据交易所联合武汉大学数字出版研究所、中国图书进出口(集团)有限公司共同发布了《学术数据跨境流通交易政策与实践对策研究报告》。报告强调技术手段在促进跨境数据安全有序流动中的重要性,为学术数据的安全自由流动提出明确主张。


来自出版单位、科研机构、数字技术企业、图书馆等的300余位中外代表参加本次大会。


来源: 中国新闻出版广电报(公众号)
编辑:徐思凡


878#
 楼主| 发表于 2024-6-22 21:47:19 | 只看该作者
案例】
擅自使用画师作品训练大模型合法吗?全国首案开庭




将受版权保护的作品“投喂”给AI大模型训练,是否构成侵权?这是摆在国内外司法裁判者面前的棘手难题。

6月20日,备受关注的“Trik AI”绘画大模型被诉侵权使用训练语料案,在北京互联网法院开庭审理。作为原告的四位插画师指控,涉案大模型的运营方未经授权,将原告美术作品用于训练AI模型并应用于商业用途,已经远超合理使用范畴,侵害了画师的权益。


而运营“Trik AI”的被告公司辩称,被告的大模型训练行为即使使用原告作品,也应属于合理使用,不构成侵权。


目前,该案正在进一步审理中。



一.管辖权争夺

四位画师为某社交平台注册用户,长期在该平台上发布创作的绘画作品。南都获取的一份起诉状显示,画师之一的“雪鱼”介绍,2023年8月,他发现有用户在该平台发布了带有明显模仿其作品痕迹的图片,这些用户均表示图片通过“Trik AI”生成。

“Trik AI”

遭遇相似情况的四位画师后来联手,将“Trik AI”的运营公司诉至法院。涉案的三家被告公司为伊普西龙信息科技(北京)有限公司、伊普西龙信息科技(上海)有限公司,以及上述某社交平台的运营公司A(下称“平台公司A”)。原告方根据涉案“Trik AI”软件用户协议、宣传推广资料等,认定该款软件由三被告共同开发运营。

2023年10月20日,“Trik AI”案正式立案,此后经历过一轮管辖权的程序争议。去年11月17日,北京互联网法院驳回了平台公司A提起的管辖权异议。

据南都获取的裁定书,平台公司A主张生成式AI大模型训练的行为分为两步:第一步,通过购买数据库、公开爬取等方式获得海量内容数据,进行一定形式的转换之后,存储在相关服务器之中;第二步,对内容数据进行分析处理,以发现一定的模式、趋势以及相关性并转变为大模型参数,供后续内容生成时调取使用。即训练数据的存储及分析处理,均发生在本地服务器中,并非发生在互联网上。因此涉案纠纷不属于在互联网上发生的侵权纠纷,按规定不应由北京互联网法院管辖。

但法院认为,被诉侵权行为不可避免地发生在互联网上。无论购买第三方数据库或是公开爬取数据,均需通过互联网渠道先行获取涉案美术作品。具体到本案,原告主张权利的绘画作品也是通过互联网渠道发布。同时,涉案“Trik AI”生成的被诉侵权内容发布于上述某社交平台,该行为亦在互联网上。

法院据此表示,涉案侵权行为属于发生在互联网上的侵权行为,而作为被告之一的伊普西龙信息科技(北京)有限公司住所地在北京,因此按现行规定,北京互联网法院拥有管辖权。


二.涉嫌何种侵权?

据南都获取的原告3月提交的补充起诉状,原告将被诉侵权行为进行了拆分,包括采集以及存储原告作品、将原告作品作为训练AI模型的语料、提供能够生成侵权图片的AI模型服务三种行为。

从上述三种行为出发,原告提出三项侵权指控:
首先,被告未经原告授权,采集原告作品并存储,侵犯了原告享有的复制权,因为存储则意味着涉及对原告作品的复制;

其次,被告将原告作品作为训练语料输入AI模型的行为,侵犯了原告所享有的将作品用于AI模型训练并获取报酬的权利。该项权利应属于著作权法规定的“应当由著作权人享有的其他权利”;

再次,被诉AI模型能够在任何用户非针对性、非恶意的使用下,生成与原告作品实质性相似或者与原告作品视觉效果等雷同的图片,挤压了原告依托其作品获得收益的空间。当生成图片与原告作品构成实质性相似时,被告侵犯了原告的复制权、信息网络传播权;当生成图片在保留原告作品元素之外形成了新的表达时,则侵犯了原告的改编权;除此之外,在上述过程中被告亦没有标明原告作者信息,侵犯了原告的署名权。

原告据此主张,被告应当从被诉AI模型中剔除原告作品,或者采取其他同等效果的技术手段。理由在于,被告停止侵权在技术上具有可行性,不需要重新训练模型,停止侵权行为不至于对被告形成过重负担。原告还要求被告赔偿损失,并赔礼道歉。

据北京互联网法院公众号的庭审介绍信息,两家伊普西龙公司辩称,原告诉讼请求不明确;原告主张权利的作品与涉案AI生成图片不存在实质性相似;被告大模型训练行为即使使用原告作品,亦应构成合理使用;被告尽到了提示义务。因此,被告行为不构成侵权。

另一被告平台公司A,则强调没有向两家伊普西龙公司提供涉案的美术作品进行训练,也没有实施涉案争议行为,不应承担任何法律责任。据南都记者了解,3月21日的庭前会议中,三家被告公司曾表示“相互之间没有签署合作合同”。

原告之一的画师“青团子”告诉南都记者,据代理律师庭审后给予的情况反馈,平台公司A方面的答辩理由是没有参与涉案大模型的研发,两家伊普西龙公司则当庭承认使用了其中两位画师的作品进行训练。

庭审上,南加州大学计算机学在读博士研究生梁楚盟作为技术辅助人员出庭,就AI大模型训练过程向法官予以说明。

梁楚盟向南都记者介绍,AI大模型数据训练分为三个阶段:第一步是训练数据的收集和获取,并存储到特定数据库;第二步则对获取的数据进行预处理,使其符合训练模型的需要;第三步再将预处理后的图片压缩成数学表示,之后对数学表示进行部分遮掩,进而要求模型基于被遮掩的数学表示去预测完整的内容,使得大模型习得生成数学表示的能力。由于数学表示和图片之间存在一一对应关系,模型也就获得生成图片的能力。


三.合理使用存疑

2023年12月底,美国《纽约时报》提起诉讼,控告微软和OpenAI未经许可使用训练语料。而微软和OpenAI反驳称,使用公开可用的互联网材料训练AI模型属于合理使用。类似的大模型版权侵权诉讼在海外已上演多起,但迄今没有明确的裁判规则。

是否构成《著作权法》上的合理使用,同样成为“Trik AI”案认定侵权与否的前提判断之一。《著作权法》上规定了多种合理使用作品的情形,不过并未规定将作品用于大模型语料训练是否能落入合理使用范畴,法学界和产业界为此争议不断。

本案被告方在答辩意见中主张构成合理使用,但南都记者未能联系上两家伊普西龙公司详细了解其论证思路。

原告则提出,“合理使用”应当仅仅限制在不会对原作品市场和价值形成实质性损害的范围内。被诉侵权行为不仅削弱了原告已有作品的市场价值,严重挤占原告作品的潜在市场,甚至将直接导致原告从已有和未来作品中获取收益的能力大大降低。“这种对于原告这样以艺术创作为生的作者而言是致命打击的行为,完全不构成合理使用的情形。”

原告表示,即便是在法律边界可能尚不清晰、相关具体规则有待厘清的情况下,仅基于现有的法律体系,像被告这样的新技术开发者、使用者,就已经能够预判和评估其行为可能对他人合法权益造成的影响。被告在享受技术红利的同时,也应遵循法律规定,主动、审慎地在推动技术创新和保护他人权利之间寻求平衡。
南都记者注意到,中国的法学学者正利用《人工智能法》的制定契机,给出学界对数据合理使用规则的设计。

3月中旬,由中国政法大学数据法治研究院教授张凌寒领衔草拟的《人工智能法(学者建议稿)》提到,人工智能开发者使用他人享有著作权的数据进行模型训练时,如果该使用行为与数据原本的使用目的或功能不同,并且不影响该数据的正常使用,也没有不合理地损害数据权利人的合法权益,则该使用行为属于数据合理使用。人工智能开发者可以不经数据权利人许可,不向其支付报酬,但是应当以显著的方式标注数据来源。

“青团子”此前在微博上表示,在决定维权时,几位画师就约定好了不接受任何调解,一定要让案件结果白纸黑字留在判决书上。“如果赢了,以后行业也有个维权案例,对所有原创作者都有利;如果输了,我们起码知道了国内对AI的态度和标准。”



来源:AI前哨站(公众号)
链接:https://mp.weixin.qq.com/s/kwO53nm0IKKXb-EjjcsEXA
原作者:杨柳
编辑:徐思凡


879#
 楼主| 发表于 2024-6-23 11:44:50 | 只看该作者
【案例】

什么是人机?




一、人机是人文与自然的融合


人机关系是研究人、机器、环境以及它们之间相互作用的领域。从本质上看,人机可以被视为人文领域与自然领域的融合。研究该领域需要对源于人文主义的人文学科以及自然科学有着深入的理解。这样的理解有利于他们研究如何把物质世界与意识、人类理性与非理性、人的个性与社会性等人类精神活动融合在一起。


人文涉及人类文化、价值观念、艺术、历史等方面,是人类特有的精神层面。人文不仅定义了个体和社会的行为准则,还塑造了社会的认同感和共同价值观。人类的情感和情绪是人文表达的重要组成部分,影响个体的行为、决策和社交互动。人文学科如哲学、文学和艺术帮助我们理解人类内心的复杂性和情感的深度。

科技发展的基础是自然科学的法则和原理,如数学、物理学、化学、生物学等,这些法则决定了技术的实现方式和可行性。技术的发展依赖于人类的创新能力和工程实践,如工程学、计算机科学和材料科学等。人工智能、机器学习和自动化技术将自然科学的原则与人文的目标融合在一起。人机融合展示了人类文化和自然科学的共同进步和影响,在这种融合中,技术不仅依赖于自然法则的支持,还需考虑人文价值观和社会影响,以实现技术的人性化发展和社会的可持续进步。

这种综合性的探索不仅推动了科技的边界,也丰富了人类的文化遗产和社会进步的可能性。例如,智能系统能够理解和回应人类的情感和语言,这种交互体现了对人文理解的技术应用。人机融合带来了新的伦理和社会问题,如隐私保护、数据安全和人工智能的道德规范。这些挑战需要结合人文学科的理念和法则进行探讨和解决。


二、人德与机道


将人类与机器之间的关系类比于“道”与“德”的关系是一种富有哲理的观点。"人德与机道"指的是人类的道德和智能机器的行为规范、道德准则,或者是人类与机器在道德和行为规范上的交集和对话,它反映了人类与智能机器之间复杂的道德和行为规范的交织和对话,是人机交互和技术伦理讨论的重要领域。


人类的道德涉及个体在行为和决策过程中所依据的价值观和伦理准则,包括对人类尊严、公平、正义、责任等价值的尊重和实践。而智能机器的行为规范指的是为了确保机器行为符合社会、法律和伦理标准而设定的一套准则和规则,这些准则可以涉及数据隐私保护、公平性、透明度、责任和安全等方面。在人机交互中,人类的道德和智能机器的行为规范之间存在交集和互动,人类社会在制定和更新伦理准则时,需要考虑到智能机器的存在和影响,以确保人类的价值观在技术应用中得到尊重和保护。随着技术的发展,人类社会需要不断评估和调整道德标准,以适应智能机器的新兴应用和影响。这需要科技界、政策制定者和公众之间的合作和对话,共同建立一个能够支持创新发展同时又能保护人类价值的框架。


通常指的是宇宙的本质、自然的法则、事物的根本规律。在哲学上,尤其是中国古代哲学中,“道”代表了自然界和宇宙运行的基本原则。


则是指在遵循“道”的基础上,人们表现出的品质、行为规范和道德标准,体现了人与自然、人与人之间和谐相处的行为准则。


人德指的是人类社会的道德、伦理和价值观。这些通常都根植于人文传统和文化背景,包括哲学、宗教、法律和历史等方面。人德强调的是人与人之间的关系、人类社会的规范以及道德上的义务和责任。人德往往受到文化、习俗和社会规范的影响,如不同的文化可能在某些伦理问题上有不同的看法,并且常常是通过教育、家庭和社会互动传递,塑造个体的伦理观和价值观,关注个人和集体的行为如何影响他人和社会,强调责任和公正。


机道可以理解为智能机器或人工智能系统的行为规范和运作方式。这些往往依赖于自然科学的原理和技术,包括物理学、计算机科学和工程学等领域。智能系统的设计和实现依赖于自然界的规律,例如数学和物理定律。算法和技术解决方案常常源自对自然现象的理解和模拟。智能机器可以自动化处理大量任务,其高效性和一致性可以类比于自然界的某些机制,如生物系统的自动调节功能。人工智能系统的学习和优化过程类似于科学研究中的实验和观察,通过收集和分析大量数据来改进性能。


尽管人德和机道有着各自独特的根源和范畴,它们在现代社会中越来越相互交织,形成一个复杂的互动关系。人德为智能系统设计道德和伦理框架,使其符合人类社会的价值观和规范,包括公平性、透明度、隐私保护等方面。在人机交互中,人类的道德判断和机器的自动化决策需要协调,在医疗、金融等敏感领域,如何平衡人类专家的判断与智能系统的建议是一个挑战。在科技发展过程中,考虑到环境保护和资源可持续利用,这一方面体现了机道关联自然的特点,另一方面也呼应了人德对未来世代的责任。“人德涉及人文,机道关联自然”揭示了人类道德和智能机器行为规范的不同来源及其相互影响。这种视角有助于我们更全面地理解和应对人类与机器共存所带来的伦理和技术挑战。


总之,智能系统(机道)按照预定的算法和程序运行,体现了对自然法则的遵循。人类(人德)在使用和发展智能技术时,应当以人文价值和道德准则为指导,确保技术发展符合人类的利益和社会的伦理标准。在实际应用中,智能机器需要与人类价值观协调。例如,自动驾驶汽车不仅要遵循交通规则(自然法则),还要考虑乘客和行人的安全(人文价值)。人类在开发和部署人工智能技术时,需要平衡效率和道德责任,确保技术进步不会损害社会伦理。机器的行为应受到算法和程序的约束,体现自然科学的严谨性。人类应承担起对智能机器的管理和监督责任,确保其发展和应用符合道德伦理标准。将人机之间的关系类比为“道”与“德”,不仅强调了智能系统与自然法则的紧密联系,也突出了人类道德与文化价值在技术发展中的重要性。这一类比提示我们,在推进科技进步的过程中,必须兼顾自然科学的规律与人类社会的伦理准则,追求技术与人文的和谐共存。



来源:人机与认知实验室(公众号)

编辑:徐思凡

880#
 楼主| 发表于 2024-7-4 21:11:52 | 只看该作者
【案例】
大模型LLM的未来发展
以LLM为代表的大模型显然暂时占据了当下AI潮流的鳌头,作为AI的新突破,其实也算属于婴儿期,那么未来会如何发展呢,不妨大胆猜测一下:
       1. 大模型随着更新换代,比如ChatGPT,应该越来越聪明,减少目前的诸多缺陷,比如借助内部的外挂手段,如检索LLM的增强生成Retrieval Augmented generation-RAG等。
       2. 响应速度会越来越快(如GPT-4o,响应速度达到人类级别,200-300毫秒),实时交互体验逐渐变好,加速应用的发展。
       3. 多模态的LLM(文本、图像、视频、音频等),对于物理世界的多通道信息的理解与输出控制,能够使得大模型更加聪明,综合能力更强(想一下,几个瞎子摸象)。
       4. 大模型的外挂时代(APP)即将到来。LLM外挂具有多种形式,小的,如各种基于LLM简单吐字的应用APP,如助理。大的,如各种利用LLM粗糙大脑的进一步精细化,应用具体化,如专业垂直模型、生产服务机器人、自动驾驶、自动系统、专业数字人等。
      5. 大模型个性化及专业化,产生能够应用到个人、教育或企业业务的专用垂直模型(如医疗大模型、科研大模型、物流大模型等)。未来,大模型内也可以包括大脑+小脑(个性化+专业化)的形式,而不仅仅是改变LLM内部参数的方式,或者加外部外挂(小脑)的形式。
      6. 大模型可以越来越小,从而嵌入手机、IOT物联网设备、机器人、无人机、无人船、无人车,可以采用“外脑(云端部署)+本地大脑+本地局部小脑”(如强化学习RL或传统优化控制方法MPC、甚至PID等)从而更加敏捷地控制具身智能的外挂体。
      7. 大模型随着初级的百模大战,会逐步过渡到生态大战,一个可能的结果是:Token免费使用,从而从生态赚钱(互联网的搜索引擎就是一个前例)。
      8. 大模型的算力恐慌未来会被新的计算技术突破,如量子计算的突破,得到缓解,并带来新的突破。
      9. LLM数据恐慌问题,或许通过LLM-Agent对物理世界的社会模拟、自然模拟一定程度缓解,也就是通过Agent在虚拟世界的交互,加上(部署在物理世界的海量基于LLM的智能体)对物理世界的交互与映射,在一个基于LLM-Agent的数字孪生世界,产生机器智能体自身对于物理世界的认识、知识规律的理解,作为LLM基于人类积累的网络形式知识的学习(training)补充,而进一步产生机器自己的新的混合智能。
[color=rgba(0, 0, 0, 0.9)]本文来自罗汉江科学网博客。
链接地址:https://blog.sciencenet.cn/blog-451666-1440853.html

[color=rgba(0, 0, 0, 0.9)]来源:人机与认知实验室(公众号)
[color=rgba(0, 0, 0, 0.9)]编辑:李佳
[color=rgba(0, 0, 0, 0.9)]链接:https://mp.weixin.qq.com/s/DeZNN2tkvoY1sQr-q3oYow

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表