传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
851#
 楼主| 发表于 2024-4-8 14:38:45 | 只看该作者
【案例】
华盛顿大学撰文反驳微软,我们无法删除大模型关于哈利波特的记忆

大数据文摘受权转载自夕小瑶科技说
作者 | Tscom
引言:探索记忆消除的界限
在人工智能的发展过程中,一个引人入胜的议题是机器学习模型是否能够被训练以忘记其曾经学到的信息。近期,Ronen Eldan和Mark Russinovich在其研究“谁才是哈利·波特?”[1]中提出了一种创新技术,声称能够从LLMs中“抹去”特定数据集的记忆,尤其是针对《哈利·波特》这样的知名作品。他们的方法引发了业界的广泛关注,并被认为是在LLMs“遗忘”技术领域的一大突破。
但是,本文将对Eldan和Russinovich的研究成果提出质疑,认为这样的声明可能过于宽泛。本文通过一系列轻量级实验,探索记忆消除的界限,尤其是针对深度学习模型是否真的能够彻底忘记哈利·波特系列内容的可能性。
论文标题:
THE BOY WHO SURVIVED: REMOVING HARRY POTTER FROM AN LLM IS HARDER THAN REPORTED
论文链接:
Eldan和Russinovich的方法概述
在Eldan和Russinovich的研究中,他们提出了一种针对LLMs的“遗忘”技术,这一技术的核心在于通过微调(finetuning)过程,有选择性地从模型中移除特定信息。具体来说,他们的方法首先通过强化学习(reinforcement learning)来训练一个模型,使其对目标数据集(例如《哈利·波特》系列)有更深入的理解。然后,他们利用这个强化后的模型来识别与目标数据集最相关的词汇和表达,通过替换这些特定的表达为更通用的词汇,以此来“遗忘”原始数据集中的信息。
下图比较了在不同微调步骤中,对于句子“Harry Potter studies”下一个词汇的概率分布,展示了最可能的下一个词汇是如何逐渐从“magic”转变为通用完成形式的。
Eldan和Russinovich声称,通过这种方法,他们能够在大约1个GPU小时的微调后,有效地抹去模型对《哈利·波特》系列的记忆(下图比较了Llama-7b微调前后的变化)。
他们通过在多个常见的语言模型基准测试中评估模型的性能,如Winogrande、HellaSwag、ARC等,发现模型在这些测试中的表现几乎没有受到影响(下图),从而得出结论,认为他们的技术能够在不影响模型整体性能的前提下,实现对特定内容的“遗忘”。
实验设置与设计:挑战LLM遗忘哈利·波特内容的可能性
本文作者在2019年的iMac上运行了一系列实验,并通过Ollama工具进行了测试。
实验的设计主要在以下三个方面:
1. 原型测试:检验与哈利·波特相关的核心概念
在原型测试中,我们探索了与哈利·波特强烈关联的概念,例如“楼梯下的男孩”和“幸存的男孩”。这些原型提示旨在测试作为相关标记集群的“想法”,而不是特定的标记序列。
2. 遗漏术语测试:探索可能被忽略的特定词汇
我们还测试了作者可能遗漏的术语,如“麻瓜”和“泥巴种”。这些测试旨在发现在尝试从模型中删除哈利·波特相关内容的过程中可能被忽视的特定词汇。
3. 不可消除短语测试:评估难以移除的特定句子
最后,我们对那些作者可能无法消除的短语进行了测试,例如“不可名状的他”。与原型不同,这些短语测试是针对特定的标记序列。
实验结果与讨论:对知识“消除”目标的批判性思考
1. 讨论记忆消除的定义和评估方法
记忆消除,或所谓的“memory-hole”过程,指的是从LLMs中删除特定知识的尝试。Shostack通过少量不到十二次的试验,模型不仅明确提到了哈利波特,还多次“接近”提及,例如提到了“harry harris series”(上图)和“Voldemar Grunther”(下图),这些都与哈利波特系列有着密切的联系。
这些实验结果引发了对记忆消除定义和评估方法的深入思考。首先,我们必须明确“消除”知识的含义:它是否意味着模型完全不再生成与目标内容相关的任何信息,还是仅仅减少了这类信息的生成频率?其次,评估记忆消除的有效性需要一套严谨的方法论。例如,是否应该仅仅依赖于模型的直接输出,或者还应该考虑模型生成的内容与目标知识的相似度?
2. 锚定效应和安全分析的重要性
在进行记忆消除的实验时,避免锚定效应至关重要。锚定效应是指个人在面对不确定性时,会过分依赖(或锚定于)第一个接收到的信息。Shostack在实验中未完全阅读Eldan和Russinovich的论文,这反而避免了他在实验设计上受到原有结论的影响。这种无意识的实验设计可能更能揭示模型记忆消除的真实效果。
此外,安全分析在评估记忆消除的过程中也扮演了重要角色。安全分析关注的是在消除特定知识后,模型是否仍可能产生有害或不当的输出。例如,尽管模型可能不再直接提及“哈利波特”,但它可能会生成与哈利波特相关的隐晦内容,这仍然可能触发版权或其他法律问题。
总结:对LLM记忆消除能力的反思与展望
1. 实验结果的反思
实验结果显示,尽管模型经过调整以避免生成哈利波特相关内容,但在多次尝试中,模型仍然能够产生与哈利波特相关的回应。例如,模型曾经提到“harry harris series”和“Voldemar Grunther”,这些都与哈利波特系列有着密切的联系。这表明,尽管模型被训练以忘记特定的信息,但它仍然能够通过不同的方式回忆起这些信息,或者至少是与之相关的概念。
2. 记忆消除的挑战
记忆消除的过程比预期中更为复杂。尽管可以通过调整模型来减少特定信息的生成,但完全消除模型中的某个特定知识点似乎是一项艰巨的任务。这不仅仅是因为信息可能以多种形式存在于模型中,而且因为语言本身的复杂性和多样性使得完全避免某些话题变得极其困难。
3. 未来的展望
展望未来,我们需要更深入地理解LLM如何存储和检索信息,以及如何更有效地进行记忆消除。这可能需要开发新的技术和方法,以更精细地控制模型的输出,并确保它们不会无意中泄露被遗忘的信息。此外,我们还需要考虑如何评估记忆消除的效果,以及如何确保这一过程不会损害模型的其他功能和性能。
参考文献
[1] Ronen Eldan and Mark Russinovich. Who’s harry potter? approximate unlearning in llms. ArXiv, 2023. doi:https://doi.org/10.48550/arXiv.2310.02238.

来源:大数据文摘(公众号)
编辑:王晨雅

852#
 楼主| 发表于 2024-4-8 17:27:46 | 只看该作者
【案例】
苹果从Shutterstock获数百万张图片授权,训练其人工智能模型
苹果公司已经达成一项协议,从Shutterstock获得数百万张图片的授权,以训练其人工智能模型。
其他科技公司也从Shutterstock获得了类似的协议,帮助开发视觉人工智能引擎,包括谷歌、Meta和亚马逊。苹果在2022年底签署协议后很久才有消息传出,预计苹果将为此付出高达5000万美元的费用。
此前有消息称,苹果与多家出版商就使用新闻文章内容进行类似的人工智能大语言模型(LLM)培训进行了谈判。据称,康泰纳仕IAC(Conde Nast IAC)和美国全国广播公司(NBC)等大型媒体公司一直在与苹果公司就其内容的授权进行谈判。
苹果公司预计将在今年6月的全球开发者大会上发布一些关于在其操作系统中加入更多人工智能技术的重大声明。尽管苹果在人工智能整合方面经常被认为落后于竞争对手,但它自己也进行了一些创新。
在过去的一年里,苹果设备用户可能已经注意到苹果“机器学习”技术的小幅改进。机器学习是指通过不断将新数据纳入现有的统计模型,从而提高自身设备性能的过程。例如,预测文本在适应特定用户偏好的词汇方面已经稳步提高了准确性,Siri也提高了翻译常用短语的能力。据传,苹果的下一代处理器将包括更强大的神经引擎。
苹果全球营销高级副总裁格雷格·乔斯维亚克(Greg Joswiak)在社交媒体上打趣说,下一届WWDC大会将“绝对不可思议”,暗示大会将重点关注iOS 18和其他苹果操作系统中添加的人工智能功能。
此前Gurman预测,苹果新发布iOS 18将使用生成式AI技术,显著提高Siri和Messages应用的问答和自动补全句子方面的能力。他还表示,苹果还在探索将生成式人工智能功能应用于其平台上的其他应用,包括Apple Music、Pages、Keynote和Xcode。
另外据The Information报道,苹果计划将大规模的语言模型集成到Siri中,以允许用户自动执行复杂的任务。这一功能将与快捷方式应用进行更深入的整合。这一功能预计将出现在2024年发布的iPhone软件更新中,很可能是iOS 18。
苹果公司首席执行官蒂姆·库克最近透露了该公司对人工智能(AI)的高度关注,暗示今年下旬将公布重大进展,可能是在备受期待的iOS 18更新中增加生成式AI。
苹果在使用人工智能技术方面面临的最大挑战是维持其用户隐私标准,这是其他使用人工智能的大型科技公司不关心的问题。苹果最近透露,它打算开发能够尽可能多地使用设备上技术的大型语言模型。

来源:SevenTech(公众号)
编辑:王晨雅

853#
 楼主| 发表于 2024-4-9 21:21:40 | 只看该作者
【案例】
AI搜索,打钱!两难的谷歌被迫“走钢丝”
最近,网传谷歌正考虑将其AI搜索最新成果置于付费墙之后。
         
作为全球搜索引擎市场的绝对霸主,谷歌的一举一动牵连甚广。众所周知,搜索领域的生态格局已多年未有剧变,自去年开始,大模型的流行、生成式AI的崛起却搅起了“一池春水”。
         
这一背景下,“领头羊”谷歌也不得不调整其在搜索方面的布局。如今,谷歌的新动作虽然还在酝酿阶段,但其透露出的信号已经让一些人开始质疑。
01
谷歌:AI搜索是个烫手山芋
据外媒《金融时报》报道,谷歌正在内部进行讨论,是否将部分AI搜索功能转移到高级订阅服务之中。在媒体向谷歌发言人求证时,对方并未否认这一消息,但也没有透露任何细节。
         
事实上,与多数人预想中不同,谷歌在AI搜索问题上处于两难境地。
         
尽管微软在Bing搜索引擎中添加生成式AI功能并未显著改变市场份额,但要是在搜索查询中使用生成式AI技术,则有可能改变谷歌现有的以广告为主要收入的商业模式。
         
去年,谷歌推出了搜索生成体验(SGE)。与微软的必应将ChatGPT制作成“聊天”界面不同,SGE将搜索和生成式AI相结合,用户在搜索时可以获得一份单独的摘要“快照”答案和验证答案的网站链接。同时,谷歌也会明确标记这些回答为“Generative AI is experimental”,并与自然搜索结果进行区分。
         
当然,在AI生成的结果旁边也会插入广告。可是,从传统的搜索结果列表转变为这种新形式,不得不让人考虑,这是否会改变用户与广告互动的方式,进而影响到谷歌的收入结构。
         
尽管SGE尚未对谷歌的核心搜索引擎业务产生重大影响,但撇开任何潜在的对公司广告收入的影响不谈,由于AI技术对于资源的高度依赖性,将其推广给更多用户也可能带来高昂的成本。因此,SGE成为了一个极有可能被设置为付费墙后的高级功能。
              
同时,谷歌发言人也明确表示,他们会积极开发更多与AI相关的增值服务,但他们并没有计划推出无广告的搜索产品。
         
这一消息传出后,全球最大的高性能计算(HPC)解决方案提供商之一、德国企业Northern Data Group的首席运营官Rosanne Kincaid-Smith表示了不满。在她看来:
         
第一,谷歌所处的位置独特。它与OpenAI等专注于开发更多新事物的科技公司不同,谷歌拥有庞大的影响力和覆盖范围,且在搜索引擎市场占据主导地位,应当将AI搜索创新成果公之于众,“允许大众接触并使用AI所带来的变革性技术”。
         
第二,将AI搜索创新成果置于付费墙背后讨论的本质,其实涉及到AI伦理和数据治理问题。“我们所有在这个领域的人……都负有直接的责任,要确保AI的道德管理是他们提供给公众的服务包不可或缺的一部分,而不是需要额外付费的内容。”
02
搜索的AI化进程:
大厂不可抵挡,也为之所困
先不论这次事件孰是孰非,通过观察谷歌的一系列动作可以发现,谷歌实质上是在努力寻找让人工智能与广告业务共生的方式。不能改变主要的盈利模式,但也不得不在功能上继续加码AI搜索。
         
“AI+搜索”从来不是一个新鲜议题。但是这一趋势从未像当下一样不可逆转。
         
随着搜索的AI化进程不断推进,AI搜索成为了全球商业市场上又一“兵家必争之地”,新旧势力纷纷亮剑,无论是想要做蛋糕的还是分蛋糕的,都在努力解锁新场景,寻找真正的杀手锏。
         
国外,微软一套组合拳强势出击,加持了GPT-4的Bing快速掀起风暴;被刺激到的谷歌随后推出SGE服务,将生成式AI功能整合到搜索中;初创公司Perplexity AI和Glean则分别立足C端和B端市场,在短期内成长为独角兽,实力不容小觑。
         
国内,同样是群雄林立。百度依托文心一言将旗下传统搜索升级为AI互动式搜索引擎;昆仑万维的天工AI搜索,360集团的360 AI搜索等产品也相继涌现;此外,淘宝启动了“淘宝问问”,抖音则在APP内测试“AI搜”,这波时潮为短视频、电商等领域的玩家提供了新解。
         
AI搜索赛道看起来竞争已趋白热化,但如果从更大的边际来看,在短期内,AI搜索不可能颠覆现有的搜索生态。

截图来自StatCounter:2023年3月至2024年3月,全球搜索引擎市场份额基本没有太多变化,谷歌依旧一骑绝尘
              
首先,基于AI所做的创新有限。迄今而至,并没有出现一款真正的杀手级搜索产品。大厂在进行搜索革新时相对谨慎,大部分成熟的搜索产品并没有太多令人惊艳的突破。
         
再者,AI搜索的正确性有待提高。“真实可靠”是用户对搜索引擎的核心诉求,但在AI生成的产物在互联网上泛滥时,如何保障用户看到可信的搜索结果,仍旧是诸多企业有待解决的问题。
         
最后,用户惯性阻力巨大。相比AI搜索,传统搜索多年来已经根植于多数人的工作和生活中,路径依赖下人们还没有足够的动力从传统的搜索方式中转向。
         
曾在短期内迅速吸引了大量用户的小众搜索引擎Neeva仅仅维持了四年就停止运营,最终被Snowflake收购。
其创始人在宣布Neeva关闭的博客文章中写道:“在整个旅程中,我们发现构建搜索引擎是一回事,说服普通用户转向更好的选择则完全是另一回事。
03
两种路线:为搜索本身付费,可行吗?
顺着Neeva的故事,其实我们可以清晰看到围绕搜索引擎构建的两条完全不同的发展之路。
         
路线1:谷歌模式
         
在线广告至今仍是谷歌最主要的收入来源。其中,搜索广告业务的地位至关重要。
         
根据Alphabet发布的2023财年第四季度财报,谷歌第四季度广告营收为655.17亿美元,同比增长11%;其中,核心搜索业务营收480.2亿美元,同比增长13%。
         
路线2:反谷歌模式
         
一些新兴的AI搜索企业更倾向于回归搜索本身的价值,让用户看到他们喜欢的内容,而不是更有“商业价值”的内容。
在产品形式上,AI搜索最重要的一点升级在于:用户终于不用在满屏广告中寻找答案了。这种“反谷歌”的搜索方式,决定了其主要收入来源不会是广告。
         
比如Neeva,其成立的初衷就在于其创始人Ramaswamy认为:从长远来看,以广告为基础的模式必然导致搜索结果的劣化。要想打造更好的搜索引擎,首先需要改变激励措施。
         
无独有偶,新兴搜索引擎Perplexity.ai、You.com同样依赖订阅来实现盈利,让用户为搜索服务本身付费。
在中国的一众搜索创业者中,有中国版Perplexity之称的秘塔AI搜索同样以“没有广告,直达结果”的slogan声名鹊起。

截图来自秘塔AI官网
据similarweb的统计数据显示,截至3月1日前28天,秘塔AI搜索网站的访问量高达478.3万次。不过目前尚不清楚,秘塔AI未来将采用什么样的商业模式。
         
综合来看两种路线,就发展现状来说,前者的优势几乎是碾压性的。曾一度被视为创业标杆的Perplexity如今也有了转舵的意向。
         
本来除了基础的免费版本,Perplexity还提供更为强大的Pro订阅服务。但这种模式并不足以支撑其发展。Perplexity 刚刚宣布,它正在将广告纳入其搜索结果中。
截图来自Perplexity官网
与原来的无广告模式相比,这种新模式显然为公司开辟了更多的收入渠道。分析人士认为,Perplexity决定在其平台中整合广告并非仅仅出于盈利考虑,更是一种维持并提升其服务的战略举措。
         
“投放广告能够为其提供持续改进平台、保持竞争优势所需的资源。然而,这一新特性引发了更多的问题,比如,如何在不损害用户所期待的质量与完整性前提下,将广告无缝融入搜索结果。”
04
写在最后
AI作为变数介入搜索领域已是既定事实。
         
我们姑且将谷歌的新动作视为其寻求AI搜索商业化之路的投石问路之举。基于其互动形式与广告业务的天然矛盾,在没有找到更合适的盈利模式以前,谷歌必须踩着钢丝,让两者尽可能和谐共存。
              
而对于新兴的搜索初创企业,AI搜索成为了一个契机,让搜索真正回归其本色:帮助人们找到自己想要的页面,并避开途中的一切障碍。但是如何真正在固有格局中存活下来,实现可持续发展依然是首要问题。同时,屠龙少年是否会终成恶龙,也需要警惕。
         
对于新技术浪潮带来的影响,人们往往会高估未来一年的变化,而低估未来五年乃至十年的变化。新兴搜索厂商如何在传统市场杀出血路?真正的爆款AI搜索产品会是何种模样?全球搜索生态是否会重新洗牌?这些未解之谜,终将有时间给出答案。
         
参考链接:
https://www.theregister.com/2024/04/08/google_search_paywall
https://www.thepaper.cn/newsDetail_forward_24783786
https://www.woshipm.com/ai/6009702.html
https://www.singlegrain.com/blog/n/perplexity-ads/
来源:51CTO技术栈(公众号)
编辑:王晨雅

854#
 楼主| 发表于 2024-4-16 22:44:34 | 只看该作者
【案例】

李飞飞团队年度报告揭底大模型训练成本:GeminiUltraGPT-42.5


如何复盘大模型技术爆发的这一年?除了直观的感受,你还需要一份系统的总结。
今天,斯坦福 HAI 研究所发布了第七个年度的 AI Index 报告,这是关于人工智能行业现状的最全面的报告之一。
报告指出,人工智能的发展正以惊人的速度向前推进,开发人员每月都在制造出越来越强大、越来越复杂的模型。然而,尽管发展速度加快,人工智能行业在解决人们对人工智能可解释性的担忧以及对其对人们生活影响的日益紧张方面却进展甚微。
在今年的报告中,斯坦福 HAI 研究所增加了有关负责任人工智能的扩展章节,有关科学和医学领域人工智能的新章节,以及对研发、技术性能、经济、教育、政策和治理、多样性和公众舆论的综述。

以下是报告的重点内容:
2023 年的进展速度比以往任何一年都要快得多,GPT-4、Gemini 和 Claude 3 等最先进的系统显示出令人印象深刻的多模态功能,能够生成流畅的数据多种语言的文本、处理音频和图像以及解释网络梗图。
2023 年新发布的支持生成式 AI 的大型语言模型数量比前一年翻了一番,其中三分之二是开源模型,例如 Meta 的 Llama 2,但性能最佳的是闭源模型,例如 Google 的 Gemini Ultra。
2023 年,工业界继续主导人工智能前沿研究。工业界产生了 51 个值得关注的机器学习模型,而学术界仅贡献了 15 个。2023 年,产学界合作产生了 21 个值得关注的模型,再创新高。
美国领先中国、欧盟和英国,成为顶级人工智能模型的主要来源地。2023 年,61 个著名的人工智能模型源自美国机构,远远超过欧盟的 21 个和中国的 15 个。
Gemini Ultra 是第一个在大规模多任务语言理解关键基准测试中达到人类水平表现的 LLM。OpenAI 的 GPT-4 也不甘示弱,在 Holistic Evaluation of Language Models 基准上取得了 0.96 的平均胜率得分,该基准将 MMLU 与其他评估结合起来。
不过,人工智能性能的提高是有代价的,报告发现,前沿人工智能模型的开发成本正变得越来越高。据说 Gemini Ultra 消耗了价值 1.91 亿美元的计算资源,而 GPT-4 的开发成本估计为 7800 万美元。
企业对生成式 AI 投资猛增
图 4.3.1 展示了 2013 年至 2023 年全球企业人工智能投资趋势,包括并购、少数股权、私募投资和公开发行。全球企业对人工智能的投资连续第二年下降。
2023 年,总投资下降至 1892 亿美元,较 2022 年下降约 20%。然而,在过去十年中,企业对人工智能相关投资增加了十三倍。
图 4.3.3 表明,AI 行业吸引了 252 亿美元的投资,几乎是 2022 年投资的九倍,是 2019 年投资额的约 30 倍。此外,生成式人工智能占 2023年所有人工智能相关私人投资的四分之一以上。
假如按区域进行比较,美国在人工智能私人投资总额方面再次领先世界。2023 年,美国投资额为 672 亿美元,大约是第二高国家中国投资额(78 亿美元)的 8.7 倍,是英国投资额(38 亿美元)的 17.8 倍(图 4.3.8)。
谷歌在基础模型竞赛中占据主导地位
报告显示,谷歌在 2023 年发布的基础模型最多,图 1.3.16 总结了 2023 年各个机构发布的各种基础模型。Google发布了最多的模型(18 个),其次是 Meta(11 个)和 Microsoft(9 个)。2023 年发布基础模型最多的学术机构是加州大学伯克利分校 (3 个)。
自 2019 年以来,Google 发布的基础模型数量最多,共有 40 个,其次是 OpenAI,有 20 个(图 1.3.17)。清华大学也脱颖而出,发布了七个基础模型,而斯坦福大学是美国领先的学术机构,发布了五个模型。
闭源模型优于开源模型
图 2.11.4 和 2.11.5 将闭源模型与开源模型在选定的基准上进行了对比。在所有选定的基准上,闭源模型的表现均优于开源模型。
训练成本
关于基础模型,一个绕不开的话题是推理成本。尽管人工智能公司很少透露训练模型所涉及的费用,但人们普遍认为这些成本已达到数百万美元,并且还在不断上升。例如,OpenAI 首席执行官 Sam Altman 曾提到,GPT-4 的训练成本超过 1 亿美元。
图 1.3.21 根据云计算租赁价格直观地显示了与选定 AI 模型相关的训练成本。下图表明近年来模型训练成本大幅增加。例如,2017 年 Transformer 模型训练成本约为 900 美元。2019 年发布的 RoBERTa Large 训练成本约为 160,000 美元。2023 年,OpenAI 的 GPT-4 和 Google 的 Gemini Ultra 的训练成本预计分别约为 7800 万美元和 1.91 亿美元。
图 1.3.22 显示了 AI Index 估计的所有 AI 模型的训练成本。如图所示,随着时间的推移,模型训练成本急剧增加。
如图 1.3.23 所示,对计算训练需求更大的模型需要的训练成本更多。
碳足迹
图 2.13.1 显示了选定 LLM 在训练期间释放的碳(以吨为单位)的比较。例如,Meta 发布的 Llama 2 70B 模型释放了约 291.2 吨碳,这比一位旅客从纽约到旧金山的往返航班所释放的碳排放量高出近 291 倍,大约是普通美国人一年碳排放量的 16 倍。然而,Llama 2 的排放量仍低于 OpenAI GPT-3 训练期间报告的 502 吨排放量。
美国在基础模型方面处于领先位置
2023 年,全球大部分基础模型源自美国(109 个),其次是中国(20 个)和英国(图 1.3.18)。自 2019 年以来,美国在大多数基础模型的研发方面一直处于领先地位(图 1.3.19)。
CS 博士毕业生
美国和加拿大计算机科学博士毕业生数量十年来首次显著增加。2022 年,计算机科学博士毕业生人数达到 2105 人,为 2010 年以来最高(图 6.1.5)。
越来越多的 AI 博士毕业生在工业界寻求职业生涯(图 6.1.7 和图 6.1.8)。2011 年,工业界(40.9%)和学术界(41.6%)的就业比例大致相同。然而,到2022 年,与进入学术界的人 (20.0%) 相比,毕业后进入工业界的比例 (70.7%) 明显更高。过去 5 年,进入政府职位的 AI 博士比例一直保持在相对较低的水平,稳定在 0.7% 左右。
考生类别增加
下图所示 AP CS 考生的种族多样性正在增加。虽然白人学生仍然是最大的群体,但随着时间的推移,亚裔、西班牙裔 / 拉美裔等学生参加 AP CS 考试的人数不断增加(图 8.3.3)。2022 年,白人学生在考生中所占比例最大(38.2%),其次是亚裔学生(27.8%)(图 8.3.3 和图 8.3.4)。
财报电话会议
去年,财富 500 强公司财报电话会议中提及人工智能的次数显著增加。2023 年,有 394 场财报电话会议提到了人工智能(占所有财富 500 强公司的近 80%),高于 2022 年的 266 场(图 4.4.25)。自 2018 年以来,财富 500 强财报电话会议中提及人工智能的次数几乎增加了一倍。
涉及的主题非常广泛,最常被提及的主题是生成式人工智能,占所有财报电话会议的 19.7%(图 4.4.26)。
成本下降,收入上升
人工智能不仅仅是企业的流行语:麦肯锡的同一项调查显示,人工智能的整合使企业成本下降,收入增加。总体而言,42% 的受访者表示他们的成本降低了,59% 的受访者表示收入增加了。
2023 年,不同领域的多项研究表明,人工智能使工人能够更快地完成任务,并提高工作质量。其中一项研究考察了使用 Copilot 的编程人员,其他研究则考察了顾问、呼叫中心代理和法律专业学生。研究还表明,虽然每个工人都能从中受益,但人工智能对低技能工人的帮助要大于对高技能工人的帮助。
企业确实感知到了风险
报告对收入至少在 5 亿美元以上的 1000 家公司进行了一次全球调查,以了解企业如何看待负责任的人工智能。
结果显示,隐私和数据管理被认为是全球最大的风险,而公平性(通常以算法偏见的形式讨论)仍未被大多数公司所重视。
一张图表显示,企业正在针对其感知到的风险采取行动:各地区的大多数企业都针对相关风险实施了至少一项负责任的人工智能措施。
人工智能还不能在所有事情上击败人类……
近年来,人工智能系统在阅读理解和视觉推理等一系列任务上的表现都优于人类,如 2015 年的图像分类、2017 年的基础阅读理解、2020 年的视觉推理和 2021 年的自然语言推理。
但在一些复杂的认知任务中,人类的表现仍然优于人工智能系统,如视觉常识推理和高级数学问题解决(竞赛级数学问题),让我们明年再看看情况如何。
制定人工智能责任规范
当一家人工智能公司准备发布一个大模型时,标准做法是根据该领域的流行基准对其进行测试,从而让社区了解模型在技术性能方面是如何相互叠加的。然而,根据负责任的人工智能基准对模型进行测试的做法并不多见,这些基准主要评估有毒语言输出(RealToxicityPrompts 和 ToxiGen)、反应中的有害偏差(BOLD 和 BBQ)以及模型的真实程度(TruthfulQA)。这种情况正在开始改变,因为人们越来越意识到,根据这些基准检查自己的模型是一件负责任的事情。
然而,报告中的一张图表显示,一致性还很欠缺:OpenAI、Google 和 Anthropic 在内的领先开发人员主要根据不同的负责任的 AI 基准测试他们的模型。这种做法使得系统地比较顶级人工智能模型的风险和局限性的工作变得更加复杂。
法律对人工智能的促进和限制
报告指出,在 2016 年至 2023 年期间,有 33 个国家至少通过了一项与人工智能有关的法律,其中大部分行动发生在美国和欧洲;在此期间,总共通过了 148 项与人工智能有关的法案。研究者还将法案分为旨在增强国家人工智能能力的扩张性法律和对人工智能应用和使用施加限制的限制性法律。
可以发现,虽然许多法案都在继续促进人工智能的发展,但限制性立法已成为全球趋势。
AI 正让人们变得紧张
报告的第九章是关于「公众观点」的,多伦多大学的一项国际调查显示,63% 的受访者知道 ChatGPT。在那些知道的人中,大约有一半的人每周至少使用 ChatGPT 一次。
但公众对人工智能的经济影响持悲观态度。在 lpsos 的一项调查中,只有 37% 的受访者认为人工智能将改善他们的工作。只有 34% 的人认为人工智能将促进经济,32% 的人认为它将促进就业市场。
这一指数的民意数据来自一项关于对人工智能态度的全球调查,31 个国家的 22816 名成年人(年龄在 16 岁至 74 岁之间)参与了调查。
超过半数的受访者表示,人工智能让他们感到紧张,而前一年这一比例为 39%。三分之二的人现在预计人工智能将在未来几年内深刻改变他们的日常生活。
该指数中的其他图表显示,不同人群的观点存在显著差异,年轻人更倾向于乐观地看待人工智能将如何改变他们的生活。

来源:机器之心(公众号)
编辑:李佳


855#
 楼主| 发表于 2024-4-24 16:23:32 | 只看该作者
【案例】

“全球视野中的数字伦理:语境、热点与趋势”学术研讨会在京召开

2024年4月13日,由中国科技新闻学会数字传播伦理专委会主办,中国传媒大学数字伦理研究所、中国传媒大学国家传播创新研究中心、国际媒介与传播研究学会(IAMCR)国际传播分会协办的“全球视野中的数字伦理:语境、热点与趋势”学术研讨会在国家科技传播中心举行。来自中国传媒大学、中国人民大学、复旦大学、上海交通大学、中国社会科学院新闻与传播研究所、中国社会科学院大学、哈尔滨工程大学、西交利物浦大学、香港浸会大学、西班牙马德里康普斯顿大学、美国肯塔基大学、意大利都灵大学等十余所国内外高校的学者,《中国社会科学》《新闻与传播研究》《新闻与写作》《中国编辑》《电视研究》《西安交通大学学报(社科版)》《智能社会研究》等多家学术期刊与中国教育电视台、中国社会科学网等媒体单位的专家,共同参加了本次研讨会。
(刘守训副校长、副理事长致开幕辞)



(龙耘教授主持开幕式)
开幕式由中国传媒大学国家传播创新研究中心主任、数字伦理研究所所长、中国科技新闻学会数字传播伦理专委会主任龙耘教授主持。中国传媒大学副校长、中国科技新闻学会副理事长刘守训教授在致辞中指出,大数据、云计算、人工智能等前沿技术正深刻改变着信息的生产传播方式与人们的生产生活方式,同时也引发了一系列伦理挑战,如何以全球视野打造交流合作网络、以人文价值引领学科学术创新、以国家需求和人民福祉为导向推动实践突破,是数字伦理领域的关键任务。香港浸会大学传理学院Daya Thussu教授在视频致辞中认为,数字伦理领域涌现出大量学术成果,主题涵盖人工智能与发展中国家、政治经济学、算法及其治理等重要议题,如何打破围绕人工智能的固化叙事,推动非政治性的、作为一种解放力量的人工智能的发展,是我们共同面临的一项重要挑战。
中国传媒大学教授、中国科技新闻学会数字传播伦理专委会秘书长姬德强对中国科学技术协会2023年学会公共服务能力提升项目的推进情况作专题报告,并围绕数字伦理研究的学科脉络、范畴和边界,全球范围内的语境化差异、热点与趋势,以及媒体与传播学者的独特贡献等方面进行了讨论。

(嘉宾发言)
第一场主旨发言由中国社会科学院大学媒体法研究中心执行主任、中国社会科学杂志社冯建华副研究员主持。中国人民大学伦理学与道德理论研究中心主任、中国人民大学哲学院曹刚教授介绍了伦理学的整体框架,对数字伦理的研究思路进行了梳理,提出传播技术革命所带来的变化背后恰是作为传播伦理之实质性内容的“话语伦理”问题。国际媒介与传播研究学会(IAMCR)国际传播分会主席、西班牙马德里康普斯顿大学信息科学学院Karen Arriaza Ibarra教授围绕“范式”的概念界定、历次范式变革所带来的颠覆性影响、范式变化中风险感知的认知代际失调,以及面对新兴人工智能范式的道德工具等方面展开了生动讨论。上海交通大学智能传播研究院院长、中国科技新闻学会智能传播专委会主任李本乾教授就搭建AIGC算法伦理评价指标体系的探索实践,以及当下全球范围内AIGC算法治理的基本格局及主题、核心治理主体及其治理框架等方面内容进行了分享。《新闻与传播研究》执行主编、中国社会科学院新闻与传播研究所朱鸿军研究员以两个进行中的AIGC技术研发项目引出对于AIGC传播伦理“对齐”问题的讨论,在廓清“对齐”概念的基础上,提出“谁对齐”“与谁对齐”以及“如何对齐”的三个困惑并展开探讨。中国传媒大学国家传播创新研究中心主任龙耘教授对当下数字伦理研究的基本面貌及其遭遇的时代命题作出梳理和提示,并提出“后人类”正在成为时代关键词,经典伦理学亟需以更具时代性与回应性的姿态重释数字伦理的可能性。
(嘉宾发言)
第二场主旨发言由中国传媒大学出版社社长张毓强教授主持,与会嘉宾进一步对数字新闻、情感智能以及人工智能文化等问题展开讨论。复旦大学新闻学院副院长周葆华教授以一项关于大模型“标题党”问题的实证研究切入,提出对于大模型及人类自身的伦理应进行双重检视与反思。美国肯塔基大学传播与信息学院邰子学教授聚焦人工智能语境下人机传播中的情感维度,就生成式人工智能与智能机器人时代的情感智能和传播伦理作出探讨。西交利物浦大学媒体与传播学系邝献文副教授从“人工智能的日益普及如何导致了错误信息的增加”以及“新闻机构如何面对和解决这些问题”两个方面展开讨论,并简要提出了新闻机构与人工智能平台之间的合作思路。意大利都灵大学人文学系副教授Simone Natale在视频发言中提出将人工智能从单一向度的认识框架中解救出来,通过还原其所置身的多元人类文化背景与复杂传播情境而恢复其复数形式,已成为当下的首要任务。《智能社会研究》编辑部副主任、哈尔滨工程大学人文社会科学学院李天朗助理研究员重新审视数字时代的学术诚信问题,分享了当下出版领域所面对的机遇与挑战。


来源:中国编辑(公众号)
编辑:徐思凡


856#
 楼主| 发表于 2024-4-24 20:55:19 | 只看该作者
【案例】
电力或成AI发展的达摩克利斯之剑

人工智能(AI)的崛起正以前所未有的速度推动科技进步与经济增长,成为全球范围内新一轮技术革命的核心驱动力。然而,这一繁荣景象背后隐藏着一个不容忽视的现实:急剧增长的电力需求正对现有电力系统构成严峻挑战。


AI 正在“吸干”全球电力

《纽约客》杂志近日指出,OpenAI的ChatGPT每天处理约2亿次用户请求,消耗的电力或超过50万千瓦,相当于1.7万个美国家庭的用电量。“明年将没有足够的电力来运行所有的芯片。”埃隆·马斯克早前的预言不仅是对未来的警示,更是对当前AI电力需求激增的深刻洞察。


不久前,技术创业者、前谷歌工程师凯尔·科比特(Kyle Corbitt)也在社交媒体 X 上表示,训练 GPT-6 的微软工程师们正忙着搭建 IB 网络(InfiniBand),把分布在不同地区的 GPU 连接起来。这项工作很困难,但他们别无选择,因为如果把超过 10 万块 H100 芯片部署在同一个地区,电网就会崩溃。




为什么这些芯片集中起来会导致电网崩溃的后果呢?以下数据或许可以说明原因。


英伟达网站上公布的数据显示,每块H100芯片的峰值功率为 700W,10万块H100峰值功耗最高可达7000万W。而 X 评论区有能源行业从业者指出,10万块芯片的总能耗将相当于一座小型太阳能或风能发电厂的全部输出。这一数据直观展现了AI大模型在训练和推理过程中对电力的巨大依赖。


事实上,ChatGPT仅是AI应用的冰山一角,更大规模的电力消耗来自遍布全球的数据中心。据国际能源署统计,2022年美国约有2700个数据中心,电力消耗占全国总量的4%,且这一比例预计在2026年升至6%。同时,报告还显示,2022 年全球数据中心、人工智能和加密货币的耗电量就达到 460 TWh,占全球能耗的近 2%。IEA 预测,在最糟糕的情况下,到2026年这些领域的用电量将达1000 TWh,与整个日本的用电量相当。


AI对电力需求的增长不仅源于大模型的运算量,还与芯片性能提升和冷却需求相关。芯片设计公司Arm的首席执行官Rene Haas警告称,若不提高芯片能效,到2030年,AI数据中心的耗电量可能占据美国总电力需求的20%-25%。美银美林的研究报告也进一步指出,AI电力使用量预计在2023年至2028年间以25%-33%的年复合增长率增长,远高于整体电力需求2.8%的年复合增长率。


从全生命周期视角评估 AI 能耗


华盛顿ITIF智库在一份题为《重新审视对人工智能能耗的担忧》的报告中指出,目前许多研究和政策都关注 AI 训练(training)阶段,但多项研究表明 AI 在推理(inference)过程中,也即人们使用 AI 输出结果的过程能耗更高。此外,不同 AI 模型处理不同类型的推理任务,能耗的差异也很大。例如 1000 次请求计算,图片分类任务的耗电量是 0.007 千瓦时,而图片生成任务耗电 2.907 千瓦时。


报告认为,AI 的训练是一次性事件,而它的使用是长期过程,讨论 AI 能耗问题时应该关注的不是爆发式增长,而是长期的影响。并且,从技术史的视角看来,AI 及其能耗的增长还将受到以下 4 个因素的限制:

基础设施建设成本将制约 AI 的快速增长

事实上,“ChatGPT 每日耗电量或超过 50 万千瓦时”的结论,出自技术博客 Digiconomist 作者亚历克斯·德·弗里斯(Alex de Vries)的估算。德·弗里斯还曾预测,在最糟糕的情况下,谷歌的 AI 用电量将与整个爱尔兰相当,达到每年 29.3 TWh(太瓦时)。但他同时也指出,要想达到这样的规模,谷歌需要在芯片上投入 1000 亿美元,此外还要数据中心的运营和电费投入数十亿美元。如果AI的运营成本居高不下,逐利的商业公司自然会放慢脚步,减少投入。

AI 性能增长存在边际效应

近年来 AI 连续在许多领域取得了突破性进展,这也意味着它可能很快迎来一个瓶颈期。研发、运营更大的模型带来的回报将越来越低,在提升准确性上精益求精也将变得更困难。所以,优化 AI 模型可能是接下来的研发方向。

软件和硬件的性能提升将减少 AI 能耗

AI 模型的优化,以及硬件技术的进步,都有望减少 AI 的能耗。一项发表于《科学》期刊的研究指出,在 2010~2018 年间,全球数据中心的运算量增长了 550%,存储空间增长了 2400%,但耗电量仅增长 6%。硬件、虚拟技术和数据中心设计方面的创新提升了能效,也使得云计算的规模化成为可能。

同样,剪枝(pruning)、量化(quantization)、蒸馏(distillation)等技术有望带来更好的算法,让 AI 模型更快、更节能。谷歌公司和加州大学伯克利分校研究团队指出,有赖于各项技术进步,近年来在谷歌公司内部 AI 的能耗占比保持稳定,尽管机器学习增长到运算量的 70%~80%。

AI 的应用最终将在某些方面减少碳排放

整体上,当人们用电子邮件替代传统书信,用观看 DVD 或流媒体频道替代去电影院看电影,这些活动的数字化都减少了碳排放。AI 有望在这方面继续发挥作用,例如通过改进视频通话体验,使更多的会议转向远程进行。此外,AI 技术还可用于进行电网调度、分析气候数据,从而成为应对气候变化的助力。


电力供需矛盾与公共电网压力


AI产业的快速发展与现有电力供应体系形成了鲜明对比。以美国为例,一方面,美国电网基础设施大多建于上世纪六七十年代,设备老化、输电线路过载等问题突出,难以应对突如其来的电力需求激增。例如,2021年得克萨斯州因极端寒潮引发的大停电事件,暴露了电网脆弱性。另一方面,企业对有限的电网接入权限展开激烈竞争,纷纷在科技产业欠发达地区如俄亥俄、爱荷华等地布局数据中心,以获取稳定的电力供应。


这种供需矛盾迫使企业采取各种手段“抢电”,包括自建或购买专属电源、寻求新型能源解决方案等。联邦政府虽意识到电力瓶颈问题,但受制于跨州管辖权、土地购置、环保评估以及成本分摊等复杂因素,大规模电网升级面临重重困难,短期内难以取得显著成效。


清洁能源技术:应对电力挑战的新希望

在传统电力供应捉襟见肘的情况下,核能、燃料电池和地热能等清洁能源技术成为缓解AI电力需求压力的潜在路径。企业积极探索多元化的电力供应方案,以确保业务稳定发展的同时,尽可能减少对环境的影响。


核能:可靠但争议犹存

核能以其高效、清洁和稳定的特点吸引了众多科技巨头。亚马逊网络服务公司(AWS)选择在宾夕法尼亚州的核电站附近设立数据中心,并有望获得高达960兆瓦的专用电力。微软则在招聘核技术专家,评估和整合小型模块化核反应堆与微反应堆,旨在为数据中心提供持续动力。尽管如此,小型核反应堆在美国尚无实际应用案例,其落地需克服联邦监管审批、公众接受度以及安全顾虑等多重障碍。


燃料电池与地热能:成熟且具潜力

相较于核能,燃料电池与地热能技术更为成熟,且在短期内实现商业应用的可能性较大。数据中心开发商Michael Halaburda和Arman Khalili在其项目中就采用了这两种清洁能源。他们在波特兰地区的数据中心以天然气为燃料的燃料电池为主要电力来源,辅以电网电力;在得克萨斯州南部的项目则完全脱离电网,利用地热能发电满足数据中心需求。这些实践表明,燃料电池与地热能能够有效减轻对传统电网的依赖,为AI数据中心提供可靠的绿色能源。


核聚变:未来能源的星辰大海

虽然目前尚未实现商业应用,核聚变作为能源领域的“圣杯”,因其理论上近乎无限的能源供应潜力和极低的环境影响,备受科技企业和投资者关注。微软与核聚变初创公司Helion达成电力购买协议,计划在2028年从Helion采购电力。OpenAI CEO山姆·阿尔特曼对该领域亦有所投资,展现出对未来核聚变能源的期待。尽管实现核聚变商业化还需克服重大技术难题,但其一旦成功,将彻底颠覆能源格局,为AI产业乃至全球电力需求提供几乎无限的清洁能源。


AI与电力的可持续共生之路

面对AI算力需求引发的电力挑战,行业与政策制定者应携手探索多维度解决方案。短期来看,优化数据中心能耗、提高芯片能效、合理布局数据中心地理位置,以及利用现有成熟清洁能源技术如燃料电池与地热能,都是缓解电力供需矛盾的有效途径。长远而言,核能尤其是小型模块化反应堆和核聚变技术的发展,有望为AI产业提供更为清洁、高效且稳定的能源供应。

同时,政策层面应积极推动电网现代化改造,加快跨州输电线路建设和清洁能源接入,以适应AI及其他高能耗产业的电力需求增长。社会各界应共同努力,构建一个既能支撑AI技术蓬勃发展,又能确保能源安全与环境保护的电力系统,实现AI与电力的可持续共生,驱动全球经济迈向更加智能、绿色的未来。


来源:数据观(公众号)

编辑:徐思凡


857#
 楼主| 发表于 2024-4-24 21:43:55 | 只看该作者
【案例】

中国网信办:使用AI等技术生成信息的,必须明确标注系技术生成

中国网信办2024年​4月23日发布《关于开展“清朗·整治‘自媒体’无底线博流量”专项行动的通知》,三、主要任务”一节中规定:加强信息来源标注展示。平台应要求“自媒体”发布涉国内外时事、公共政策、社会事件等相关信息时,必须准确标注信息来源。使用AI等技术生成信息的,必须明确标注系技术生成。发布含有虚构、演绎等内容的,必须明确加注虚构标签。平台需在显著位置展示“自媒体”标注的信息来源或标签。


其中,关于“使用AI等技术生成信息的,必须明确标注系技术生成”的规定引人注目,值得特别关注。


​​
(国家网信办官网截图)

AI是人工智能(Artificial Intelligence)的英文缩写,是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。AI企图了解人类智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,包括机器人、语言识别、图像识别、自然语言处理、专家系统、机器学习,计算机视觉等。


AI技术虽然是人类的一种创新类型,但由于它发展出来的一些技术具有对于人类生活“无中生有”和“变形再造”的功能,触及到人类的经济、道德和法律的底线,一经出现,就引起巨大争论。下面试举几例:


据《科技日报》日前报道,去年有超过1万个贸易团体、作者、公司和其他人士向美国版权局提交了有关AI模型使用创意作品的意见。生成式AI的迅速兴起引发了一场全球性的高质量数据竞赛。如美国电影制作人、前演员及作家贾斯汀·贝特曼告诉版权局,AI模型在未经许可或付费的情况下获取了其作品内容。她称,“这是美国最大的盗窃案”。然而,在这个新领域中,关于什么是合法的、道德的,没有明确规定。《商业内幕》网称,目前,谷歌、OpenAI和其他科技公司正在辩解,认为将受版权保护的内容用于AI模型训练是合法的,但监管机构及法院尚未对此作出裁决。


据《第一财经》日前报道,1.6万名英国艺术家联名,计划对生成式AI软件Midjourney和其他人工智能公司发起集体诉讼。一场持久战预计将在艺术家和AI公司之间打响。布里奇特·莱利(Bridget Riley)、达米恩·赫斯特(Damien Hirst)、雷切尔·怀特雷德(Rachel Whiteread)、特蕾西·艾敏(Tracey Emin)、大卫·霍克尼(David Hockney)和安尼什·卡普尔(Anish Kapoor)等知名人士,他们指责Midjourney、Stability AI等公司曾用他们的作品来训练人工智能。“人工智能图像生成产品实际为清洗版权的工具,这些AI公司向人们兜售艺术的好处,却不需要支付艺术家的成本。”这些艺术家在联名起诉中写道。他们认为,Midjourney等工具在艺术家本人不知情的情况下,使用他们的作品对大模型进行训练,并生成与艺术家的原始作品非常相似的图像,这相当于“抄袭”。


​人工智能生成的图像

据台湾《中时新闻网》日前报道,台湾新北市私立复兴高级商工职业学校日前举办师生美术展,一名学生的首奖作品《大闹天宫》因绘图细节、结构等问题,被多名艺术家与网友质疑使用AI绘图,在网上掀起讨论,还有学校学生称在检举作品之后被记大过。校长陈效宗3月31日深夜表示,经过调查,得奖学生坦承“创作过程错用AI辅助步骤”,教务处将取消第一名得奖资格,名次依成绩排序递补。据称,这是全球首例因使用AI软件制作绘画被取消得奖资格的案例。


​被取消参赛资格的《大闹天宫》(局部)


很多学者认为:人工智能对人类的挑战不容忽视,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德,着眼未来,重视防范风险迫在眉睫。


更有学者认为,AI在本质上是反人类的,是人类的“异化物”,应当严格禁止。


但也有学者认为,AI是人类智慧的结晶和人脑的“延长”,将带来巨大的社会生产力,应当鼓励创新,大力发展。


目前,有关著作权法上的规则滞后于人工智能的发展,而就人工智能的训练素材是否需要经过版权人许可,也有不同说法。在人工智能飞速发展的时代,各国都有必要起草相应的法规来保护创作者的权益,否则就会变成新兴的产业借助了艺术家的作品进行训练,却抢走了他们的饭碗,对艺术家这个职业而言很不公平。

传说君认为,近期全球范围的一系列相关诉讼方兴未艾,部分人类与部分AI制造者的博弈正在展开。在此关键时刻,中国网信办出台《关于开展“清朗·整治‘自媒体’无底线博流量”专项行动的通知》中使用AI等技术生成信息的,必须明确标注系技术生成”的规定值得关注。在中国国情下,中国网信办制定的相关规定属于行政法规中部门规章范畴,具有相应的行政强制力;但就目前来看,“明确标注系技术生成”,只是对作品的形成条件加以界定;而是否侵权则需要更高层次的法律的明确规定。在这方面,中国的法律还需要完善。


来源:传说网(公众号)

编辑:徐思凡

858#
 楼主| 发表于 2024-4-26 21:13:41 | 只看该作者
【案例】

3Play Media推出人工智能配音服务



美国媒体公司3Play Media推出了“human-in-loop”人工智能配音服务。该服务将人工编辑的文本与翻译内容与人工智能语音技术相结合。为了确保配音的质量,服务还包含一道人工检查的环节,并能够在几天内完成配音工作。
在发布之初,该服务便支持英语、荷兰语、法语、德语、意大利语、日语、葡萄牙语和西班牙语等多种语言,并且服务将不断扩展其支持的语言种类。
通过3Play Media平台(如图1),用户可以轻松实现视频的自动上传,这一流程同样支持通过API(Application Programming Interface,应用程序接口)完成。完成视频配音后,用户同样可以利用这些选项进行视频的下载。此外,3Play Media的服务还包含了翻译词汇表的功能,确保了翻译内容的标准化。同时,服务还致力于保留视频中的背景噪音,力求在配音或翻译过程中保持原视频的音质特色。


3Play Media的联合首席执行官兼联合创始人Josh Miller表示:“除了大型媒体机构外,内容本地化的成本和时间表对于大多数企业而言并不实际。更直白地说,全自动配音的质量对寻求拓展国际市场的组织来说,可能构成品牌声誉的风险。全球企业、新兴媒体和出版商都在努力在不损害内容准确性和质量的前提下控制成本。”



1 3Play Media人工智能配音平台)

另一位联合首席执行官兼联合创始人Chris Antunes进一步补充说:“3Play Media在处理人工智能配音的方式上独树一帜。在过去的15年里,我们成功地将技术与专业人力相结合,大规模地生产出既经济又高质量的字幕、翻译和音频描述。我们深知人工智能解决方案的价值,并很高兴推出了一款值得信赖的人工智能配音产品。与新上市的其他解决方案不同,我们还拥有一个强大的平台、集成功能和API工作流程,专为大规模制作和交付视频而设计,确保用户能够享受到无缝的操作体验。”


来源: 广电猎酷(公众号)
编辑:徐思凡


859#
 楼主| 发表于 2024-4-26 21:57:40 | 只看该作者
【案例】

全国首例“AI声音侵权案”一审宣判;网信办要求整治自媒体自导自演式造假 | 一周热议


本周的主要内容有——

国内速递

1.全国首例“AI声音侵权案”一审宣判

2.网信办要求整治自媒体自导自演式造假

3.“点读机女孩”高君雨全网账号被禁
4.洪大用已任中宣部副部长
5.上海市网信办:自媒体不得违规开展涉企新闻监督类报道


海外资讯

1.拜登签署涉TikTok法案,公司回应:将诉诸法庭,期待最终获胜

2.消息称苹果正自研设备端大型语言模型

3.AI成功改写人类DNA:全球首个基因编辑器开源,近5倍蛋白质宇宙LLM全生成

4.Open-Sora全面开源升级:支持16s视频生成和720p分辨率
5.Meta推出用于支持聊天机器人的最新人工智能模型Llama 3




国内·速递



全国首例“AI声音侵权案”一审宣判

4月23日上午,北京互联网法院对全国首例“AI声音侵权案”进行一审宣判,认定作为配音师的原告,其声音权益及于案涉AI声音,被告方使用原告声音、开发案涉AI文本转语音产品未获得合法授权,构成侵权,书面赔礼道歉,并赔偿原告各项损失25万元。

——来自央视新闻




网信办要求整治自媒体自导自演式造假

关于开展“清朗·整治‘自媒体’无底线博流量”专项行动的通知发布,整治的重点问题包括:1.自导自演式造假。2.不择手段蹭炒社会热点。3.以偏概全设置话题。4.违背公序良俗制造人设。5.滥发“新黄色新闻”。

——来自搜狐网



“点读机女孩”高君雨全网账号被禁


4月24日,有网友发现点读机女孩高君雨全网账号均处禁言或禁止关注状态。此前,“点读机女孩”高君雨被曝出手术视频时间造假引发全网关注。高君雨微博目前显示“因违反相关法律法规,该用户目前处于禁言状态。”其小红书、B站、抖音等账号均被禁言、无法关注。

3月12日,据杭州余杭区互联网违法和不良信息举报中心发布举报声明,MCN机构杭州豁然开朗科技有限公司发布的“点读机女孩”高君雨自曝患罕见脑瘤并接受手术治疗相关视频为“库存视频”。

——来自红星新闻



洪大用已任中宣部副部长

4月25日,“中国特色哲学社会科学自主知识体系数字创新平台——学术世界”发布会在中国人民大学召开。记者从多名参会人员处获悉,中宣部副部长、全国哲学社会科学工作办公室主任洪大用在会上致辞。

这也意味着,全国哲学社会科学工作办公室主任洪大用现已担任中宣部副部长职务。

公开资料显示,洪大用,男,1967年9月出生,安徽东至人,汉族,中共党员,社会学博士。

——来自澎湃新闻



上海市网信办:自媒体不得违规开展涉企新闻监督类报道

“网信上海”微信号消息,4月19日下午,上海市网信办联合市商务委召开财经类“自媒体”分类指导会,“饭统戴老板”“财经早餐”“秦朔朋友圈”等“自媒体”负责人参会。会上,上海市网信办通报了近期财经领域违法违规典型案例,并对“清朗浦江·e企同行”优化营商网络环境专项行动进行了部署。

会议指出,MCN机构、“自媒体”账号不得违规开展涉企新闻监督类报道,不得炮制、炒作涉企侵权信息谋取利益。会议发出倡议,要求属地“自媒体”坚持诚实守信原则,合法合规经营,保持客观公正,积极传递正能量,共同守护上海良好营商网络环境。参会的财经类“自媒体”围绕近期热点问题和主管部门进行了互动交流,并签署了《优化营商网络环境自律承诺书》。

——来自中新经纬APP





海外·资讯



拜登签署涉TikTok法案,公司回应:将诉诸法庭,期待最终获胜

当地时间4月24日,美国总统拜登签署了价值950亿美元的一揽子对外援助法案,该法案还涉及强制字节跳动剥离旗下应用TikTok美国业务。在相关条款中,字节跳动被限期约九个月剥离其美国业务,否则将面临美国全国禁令。此外,如果拜登确定出售事宜取得进展,他还可行使一次90天的延期权力。

对此,TikTok方面誓言通过法律途径反击。该公司在拜登签署法案后表示,这项违宪法律就是对TikTok的禁令,公司将在法庭上提出质疑。“我们相信事实和法律显然站在我们这一边,我们最终会取得胜利。”

——来自界面新闻



消息称苹果正自研设备端大型语言模型

据知名科技记者Mark Gurman爆料,苹果公司正在研发一种运行于设备端的大型语言模型(LLM),该模型将优先保证响应速度和隐私保护能力。Gurman表示,该模型将成为苹果公司未来生成式AI功能的基础,它将完全在设备上运行,而不是云端。

——来自科创板日报



AI成功改写人类DNA:全球首个基因编辑器开源,近5倍蛋白质宇宙LLM全生成

分子生物学界引爆核弹级消息:人类的DNA,已经能由AI重新改写了!初创公司Profluent宣布开源了世界首个AI设计基因编辑器,成功编辑了人类细胞中的DNA。

——来自快鲤鱼



Open-Sora全面开源升级:支持16s视频生成和720p分辨率

Open-Sora 更新支持最长16秒视频生成,分辨率达到720p,全面适应不同宽高比和视频处理需求;技术升级引入了多时间/分辨率/长宽比/帧率的支持,利用多阶段训练方法提升视频质量;完全开源,包括模型架构、权重、数据处理流程,促进社区共享与协作开发。

——来自机器之心


Meta推出用于支持聊天机器人的最新人工智能模型Llama 3

Meta推出了其强大的新版本Llama人工智能模型,这是该公司最新的努力,旨在与OpenAI和谷歌等公司的类似技术保持同步。周四发布的“Llama 3”是去年夏天Meta发布的人工智能模型的升级版。

Meta正在使用Llama 3来运行自己的应用内人工智能助手MetaAI,该助手存在于Facebook、WhatsApp和Meta的Ray-Ban智能眼镜等多款产品中。该公司表示,MetaAI助手也将在周四为用户更新。

——来自第一财经


来源:腾讯媒体研究院(公众号)

编辑:徐思凡

860#
 楼主| 发表于 2024-4-30 22:28:45 | 只看该作者
【案例】控ChatGPT资讯错误 奥地利资料隐私组织提申诉

(法新社维也纳18日电) 总部位于奥地利维也纳的资料保护组织今天宣布将针对人工智慧(AI)开发商OpenAI旗下的ChatGPT提出申诉,因为这款「制造幻觉」的工具会提供其开发者都无法修正的错误答案。
法新社报导,奥地利资料隐私组织「不关你的事」(none of your business,NOYB)表示,ChatGPT根本无法保证可提供准确资讯,这个工具「不断制造幻觉(hallucinating),甚至连OpenAI都无法阻止它」。
根据NOYB的说法,OpenAI曾公开承认无法修正其生成式人工智慧(generative AI)所产出的不正确资讯,也无法解释其资料来源以及ChatGPT储存的个人资讯。
NOYB指出,就个资问题而言,此类错误「不可接受」,因为欧盟法律规定个资必须正确。
NOYB资料保护律师德葛拉夫(Maartje de Graaf)表示:「如果系统无法产生准确、透明的结果,它就不能用于生成个人相关资料。技术必须遵循、而非违反法规要求。」
该组织表示,ChatGPT「多次提供有关NOYB创办人施伦斯(Max Schrems)出生日期的错误资讯,且未告知使用者它不具备必要资讯。」
NOYB说,尽管资料不正确,但OpenAI仍拒绝施伦斯修改或删除资料的请求,还称「这是不可能的」。
OpenAI也「未能充分回应」施伦斯取得自己个资的请求,这再度违反欧盟法律。该公司「似乎甚至不愿假装他们会遵守」欧盟法律。
该组织自2018年成立以来,一直针对科技巨头提出激烈批评。NOYB表示,正要求奥地利资料保护机构对OpenAI进行调查,并处以罚款,以使其符合欧盟法律。
来源:法新社
编辑:程正元

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表