传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
761#
 楼主| 发表于 2023-10-30 15:30:12 | 只看该作者
【案例】
GPT-4重磅更新:自动选择组合各种功能,一条龙完成全部任务

·“所有工具功能可以让用户访问所有GPT-4功能,而无需在功能之间手动切换。也就是说,针对用户输入的任意一个任务,GPT-4可以自动选择并组合使用各种工具,在一个对话窗口里完成用户特定的任务目标。



根据OpenAI对更新的官方说明,最为关键的词是“automatic(自动)

人工智能开发机构OpenAIChatGPT付费用户推出新的测试功能所有工具(All Tools,将之前相互独立各自分离的工具整合起来,由聊天机器人根据上下文自行判断使用什么工具。

当地时间1029日,订阅ChatGPT Plus服务的用户反映,此次更新发布了新的多模态GPT-4 版本,允许用户上传和分析各种文件,无需切换即可访问所有工具,包括网页浏览和文生图工具DALL·E 3



上传PDF文件后,ChatGPT总结并分析内容。



要求根据美国丹佛当时的天气信息生成图像,ChatGPT自己调用DALL·E完成。

根据OpenAI的官方说明,最为关键的词是“automatic(自动)。以前,GPT-4的工作模式是几个独立的功能,一个对话窗口内只能使用其中一个特性,比如图像上传、代码运行或图像生成。更新后,所有工具功能可以让用户访问所有GPT-4功能,而无需在功能之间手动切换。也就是说,针对用户输入的任意一个任务,GPT-4可以自动选择并组合使用各种工具,在一个对话窗口里完成用户特定的任务目标。这被认为是一次重大飞跃,也可能会使许多第三方插件变得过时。

在社交媒体上,许多ChatGPT Plus用户分享的屏幕截图展示了所有工具功能,包括通过对话要求ChatGPT直接分析PDF文件、数据表格等文档,以及生成并修改图像。

Threads上,一名用户发布了一次对话的屏幕截图:上传一张动物的图像,要求ChatGPT通过DALL·E 3基于该图像创建一个皮克斯电影风格的图像。然后,这名用户通过上传另一张图像来更新第一张图像,要求ChatGPT插入该图像。出于某种原因,ChatGPT给这个动物戴上了帽子。


上传一张动物的图像,要求ChatGPT通过DALL·E 3基于该图像创建一个皮克斯电影风格的图像。


通过上传另一张图像来更新第一张图像,要求ChatGPT插入该图像。出于某种原因,ChatGPT给这个动物戴上了帽子。


随着越来越多用户获得新的多模态功能,出现了更多关于如何一起使用所有GPT-4工具的示例。
一名用户列举了一个例子:首先用GPT-4分析输入的图像,然后用DALL·E 3生成新图像,再用GPT-4根据生成的图像创建报告,最后把报告保存为可下载的CSV格式文件。全部在一个对话中!





一条龙完成任务:上传一张图片,用DALL·E 3生成新图像,根据食物营养成分类别生成热量和成分表格。






提示语:搜索并获取2023年大西洋飓风季数据,制作图表反映飓风级别和规模,然后基于明年最可能出现飓风的地点生成图像。不要解释你工作的细节,不要总结等,只要操作和给出结果。

除了可以访问所有工具功能之外,其他人还注意到了ChatGPT更新的知识截止日期——20239月。
来源:澎湃新闻
链接:https://baijiahao.baidu.com/s?id=1781150248523484281&wfr=spider&for=pc&searchword=Openai
编辑:覃韵琪

图片26.png (341.29 KB, 下载次数: 48)

图片26.png
762#
 楼主| 发表于 2023-10-30 20:17:30 | 只看该作者
【案例】

X上线视频和音频通话功能 马斯克称仍是测试产品
马斯克旗下社交平台X周三正式上线了音频和视频通话功能,用户现在打开该应用时会收到一个通知:“音频和视频通话来了!”




在应用的设置中,还有一个“启用音频和视频通话”的开关,用户可以打开这个功能,然后选择愿意跟哪些人使用这个功能,其中包括了几个选项,可以允许用户从通讯录、关注的人、认证用户或者这三者中的任何一个接收或发起音频和视频通话。用户可以通过打开和另一个用户的私信,选择屏幕右上角的电话图标,然后选择音频或视频通话来进行通话。

一位用户发帖称:“X现在允许你在不分享你的电话号码的情况下进行语音和视频通话。”

马斯克回应称:“仍然是一个测试产品,但大有希望。”


在另一条帖子中,马斯克称这是“X上视频和音频通话的早期版本。”


来源:金融界
链接:https://m.jrj.com.cn/madapter/usstock/2023/10/27025138090618.shtml
编辑:覃韵琪

763#
 楼主| 发表于 2023-11-1 16:31:59 | 只看该作者
【案例】

疯狂马斯克的“极限”计划居然成功了?!“下云”后成本降低 60%,部分功能代码精简 90%,30 天急速迁移服务器




整理 | 凌敏、核子可乐
2022 年 10 月 27 日,经历了长达半年的拉锯战之后,马斯克终于将 Twitter(现已更名 X)收归囊中,这笔 440 亿美元的收购案也终于迎来了大结局。入主 Twitter 后,马斯克进行了大刀阔斧的改革,如今一年过去了,Twitter 发生了哪些变化?

2023 年 10 月 27 日,X 工程技术发布帖子称,过去一年是 X(Twitter)平台全面推进工程技术探索的一年。除了大家在 X 应用端看到的直观调整之外,团队还在幕后完成了以下一系列重要改进。其中包括:
关闭萨克拉门托数据中心,并重新配置了 5200 台机架和 14.8 万台服务器,每年节约超 1 亿美元。共释放出 48 兆瓦的功率配额、拆除重达 6 万磅的网络梯架,必要设备后续将被重新配置至其他数据中心。
优化了 X 的云服务使用方式,着手将更多工作负载迁往本地基础设施。这一转变使 X 每月的云成本降低了 60%。所有媒体 /blob 工作均已下云,这让 X 的整体云数据存储量缩减了 60%,还成功将云数据处理成本降低了 75%。

此外,X 还发生了以下变化:
围绕单一产品框架整合了 For you(为您推荐)、Following(关注)、Search(搜索)、Profiles(个人资料)、Lists(列表)、Communities(社区)和 Explore(探索)等技术栈。
从头开始全面重建了 For you 服务与排名系统,代码行数从 700K 缩减至 70K,精简比例高达 90%,计算占用量降低 50%,根据请求得分计算的帖子吞吐量增长了 80%。
统一了 For you 和视频个性化及排名模型,显著提高了视频推荐的质量。
重构了技术栈内的 API 中间件层,通过删除超 10 万行代码和数千个未实际使用的内部端点、清理未采用的客户端服务等方式完成了架构简化。
精简后的元数据获取延迟降低了 50%,全局 API 超时错误减少了 90%。
阻断 bot 和内容抓取的速度较 2022 年提高了 37%。平均而言,X 每天阻断超 100 万次 bot 注册攻击,并将直接垃圾邮件减少了 95%。
构建本地 GPU 超级计算集群,并设计、开发和交付了 43.2 Tbps 的新网络体系架构以支持这些集群。
扩展网络主干容量与冗余,每年节约 1390 万美元。
开始进行自动峰值流量故障转移测试,用以持续验证整个平台的可扩展性与可用性。
自接手 X 以来,马斯克为了缩减成本挖空心思,其中包括裁员、推行“极端硬核”企业文化、拖欠办公室租金……在公司的运营开支方面,马斯克去年刚接手 X 时便指示团队通过削减云服务和额外的服务器空间,力争每天在基础设施上节省 300 万美元。

1
省钱大法一:云服务太贵了,马斯克要“下云”

2020 年 12 月,Twitter 宣布将使用亚马逊云科技为其主时间线提供支持。当时的消息称这将是一份“多年期”协议,但没有透露任何具体数字。彼时 Twittr 公司 CTO Parwal Agrawal 在一份声明中表示,Twitter 和亚马逊云科技将合作扩展该社交媒体的基础设施、加快功能发布速度,并扩大其功能组合。
The Information 2023 年 3 月报道,这笔交易为期五年半,合同总值 5.1 亿美元。根据报道,无论是否使用相应容量,Twitter 都同意向亚马逊云科技付费。而且亚马逊云科技不愿就具体条款进行重新谈判。根据交易细则,Twitter 的月度亚马逊云科技支出大约在 773 万美元。

如今,Twitter 已经不再使用亚马逊云科技的实时时间线功能,转而选择了 AWS for Spaces 等其他服务。Twitter 后续可能使用 Google Cloud Platform(GCP)运行其时间线业务。根据 Twitter 与亚马逊云科技之间签订的合同细节,马斯克执掌的社交媒体巨头还计划使用:
亚马逊云科技云基础设施,用于补充 Twitter 的本地功能,帮助该公司在全球范围内扩展其实时服务。
采用 Amazon Elastic Compute Cloud (Amazon EC2) 服务中基于 Arm 架构的亚马逊云科技 Graviton 2 实例,以运行其云工作负载。
借助亚马逊云科技容器服务,Twitter 将在其混合基础设施当中统一构建并交付新的功能和服务。

Amazon CloudFront,即亚马逊云科技的超高速内容交付网络(CDN)服务,能够以低延迟、高速率向全球客户分发数据、应用程序、视频和 API。
Amazon DynamoDB,即亚马逊云科技的键值数据库,可大规模提供个位数毫秒级性能。
目前,Twitter 已经与谷歌签订了一份价值 10 亿美元的合同,且相关承诺早在与亚马逊云科技合作之前就已敲定。另据报道,Twitter 将在 2023 年向谷歌支付总计 3 亿美元,这也是总价值约 10 亿美元的多年期合作协议的一部分。

随着马斯克入主 Twitter 并开启削减成本计划,Twitter 的基础设施支出大幅减少。根据题为“深度削减成本”的 Slack 内部消息,Twitter 计划从云服务和服务器容量方面入手,省下 150 万到 300 万美元。此外,Twitter 还试图与亚马逊云科技、Google Cloud 以及甲骨文就合同内容展开重新谈判,但供应商们纷纷表示拒绝。
根据最新公告,马斯克通过将工作从云端转移到 Twitter 自己的服务器上,每月的云成本降低了 60%,整体云数据存储量缩减了 60%,还成功将云数据处理成本降低了 75%。
下云就能解决问题?
近年来,为了节省成本,不少公司开始下云。不过,并非所有公司都适合下云,需要结合自身实际业务情况来做判断。比如,GitLab 在 2016 年底时候就表示计划要“下云”,不过团队“在收到数百条充满建议和警告的评论和邮件后,最后还是决定将 GitLab.com 保留在云端。
此外,37signals 旗下一款流行的基于云服务的项目管理软件 Basecamp 也曾想“下云”。Basecamp 的上云历程已经超过十年,而且其前两年发布的产品 HEY 也一直在云端运行。但 Basecamp & HEY 联合创始人 David Heinemeier Hansson 发文表示将要“下云”。
“我们用过亚马逊云科技、也用过谷歌云,试过裸虚拟机、也体验了 Kubernetes 容器编排。我们知道云能提供哪些功能,其中大部分都有实际应用。现在我们终于得出结论:对于像我们这样一家增长稳定的中型企业来说,租赁基础设施资源总体上看是笔糟糕的买卖。云服务商做出的降低复杂性、控制运营成本等承诺从来就没能实现,所以我们正在筹划脱离云端、重归本地。”
不过,在 David Heinemeier Hansson 撰写的关于离开云计算的思考中,他特别提到了两个情况是不能离开云计算的。一种是流量极低,一种是复杂不均衡:
第一个极端是当您的应用程序非常简单且流量很低,通过使用完全托管的服务来降低复杂性确实能够节省成本。这是 Heroku 铺就的道路,也是 Render 等其他服务商所追随的道路。当您没有客户时,这是一个绝佳的起点,即使在您开始拥有一些客户后,它仍能推动您的业务发展。(然后,一旦使用量激增,账单飙升到天际线上时,您可能会面临一个好问题,但这是一个合理的权衡。)
第二个极端是当您的负载非常不规则时。当您的使用量出现剧烈波动或巨大峰值时。当基线只是您最大需求的一小部分时。或者当您不知道您需要十台服务器还是一百台时。在这种情况下,没有什么比云端更好了,就像我们在推出 HEY 时学到的那样,突然有 30 万用户在三周内注册尝试我们的服务,而我们的预测是六个月内有 3 万用户。
2
省钱大法二:数据中心大迁移
为了节省成本,去年 12 月,马斯克还关闭 Twitter 加州数据中心。
据悉,在平安夜前夕,纳斯克飞往加利福尼亚州的萨克拉门托——Twitter 三大主要计算存储设施之一的所在地——切断了维持该社交网络平稳运行的服务器。有知情人士表示,虽然有员工担心关闭这些服务器可能导致各种问题,但节省资金是首要任务。
随后,世界各地的用户报告 Twitter 服务中断。一些用户反馈 Twitter 出现很多奇怪的错误消息,比如看到空白页面、无法回复推文或关注热门话题,还有人被迫退出登陆。有熟悉 Twitter 基础设施的人士表示,如果萨克拉门托的设施仍在运行,它就可以在其他数据中心出现故障时提供备份计算能力,从而帮助缓解问题。
此外有消息称,当时马斯克为了省钱,计划将萨克拉门托的服务器搬到波特兰,基础设施团队称这项工作至少要九个月才能完成,马斯克一怒之下直接搭乘私人飞机跑去机房,拔了网路线与电源就搬上大卡车开始转移,最后整个工作一个月就完成了。



在今年 9 月出版的《埃隆·马斯克传》中,详细讲述了马斯克亲自迁移服务器的故事(节选,经编辑):
2022 年 12 月 22 日深夜,位于 X 公司 10 楼的会议室,马斯克正在与两名基础设施经理进行紧张的交谈。
位于萨克拉门托的一家数据服务公司允许 X 公司延长其服务器租约,以便在 2023 年有序迁出。一名显得有些紧张的基础设施经理告诉马斯克:“今天早上,他们回来告诉我们说这个计划不再适用,因为他们认为我们在财务上不再稳健。”
这个设施每年花费 X 公司超过 1 亿美元。马斯克想通过将服务器迁移到 X 公司在俄勒冈州波特兰的其他设施来节省这笔费用。另一位经理表示这项工作不能立即进行。她平静地说:“我们至少需要六到九个月的时间,因为萨克拉门托仍然需要服务流量。”
马斯克沉默了几秒钟,然后宣布:“你们有 90 天时间来完成这项任务。如果你们做不到,你们可以辞职。”这名经理开始详细解释迁移服务器到波特兰的障碍。“机架密度不同,电力密度也不同,”她说。“所以机房需要进行升级。”她开始详细介绍更多原因,但被马斯克打断。“这让我的大脑感到压抑,”马斯克说道,“你知道头爆炸的表情符号吗我的脑袋现在就是这个感觉。真是一堆屁话。波特兰明显有大量的空间,从一个地方迁移到另一个地方简直小菜一碟。”
“你们需要做的就是将服务器迁移到波特兰,”马斯克说道,“如果超过 30 天,我会很震惊。”他停顿了一下,重新计算。“找一家搬家公司,运输电脑需要一个星期,然后再花一个星期来连接它们。两周。就应该这样。”
所有人都默不作声。但马斯克仍在发火。“如果你们租了一个 U-Haul (一家租车公司),你们可能自己就能完成。”两位 X 公司的经理看着他,试图判断他是否是认真的。马斯克的两位亲密助手 Steve Davis 和 Omead Afshar 也在场。他们多次看到过他这样,知道他可能真的这么认为。
12 月 23 日星期五晚上,James 和他的弟弟 Andrew(马斯克的表弟)与马斯克一起从旧金山飞往奥斯汀,当飞机飞过拉斯维加斯时,James 提出了一个建议,他们现在就可以移动服务器。一个名为 Alex 的来自乌兹别克斯坦的 X 员工帮助他们进入了 X 公司的数据中心,内部共有大约 5200 个冰箱大小的机架,每个机架有 30 台电脑。每个机架重约 2500 磅,高 8 英尺。但马斯克认为“这些东西看起来并不难移动”,他向保安借了一把小刀,抬起地板上的一个通风口,这让他可以撬开地板面板。然后他爬到服务器下面,用小刀撬开了一个电箱,拔掉了服务器插头,等着看会发生什么。没什么异常发生。服务器已经准备好迁移。
第二天——圣诞前夜,马斯克召集了增援。Ross Nordeen,与他的朋友 James 在 Tesla 工作,从旧金山驱车而来。他在联合广场的 Apple Store 花了 2000 美元,买下了所有的 AirTags,这样服务器在迁移过程中就可以被跟踪。然后他去了家得宝,花了 2500 美元买了扳手、断线钳、头灯和拧下地震螺栓所需的工具。
Steve Davis,马斯克的忠诚副手,找人租了一辆半挂车,并安排了搬家车。其他来自 SpaceX 的援助队员也已到达。这些服务器机架都有轮子,所以团队能够断开其中四个并将它们推到待命的卡车上。这表明,这五千两百多个服务器可能在几天内全部移动。“伙计们干得好!”马斯克兴高采烈地说。
到这周结束时,他们已经使用了萨克拉门托所有可用的卡车。尽管该地区受到了雨的袭击,他们在三天内移动了700 多个机架。该设施之前的记录是一个月移动 30 台。这仍然留下了大量的服务器在设施中,但这群人已经证明了它们可以被快速移动。其余的部分在 1 月份由 X 公司的基础设施团队处理。
马斯克的疯狂举动引发了不少争议。网友海狗油 90 认为,“几乎没有人明白数据中心搬迁要搬的是服务、数据,而不是服务器本身,也不明白 X 这样的公司,服务连续性、数据一致性值多少钱。”
网友酷憋哥评论称:“除了证明马斯克胆子大,这个案例没有什么正面的意义,试想一下,哪个普通打工人可以做出这么鲁莽的决定?他或她是否能承担由这种行为导致的严重后果?所以最终只有老板能做这种事情,只要他愿意。”



来源:AI前线(公众号)
链接:https://mp.weixin.qq.com/s/2E_07CU9y3KgajBw1N8d1Q
编辑:覃韵琪

764#
 楼主| 发表于 2023-11-7 21:30:53 | 只看该作者
【案例】
中美英欧等超25个国家代表共同签署人工智能国际治理《布莱切利宣言》

11月1日,首届全球人工智能(AI)安全峰会在英国拉开帷幕,为期两天的会议在布莱切利庄园举行,包括中国、美国、英国和欧盟在内的超25个国家代表,以及马斯克、OpenAI创始人兼CEO阿尔特曼等科技巨头与会。11月1日,与会国签署“布莱切利宣言”,同意通过国际合作,建立人工智能(AI)监管方法。

中国科技部副部长吴朝晖出席了本次全球人工智能安全峰会,并于1日举行的开幕式全体会议上发言。与会期间,代表团参与人工智能安全等问题讨论,积极宣介习近平主席宣布中方提出的《全球人工智能治理倡议》,并将与相关国家开展双边会谈。

根据“布莱切利宣言”内容,与会国一致认为,人工智能已经部署在日常生活的许多领域,在为人类带来巨大的全球机遇的同时,还在网络安全、生物技术等关键领域带来了重大风险。“人工智能模型最重要的功能,可能会有意或无意地造成严重甚至灾难性的伤害,”宣言写道,“鉴于人工智能快速且不确定的变化速度,以及技术投资加速的背景下,我们确信加深对这些潜在风险的理解以及应对风险的行动尤为紧迫”。

与会国强调,对于最有可能发现的与前沿人工智能相关的具体风险,各国决心加强和维持合作,通过现有的国际论坛和其他举措,识别、理解有关风险并采取适当行动。路透社认为,“布莱切利宣言”提出了一个双管齐下的议程,重点是确定共同关注的风险,建立对这些风险的科学理解,同时制定减轻这些风险的跨国政策。

英国选择布莱切利庄园可谓意味深长,这里是二战期间盟军破译密码的主要地点。半个多世纪前,有“现代计算机科学与人工智能之父”之称的数学家图灵也是在此发明了第一代图灵计算机。今年以来,人工智能持续成为国际热点,人工智能发展、竞争与规则制定牵动多方。

以下是布莱切利宣言全文(英文原文+中文翻译):

布莱切利宣言(翻译版)

人工智能(AI)创造了巨大的全球性机遇:它具备转变与增强人类的福祉、和平与繁荣的潜力。为了实现这一目标,我们申明,为了所有人的利益,应以安全、以人为本、值得信赖和负责任的方式设计、开发、部署和使用人工智能。我们欢迎国际社会迄今为人工智能领域的合作所做的努力,以此促进包容性经济增长、可持续发展和创新,保障人权和基本自由,并增强公众对人工智能系统的信任和信心,以充分发挥人工智能的潜力。



人工智能系统已经在日常生活的许多领域得到部署,这些领域包括住房、就业、交通、教育、健康、无障碍环境和司法,并且对它们的使用可能会增加。因此,我们认识到,现在正是一个独特的时刻,需要采取行动申明人工智能安全发展的必要性,并采取包容的方式,将人工智能的变革性机遇应用于我们各国和全球以为人类带来福祉,如卫生和教育、粮食安全、科学、清洁能源、生物多样性和气候等领域,以实现人权的享受,并为实现联合国可持续发展目标付出更多的努力。


除了带来这些机遇以外,人工智能也带来了重大风险,包括在日常生活领域。为此,我们欢迎国际社会为审查和应对人工智能系统在现有论坛和其他相关倡议中的潜在影响所做的努力,并认识到需要解决保护人权、透明度和可解释性、公平、问责制、监管、安全、适当的人类监督、道德、减少偏见、隐私和数据保护问题。我们还注意到,操纵内容或生成欺骗性内容的能力可能会带来不可预见的风险。所有这些问题都至关重要,我们申明解决这些问题的必要性和紧迫性。



人工智能的“前沿”出现了特殊的安全风险,即那些功能强大的通用人工智能模型,包括基础模型,可以执行各种各样的任务,以及相关的特定狭义人工智能,这些人工智能可能表现出造成安全问题的能力,这些能力可与当今最先进的模型相提并论甚至可能超越它们。潜在的故意滥用或与人类意图一致的意外控制问题可能会产生重大风险。出现这些问题的部分原因在于人们对这些功能尚未完全了解,因此难以预测。我们特别关注网络安全和生物技术等领域的此类风险,以及前沿人工智能系统可能放大虚假信息等风险等问题。这些人工智能模型所具备的最重要的功能可能会造成严重的、甚至是灾难性的伤害,无论是在有意还是在无意的情况下。鉴于人工智能变化速度的快速和不确定性,以及在技术投资加速的背景下,我们申明,加深对这些潜在风险的理解以及应对这些风险的行动尤为紧迫。


人工智能带来的许多风险本质上是国际性的,因此最好通过国际合作来解决。我们决心以包容的方式共同努力,确保人工智能人为本、值得信赖和负责任,确保人工智能的安全,并通过现有的国际论坛和其他相关倡议支持所有人的利益,促进合作,以应对人工智能带来的广泛风险。在此过程中,我们认识到各国应考虑采取有利于创新且适度的治理和监管方法的重要性,以最大限度地提高收益并考虑与人工智能相关的风险。这可能包括酌情根据国情和适用的法律框架,对风险进行分类和分类。我们还注意到,在共同原则和行为守则等办法上酌情进行合作具有重要性。关于最有可能发现的与前沿人工智能有关的具体风险,我们通过现有的国际论坛和其他相关倡议,包括未来的国际人工智能安全峰会,决心加强和维持我们的合作,并扩大与更多国家的合作,确定、理解并酌情采取行动。


所有行为者都可以在确保人工智能安全方面发挥作用:国家、国际论坛和其他倡议、公司、民间社会和学术界需要共同努力。我们注意到包容性人工智能和弥合数字鸿沟的重要性,重申国际合作应努力酌情让更多的合作伙伴广泛参与其中,并欢迎以发展为导向的方法和政策,以帮助发展中国家加强人工智能能力建设,并利用人工智能的赋能作用来支持可持续增长、缩小发展差距。



我们申明,虽然在整个人工智能生命周期中考虑安全性是必要的,但开发前沿人工智能能力的参与者,特别是对于那些异常强大且可能造成伤害的人工智能系统,在确保这些人工智能系统的安全性方面负有特别重大的责任,包括通过安全测试系统、评估和其他适当措施。我们鼓励所有相关参与者在其计划中提供与情况相适应的透明度和问责制,以衡量、监测和减轻可能出现的潜在有害能力和可能出现的相关影响,特别是防止滥用和控制问题,以及扩大其他风险。


在我们的合作背景下,为了在国家和国际层面采取行动,我们应对人工智能前沿风险的议程将侧重于:



1、识别共同关注的人工智能安全风险,建立对这些风险的共同科学和循证理解,并在能力不断提高的情况下,在更广泛的全球范围内保持共识,以了解人工智能对我们社会的影响。



2、根据这些风险,在各国制定各自的基于风险的政策,以确保安全,在适当的情况下进行合作,同时认识到我们的方法可能因国情和适用的法律框架而异。这包括,除了提高开发前沿人工智能能力的私人行为主体的透明度以外,还包括适当的评估指标、安全测试工具,以及发展相关的公共部门能力和科学研究。



为推进这一议程,我们决心支持构建一个具有国际包容性的人工智能前沿安全科学研究网络,该网络应包括并补充现有和新的多边、诸边和双边合作,包括通过现有的国际论坛和其他相关倡议,以促进现有的最佳科学支持提供,推动政策制定和公益事业的发展。



认识到人工智能的变革性的积极潜力,作为确保更广泛的人工智能国际合作的一部分,我们决心继续开展包容性的全球对话,让现有的国际论坛和其他相关倡议参与进来,以开放的方式为更广泛的国际讨论做出贡献,并继续研究人工智能前沿安全,以确保采用负责任的方式利用该技术的益处,为人类带来福祉。我们期待在2024年再次见面。


出席本次峰会的国家有:

·澳大利亚

·巴西

·加拿大

·智利

·中国

·欧盟

·法国

·德国

·印度

·印度尼西亚语

·爱尔兰

·以色列

·意大利

·日本

·肯尼亚

·沙特阿拉伯王国

·荷兰

·尼日利亚

·菲律宾

·大韩民国

·卢旺达

·新加坡

·西班牙

·瑞士

·土耳其

·乌克兰

·阿拉伯联合酋长国

·大不列颠及北爱尔兰联合王国

·美国

“政府”和“国家”包括根据其立法或行政权限行事的国际组织。


英文原文:

Bletchley Declaration

Artificial Intelligence (AI) presents enormous global opportunities: it has the potential to transform and enhance human wellbeing, peace and prosperity. To realise this, we affirm that, for the good of all, AI should be designed, developed, deployed, and used, in a manner that is safe, in such a way as to be human-centric, trustworthy and responsible. We welcome the international community’s efforts so far to cooperate on AI to promote inclusive economic growth, sustainable development and innovation, to protect human rights and fundamental freedoms, and to foster public trust and confidence in AI systems to fully realise their potential.

AI systems are already deployed across many domains of daily life including housing, employment, transport, education, health, accessibility, and justice, and their use is likely to increase. We recognise that this is therefore a unique moment to act and affirm the need for the safe development of AI and for the transformative opportunities of AI to be used for good and for all, in an inclusive manner in our countries and globally. This includes for public services such as health and education, food security, in science, clean energy, biodiversity, and climate, to realise the enjoyment of human rights, and to strengthen efforts towards the achievement of the United Nations Sustainable Development Goals.

Alongside these opportunities, AI also poses significant risks, including in those domains of daily life. To that end, we welcome relevant international efforts to examine and address the potential impact of AI systems in existing fora and other relevant initiatives, and the recognition that the protection of human rights, transparency and explainability, fairness, accountability, regulation, safety, appropriate human oversight, ethics, bias mitigation, privacy and data protection needs to be addressed. We also note the potential for unforeseen risks stemming from the capability to manipulate content or generate deceptive content. All of these issues are critically important and we affirm the necessity and urgency of addressing them.

Particular safety risks arise at the ‘frontier’ of AI, understood as being those highly capable general-purpose AI models, including foundation models, that could perform a wide variety of tasks - as well as relevant specific narrow AI that could exhibit capabilities that cause harm - which match or exceed the capabilities present in today’s most advanced models. Substantial risks may arise from potential intentional misuse or unintended issues of control relating to alignment with human intent. These issues are in part because those capabilities are not fully understood and are therefore hard to predict. We are especially concerned by such risks in domains such as cybersecurity and biotechnology, as well as where frontier AI systems may amplify risks such as disinformation. There is potential for serious, even catastrophic, harm, either deliberate or unintentional, stemming from the most significant capabilities of these AI models. Given the rapid and uncertain rate of change of AI, and in the context of the acceleration of investment in technology, we affirm that deepening our understanding of these potential risks and of actions to address them is especially urgent.

Many risks arising from AI are inherently international in nature, and so are best addressed through international cooperation. We resolve to work together in an inclusive manner to ensure human-centric, trustworthy and responsible AI that is safe, and supports the good of all through existing international fora and other relevant initiatives, to promote cooperation to address the broad range of risks posed by AI. In doing so, we recognise that countries should consider the importance of a pro-innovation and proportionate governance and regulatory approach that maximises the benefits and takes into account the risks associated with AI. This could include making, where appropriate, classifications and categorisations of risk based on national circumstances and applicable legal frameworks. We also note the relevance of cooperation, where appropriate, on approaches such as common principles and codes of conduct. With regard to the specific risks most likely found in relation to frontier AI, we resolve to intensify and sustain our cooperation, and broaden it with further countries, to identify, understand and as appropriate act, through existing international fora and other relevant initiatives, including future international AI Safety Summits.

All actors have a role to play in ensuring the safety of AI: nations, international fora and other initiatives, companies, civil society and academia will need to work together. Noting the importance of inclusive AI and bridging the digital divide, we reaffirm that international collaboration should endeavour to engage and involve a broad range of partners as appropriate, and welcome development-orientated approaches and policies that could help developing countries strengthen AI capacity building and leverage the enabling role of AI to support sustainable growth and address the development gap.

We affirm that, whilst safety must be considered across the AI lifecycle, actors developing frontier AI capabilities, in particular those AI systems which are unusually powerful and potentially harmful, have a particularly strong responsibility for ensuring the safety of these AI systems, including through systems for safety testing, through evaluations, and by other appropriate measures. We encourage all relevant actors to provide context-appropriate transparency and accountability on their plans to measure, monitor and mitigate potentially harmful capabilities and the associated effects that may emerge, in particular to prevent misuse and issues of control, and the amplification of other risks.

In the context of our cooperation, and to inform action at the national and international levels, our agenda for addressing frontier AI risk will focus on:

· identifying AI safety risks of shared concern, building a shared scientific and evidence-based understanding of these risks, and sustaining that understanding as capabilities continue to increase, in the context of a wider global approach to understanding the impact of AI in our societies.

· building respective risk-based policies across our countries to ensure safety in light of such risks, collaborating as appropriate while recognising our approaches may differ based on national circumstances and applicable legal frameworks. This includes, alongside increased transparency by private actors developing frontier AI capabilities, appropriate evaluation metrics, tools for safety testing, and developing relevant public sector capability and scientific research.

In furtherance of this agenda, we resolve to support an internationally inclusive network of scientific research on frontier AI safety that encompasses and complements existing and new multilateral, plurilateral and bilateral collaboration, including through existing international fora and other relevant initiatives, to facilitate the provision of the best science available for policy making and the public good.

In recognition of the transformative positive potential of AI, and as part of ensuring wider international cooperation on AI, we resolve to sustain an inclusive global dialogue that engages existing international fora and other relevant initiatives and contributes in an open manner to broader international discussions, and to continue research on frontier AI safety to ensure that the benefits of the technology can be harnessed responsibly for good and for all. We look forward to meeting again in 2024.

Agreement
The countries represented were:
Australia

Brazil

Canada

Chile

China

European Union

France

Germany

India

Indonesia

Ireland

Israel

Italy

Japan

Kenya

Kingdom of Saudi Arabia

Netherlands
Nigeria
The Philippines
Republic of Korea
Rwanda
Singapore
Spain
Switzerland
Türkiye
Ukraine
United Arab Emirates
United Kingdom of Great Britain and Northern Ireland
United States of America

References to ‘governments’ and ‘countries’ include international organisations acting in accordance with their legislative or executive competences.(内容来源于网络)

来源:必达智库
链接:https://mp.weixin.qq.com/s/tA94pO24_RkAiAbXqZog1w
编辑:秦克峰
765#
 楼主| 发表于 2023-11-12 00:35:49 | 只看该作者
【案例】
事实核查:如何识别有关以哈战争的AI生成图像?


真的还是假的?人工智能生成的图像已成为以哈战争中的造谣工具。德国之声事实核查团队向您解释如何识别它们。

(德国之声中文网)用人工智能(AI)制造的假新闻是如何运作的?它们呈现了怎样的叙事方式?它们有多危险?在这篇文章中,德国之声事实核查人员将回答有关人工智能图像在以哈冲突中所扮演角色的几个关键问题。

1)人工智能工具是如何制造假图像的?

如今,人工智能无处不在,在战争中更是难以避免。人工智能应用在今年有了很大的改进,现在几乎任何人都可以使用标准的人工智能生成器来生成图像,这些图像至少第一眼看上去是真实的。

要做到这一点,用户只需要向Midjourney或Dall-E等人工智能工具输入提示,包括规格和信息。然后,这些工具会将文字提示转换成图像。

这些工具既能生成更具艺术性的插图,也能生成逼真的“照片”。生成过程基于所谓的机器学习如何识别有关以哈战争的AI生成图像?



真的还是假的?人工智能生成的图像已成为以哈战争中的造谣工具。德国之声事实核查团队向您解释如何识别它们。

(德国之声中文网)用人工智能(AI)制造的假新闻是如何运作的?它们呈现了怎样的叙事方式?它们有多危险?在这篇文章中,德国之声事实核查人员将回答有关人工智能图像在以哈冲突中所扮演角色的几个关键问题。

1)人工智能工具是如何制造假图像的?

如今,人工智能无处不在,在战争中更是难以避免。人工智能应用在今年有了很大的改进,现在几乎任何人都可以使用标准的人工智能生成器来生成图像,这些图像至少第一眼看上去是真实的。

要做到这一点,用户只需要向Midjourney或Dall-E等人工智能工具输入提示,包括规格和信息。然后,这些工具会将文字提示转换成图像。

这些工具既能生成更具艺术性的插图,也能生成逼真的“照片”。生成过程基于所谓的机器学习


编辑:秦克峰



766#
 楼主| 发表于 2023-11-13 16:54:10 | 只看该作者
数字记者来了:前场真人记者采访,后场数字记者播报
在路上,是记者的日常,也是这个职业最美的姿态。奔波在热点现场之间,如何能用更快的速度向用户传递最新讯息?当智能互联网时代到来,技术可以如何助力媒体创新内容表达形式?
今年记者节,川观新闻携手腾讯云智能,为记者们发放“数智助手”,共建国内最大数字记者矩阵,运用AIGC助力新闻跑快一分钟。
这些“数智记者”是川观新闻真人记者的数字化分身。在川观新闻大力推进实施视频化转型战略背景下,真人记者前场采访,数字分身后场出镜解读,由算力驱动进行多线程播报,革新智慧内容生产流程,用更高效、更丰富、更年轻态的视频内容产品,带给用户全新体验。
革新视频新闻生产流程
当前,我国短视频用户的规模已达10.26亿,95.2%的网民通过手机屏纵观天下。
作为“四川综合新闻第一新媒体”,川观新闻客户端下载量已超过7800万。为顺应视频化发展大势,川观新闻今年升级10.0版本,大力推进实施视频化转型战略,上线“C视频”账号矩阵,重构内容体系,主动投身短视频传播主战场。
川观新闻CTO黄云表示,从文字新闻转型视频传播需要面对两大挑战:“一是记者的思维转变,从文字向视频图像转型,记者要学会面对镜头、适应镜头;二是人力资源协调,视频生产涉及多个环节,从灯光、拍摄到剪辑需要多人协作,要有完整团队做支撑。”
面对全新的传播课题,如何让原有的文字记者,更好地转型进入短视频战场,如何解决人力短缺挑战,用数字化技术提升视频内容生产效率?今年9月,川观新闻引入腾讯云智能数智人技术支持,上线首批以真人记者为原型打造的“数智记者”。这也是川观新闻运用AIGC技术重塑内容生态、创新内容表达的一次尝试。
黄云介绍称,数字分身并不是简单地重现真人记者,而是要发挥其由算力驱动进行多线程播报的优势。前场真人记者采访,后场数字记者播报,双线异地同步操作,真正做到重塑内容生产流程,提质增效。
(以真人记者为原型打造的“数智记者”,只需要输入文字、音频即可驱动)
截至目前,腾讯云智能为川观新闻定制的20个数字记者已全部上线。川观新闻的数字记者数量也扩大到了40个,构建起国内最大数字记者群体。四川日报报业集团党委副书记、总编辑、四川日报社总编辑李鹏表示,川观新闻将做足做强视频内容的智能化生产传播,着力打造数字记者群体。
助力新闻跑快一分钟
今年4月,腾讯云智能推出“AI+数智人工厂”,依托腾讯自研AI能力和技术经验,只需要3分钟真人口播视频、100句语音素材,平台便可通过音频、文本多模态数据输入,实时建模并生成高清人像,在24小时内制作出与真人近似的“数智人”。
这套技术也被运用于川观新闻数字记者矩阵建设中。在完成“数字分身”定制后,川观新闻记者只需要在播报数智人平台输入文字、音频,即可快速生成数字人播报视频,随时随地生产出视频新闻。
川观新闻记者、视频栏目“唐探经济圈”主编唐泽文表示,过去录制节目要提前一周约摄影师,在录制现场,从妆发、调试到拍摄平均耗费两小时以上。用了数智人后,5分钟的口播视频只需要10分钟就能生成,如果按照日更计算,一周可以节省12小时以上。
今年9月,唐泽文前往欧洲进行“一带一路”十周年全球调研采访,将前线展会采访与“数智记者”解读进行结合,在展会现场即发送出多期节目内容。“数字人作为一个生产工具,其实是在帮助我们摆脱时间、地点、人力的限制条件,从而达到一个稳定而持续的内容输出。”
(前场真人记者采访,后场数字记者播报,双线异地同步操作,重塑内容生产流程)
从新闻生产的角度出发,唐泽文认为:“时效性是新闻生产的重要考量,让新闻跑快一分钟也是一代又一代新闻人的追求。当数字记者以及更多AIGC工具,广泛地融入到记者的日常采编工作中,辅助记者生产出更快、更准的新闻,才是真正发挥技术的价值。”
从新闻现场来,向数字世界去,数字记者矩阵是川观新闻作为主流媒体尝试AIGC(生成式人工智能)重塑内容生产流程,提质增效,推进媒体融合向深向实的缩影。未来,川观新闻数字记者矩阵,还将依托AI算法的演进,以更自然细腻的样貌、更丰富多变的能力和应用场景给广大用户提供服务。
来源:NEWS全媒体采访与写作
链接:https://mp.weixin.qq.com/s/qbmhiTRnBgqsPhp4GYZ-_w
编辑:程博

767#
 楼主| 发表于 2023-11-13 17:18:22 | 只看该作者
数千人排队等候植入马斯克的“人脑芯片”
11月8日消息,美国当地时间周二,知名传记作家阿什利·万斯(Ashlee Vance)发文透露,数千人正排队等候植入埃隆·马斯克Elon Musk)旗下脑机接口公司Neuralink的大脑植入物

据万斯称,Neuralink在2021年对羊、猪和猴子进行了155次手术,去年进行了294次。但该公司尚未将其设备植入人体。今年早些时候,美国食品和药物管理局(FDA)批准了Neuralink对其设备进行人体试验,马斯克将其描述为“头骨上的Fitbit”。今年9月,该公司开始为其首次人体试验招募志愿者。Neuralink计划明年进行11例人体手术,2025年27次,2026年79次。此后,手术数量将从2027年的499例猛增到2030年的22204例。该公司预计五年内年收入将高达1亿美元。以下为翻译全文:埃隆·马斯克(Elon Musk)正在为其职业生涯中最重要的发布活动做准备。但这次不是电动汽车或火箭科学,而是脑部手术。马斯克旗下脑机接口公司Neuralink正在为其首次临床试验寻找志愿者,这意味着其正在寻找愿意让外科医生切除一块头骨的人,以便大型机器人在他们的大脑中插入许多电极和超细电线。当机器人完成手术后,头骨碎片将被硬币大小的计算机所取代。这台机器的工作将是读取和分析人的大脑活动,然后将这些信息无线传输到附近的笔记本电脑或平板电脑上。就此次临床试验而言,理想的候选人是40岁以下、四肢瘫痪的成年人。这样的患者可能会将Neuralink的植入物植入到他们的运动前皮层的手旋钮区域,该区域控制着手、手腕和前臂。目标是证明该设备可以安全地从病人大脑的哪个部位收集有用的数据,这是Neuralink将人的思维转化为计算机可以理解的一系列指令的关键一步。SpaceX的前三枚火箭都发生了爆炸,但“我们不能把前三次人体实验都搞砸”几家公司和研究团队已经制造出可以帮助患者用思维执行基本任务的植入物,比如用光标点击屏幕上的对象。但Neuralink的目标似乎更为远大。在过去的四年里,从该公司的首次公开演示开始,它让人觉得好像很快就会有无处不在的诊所,任何人都可以进去接受约15分钟的机器人手术,然后以人机混合体的方式出来。这些半机械人将能够像《黑客帝国》中的基努·里维斯(Keanu Reeves)那样下载信息,或者将自己的想法上传到存储器中,甚至上传到其他人的大脑中。马斯克在2019年的首次演示中说:“这听起来很奇怪,但最终我们将实现与人工智能的共生。”当时,该公司表示,人体试验可能会在2020年开始。设定不切实际的时间表是马斯克最喜欢的管理技巧之一。值得称赞的是,他最终实现了几个不可能实现的梦想。但是,虽然火箭和汽车都很重要,但神经植入需要在完全不同的水平上达到完美。企业不会急于将大脑植入物推向市场,并期待最好的结果。另外两家公司,Synchron和Onward,在大脑植入及相关技术的人体试验方面领先了Neuralink一年多。然而,与之前几十年的渐进式研究(主要是学术研究)相比,Neuralink获得了更多的关注,尽管并非都是称赞。一些神经科学家表示,Neuralink是在炒作这项技术。动物权利组织指责该公司对猴子、猪和其他哺乳动物进行了残酷的植入试验。关键是马斯克,他在网上日益狂躁和反动的形象,并没有让人觉得他是大规模生产精神控制设备的理想人选。所有这些担忧都是合理的。然而,Neuralink的试验也令人感到兴奋。该公司似乎在这个缓慢而稳定的领域取得了长足的进步,现在它已经制造出了世界上最强大、最受期待的大脑植入物。如果这款产品能达到预期效果,那么以后的迭代就能奇迹般地改善数百万瘫痪、中风、卢伽雷氏症、听力和视力丧失患者的生活。与此同时,Neuralink的超高知名度已经让投资者开始寻找下一个Neuralink。在马斯克的推动下,Neuralink团队在技术和雄心方面都取得了不菲的成就。随着它们准备进行人体试验时,成功的压力是马斯克以前都未曾遇到过的。毕竟,特斯拉用了很多年才能量产汽车,而SpaceX的前三枚火箭都发生了爆炸。Neuralink的特别项目主管希冯·齐利斯(Shivon Zilis)表示,说到大脑,“我们不能把前三个都搞砸,在这个领域,这不是我们的选择。”大脑植入的现代历史始于20世纪90年代的技术进步。通常情况下,思维使神经元以特定的模式放电,这些模式在大脑中在一定程度上保持着一致性。事实上,当某人想要移动他们的手臂和手指时,无论他们是否能移动它们,大致相同的神经元都会被激活。当人们想要移动鼠标光标点击电脑屏幕上的某个地方时,大脑也会以类似的方式放电。说话也是如此:如果你能想到说某个字母或单词,这会让同样的神经元被激活。即使你不能讲话,一台训练有素的计算机也应该能够辨别你的意图。从理论上讲,它可以替你说话。挑战在于找出神经元到英语词典中对用的每一个词条,这需要收集和研究大量关于许多人大脑信号模式的数据。为了获得最清晰的信号,你需要将传感器放置在离神经元尽可能近的地方。有些研究人员试图通过将他们的设备放在人的头骨外来避免手术,但距离增加和干扰导致效果并不显著。最精确的数据通常来自脑细胞旁边的电极。“长期目标是让数十亿人可以使用这项技术,释放人类潜力,超越我们的生物能力”在过去20年的大部分时间里,所谓的犹他阵列(Utah Array)始终被视为最典型的大脑植入物代表。它是一个很小的方形硅片,可以放在孩子的指甲上。金属丝从芯片的边缘伸出,芯片的表面大约有100个刚性尖刺。为了植入犹他阵列,外科医生必须进行开颅手术,在患者的头骨上切一个大洞,然后轻轻地将这些尖刺钉入大脑。这些电线则被连接到金属端口上,在缝合后,金属端口可以明显地从头皮上伸出来。术后,为了使用这个设备,一个冰块大小的电脑被连接到患者的头上。研究人员在犹他阵列植入方面取得了重大进展。他们用它来阅读和翻译瘫痪和其他疾病患者的大脑活动,利用这些信息创建的软件可以让病人与护理人员或其亲人交流,也可以操纵机械臂拿起物体。问题在于这款硬件的设计过于笨拙,20多年来基本没有改变。犹他阵列还需要大量训练有素的人员操作的设备,以及大量的医疗护理,这使得它们主要局限于研究实验室部署。2016年,马斯克与七名科学家利用他提供的1亿美元资金共同创立了Neuralink。事实证明,他的投资引人注目,他对这项技术的承诺,令风险资本家难以抗拒。自那以后,Neuralink已经筹集了超过5亿美元的资金,其中包括今年的2.8亿美元。这种关注也吸引了投资者关注其他脑机接口项目,包括长期存在的大学项目和较新的创业公司。研究公司PitchBook的数据显示,去年有37家这样的公司筹集了超过5.6亿美元的资金。这些企业中的大多数都有相同的首要目标:制造出一种可以离开实验室的大脑扫描设备。理想的植入物将具有足够的计算能力来记录和输入大量数据,并通过强无线信号传输数据。这一切都必须在使用尽可能少的电池电量的情况下完成,而且不能让设备运行过热,否则会刺激或伤害患者。除了硬件,脑机接口公司还需要机器学习软件技能,并进行成千上万次的测试。Neuralink的植入物隐藏于头皮下方,与头骨齐平。它还配备了足够的计算能力,可以处理远远超出思维和点击的工作。在不久的将来,这个想法将使高速打字和无缝使用光标成为可能。Neuralink还在研究一种辅助脊柱植入物,旨在恢复瘫痪患者的运动和感觉。Neuralink联合创始人兼工程副总裁DJ Seo表示:“公司的短期目标是建立通用的大脑接口,让那些患有神经衰弱、医疗需求未得到满足的人恢复自主。至于长期目标则是让数十亿人可以使用这种技术,释放人类潜力,超越我们的生物能力。”过去两年动物植入实验超过400次,准备人体试验尽管一些竞争对手已经在人体试验方面领先于Neuralink,但该公司的原始技术最接近于成为大脑中的通用计算机。这种植入物有1000多个电极用于收集大脑数据,而竞争对手的设备只有16个左右。Neuralink硬件集处理、通信和充电系统于一体,包括电池和信号放大系统。与此同时,竞争对手仍然必须通过电线将他们的植入物与心脏起搏器大小的笨重电池和放大器单元连接起来,这些组件通常要通过手术植入患者的胸部。Neuralink的电池可以持续使用几个小时,并且可以通过定制的棒球帽在几个小时内完成无线充电。马斯克最喜欢的另一项创新是将关键的制造业务内部化,这虽然增加了财务风险,但却节省了时间。Neuralink甚至自己生产半导体芯片,这在医疗设备行业是极为罕见的。该公司专门为其低功耗,低热量的需求量身定制芯片。在奥斯汀,Neuralink把一个酒吧变成了巨大的植入物生产线和测试中心。除了常见的铣床、车床和激光切割机外,这家工厂还配备了更多稀奇古怪的设备,比如冰箱大小的橱柜,里面装满了合成脑液,可以加热、冷却和挤压植入物,以模拟多年的磨损情况。手术过程中的首要任务是避免在患者的大脑中产生任何出血或疤痕组织。为此,Neuralink还制造了自己的手术机器人。这台机器人是白色的,高约2.1米,底座稳定,呈立方体形状,支撑着一个电子设备塔。一旦人类外科医生在患者的头骨上切开一个洞,机器人就会执行一项极其精细的任务,将电极线插入大脑。这个机器人配有摄像头、传感器和一根微小的激光磨针,它在每根线的末端钩成一个环。针头一根接一根地将64根线(每根线有16个电极)推入大脑,同时小心翼翼地避开血管。考虑到每根线只有5微米粗,或者大约是人类头发直径的1/14,任何人都不允许尝试这种方法。为了进一步避免损伤组织,这些线被设计得细长、柔韧而坚固,并被涂上一层特殊的聚合物,以防止它们在多年后变质。Neuralink的十几台机器人在2021年对羊、猪和猴子进行了155次手术,2022年进行了294次。对于人类受试者来说,手术准备和开颅预计需要几个小时,然后是大约25分钟的真正植入过程。Neuralink联合创始人兼工程副总裁DJ Seo称:“过去两年,我们一直专注于打造一款适合人类使用的产品,现在是时候帮助真正的人类了。”在笔者的首次参观期间,马斯克敦促工程师们加快进度。他希望机器人能在更短的时间内完成手术,最好是在没有人类外科医生帮助的情况下完成。他还希望半导体专家忘记他们在学校学到的东西,尝试更简单的制造技术。他希望植入物看起来更光滑,使用寿命更持久,也许每个人都需要重新思考一切。马斯克提前考虑了一系列设计,以免影响批量生产。他的这种态度似乎给了员工信心,让他们相信他是对的。马斯克的管理风格有其优点,这帮助打造了世界上最成功的火箭公司和市值最高的电动汽车公司。当然,任何在谷歌上搜索过“Cybertruck车窗”的人都知道,他的初期计划可能变得一团糟,而且工程师们的努力并不总能带来理性的产品选择。对此,马斯克的解释是:“我们需要在人工智能接管之前实现目标,时间非常紧迫!“2030年将进行22204例人体植入手术Seo和马斯克是Neuralink公司目前仅有的两位创始人。另外6人是主动离职,或者是因为对公司发展方向存在分歧。他们中的许多人后来创办了类似的公司。Seo负责植入物和手术机器人的开发,杰里米·巴伦霍兹(Jeremy Barenholtz)是刚从斯坦福大学毕业两年的计算机科学家,他已成为该公司的首席执行官之一,并成功通过了美国食品和药物管理局(FDA)严苛的审批程序。马斯克继续担任联席首席执行官。2022年7月,笔者参观了该公司位于加州弗里蒙特的总部,展示了其运营机制。马斯克召集了高管和工程师,让他们了解人体试验的最新进展。团队成员聚集在办公室主工作区的一张长方形桌子前。这是一个很大的开放式空间,人们挤在电脑、机器人原型和测试设备前面。马斯克身穿黑色西装,手拿红牛,站在桌子的最前面,开始询问竞争对手的情况。在员工汇报最新情况时,他向他们抛出了一连串技术问题。他特别关注Synchron,该公司产品已经获得监管部门批准,可以开始人体试验。Synchron的卖点是不需要切割头骨的技术。该公司制造了一种叫做支架的小型产品,可以通过患者的血管系统滑入大脑血管。为了获得最佳信号,这种硬件不能直接与神经元对接,但瘫痪患者已经在用它来浏览网页和发送WhatsApp消息。马斯克说:“我们应该远远超过这个标准。他们目前正把我们甩在后面,明年我想迎头赶上。”他的副手们同时做起鬼脸。巴伦霍兹的任务很复杂,他要向马斯克解释,FDA希望在该公司第一次手术完成后至少等一年,再尝试更多人体植入试验。对此,马斯克的回答是:“不可接受。如果事情进展顺利,你就会向FDA写信,我保证他们会采取行动。这就像SpaceX获得联邦政府批准进行更多的火箭测试一样!”在几个月后的另一次“更新”会议上,马斯克把目光投向了Onward,该公司生产紧贴脊柱的植入物。它的设备发送电脉冲,帮助肌肉恢复活力,使瘫痪的人再次行走。尽管他们的步态往往有些笨拙,但对于瘫痪的人和他们的亲人来说,再次站立和行走就已经堪称是奇迹。马斯克当时也在准备进行重要的演示。Neuralink计划宣布,它已经开始研究自己的脊柱植入物,以与大脑植入物匹配。这一次,马斯克似乎更激动了,更加努力地推进项目。当然,所有这些都不是开玩笑的。工程师约瑟夫·奥多尔蒂(Joseph O’doherty)从容不迫地发表了一篇关于Neuralink早期脊柱技术进展的长篇演讲,展示了一种植入物被用来刺激猪的腿让它们在跑步机上行走的视频。这个项目涉及大脑的不同部位、脊椎部分、刺突网格、关节角度、机器学习模型等。马斯克没有接受过正式的医疗培训,但他始终在关注进展。他对如何调整植入物提出了建议,也许可以减少动物步态中的抖动情况。他的想法有时与实际相去甚远,但也经常切中要害。据芯片部门大脑接口主管扎克·泰德夫(Zack Tedoff)说,在一次视察之后,半导体工程师根据马斯克的建议,重新调整了将线程连接到公司芯片上的工艺,使它们的制造速度提高了50%,缺陷也减少了。研究脊椎植入物的团队又回到了绘图板上,试图让他们的猪以更逼真的方式行走,而巴伦霍兹则开始住在办公室里,以满足马斯克的每一个要求。事实证明,马斯克对FDA的看法是正确的。Neuralink已经收到了数千名潜在患者的申请,该机构最近给它开了绿灯,批准其在2024年进行更多的植入试验,而不许等待长达一年的评估期。Neuralink估计,每次植入手术将花费约10500美元,包括检查、组件和人工费用,并将向保险公司收取约4万美元。该公司预计五年内年收入将高达1亿美元。Neuralink表示,计划在2024年进行11次手术,2025年27次,2026年79次。根据提供给投资者的文件,手术数量将从2027年的499例增加到2030年的22204例。实验动物待遇引发关注然而,在动物身上测试医疗设备并不是一件令人愉快的事情。在某种程度上,这种做法被视为是科学祭坛上的一种动物祭祀,增加了它们的痛苦以期减少人类的痛苦。然而,Neuralink在对待动物实验对象方面受到了特别审查,尤其是今年。多家媒体的报道详细描述了动物手术并发症、副作用和长期痛苦,尤其是灵长类动物身上。报道称,有些接受植入手术的猴子会搔抓、猛拽自己的头,直到它们流血,或者表现得沮丧或痛苦,直到它们被安乐死。Neuralink承认它在探查性手术中犯了错误,尽管该公司将其归咎于人为错误,而不是设备问题。它强调,最令人不安的报告来自其早年,当时它还没有在弗里蒙特建立自己的测试设施,而且它已经竭尽全力在那里提供更好的生活条件。管理Neuralink非人类测试对象、曾在加州大学旧金山分校负责实验室动物福利的奥特姆·索雷尔斯(Autumn Sorrells)说:“我总能找到一种方法来保护我面前的动物。我们被称为‘杀手’和‘虐待动物者’,然后不得不来上班,依偎着一只羊,确保它们度过美好的一天。这太难了。”她说,与其他实验室相比,Neuralink的动物有更大的笼子、更多的食物和娱乐选择以及更多的社交。笔者看到同一群恒河猴在弗里蒙特住了三年,它们都在大脑的不同部位植入了植入物。这些设备可以被移除,其中一些已经升级为更新的型号。其中17只猴子仍然活跃、健康,并在现场为Neuralink提供大脑数据。三只猴子退休进入了避难所,其中一只在计划中的临终程序中被安乐死。在进入动物设施之前,你必须穿戴上手套、长袍、靴子、口罩和防护眼镜,还会得到一份关于如何接近动物的简报。在里面,宽敞的围栏里摆满了玩具、人造树和游乐场设备。音乐经常在整个设施中播放,电视就在手边,播放的大多是自然节目。这些猴子的主要作用是证明设备和手术机器人都能按预期工作。当它们高兴的时候,也会通过玩电脑游戏来为公司的思维翻译器做贡献。Neuralink有个满是猴子的房间,它们坐在电脑前被读取思维,这看起来比听起来更奇怪。每天有几个小时,它们盯着被推到笼子外面的笔记本电脑屏幕。它们可以选择使用操纵杆和触屏的游戏(比如追踪字母和拼写单词),也可以选择依靠大脑控制点击的游戏。在一个例子中,一个35乘35的小盒子网格出现在屏幕上,然后一个盒子突然亮了起来。猴子的目标是通过思维将光标移动到点亮的盒子上。随着时间的推移,猴子完成任务的速度会越来越快,预计人类也会如此。Neuralink正开始将其动物试验和大部分业务从加州转移到得克萨斯州,在奥斯汀郊外的牧场上有个更新、更大的园区。这个地方有手术设施,有多个手术室、谷仓、病理学楼和一个科幻主题的员工酒吧。Neuralink表示,他们计划为灵长类动物建造一个室内外空间。如今,那里有几十只羊和猪。在最近的一次访问中,这些猪都背着装有电池的小背包,给它们头上的贴片供电,让它们的植入物充满电。这些动物的围栏里也有按钮,它们可以用鼻子按下按钮,要求食物或到谷仓外面走走。从鼻子按钮到完成每年22000个人体植入手术还有很长的路要走。就像火箭出现故障一样,一次手术失误或植入物将化学物质泄漏到人的大脑中,都会让这家公司倒退好几年。除了保证基本的安全之外,这个设备还必须兑现马斯鳄科的承诺。人类将能够告诉世界关于植入物的事情,而猴子不能,包括它的极限在哪里。到目前为止,将功夫下载到你的大脑中,与邪恶的超级人工智能战斗,都还是科幻小说中的场景。Seo说,未来的植入物可能会有128个或更多的线程,Neuralink定制芯片的下一个版本将把电池寿命延长到11个小时。他说:“我们的目标是实现全天充电。”到那时,病人就可以在夜间通过枕头里的充电板给植入物充电。对于马斯克来说,所有这一切都很难实现。然而,如果他的努力得到回报,将在极大地改善许多人的生活方面发挥巨大作用。即使Synchron、Onward或其他公司成为行业标准,马斯克也应该得到一些荣誉。
来源:[url=]电子技术应用ChinaAET [/url]
链接:https://mp.weixin.qq.com/s/_YgN75_Avcls051fPQy-Eg
编辑:程博

768#
 楼主| 发表于 2023-11-16 23:04:27 | 只看该作者
微软用大模型改变游戏业玩法,“NPC”从此有了数字生命
写出第一个电子游戏代码的人,是人工智能的先驱者图灵。
此后的半个多世纪,电子游戏的发展一直与前沿技术紧密交织,几乎每一次技术浪潮,都会重塑电子游戏的面貌。而现在,生成式AI技术的突破,又一次为这个行业带来了颠覆性的变革。
随着游戏开发成本的不断攀升和产品定价的停滞,越来越多的开发者开始转向AI工具。摩根士丹利的分析师最近预测,AI工具可能会将AAA级游戏的成本削减高达15%。而诸如微软的Xbox和索尼的PlayStation等游戏平台,将成为游戏行业中采用AI技术最明显的受益者,此外,还有Unity、Roblox和腾讯等公司。
在这一趋势中,微软已经率先行动。
Xbox & Inworld AI合作开发AI工具集
上周,微软宣布Xbox与AI初创公司Inworld AI建立长期合作伙伴关系,共同打造基于人工智能的游戏开发工具,用于创造游戏角色、任务和故事情节。据官方表示,新工具将有助于增强开发人员的创造力,降低开发复杂性,提高玩家体验。
其实早在今年三月份,就有开发人员利用OpenAI的GPT-4在一分钟内制作出一个电子游戏,展示了生成式AI在游戏开发上的潜力,而此次微软Xbox与Inworld AI合作,将AI在游戏领域的应用又推进了一大步。这对于今年全面进军生成式AI的微软来说,也是顺其自然的一步。
据了解,此次合作,将汇集Inworld使用生成式AI模型进行角色开发的专业知识,微软基于云的AI解决方案(包括Azure OpenAI服务),微软研究部门对未来游戏的技术洞察,以及Xbox团队在创作工具上的优势。
Xbox游戏AI总经理张海燕在博客文章中写道:“我们的目标是共同提供一个易于使用、设计负责任的多平台人工智能工具集,以协助和赋能创作者进行对话、故事和任务设计。”
工具集中包含两个关键工具:
AI Design Copilot:这个AI工具将作为游戏开发者的助手,将他们的创意想法转化为详细的剧本,包括对话,任务等,帮助开发者减少制作过程中所需的时间和资源,使游戏开发更快,并且打造出更广阔、更沉浸的世界和故事。
AI Character Runtime Engine:这个AI角色引擎可以集成到游戏客户端,为玩家动态生成故事、对话和任务,使NPC能够对玩家的行为做出反应,而不是遵循僵化的脚本,提升玩家体验。
张海燕表示,与Inworld合作是他们增强游戏开发者能力的重要一步。跟Xbox的所有开发工具一样,他们希望为世界各地、各个规模、各个平台的游戏开发者提供最先进的AI工具。帮助开发者更轻松地实现他们的愿景,突破当下游戏的界限,并尝试改进游戏玩法,建立起与玩家的连接。
“我们将与Xbox工作室内部的游戏创作者以及第三方工作室合作创新,开发满足他们需求并激发未来游戏新可能性的工具。”
生成式AI给了NPC“生命”
在游戏的虚拟世界中,每一位路过的行人、巡逻的警察,或是守卫在门口的士兵,都是游戏中的NPC。玩家们与这些角色交谈,解锁任务,推进剧情。尤其是在大型开放世界的RPG(角色扮演游戏)中,需要大量的NPC来支撑复杂的故事线,它们的丰富和真实程度直接影响玩家的体验和留存。
但传统的NPC往往由程序控制,被限制于简单重复的对话和行为模式,让人觉得枯燥乏味。Inworld报告显示,未来的NPC将转向更先进的AI NPC。绝大多数玩家都认为,AI驱动的NPC将改善游戏的玩法和体验,其中81%的玩家表示愿意为此支付更多钱。
AI角色引擎,便是实现这种AI驱动的工具。Inworld一直致力于研究能够像ChatGPT那样对玩家行为作出反应的AI NPC。它们不仅能以独特的声音回应玩家,还能为游戏带来富有个性和动态变化的故事情节。
利用Inworld技术,开发者可以通过文本快速创建适应于3D、策略、2D等多种游戏类型的NPC,还可以为其配备声音和动画,并提供一些安全控制以防止它们偏离轨道。这些角色拥有记忆、背景故事、情绪、情商、执行力和肢体语言等类人特性,极大提升了游戏的可玩性和开发效率。
Xbox平台正是创新使用这种技术的理想之地。这里汇聚了众多著名的RPG系列,比如《上古卷轴》、《辐射》、《永恒之柱》、《废土》、《神鬼寓言》等等。
Inworld AI官方表示,Inworld的目标是以前所未有的方式赋予游戏角色和虚拟世界生命。从预设的角色脚本模式转变为实时适应玩家行为和选择的模式,为玩家提供极高的参与感。
同时Inworld一直在积极解决游戏开发者集成生成AI技术时面临的挑战,并与网易旗下Team Miaozi、Niantic、Unity、Unreal Engine、Nvidia、NBCUniversal等公司团队进行合作。
资金方面,今年8月,Inworld在官网宣布获得5000万美元的融资,估值达到5亿美元。这笔融资使其成为AI+游戏领域资金最充足的初创公司。
AI在未来游戏开发中的角色
在游戏开发中,人工智能一直扮演着关键角色。Inworld AI首席执行官Ilya Gelfenbeyn认为,大模型和生成式AI技术的出现,为游戏世界的叙事和角色互动开辟了新的机遇。
谈及对Xbox的印象,Ilya Gelfenbeyn感慨地说,“我对Xbox最深刻的记忆可以追溯到《光环3》,那是我第一次体验到多人游戏的魅力。《光环3》在Xbox Live上推出了首个多人游戏服务,多年来,我一直对Xbox在游戏领域所做的贡献表示钦佩。”
他补充道,“Xbox不仅发布了《星际迷航》和《我的世界》等标志性游戏,还创建了一个包含服务、技术和能力的生态系统,释放了游戏开发商的创造力,捕捉世界各地游戏玩家的想象力。”
EA联合创始人Bing Gordon,也是Inworld的顾问,他对AI打造沉浸式游戏世界和复杂叙事的潜力充满信心。
“过去几十年里,游戏行业最大的进步就是视觉保真度和图像的提高,但是AI能够创造出真正沉浸式的世界,不仅使叙事更加丰富,还会将玩家置于游戏的核心,极大提高他们的参与度,吸引玩家进入游戏世界中。”
不过,人工智能在创意领域的应用还是引发了不小的争议。
今年9月,美国演员工会SAG-AFTR以压倒性的投票结果,批准了视频游戏表演者的罢工行动,要求与游戏公司进行谈判。这次谈判的焦点之一就是限制游戏公司使用人工智能或数字复制技术来替代或利用演员的形象和声音。谈判涉及到动视、EA、Epic Games等游戏大厂。
游戏公司对这些诉求予以拒绝,至今谈判未能取得进展。游戏公司认为,视频游戏行业与影视行业不同,AI技术是视频游戏行业发展的必然趋势,不应被限制或禁止。
来源:澎湃新闻
链接:https://m.thepaper.cn/newsDetail_forward_25317492
编辑:程博

769#
 楼主| 发表于 2023-11-16 23:06:25 | 只看该作者
OpenAI已在开发GPT-5,要创造相当于人脑的AGI
OpenAI CEO Sam Altman最近在采访中表示,OpenAI的愿景是打造AGI,在AGI的开发竞赛中,最难攻克的领域是大语言模型系统需要实现根本性的理解飞跃。从现在到AGI还有很长的路要走,需要大量的算力,以及高昂的训练费用。他还透露,公司正在开发下一代人工智能模型“GPT-5”,但没有公布具体的时间表。据了解,OpenAI正计划筹集更多资金支持,希望微软能继续投资。
“有意见”留言板
@卡卡卡卡西:能否实现高维智能,一看算力,二看算法,算力决定GPT的下限,算法决定GPT的上限,所以GPT 5能不能达到人脑水平,不仅要看奥特曼团队里这些顶级工程师有多少人能扛得住996,还要看英伟达能跑多快。
@future:我们都知道GPT-5会比之前所有模型都复杂,但是Sam Altman都表示很难精准预测该模型会有哪些新功能,也无法说出它能做到哪些GPT-4做不了的。感觉就像是一个未知的“魔盒”,让人向往,也容易让人陷落。
@啊不是吧我说:如果能做成当然是好了,那这家公司将成为跨时代的企业,当然ChatGPT的出现已经让它跨了一步,我祝它成功吧。
来源:澎湃新闻
链接:https://m.thepaper.cn/newsDetail_forward_25306101
编辑:程博

770#
 楼主| 发表于 2023-11-17 22:31:00 | 只看该作者
2024年,生成式AI的“炒作”要结束了?
“用ChatGPT-4写一封电子邮件,就好比让兰博基尼送披萨。 ”这句话听上去 有点夸 张,却一语道破了当前生成式AI在应用层上遇到的巨大难题: 成本过高,尤其是在AI产品和市场契合度(PMF)不那么高的情况下。
近期,分析公司CCS Insight发布预测报告称: 生成式人工智能领域将在明年接受现实的检验,具体表现在: 技术炒作逐渐消退,运行成本不断上升,监管呼声越来越多。 种种迹象表明:生成式AI的增长即将放缓。
就在报告发布的前一天,华尔街日报的一篇文章《Big Tech Struggles to Turn AI Hype Into Profits》(Tom Dotan & Deepa Seetharaman)在副标题中指出, 包括微软、谷歌在内的一些公司,正在努力尝试各种策略,只为让AI产品真正能赚到钱。
适道对这篇文章进行了编译和补充,结合CCS Insight的报告,试着梳理出生成式AI面临的困境,并给出相应的判断,以下是正文。
1 每月倒贴3000万美元,150万用户致成本失控
GitHub Copilot是微软基于ChatGPT推出的一款AI编程产品,被程序员们称为“开发者神器”,目前用户超过150万人。如果按照互联网时代的商业逻辑,GitHub Copilot以10美元/月的会员费,早就能赚到盆满钵满。但据文章作者所言,这款爆火的AI应用让微软亏到吐血。
今年的前几个月,GitHub Copilot平均每月要给每个用户倒贴20美元,给有些用户最多能倒贴80美元。算下来,自从推出GitHub Copilot,微软一个月就能亏3000万美元,如果情况不变,一年下来亏损直接过亿。不知道的以为微软转行做慈善了。
生成式AI “冤种”联盟的成员还有谷歌、亚马逊、Adobe、Zoom等。
为了避免血亏,Adobe公司直接对用户的每月使用量设置了上限。谷歌除了收取每月6美元起的常规会员费,将对一款AI助手的用户收取30美元/月的额外费用;微软则是在13美元/月的基础费用之上,对AI版Microsoft 365的用户多收30美元/月。另外,知情人透露,这两家巨头还会“偷梁换柱”,采用更便宜的小模型。
繁荣之下,为什么生成式AI会还能亏钱呢?
最主要的问题是成本失控。
首先,买硬件需要钱。AI算力芯片是大模型的发动机,早期微软向OpenAI投资的150多亿美元,大多数都用在了搭建AI超级计算机和购买AI芯片的硬件支出上。据悉GPT-4模型需要超过3万枚A100芯片。不然怎么说英伟达是当前AI时代当之无愧的最大赢家,也难怪MAAMA都开始卷起了芯片。
其次,大模型越聪明的代价是所需的算力越多。作者指出:企业要花费数年时间和数亿美元,才能训练出一个成熟的AI产品。a16z曾发布报告称,单次GPT-3训练的成本在50万美元到460万美元之间。就连电费都是一笔天文数字,据估算,2023年1月平均每天约有1300万独立访客使用ChatGPT,对应芯片需求为3万多片英伟达A100 GPU,每日电费在5万美元左右。
最重要的是,AI应用不具备互联网应用的规模经济。算力有成本,每计算一次要多花一次的钱。SemiAnalysis首席分析师Dylan Patel统计,OpenAI光是运行ChatGPT,每天投入的成本就可能高达70万美元。这导致使用AI产品的用户越多,或用户的使用次数越多,提供服务的企业就要支付更高的成本费用。如果只向用户收取一笔固定的月费,那么企业就会面临潜在的成本损失,正如微软在GitHub Copilot遭遇的血亏。
2 用户找不到为生成式AI付费的理由
当然,钱是赚来的,不是省来的。毕竟, “日亏70万美元”的吞金兽OpenAI,如今也能估值高达900亿美元。近期,The Information还爆出,OpenAI预计在未来一年内,通过销售AI软件及其计算能力,获得超过10亿美元的收入。
OpenAI在商业模式上的巨大成功并不具备普遍性。就目前来看,不少生成式AI产品的吸金能力显然有限。
Insight的杰出工程师Carm Taglienti指出:人工智能项目失败的原因99%与客户过高的期望值有关。但这句话也揭示了一点:现在的人工智能没有聪明到能解决用户希望解决的问题。
而根据红杉资本的判断,当前AI市场已经从“第一幕”——从技术出发,进入了 “第二幕”——从客户开始。这个阶段要求生成式AI必须具备解决人类问题的能力。也就是说,当人们对新兴技术的热情退散时,他们会思考自己到底需要何种AI服务,并质疑自己为什么要为AI付费?
这正如文章中Amazon Web Services的首席执行官Adam Selipsky所指出的:目前,许多用户开始对运行AI模型的高昂费用感到不满。
事实上,红杉资本的报告《Generative AI’s Act Two》也显示,无论是首月用户留存率,还是目前用户的日常使用情况,以大模型为代表的生成式AI使用情况都不容乐观。相比普通产品最高85%的留存和日/月活,用户体验过ChatGPT后还愿意继续用比例为56%,每天打开的比例仅为14%。
这或许意味着,至少很多用户还没找到自己必须使用生成式AI产品的理由。
to B的层面来讲,大模型也不是万金油。你所构建的AI产品必须与你试图解决的任务强相关。甚至OpenAI的首席技术官 Mira Murati也指出:企业用户并不是总需要最强大的模型,有时候他们只需要适合其特定用例且更经济实惠的模型。
而从解决问题的角度看,目前通用大模型存在使用成本高、推理延迟较大,数据泄漏、专业任务上不够准确等问题。与之相比,一些更小型、专业化的长尾模型具有更准确、更便宜、更快速的优点,刚好能够满足客户企业的需求。
总而言之,早期初创公司投资人在去年砸进了22亿美元资金,如果AI的实际应用确实达不到预期效果,随之而来的失望将导致投资缩减。
为企业打造生成式AI工具的公司Writer的首席执行官梅·哈比卜(May Habib)说,估值不断上升反映了人们对AI前景的热情,不过高管们很快就会更仔细地关注成本问题。他认为,明年投资者对于生成式AI就不会如此趋之若鹜了。
3 生成式AI最大的问题是向用户证明其价值
高昂的开发成本,再加上难以盈利的应用,反正不会让投资人高兴,可能只有英伟达和一些云服务提供商开心。
但情况真就如此糟糕吗?也不一定。文章指出:预计随着时间的推移,生成式AI会变得更便宜,就像云存储和3D动画等许多技术一样。同时,新芯片和其他创新可能也会降低处理成本。
可是即便事实如CCS Insight所预测的:2024年生成式AI的增长即将放缓,但从长远来看,生成式AI也一定会增长。正如Amara定律:我们倾向于在短期内高估一项技术的效果,在长期内低估其效果的现象。
这让人想到互联网发展初期的1998年,一位著名经济学家宣称:到2005年,一切将变得清晰,互联网对经济的影响不会超过传真机。”
或许,生成式AI目前只是处在“尴尬的青春期”,它最大的问题不是寻找使用案例、需求或分发,而是证明其在解决用户问题上产生的真正价值。正如福特汽车公司创始人的经典名言:如果我问客户他们想要什么,他们的回答一定是一辆更快的马”。无论如何,技术一定要走在市场前面,因为消费者看不到那么远。
来源:适道
链接:https://m.ofweek.com/ai/2023-10/ART-201700-8420-30613613.html
编辑:程博

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表