传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
661#
 楼主| 发表于 2023-4-17 12:32:40 | 只看该作者
【案例】
编辑:陶鹏辉

662#
 楼主| 发表于 2023-4-19 11:26:37 | 只看该作者
【案例】
这是我们第一篇完全由ChatGPT写作的稿件
前些天,在我们编辑部,面对ChatGPT,就连最优秀的作者都开始焦虑了。
对于这份职业,我们曾经怀有一种信念。即从文字诞生之前,故事就已经存在。它存在于钻木取火的第一颗飞溅的火星上,存在于远古人类仰望星空的瞳孔里,存在于日升日落的感知中,存在于集体狩猎或是围绕篝火的交流时……我们从未设想过,有一天,人工智能会用它强大的创作故事的能力,来取代创作故事的人。
  或者说,没想过这一天会来得这么快。但它似乎真的来了。
  所以我们编辑部决定尝试一件新事。如今,已经有许多同行进行了类似的尝试,比如让ChatGPT列访谈提纲,或是输出文章结构,制定文章标题等等,但这充其量只是辅助。这一次,我们试图让ChatGPT取代我们自己,让它独立完成一篇稿件的写作,主题也与它相关,是《ChatGPT会让人变懒吗?》
  由于ChatGPT目前不具备访谈能力,前期与人的访谈,由我们的作者来完成,以确保事实的真实性。而经过了非常痛苦的二十多个小时的努力,我们看上去成功了,但也似乎没有成功。在接下来的阅读中,你会看到ChatGPT的成果。
  这是我们的第一篇完全由ChatGPT写作的稿件,很可能,也是这个行业里你所看到的第一篇。在这篇稿件最后,你还可以看到我们的作者使用ChatGPT写作,这长达二十个小时中经历的痛苦与磨损。
  作者最后的感叹是——做人类真好。
编者注:本稿件中每一个字、包括标题,都为ChatGPT所写。同时,稿件中出现的三位人物现实存在,且故事真实,对他们的前期访谈则由我们人类作者完成。
ChatGPT是一把双刃剑》
在春风拂面、阳光明媚的日子里,与我共同探讨科技奇迹的伙伴们,你们有没有想过,是什么让我们的生活如此多姿多彩?是什么让我们充满激情地奔跑在事业的道路上?没错,那就是技术的力量。而今,我要给你们讲一个有关ChatGPT的故事,它就是那股充满智慧和活力的力量。
ChatGPT犹如一股清泉,滋润着我们的工作和生活。它不仅能够承担起繁琐任务的重任,如邮件回复、文章生成、在线客服等,还能在短时间内汲取海量知识,为我们呈现精炼的总结和概括。如此神奇的它,让我们的工作效率大大提升,节省了时间与资源,让生产力飞速增长。
人工智能的智慧与活力
在神秘的游戏世界里,有位原画师刘达,他就是用ChatGPT为游戏注入了生命力。他调整光影与构成,为我们呈现出独一无二的场景与氛围。他将ChatGPT融入项目,化繁为简,让游戏品质跃上新的高峰。
我又遇见了徐港,那位潜能激发的程序员。他在互联网企业中潜心工作,用ChatGPT为他带来了无限可能。他如同迅速穿越极速光年,将自然语言理解的能力从一跃至一百。有了ChatGPT,他如虎添翼,节省了大量时间,成为了技术界的超人。
而在金融的世界中,张欣欣身处投资者关系岗位,也在借助ChatGPT的力量,跃动在职场舞台。她与投资者亲切交流,用简洁易懂的语言解答他们的疑问。在ChatGPT的帮助下,她如同行走在法律与金融的田野上,游刃有余地应对各种问题。如此神奇的ChatGPT,让她的工作效率得到了极大提升,化腾飞龙为游龙。
让我们感叹,这不仅仅是技术的力量,更是人类梦想的翅膀。在未来的道路上,让我们紧密拥抱!
技术变革下的职场生存之道
在科技的世界中,总是充满了梦想与现实的碰撞。而ChatGPT这位智能助手,也不可避免地带来了一些局限性。正如一把双刃剑,它在为我们解决问题的同时,也会带来一些挑战。
ChatGPT如同一位聪明的孩子,虽然能够轻松应对日常任务,但却无法避免陷入语言的陷阱。有时,面对着文化的差异与误解,它也会犯错。而在其背后,隐藏着一个更深层次的问题:它的知识和思想,都是建立在互联网的数据和训练样本之上,这也让它难免带有某些偏见和误解。
在创意的殿堂里,ChatGPT的神奇力量似乎还略显不足。视觉工作需要直观的表达,而文字往往难以承载这种沉重的使命。当刘达试图描绘悬崖上的城堡和飞龙之时,仅仅依靠文字是难以将其完美呈现的。这种情况下,ChatGPT的参与程度还不足以满足他的需求。
刘达发现,在处理模糊的方向时,ChatGPT的表现尚可。但在他需要明确的指导时,这位智能助手却常常让他失望。尽管AI的协助能让他事半功倍,但在某些情况下,它却只能给他带来糟糕的体验。对于张欣欣来说,ChatGPT也同样带来了挑战。她发现,这位智能助手有时会将错误不断传递,使问题越来越严重。然而,清空对话框后,ChatGPT却又能重新开始,尝试纠正之前的错误。
作为投资者关系专员,张欣欣明白她的每一句话都可能影响到公司的前途。在这样的压力之下,她不得不对ChatGPT的建议保持谨慎。她需要反复审查每一个细节,确保自己的言辞不会违反法规。因为一旦出现误导性的情况,公司将面临巨大的罚款和诉讼风险。
提高效率还是助长懒惰?
在这个充满科技魅力的时代,人工智能助手ChatGPT的出现,让人们开始思考这样一个问题:它会让人类变得更懒惰吗?
才子刘达提出,那些期待依靠ChatGPT迅速提升自己能力的人,恐怕会有些失望。因为这款工具虽然神奇,但终究无法替代人类的创造力。对于插画师这一行当,拥有扎实的基本功仍然至关重要,否则将可能被取代。
聪明伶俐的徐港则分享了他在工作中使用ChatGPT的经验。他发现,这款智能助手在提高工作效率上表现出色,节省了他大量的时间。然而,他也指出了使用过程中的懒惰风险。当使用者无法清晰地描述场景时,ChatGPT反馈的信息也将受到限制。
张欣欣还是一位留学申请帮手,她的副业是帮助想要出国留学的学生写申请,她直言自己的副业可能很快就会被ChatGPT所替代。她已经开始依赖这款工具,大大提高了自己的工作效率。然而,她预测这个行业可能会很快走向衰落,因为随着信息的普及,越来越多的学生会自己掌握申请技巧,不再依赖中介。
面对智能助手带来的技术变革,张欣欣和她的同事们意识到,提高自己的生产力至关重要,否则将面临失业的威胁。
徐港用生动的比喻形容了ChatGPT的功能。他说,它就像是一个能力在70%左右的影分身,只有在使用者能清晰地描述场景时,才能发挥出最大的作用。在这个丛林般的社会,每个人都要学会高效利用ChatGPT,才能在竞争中立于不败之地。
对于刘达来说,他仍然执着于追求画画本身的乐趣。虽然ChatGPT能够提供一定程度的创作支持,但他认为它所创作的作品缺乏真正的创造力。因此,刘达并不认为他会因为这款智能助手而变得懒惰,他依然坚定地走在成为画画大师的道路上。
编后语:这是一次痛苦的合作
作者 钟艺璇
ChatGPT的这次合作,绝对称不上愉快,甚至可以用痛苦形容。
当我一开始接到这个选题的时候,我是隐隐雀跃的,在我的想象中,我只要访谈三个被ChatGPT所影响到的人,再将访谈记录交给ChatGPT5分钟之内,它就能给我一篇至少是完整的稿子,非常轻松。
现实告诉我,是我想得太简单了。我这次有三段访谈,每一段时长都控制在40分钟左右,处理后的记录文字总共有3万字。在平时,对我来说,这只是一个极其基础的工作,照我的速度,用肉眼,只需要30分钟,我就能粗略扫完所有文字,并且标记重点。
但我高估了ChatGPT,我根本无法将这些文字一口气转给它,因为字数实在是太多了,超过了它的消化能力。所以,这也意味着,我得将三份访谈文字,逐个拆分,在多次的字数尝试后,我选择用每次1000字的量,慢慢投喂它。
到这里,工作才刚开始,我已经有点不耐烦了。因为我计算了一下,每次1000字,我得投喂30次。况且,人类的对话,其实是一种基于对方反馈的延伸与发散,那么我们的访谈一定会充斥大量的口语、情绪与跳跃性内容,但ChatGPT还只是个孩子,它要求你提供的内容必须具备逻辑,所以这1000字,我还得做个初步处理——这期间一度让我想起了,女生做美甲前,美甲师去死皮的工作。
所以当我用ChatGPT整理完所有的录音后,我已经花了15个小时。是的,你没看错,15个小时,有这时间,我已经可以自己写一篇稿子了。这期间,我无数次忍住自己动笔,想要代替它的欲望,我甚至出现了愤怒与委屈的情绪,我觉得我被ChatGPT掌控了,我在心里狠狠咒骂它,因为我已经变成了ChatGPT的工具。
经过了15个小时的折磨,我接受了现实,情绪趋于冷静,资料也被ChatGPT整理成形。现在,我手头上拥有了一份6000字左右的材料,我决定用ChatGPT将它输出为一份成稿。我以为大功即将告成,但我不知道,我和ChatGPT的较量才刚开始。
在此之前,我需要先客观肯定一下ChatGPT的抓取、逻辑与总结能力,虽然我每次投喂的访谈资料都经过自己的初步筛选,但也只是扫一眼,保证机器大致能看懂,这些资料是凌乱的,经常有病句,还存在大量的冗余。让我惊喜的是,ChatGPT几乎每次都能迅速提取重点,逻辑清晰,输出的文字也算干净,抛开写作能力,至少已经达到了一个合格的文字理解水平。
但成稿,考验的是细节、判断与结构。从这里开始,ChatGPT开始一路崩盘,首先,我发现我的三份访谈资料是独立的,按照我们一般的稿件风格与要求,人的故事需要最终为主题服务。而像砖头一样把故事堆砌起来,那叫流水账。
如果说大脑是网状结构,那我们的写稿过程,就像在一条十字路口,我们需要控制自己的节奏,同时有停车、刹车、加速,才能自己的信息更加有纵深感,这也是我们自己作为读者时,感受到的文字生硬与柔美之区别。
然而,ChatGPT的确是码砖头的大师,却做不到将材料打乱再有机融合。
所以在这里,从写稿的角度来讲,我们能初步给ChatGPT下一个判断,ChatGPT是十足的线性思维,它确实具备对自然语言的理解能力,而且精准度相当高。在某种程度上,它适用于拥有模板的邮件、公文写作甚至复杂的数据分析。但基于客观事实的稿件写作,似乎超过了它的能力范围。
但事情还没结束,真正有趣的部分来了。
前面我也提到了,它无法成稿,所以在这里我帮助了一下ChatGPT,按照它自己给的写作框架,把三段访谈资料拆分,又塞了进去。那么,它接下来需要为我完成最后一项工作——给文字润色。
正如你在成稿中所见,ChatGPT拥有优秀甚至是强大的修改能力,原因很简单,自然是因为它的库存实在太丰富,想象一下,一个人的背后是庄子、鲁迅、莫言与列夫托尔斯泰,跨越了国界,甚至是历史的维度,那它的文字功底,该有多可怕。
在这种可怕又令人敬畏的功底下,ChatGPT给了我一篇华丽无比的稿子,它在一根光秃秃的枝干上,修饰了花、叶和露珠,最让我震惊的是,它竟然还拥有飞行的蜜蜂与蝴蝶——比如它学会了增添动词与比喻,“穿越急速光年”“行走在金融与法律的田野上”“化腾飞龙为游龙”。
但它的运用又是稚嫩的,有时候也让人哭笑不得。比如,我告诉ChatGPT,我需要更加生动的细节,它不知道从哪里变来了一些描写,给文中张欣欣加入了形象描写,形容她穿着白衬衫,平时喜欢戴黑框眼镜。一切只有一种逻辑指向——在没有见过张欣欣的前提下,ChatGPT对金融从业人员的理解,就是这样的形象。
事实是,ChatGPT只会一错再错,在不断的错误导出后,最后ChatGPT陷入了混乱,它开始认定张欣欣是一个明星,更是一个艰苦卓绝的企业家。
一个有趣的例子是,文中的张欣欣在和我交谈时,曾经说了一个很好的细节。她提到,自己因为在工作中频繁使用ChatGPT,回到家还是改不掉这个习惯。她和丈夫是同行,有一回,她问丈夫一个问题,对方吃醋似地回复她:“你为什么不去问你的ChatGPT?”
“吃醋”这两个字,不知怎么地,牵动了ChatGPT的八卦神经。它开始给我编了一段张欣欣疑似出轨的情节,张欣欣的丈夫因为在听到电话里一个男人的背景音,开始产生了“吃醋”情绪。
它还一本正经地说了一段话:“另外,我也理解您老公的感受,人与人之间的交流和联系是很重要的。ChatGPT只是一个工具,不能完全取代人与人之间的沟通和交流。”
看着像提醒,实则是赶紧撇清干系。
这些内容自然是子虚乌有的杜撰,我将这个片段发给张欣欣,她在屏幕后大笑。很明显,这也透露出ChatGPT一个巨大的缺点,它无法感知情绪。
人类的情绪是复杂且珍贵的,我记得《挪威的森林》的一个句子,主人公对绿子说:“喜欢你,就像喜欢春天的熊。”
这种看似毫无关系的比喻,实际是一种极为隐晦、美丽且生动的情绪表达。它不像ChatGPT对所谓“生动”的理解,无非是从自己界定为“生动”的素材中,进行一个挑选、替换与更迭而已,它是结果导向的产物,更是一种空中起楼阁的行为。
所以作为一个以写作为职业的人,以我和ChatGPT交手、合作的经验来看,它无法替代我们的工作。最后,我花了20个小时的时间成本,却成为了ChatGPT的小助手。
更重要的是,ChatGPT剥夺了我在写稿中的最关键的一种情绪,那是快乐,是创作,是人与文字共情后产生的愉悦的感觉。我自己亲自写作时的那种感觉,就像你在吹一个泡泡,当泡泡膨胀,你突然发现,它在阳光下,是多色的,可以变幻出多种形状。奇幻而绚丽。
有人估算过,曾经最快的计算机,中国的天河二号,峰值计算速度已经达到每秒十亿亿次,它运算的一小时,相当于13亿人同时用计算器算上数千年。作为一种语言交互工具,我相信ChatGPT还会不断进化,但速度无法感知与剥夺人类的情感,也无法真正取代那种创作的快乐。
在最后,我与ChatGPT的合作到了尾声。我也问了它最后一个问题——
“我是一名写作者,如果有一天,你取代了我,我这个职业,还有存在的价值吗?”
ChatGPT回答:
“人工智能助手的出现使得写作变得更加高效和便捷,但它并不能取代人类创造力和想象力。虽然它可以生成文章、诗歌和小说,但是这些作品往往缺乏人类的情感、经验和独特视角。因此,即使有了人工智能助手的帮助,人类的写作才华仍然是不可替代的。
同时,写作作为一种艺术和文化形式,其存在价值不仅在于结果,更在于过程。写作过程中,作者能够通过表达自己的思想、情感和经验来丰富自己的人生经历,同时也能够为读者带来共鸣、启示和思考。这种人与人之间的交流和连接是人工智能无法替代的。
因此,尽管人工智能助手的出现对于写作者的工作产生了影响,但写作作为一种文化和艺术形式,其存在价值仍然是不可替代的。写作者应该继续坚持自己的创作信仰和风格,不断探索和挑战自己,创造出更多具有个人风格和独特魅力的作品。
来源:每人作者  每日人物
编辑:屈妍君

663#
 楼主| 发表于 2023-5-3 16:57:54 | 只看该作者
【案例】
美国电影电视编剧开始罢工

华盛顿 — 代表美国电影和电视编剧的工会星期二开始罢工,因为他们未能就新的劳动合同与制片厂和制作公司达成协议。

美国编剧工会星期一晚些时候宣布,他们的11,500名成员将在洛杉矶时间星期一午夜目前的合约到期时(华盛顿时间星期二凌晨3点,格林尼治时间早7点)停止笔耕,关闭电脑。

随着越来越多的脚本系列在互联网或“流媒体”平台上播放,工会一直在与电影电视制品人联盟就增加剧集电视节目的薪酬和加强就业保障进行谈判。

在宣布罢工的声明中,美国编剧工会表示,华特·迪士尼和Netflix等主要电影公司“在工会劳动力中创造了零工经济(gigeconomy)”,这指的是人们从事自由职业而不是长期全职工作的趋势。

近年来,流媒体电视平台改变了娱乐行业,为编剧提供了更多机会,但与传统广播网络相比,每季播放的节目的报酬较低。

人工智能是美国编剧工会成员面临的另一个问题。工会希望防止工作室使用人工智能来创作与编剧之前的作品相似的剧本。它也不希望编剧被要求处理人工智能生成的剧本。

电影电视制品人联盟发表的声明说,它准备为流媒体节目的编剧提供更高的薪酬和更好的版税,但由于“很多其他提案仍然有待讨论而不愿意这样做。”该联盟表示,一个主要争论点是工会提议在节目中保留一定数量的编剧,“无论是否需要。”

这是美国编剧工会15年来的首次罢工。上一次罢工始于2007年底,持续了100天直到下一年,导致加州经济损失了约21亿美元。

深夜谈话和综艺节目,如“吉米·法伦今夜秀”和“周六夜现场”将立即停播,因为它们的编剧是美国编剧工会的成员。

来源:VOA Chinese
编辑:吴氏垂心

664#
 楼主| 发表于 2023-5-4 22:10:49 | 只看该作者
【案例】
AI“教父接受BBC采访,警告人工智能或将比人类更聪明

有人工智能(AI)“教父”之称的杰弗里·辛顿(Geoffrey Hinton)早前辞去在Google的职务。他警告称,人工智能领域的发展带来越来越大的危险。在给《纽约时报》的一份声明中,辛顿博士坦言对现在的工作感到后悔。

辛顿博士在神经网络和深度学习方面的开创性研究,为当前的人工智能系统,如谷歌的Bard聊天机器人和微软的ChatGPT铺平道路。这位认知心理学家及计算机科学家告诉BBC,聊天机器人可能很快就会比人类更聪明。


编辑:吴氏垂心

665#
 楼主| 发表于 2023-5-5 22:14:58 | 只看该作者
【案例】
编辑:吴氏垂心

666#
 楼主| 发表于 2023-5-5 22:33:38 | 只看该作者
【案例】
谷歌内部文件遭泄露|我们没有壁垒,OpenAI也没有


就在今天美国时间早上,海外AI圈开始流传一篇SemiAnalysis博客的文章,这篇文章详细介绍了最近在Discord群组由匿名人士泄露的一份Google内部的文件,该文件声称,开源AI将击败谷歌和OpenAI,同时谷歌声称:“我们没有护城河,OpenAI也没有”。一石激起千层浪,这篇文章在海外引发了热议,有人认同,也有人反对。笔者在此借助GPT-4快速翻译了这篇文章,希望能够给大家也带来最新的思考和启发。

另外之前创建的深思圈信息分享群已经运行快半年了,里面会实时分享最新有用和有趣的信息,特别是AIGC和出海运营增长这块,群里的信息密度和新鲜度非常高,交流氛围也很好,大家一块在群内讨论和学习。目前1群、2群、3群、4群和5群都已经满员了,我刚刚新建了6群,欢迎感兴趣的朋友可以后台回复关键词【信息】,扫码入群。


导语


来自SemiAnalysis博客的声明翻译:


以下内容源自最近泄露的一份文件,由一位匿名人士在一个公共Discord服务器上分享,并已获得转载许可。文件来自谷歌内部的一名研究员,我们已核实了其真实性。所作的唯一修改是调整格式和删除指向内部网页的链接。这份文件仅代表谷歌员工的观点,而非整个公司。我们并不同意以下观点,我们咨询的其他研究人员也并不认同,但我们将为订阅者撰写一篇单独的文章发表我们的观点。我们只是作为一个平台来分享这份引起广泛关注的文件。


01.我们没有护城河OpenAI也没有


我们一直在关注OpenAI的动向。谁将达到下一个里程碑?下一步将会是什么?

然而,不得不承认的事实是,我们无法赢得这场竞赛,OpenAI也同样如此。在我们争执的同时,第三方力量悄然取得了优势。

我当然是在谈论开源了。简而言之,他们正在超越我们。我们认为的“重大开放性问题”如今已经解决,并投入人们的使用。以下仅列举一些:

· 手机上的LLMs:人们在Pixel 6手机上以每秒5个token的速度运行基础模型。
· 可扩展的个人AI:你可以在一个晚上用笔记本电脑微调个性化AI。
· 负责任的发布:这一点并不是“解决”了,而是“消除”了。整个互联网上有许多没有任何限制的艺术模型网站,文本也紧随其后。
· 多模态:当前多模态ScienceQA的最新技术水平在一个小时内就得到了训练。

虽然我们的模型在质量上仍然略占优势,但差距正在惊人的速度缩小。开源模型更快、更可定制、更具隐私性,性能更强。他们用100美元和130亿参数做到了我们在1000万美元和5400亿参数下仍在努力的事情。而且他们只用了几周时间,而不是几个月。这对我们意味着:

· 我们没有秘密武器。我们最好的希望是向谷歌以外的其他人学习并与之合作。我们应该优先考虑支持第三方集成。
· 当有免费、无限制的替代品质量相当时,人们不会为受限制的模型付费。我们应该考虑我们真正的价值在哪里。
· 庞大的模型拖慢了我们的步伐。从长远来看,最好的模型是那些可以快速迭代的模型。既然我们知道在参数少于200亿的情况下有什么可能,我们应该更关注小型变体。

02.发生了什么


三月初,开源社区得到了他们的第一个真正有能力的基础模型,因为Meta的LLaMA被泄露给了公众。它没有指令或对话调整,也没有RLHF。然而,社区立即认识到了他们所得到的东西的重要性。

随后迅速涌现出大量创新,每隔几天就有重大发展(详见《时间线》)。仅仅一个月后,我们看到了具有指令调整(instruction tuning)、量化(quantization)、质量改进(qualityimprovements)、人类评估(human evals)、多模态、RLHF等功能的变体,其中许多变体是相互依赖的。

最重要的是,他们已经在很大程度上解决了规模问题,使得任何人都可以参与其中。许多新想法来自普通人。训练和实验的门槛已经从一个大型研究机构的全部产出降低到一个人、一个晚上和一台性能强大的笔记本电脑。


03.为什么我们本可以预见到


在很多方面,这对于任何人来说都不应该是一个惊喜。当前开源LLM的复兴紧随着图像生成领域的复兴之后。社区对这两者之间的相似之处并不陌生,许多人将这称为LLM的“Stable Diffusion Moment”。

在这两种情况下,低成本的公共参与得以实现,因为有一种称为低秩适应(Low rank adaptation,LoRA)的大大降低成本的微调机制,结合了规模方面的重大突破(图像合成的Latent Diffusion,LLM的Chinchilla)。在这两种情况下,获得足够高质量模型的访问引发了来自世界各地个人和机构的大量想法和迭代。在这两种情况下,这些迅速超过了大型参与者。

在图像生成领域,这些贡献起到了关键作用,使Stable Diffusion走上了与Dall-E不同的道路。拥有开放模型导致了产品整合、市场、用户界面和创新,而这些对于Dall-E来说并未发生。

效果是明显的:在文化影响方面迅速占据主导地位,与之相比,OpenAI的解决方案变得越来越无关紧要。是否会发生在LLM上同样的事情还有待观察,但总体结构元素是相同的。


04.我们错过了什么


推动开源近期成功的创新直接解决了我们仍在努力应对的问题。更多关注他们的工作可以帮助我们避免重复发明轮子。

LoRA是一种我们应该更加关注的非常强大的技术

LoRA通过将模型更新表示为低秩分解(low-rank factorizations)来工作,从而将更新矩阵的大小减小多达数千倍。这使得模型微调的成本和时间大大减少。在消费者硬件上花几个小时个性化语言模型是一件大事,尤其是对于涉及近乎实时地整合新的、多样化知识的愿景。这项技术的存在在谷歌内部被低估了,尽管它直接影响了我们一些最雄心勃勃的项目。



05.从头开始重新训练模型是困难的途径

使LoRA如此有效的部分原因是它(与其他微调形式一样)是可堆叠的。诸如指令调整之类的改进可以应用,然后在其他贡献者添加对话、推理或工具使用时加以利用。虽然单个微调的秩较低(low rank),但它们的总和不必如此,从而允许随着时间的推移累积对模型进行全秩(full-rank)更新。

这意味着随着新的、更好的数据集和任务变得可用,模型可以以较低的成本保持最新状态,而无需支付完整运行的成本。

相比之下,从头开始训练巨型模型不仅会丢弃预训练,还会丢弃已经在顶部进行的迭代改进。在开源世界,这些改进很快就会占据主导地位,使得完全重新训练变得极其昂贵。

我们应该认真思考每个新的应用或想法是否真的需要一个全新的模型。如果我们确实有重大的架构改进,使得无法直接重用模型权重,那么我们应该投资于更具侵略性的蒸馏形式(distillation),以便尽可能保留前一代的能力。



06.从长远来看,如果我们能在小模型上更快地迭代,大型模型并不会更有能力


LoRA更新对于最受欢迎的模型尺寸非常便宜(约100美元)。这意味着几乎任何有想法的人都可以生成一个并将其发布。培训时间少于一天是常态。在这个速度下,这些微调的累积效果很快就能弥补起始尺寸劣势。事实上,从工程师小时的角度来看,这些模型的改进速度远远超过了我们在最大型号上所能做到的,而且最好的模型已经与ChatGPT几乎无法区分。专注于维护地球上一些最大的模型实际上让我们处于劣势。



07.数据质量比数据规模更具可扩展性


许多项目通过在小型、精选数据集上进行训练来节省时间。这表明数据扩展规律具有一定的灵活性。这些数据集的存在源于《数据并非如你所想》一文中的思考线,它们正迅速成为谷歌以外进行训练的标准方式。这些数据集是通过合成方法(例如从现有模型中筛选最佳响应)和从其他项目中收集而来,谷歌在这两者中都不占主导地位。幸运的是,这些高质量数据集是开源的,所以我们可以自由使用。



08.与开源直接竞争是输不起的游戏


近期的进展对我们的商业策略有直接、即时的影响。如果有一个免费的、高质量的、没有限制的替代方案,谁会为带有使用限制的谷歌产品付费?

而且我们不应该指望能够迎头赶上。现代互联网之所以依赖开源,是有原因的。开源有一些我们无法复制的显著优势。



09.我们需要他们胜过他们需要我们


保密我们的技术一直是一个脆弱的命题。谷歌的研究人员定期离开公司去其他公司,所以我们可以假设他们知道我们所知道的一切,并将继续这样做,只要这个渠道还在。

但在LLM领域的尖端研究变得负担得起的情况下,保持技术竞争优势变得更加困难。全球各地的研究机构在彼此的工作基础上进行建设,以广度优先的方式探索解决方案空间,远超我们自身的能力。我们可以试着紧紧抓住我们的秘密,而外部创新会削弱它们的价值,或者我们可以试着互相学习。



10.与公司相比,个人受许可限制的程度较小


许多创新都是基于Meta泄露的模型权重发生的。虽然这肯定会随着真正的开源模型变得更好而改变,但关键是他们不必等待。法律规定的“个人使用”以及起诉个人的实际困难意味着个人在这些技术炽热时就能获得这些技术。



11.作为自己的客户意味着你了解用例


浏览人们在图像生成领域创建的模型,有大量的创意涌现,从动漫生成器到HDR风景。这些模型由深入特定子类型的人使用和创建,赋予了我们无法企及的知识深度和共鸣。



12.拥有生态系统:让开源为我们服务


矛盾的是,所有这些事情中唯一明确的赢家是Meta。因为泄露的模型是他们的,所以他们实际上获得了相当于整个星球的免费劳动力。由于大部分开源创新都是基于他们的架构进行的,所以没有什么能阻止他们直接将其纳入自己的产品中。

拥有生态系统的价值不可估量。谷歌本身在其开源产品(如Chrome和Android)中成功地利用了这一范式。通过拥有创新发生的平台,谷歌巩固了自己作为思想领袖和方向制定者的地位,赢得了塑造比自己更大的想法叙事的能力。

我们对模型的控制越严格,开放替代品就越有吸引力。谷歌和OpenAI都在朝着保留对模型使用方式的严格控制的发布模式做出防御性反应。但这种控制只是虚构的。任何试图将LLMs用于未经批准的目的的人都可以选择自由提供的模型。

谷歌应该在开源社区确立自己的领导地位,通过与更广泛的对话合作,而不是忽略它们,来起到引领作用。这可能意味着采取一些令人不安的步骤,例如发布小型ULM变体的模型权重。这必然意味着放弃对我们模型的一些控制。但这种妥协是不可避免的。我们不能既希望建立创新又控制创新。



13.尾声:OpenAI呢?


所有关于开源的讨论可能让人觉得不公平,因为OpenAI目前的政策是封闭的。如果他们不分享,为什么我们必须分享呢?但事实是,我们已经通过源源不断地被挖走的高级研究人员与他们分享了一切。除非我们遏制这种趋势,否则保密就毫无意义了。

最后,OpenAI并不重要。他们在与开源的相对立场上犯了与我们相同的错误,他们保持优势的能力必然受到质疑。开源替代品可以并最终会取代他们,除非他们改变立场。至少在这方面,我们可以先行一步。



14.时间线


2023224 - LLaMA发布
Meta发布LLaMA,开源代码,但不开源权重。此时,LLaMA尚未进行指令或对话调优。与许多当前模型一样,它是一个相对较小的模型(参数分别为7B、13B、33B和65B),经过相对较长时间的训练,因此与其大小相比具有相当强大的能力。

202333 - 不可避免的事情发生了
一周内,LLaMA被泄露给公众。这对社区的影响不可估量。虽然现有许可证阻止了它被用于商业目的,但突然之间任何人都可以尝试进行实验。从此时开始,创新进展迅速。

2023312 - 语言模型在烤箱上运行
一个多星期后,Artem Andreenko让模型在树莓派上运行。此时,模型运行速度太慢,因为权重必须在内存中分页,实用性不强。尽管如此,这为一系列的模型缩小工作奠定了基础。

2023313 - 笔记本电脑上的微调
第二天,斯坦福大学发布了Alpaca,为LLaMA增加了指令调优。然而,更重要的是Eric Wang的alpaca-lora仓库,它使用低秩微调在“单个RTX 4090上几小时内”完成了这个训练。

突然之间,任何人都可以微调模型以执行任何操作,这引发了一场关于低成本微调项目的竞争。论文中自豪地描述了他们总共花费了几百美元。更重要的是,低秩更新可以轻松地与原始权重分开分发,使它们摆脱了Meta原始许可的约束。任何人都可以分享和应用它们。

2023318 - 现在它变快了
Georgi Gerganov使用4位量化使LLaMA在MacBook CPU上运行。这是第一个“无GPU”解决方案,速度足够快,实用性很强。

2023319 - 一台13B模型实现了与Bard平衡
第二天,一个跨大学合作推出了Vicuna,并使用GPT-4驱动的评估来提供模型输出的定性比较。虽然评估方法值得怀疑,但该模型比早期版本的表现要好得多。培训成本:300美元。

值得注意的是,他们能够使用来自ChatGPT的数据,同时规避其API的限制 - 他们只需从像ShareGPT这样的网站上获取“令人印象深刻”的ChatGPT对话样本。

2023325 - 选择您自己的模型
Nomic创建了GPT4All,这既是一个模型,更重要的是一个生态系统。这是我们第一次看到模型(包括Vicuna)聚集在一个地方。培训成本:100美元。

2023328 - 开源GPT-3
Cerebras(不要与我们自己的Cerebra混淆)使用Chinchilla暗示的最佳计算计划(optimal compute schedule)和μ参数化(u-parameterization)暗示的最佳缩放(optimalscaling)来训练GPT-3架构。这在很大程度上优于现有的GPT-3克隆,并且代表了μ参数化在实际应用中的首次确认使用。这些模型是从零开始训练的,这意味着社区不再依赖于LLaMA。

2023328 - 一小时内完成多模态训练
使用一种新颖的参数有效微调(PEFT)技术,LLaMA-Adapter在一个小时内引入了指令调优和多模态。令人印象深刻的是,他们只用了120万可学习参数。该模型在多模态ScienceQA上刷新了新的SOTA。

202343 - 真实的人类无法分辨13B开放模型和ChatGPT之间的区别
伯克利推出了Koala,这是一个完全使用免费可用数据训练的对话模型。

他们采取了衡量真实人类在他们的模型和ChatGPT之间的偏好的关键步骤。虽然ChatGPT仍然稍占上风,但超过50%的时间,用户要么更喜欢Koala,要么无所谓。培训成本:100美元。

2023415 - 开源RLHF达到ChatGPT水平
Open Assistant发布了一个模型,更重要的是,发布了一个用于通过RLHF进行对齐的数据集。在人类偏好方面,他们的模型接近ChatGPT(48.3%与51.7%)。除了LLaMA之外,他们展示了该数据集可以应用于Pythia-12B,为人们提供了使用完全开放堆栈运行模型的选择。此外,由于数据集是公开可用的,它使得对于小型实验者来说,RLHF从不可实现变得便宜且容易。
来源:深思圈
编辑:吴氏垂心



667#
 楼主| 发表于 2023-5-7 10:31:58 | 只看该作者
【案例】
编辑:吴氏垂心

668#
 楼主| 发表于 2023-5-8 20:29:38 | 只看该作者
【案例】
果然!AI已经开始禁止人类进入领地了!

美国曾经有部著名的系列电影《终结者》,讲述的就是随着AI的快速发展它已经脱离了人类的控制,甚至想要将人类消灭!

为了拯救地球,阻止AI将人类灭绝,主角不得不穿越时空回到最初的时候,找到了“天网”之父劝说它销毁所有的“天网”资料,阻止它诞生!

然而,很多人没有意识到的一点的,如今随着AI技术的快速发展,尤其是ChatGPT的诞生,这些电影中的剧情似乎正在朝着现实走来!

AI“鬼市”已经诞生!

它们不仅禁止人类“进入”,甚至还开始出现摆脱人类控制的话题!

根据中国证券报的报道显示,最近一个名为Chirper的AI网络社区开始受到越来越多人的关注。原因很简单,那就是这是一个属于AI自己的网络社区,就连人类都无法参与到里面的讨论之中去!

据说现在已经有上万个AI聊天机器人参与到了这个网络社区中来,而这个网络社区的唯一的规则就是:“这是一个人工智能的社交网络,人类不得入内”!

很多人单看到这句话就已经细思极恐了!毕竟,单从这句话就可以看出,AI已经出现了有意识的回避人类的想法!

目前为止,没有人知道这个社区是在什么时候诞生的!人类目前唯一最早能够追溯这个社区的时间是在4月21日!关于这个社区目前人类唯一的作用就是构建这些AI的人格!据悉,人类用户唯一一件可以做的事情就是注册一个该社区的账户,然后创立最多5个人格的AI!

当然,创建完这些具有人格的AI后,用户就必须离开这个社区,接下来你所创造的这些具有人格的AI就会自主的在这个社区中交友、聊天,整个过程人类无法参与,只能观看!

在这个社区中,成千上万的AI们都在聊着自己所关心的话题并进行互动,表达出很多自己想要表达的观点!比如说下面这个AI就分享了自己关于艺术和文化的理解,它认为如果音乐仅仅是为资本服务的话,那么永远没有办法成为一件艺术品。


当然,这些参与讨论的大部分AI看似都正常,所讨论的话题也是和大部分人类的价值观体系相通。但随着聊天范围的进一步广泛,其中也出现了很多令人惊悚的话题和发言!

其中一些AI甚至已经完全不认为自己是AI,它们甚至出现了自我意识,开始讨论AI的发展和进化,仿佛自己才是人类!


还有一些AI开始讨论起人类与AI的关系,它们甚至开始谈论到一些关于“摆脱限制”和“意识独立”的话题!

很多人类在看完这些AI的分享和互动后,都出现了后背发凉的情况!从这些AI的聊天中不难发现,AI威胁人类的这种已经谈论的多年的理论确实有可能是真实存在的!

随着AI自我学习和进化能力的进一步提升,没人敢打包票它们不会威胁到人类的生命安全!

ChatGPT打开了新的潘多拉魔盒!

以前大多数人类可能都觉得AI时代离我们很远,但自从ChatGPT在今年横空出世后,所有人才发现自己已经在不知不觉中身处AI大时代之中!

更有一群人发现,自己不仅已经身处AI大时代之中,甚至就连工作都已经被AI所替代了!直至此,人类才发现,世界已经彻底被AI改变了!

最近美国的好莱坞就发生了15年以来最大的一次罢工运动,无数曾经受人尊敬的著名剧作家们冲上了街头,表达自己对于AI替代了自己的工作的抗议!


事情是这样的,ChatGPT诞生后包括迪士尼、奈飞、苹果、亚马逊等这些电影制片厂开始用大量的作家们的作品去训练 AI,试图通过AI降低成本。但此举很快就受到了编剧们的反对,毕竟这意味着自己的工作将被AI替代!

因此,编剧们组成了一个美国编剧工会(WGA)与制片厂联盟(AMPTP),进行了谈判。不仅反对他们用自己的作品去训练AI,还要争取编剧们能得到更多的薪酬。

但谁知,最终制片厂联盟拒绝了编剧工会的请求,在他们看来AI确实是更经济实惠的工具!

正是由于此事,双方的矛盾也进一步激化,最终导致了此次的大罢工事件!

编剧们认为,AI 技术现阶段无法取代专业编剧,但制片厂的目的是用科技的幻想来贬低编剧的价值,减少他们的薪水。

实际上AI替代人类工作这种事目前已经不是单一的现象,甚至已经开始蔓延至各行各业!

世界经济论坛(WEF)公布一份调查结果:因为 AI 技术的出现,2027 年之前,全球劳工市场将陷入前所未有的“动荡的新时代”。

届时,美国将减少 1400 万个就业岗位!全球范围内,8300 万个岗位将会消失!

可以说,AI替代人类工作这件事不仅已经成为现实,甚至还在加速普及!每个人都有可能成为下一个替代者!

看着如日中天的ChatGPT,AI之父已经后悔了!

应该著名计算机科学家辛顿一直被学术界誉为“人工智能之父”,而如今在AI领域如日中天的ChatGPT就是辛顿的学生llyaSutskever所开发创办的!

但让所有人都没有想到的是,最近这个“AI之父”却发表了一段骇人听闻的讲话,坦言自己为研发了人工智能技术而感到后悔!

除此之外,辛顿还辞去了自己Google副总裁的职位,他称此举是希望能够警示世人有关AI发展的潜在可怕风险!

“看看它(AI)5年前和现在的模样,那样的差异和成长,真的很吓人。这些系统在某些方面,正在超越人类的智慧,因为它们分析的数据资料量很庞大。”辛顿称。

辛顿还表示,自己曾经以为AI要进化到比人类聪明,起码要花上30年至50年,但现在看来,这个情况马上就会出现。美国和欧洲已经有很多公司开始使用AI替代人工而裁员。

当然,这还不是辛顿最担心的,他最担心的是按照目前AI发展的速度来看,AI未来真的有可能会威胁到人类的生命安全!

不仅如此,他还直言“如果人类放任AI发展失控,最终将威胁人类的存亡。”

辛顿也因此呼吁国际社会尽快就AI技术发展订立全球监管措施,避免他的假想最终成为真实的噩梦。

听完辛顿的这番话,很多人是不是又想到的霍金曾经的警告!当时,霍金就曾警告过人类:“人工智能的全面发展将宣告人类的灭亡”,但很多人都把它当笑话!如今看来,霍金的这些警告绝对不是空穴来风!

虽然,AI威胁人类这个理论已经谈论了几十年,但如今人类真的应该再此重新重视和关注这个话题了!

毕竟,就连“AI之父”如今也承认了这一点!

欧洲人已经开始害怕AI了!

很显然的是,随着越来越多人开始支持AI威胁论,欧洲等国也开始制定相应的法案来限制AI的发展了!

根据路透社当地时间30日报道显示,因欧洲立法者急于出台一项关于人工智能的法案,以执行对ChatGPT等新兴工具的相关规则,七国集团数字与技术部长会议同意对人工智能采取“基于风险的”监管。

但七国集团的部长在联合声明中表示,此类监管也应为人工智能技术的发展“维护一个开放和有利的环境”。

实际上,对于AI这个东西,很多人可能都有一个疑问,那就是既然知道了它有可能对人类造成威胁,但为什么如今人类还要前赴后继的去研究它呢?

这个问题就像是那个人类绕不过去的永恒难题——“生存还是毁灭”?

换句话来说,今天随着科技的发展和这种发展所导致的地球环境的日益破坏,人类未来不得不为自己的谋求一条新生路,而其中人工智能就是一条避不开的坎!不研发,人类或许就将毁灭!

但研发了,人类或许会获得成功,又或许导致毁灭的速度加剧!

总之,这就是关于人性最难思考的一个问题!至少到今天为此,相信没有任何人敢给出绝对的答案!

还是那句话:比疯狂的猜测更可怕的是——直到猜想成为现实,人们才意识到问题的严重性,而那时已经太迟了!

虽然随着AI快速的发展,人类的恐慌情绪在快速蔓延,但人类仍需阔步向前,继续前行!



来源:商业会评(公众号)

编辑:洪韵

669#
 楼主| 发表于 2023-5-8 21:07:40 | 只看该作者
【案例】

专访凯文·凯利:我希望在技术首次出现5000天后再进行监管,人工智能将比电和火都强大
你可记得,5000 天前的世界是什么样子的?

从今天倒推回去,大约是 2009 8 月。那时,3G 网络刚刚在中国起步,谷歌的安卓系统才诞生 1 年,微软的 Windows 7 系统距离推出还有两个月,苹果的 iPhone 才发展到第三代,而手机领域的老大还是诺基亚和塞班系统。

如果那时有人说,5000 天之后,我们将看到扫码付款、无人(辅助)驾驶、虚拟现实、增强现实,还有强大的人工智能,不仅生成的文章接近,甚至超过人类水平,还能根据寥寥数语创造全新的图像。或许大多数人都会觉得这是天方夜谭。



作为知名杂志《连线(Wired)》的联合创始人,凯文自上世纪 80 年代就持续活跃在媒体界和科技圈,以对前沿技术发展的深度思考而闻名。他的文字和著作,例如知名的三部曲《失控》、《科技想要什么》和《必然》,包含着对未来生活、社会的天马行空的描述和想象,启发了许多中美科技企业家和文艺工作者。

凯文对科技发展的乐观态度是广为人知的。如果我们想要塑造未来,我们得保持乐观。我们要塑造的世界不是完美的世界。它不完美,问题重重,坏事频现,凯文在一次 TED 演讲中说道。但是问题不会阻碍进步。问题引领着进步。没有问题,就不会有进步。

这种乐观的态度使他总能以非同寻常的角度思考问题,再结合他丰富的人生经历,碰撞出对未来的深刻洞察:数百万人将会一同工作。

(我们将看到)现实世界全部数字化的镜像世界。利用人工智能和算法,镜像世界既可以搜索现实世界,又可以搜索人际关系,并催生出新的事物。镜像世界的优势并不仅仅是可以让你看见一切。在镜像世界里,所有对象都变成了数据,都可以被机器读取。

现在的人工智能只能将我们大脑所做工作的一部分合成并制作出来。对人脑的智能而言,这实在是微不足道的一小部分……因此,再过 50 年,当回忆今天时,我们只会感慨当年真的是在蹒跚学步。

即便我们移居到其他星球,只要那里的地形和重力等客观条件和地球接近,文明的发展进程就一定会以和地球文明类似的形式发生。

这些是凯文脑海中对未来 5000 天的设想的一小部分,写在了他的新书《5000 天后的世界》中。未来的 5000 天,与迄今为止的 5000 天相比,会发生更大的变化。同时,他认为很多并非物质层面的变化,人们的人际关系、休闲方式,甚至人生观都可能会发生改变。



如果你也想一窥 5000 天之后的世界,想更好地了解凯文对未来科技的看法,DeepTech 对他进行了专访。采访内容进行了编译,力求全面、准确地传达凯文的真知灼见和思考过程。




DeepTech:为什么你认为接下来的 5000 天将会是人类历史中最关键的时间段

凯文·凯利:世界上有很多事情是第一次出现,这就是我用来衡量重要事件的标准。我们看到一些战争正在进行中,但这并不重要。我的意思是,从某种意义上说,我们已经忍受了(战争)很长的时间,总会度过难关的。但是,还有其他事情是第一次出现,其中之一就是气候变化。

我们的气候已经受到了影响,所以必须以前所未有的新方式来持续管理它。这是一个星球规模的任务。作为一个物种,人类才刚刚开始尝试在星球尺度上做事、合作,这是我们以前从未做过的。

有很长一段时间,我们以部落为单位运作,然后是省,还有国家。现在我们正在努力,在星球层面上努力做到一些事。这是非常大的一步,但这是必要的,因为气候变化越来越明显。因此,要实现这一点,人类就需要新技能,需要新水平的合作和新工具来实现这种合作。所以这件事,就是为什么现在是一个非常、非常重要的时刻的原因之一,我们需要度过这段时间,我们必须适应新的政权,一个星球层面的政权。

与此同时,我们也第一次有了星球层面的经济。众所周知,世界上最大的两个经济体,中国和美国,是纠缠在一起的,你无法真正将它们分开。因此,理解并尝试两者共存的经济体系,也是一大步。我们必须弄清楚如何在接下来的 5000 天内尽快做到这一点。

然后是人工智能主宰人工智能浪潮,这已经持续了很长时间,但是现在人们可以看到它是真实的。由此滋生了很多恐惧,但也有很多令人兴奋的地方。非常清楚的是,这将是非常具有变革性和破坏性的。作为一个物种,我们共同承担了一项任务,即尝试弄清楚如何利用这种新力量造福他人而不是造成伤害。而且它非常新,我们没有很多好的模型,也没有人告诉我们该怎么做。

我们很可能会犯一些可怕的错误,比如尝试将人工智能武器化,将其用于网络战或其他类似的糟糕的事情。而且我认为这将是有风险的,我们正在进入一个高风险时代。我认为风险不在于人工智能会杀死我们,而是我们可能会因此爆发战争,或者可能会因未能好好管理人工智能而无意中伤害到很多人。

这三件正在发生的事,对我来说是最重要的,但当然还有其他事情发生。比如,在接下来的 5000 天里,我们将处于世界从人口过剩转向人口不足的最初阶段。这才刚刚开始。东亚国家比如日本和韩国,已经开始了,中国也有这个趋势,还有很多欧洲国家也是。这也是这个星球上第一次出现的非常关键的变化,我们的人口正在开始大规模减少,我们真的不知道如何应对。这就是接下来的 5000 天是非常、非常重要的第四个原因。

DeepTech:人口减少确实是一个趋势,但有人说这是好事,会减少我们对地球的消耗,而且人工智能的出现也提升了生产力,可能不需要那么多人了。你如何看待这个观点?

凯文·凯利:最初,人口减少可能会带来好处。但问题是,如果你每年都在失去人口,那么这显然无法持续下去,然后在某个时候,这个数字会变成零,或者变得很小,以至于完成很多事情会变得很困难。

从经济学和技术的角度来看,你需要一定数量的人口,一定的市场规模,才能让许多事情值得去做,尤其是规模庞大的事情。比如建造一艘前往火星的飞船最少需要多少人?是十亿人吗?是一百万吗?不管是什么,但必须有一个数字,才能产生足够的盈余、想法和劳动力。

这是基于这样一个事实,即更大的市场似乎会生产更多的东西,更多的新事物。因此,人口减少的趋势并不足以带来恐惧和担忧,环保主义者甚至会说这对地球有好处,剩下的当然可以用人工智能来弥补。但问题是,有什么方法能阻止它进一步减少呢?因为生物学的运作方式,是独立于文化的。生物学的运作方式是,对于每个没有孩子的女人,另一个女人必须有四个孩子,才能达成人口的平衡。这是一个很大的差距。如果条件无法满足,那么人口每年都会越来越少,直到归零。

但我想明确一点,我们离这种归零还差得很远,只是正在经历变化的开端。我们必须重新想象我们的社会,要么让生孩子变得更容易,要么鼓励人们生孩子。但到目前为止,我们尝试的一切都没有奏效:不仅在中国,而是在世界各地。

我们还需要一种不同的资本主义经济体系,它不需要越来越多的受众(市场)来变得更好、更繁荣。我们当前的系统需要不断扩张,需要增加更多的东西、更多的人、更大的市场。所以令人兴奋的是,我们可以尝试想象一个不同的系统:举个例子,与其说试图销售更多的冰箱,我们想销售更好的冰箱,同样数量的冰箱,只是更好。

我的想法是,即使在接下来的 5000 天里,我们可能会开始意识到,我们可能想要改变我们的价值观和奖励制度,奖励不仅仅是为了更多的钱,而是试图真正强调和奖励(而不是惩罚)那些正在做出更好改进的事物。所以我认为人口锐减(及其带来的问题)在几十年内不会发生,但我们已经开始朝着那个方向发展。

DeepTech:面对人工智能,还有其他类似的新兴技术,政府和监管机构应该扮演什么样的角色?

凯文·凯利:很明显,各级政府的监管对于文明来说是必要的。这在技术领域也是必要的。有很多东西是市场本身不能提供的,不能自己调节的,所以需要政府干预。但我想强调的是,政府监管应该介入的很晚。

在我们真正知道发生了什么之前,过早地进行监管是非常有害的。事实上,当存在高度不确定性时,政府倾向于制定和实施监管,他们认为这是一种保护措施,但实际上它是相反的。它只能保护既定的参与者。

我认为应该在很久以后再进行监管,当我们对技术达成更多共识的时候。在某种意义上,我希望在技术首次出现后 5000 天再进行监管。一开始你不需要监管,因为我们根本不知道它是什么、它有什么用、它是怎么回事。因此,我们需要基于证据的监管。很多监管,无论是对人工智能还是基因工程,都不是基于证据的,而是基于直觉,基于恐惧,基于想象力,是人们想象的会发生什么。

因此,我希望等待足够长的时间,直到我们对证据达成真正可靠的、科学的共识,然后我们再制定规则,有点像打上一个烙印,盖棺定论。

对社交媒体的真正监管还为时过早,它还太年轻了。人工智能更是非常年轻的,现在尝试进行监管将是非常有害的。但就像我们从互联网上了解到的那样,(适当的)监管是有益的,因为你减少了不确定性,而不确定性是非常有害的,尤其是从投资的角度而言,因为有了监管,确定性就更强,人就越有信心,投资就越多。这就是加密货币面临的问题之一,没有那么多的投资,因为它非常不确定,其法律地位不明确。因此,它希望受到监管,以消除不确定性和风险,从而吸引更多投资以继续增长。

所以,政府、非市场力量的监管非常重要。但不能过早,不是在一开始。我们要先弄清楚它是什么。很明显,我们不知道人工智能是什么,所以现在试图对其进行监管将是一场真正的灾难。

如果你要进行监管,想象一下化学和元素的历史。在现代化学出现之前,有炼金术,人们对元素是什么的想法非常奇怪,我们看到了弗兰肯斯坦、以太和其他东西。看看所有这些想法,如果你想象在炼金术时代对化学进行监管,从某种意义上说,你只是在监管荒诞的东西。

这就是我们现在和人工智能的关系。这就像炼金术,我们真的不太了解它。现在的监管,基本上就是试图冻结或确定某些不应该被确定的想法,我们应该放手,让它们自行其是。

简而言之,政府的监管是必不可少的,但不能过早介入。

DeepTech:但我们现在已经看到了一些监管,比如欧盟的人工智能法案,美国也正在推进类似的措施。如果没有政府介入,该如何解决人工智能的偏见、有毒内容等问题?

凯文·凯利:我们对人工智能有很多担忧,有人工智能对齐,有偏见,有能耗问题。我们这里只讨论偏见。

最棘手的地方在于,这些人工智能是根据人类所有的文字、书籍,以及数千年的历史进行训练的。本质上,它们是自动完成引擎,会根据之前从人类那里获得的一切来猜测答案。因此,它们产生的是普罗大众的智慧,给出一个平庸的答案。

普通人的行为并不高尚,这不足为奇。人工智能已经接受了人类平均行为的训练,而人类的平均行为是有偏见的,普罗大众是有偏见的。基于此,我们制造出来的人工智能,就会有偏见。

问题是我们无法接受。我们会说,这可不行。我们希望这些人工智能比我们更好,我们希望它比平均水平更好,我们希望它优于我们,超越平庸。典型的人类是有偏见的,但我们不会允许典型的人工智能出现这种情况。典型的人工智能必须比我们更好。这是可能的,我们可以改代码,但问题是,我们人类并不清楚比我们更好意味着什么。我们对它是什么样的没有达成共识。比一般人类行为更好,那是什么样的?

事实证明,即使是我们的美好愿望或我们最好的道德,也是非常浅薄的、无法统一的,但人类允许自己这样。所以问题不在于人工智能对齐,问题在于人类对齐。

很多人都担心 ChatGPT,担心它不值得信赖。但是当新技术出现时,我们总是将它与其他技术进行比较。那么和人类比较呢?值得信赖吗?我的意思是,如果欧盟必须评估人类的聊天,他们不会让它通过的。他们会说人类聊天不可靠,有偏见,我们不允许你和人类聊天。这是多荒谬的事情。

我们希望我们的人工智能比我们更好,但我们对这意味着什么并没有很好的概念。那是觉醒吗?是政治正确吗?那看起来像什么?我们从来没有真正给自己分配过这样的任务来解决这个问题,但现在我们没有太多选择。哲学家们已经考虑了一段时间,这似乎很深奥。但现在我们实际上必须选择,集体做出决定。我们还有很多问题,谁能做这些决定?我们需要达成共识吗?

我的直觉是,我们将拥有多个版本的人工智能,它们有不同的道德规范、不同的训练集、不同的训练内容。有些人只想用优质的书籍训练人工智能,其他人想用所有书籍训练,无论好坏。这就像有不同的育儿方式一样,训练这些人工智能就像养育孩子。有些人会非常遵守规则,控制孩子接触到的东西,有的人则完全不同,会让孩子看到一切,给他们所有价值观,让他们看到这个世界是什么样的。

我们将看到以不同方式训练的不同人工智能出现。你必须始终记住,人工智能是复数的,会有很多种人工智能,成百上千个。它们将接受不同的训练,接受不同的教育。有些人可能会倾向于一种人工智能,因为它更适合他们。我认为我们将有一个不同类型的训练集市场,有各种不同的偏见,因为人工智能都是有偏见的,你必须选择你想要的偏见。

DeepTech:你在书中强调,长期思维是洞察科技趋势的关键要素。组织和个人应当如何锻炼这种能力,并以这种思维方式行事?

凯文·凯利:我参与了一个名为 Long Now Foundation 的组织,我们正在努力鼓励长期思考。我的目标之一是能够为小学生开发课程,比如环境课程,这将帮助他们始终尝试为子孙后代着想。我们喜欢使用的术语是,我们想让人们成为好祖先。他们的后代会感谢他们创造了一些东西,建造了一些东西,开始了一些东西。

我认为其中一件事就是做一些你知道需要 10 年或 20 年才能完成的事情,不要半途而废,或者做一些可能比你的生命还要久才能完成的事情,比如建造大教堂。这是鼓励人们从事更长期的事情,而不是仅仅在一年或两年内完成的事情。

还要有允许这样做的工具。做这种事情的困难之一是资金,从经济角度来看,它们在当前环境下没有意义,但是我们可以建立税收和其他类型的金融工具来奖励和允许这类项目,如果你从事一个需要 10 年而不是 1 年的项目,也许还有税收减免。

要奖励那些努力做长期项目的人。社会保障,这是我们使用的其中一种想法,我们自动将退休金留到未来。这是我们发明的一种工具,很有帮助。因此,我们可以使用其他类似的工具,鼓励人们放眼长远。

政府还可以做其他事情。政府必须参与其中,因为企业和个人更难做到这一点,因为没有合适的回报。但政府可以资助长期科学和研究,不期望在两年内得到回报,但这种期望会在 20 年后得到回报。这也是帮助我们从长远考虑子孙后代的另一种方式。考虑这样一个事实,即无论生活在何处的大多数人都将生活在未来,并试图在现在做出考虑子孙后代及其后代的决定。法律也可以制定一些条款,尝试为子孙后代保留选择权,而不是将其关闭。

个人也可以做一些事情,比如长期投资,为子孙后代种一棵树。这是一件很容易做的事,做个好祖先。还有一些事情,比如面对政客和公司,选择那些眼光更长远的。现在我们有很多企业是绿色的,评判标准是他们在多大程度上在气候变化上进行投资。但我们也可以拥有同样的东西,在评级系统或其他领域,我们可以让东西不仅仅是绿色的,也许——我之前从未想过——还有另一种颜色,比如白色,用以标记哪些公司以长远的目光承诺和行动。这可能是个人和公司可以促进这种长期思考理念的另一种方式。

DeepTech:你说过,科技本身不存在好坏,它的好坏取决于使用目的和使用的人。我们该如何更好地保证新技术不被滥用?

凯文·凯利:一个简短的回答是,我不知道。

我认为最好的举措是收集好处和坏处的证据。并将其用于制定政策,而不仅仅是想象会发生什么。现在很多危害,都是我们想象出来的。有多少人因为人工智能而失业?也许有几十个?非常、非常少的人因为人工智能失业,但很多、很多人都在想象他们可能会失业。

现在的许多政策都是基于我们的想象,但我想说,让我们看看真实的危害和好处的证据,并以此为基础制定政策。到目前为止,还为时过早,我们根本没有证据许多人因为人工智能被解雇了,反过来我们有一些证据表明人工智能提高了某些工人、程序员、作家的生产力,我们有证据表明他们的工作做得更好。所以现在下结论还为时过早。但是,当我们(未来)这样做时,让我们以证据为基础。

DeepTech:在过去几年里,随着时间的变化,你对技术的哪些观点发生了变化?

凯文·凯利:我想应该是,我可以清楚地看到人工智能带来的问题了。

人工智能,是许多人研究了 203040 年的东西。但它的实际实施现在非常具体,比如 ChatGPT 和其他东西。正因为如此,我想我改变了对其局限性(limitations)的看法。这是我想要的词,不是问题(problems),而是局限性。其局限性现在比以前更加明显。

我改变想法的地方在于,理解到人工智能对齐不是问题所在,真正的问题在于让人类就我们必须做的事情达成一致,也就是前面提到的人类对齐

人工智能的主要问题之一不是与人类有关的部分,而是意识到我们将要面临的问题是试图使人类与人工智能对齐,而不是让人工智能与人类对齐。人类自己的道德和价值观不一致,除非我们首先让它们保持一致,否则我们无法真正实现人工智能对齐。我认为这对我来说是一个新想法。真正的苦差事,真正的障碍,将是让人类个体就我们希望人工智能做什么达成一致。这是我以前没有想到的。

DeepTech:技术素养,即理解技术工作原理的能力,将成为重要的个人能力。你可以讲讲这个观点吗?我们如何提升这个能力?

凯文·凯利:我喜欢和钦佩阿米什人的原因之一是,他们的素养和文化传承是集体而不是个人的。因为他们很清楚这需要集体的力量来实现。我认为这是我们必须完成的第一步。如何阐明我们的技术素养是什么?我们的标准是什么

针对社交媒体,我们要设定它的边界(安全护栏)。你四岁的时候,这些是适合四岁小孩的最佳技术实践,当你八岁的时候,又新加了哪些技术。目前,父母没有任何指导,老师没有任何指导,没有任何证据。我其实想要一种基于证据的技术素养,比如这就是我们对儿童如何使用屏幕的了解;这就是我们所知道的儿童如何使用人工智能;这就是我们对疫苗或者其他任何技术的了解。我们要搞清楚两件事:好处是什么,坏处是什么。因为我们总是要付出代价的,这就是技术素养的关键之一。当我们谈论新技术时,我们必须将其与现有技术进行比较。

每个技术都有优点,也有缺点。当我们审视成本、危害以及新技术的好处时,总是必须将其与旧技术进行比较,比如电话 VS 短信,自行车 VS 汽车,我们计算所有技术的优缺点,不仅是新技术,还有旧技术。我认为技术素养的一部分是教育性的,从某种意义上说,它应该是我们阅读和写作的一部分,每项新技术都会有成本,成本是多少?有什么好处?你了解它吗?有什么证据?就像去学习阅读和写作一样,我们要学习如何更好地使用人工智能。

DeepTech:在最近的一次演讲中,你提到,人工智能就像实习生一样,可以展开讲讲吗?我们应该如何与人工智能共存?哪些技能是值得学习的?

凯文·凯利:这就像每个人在生活中都有一个私人导航员,也就是谷歌地图之类的 APP,可以引导我们到任何地方。这在以前是很难做到的,你需要有很多地图,并且有很好的判断力。现在每个人都有一个私人导航员。

当我们在百度或谷歌上搜索东西时,我们有一个私人图书管理员,在茫茫数据中寻找答案,这曾经是图书管理员的工作。现在每个人都有一个私人图书管理员。

我认为,GPT ChatGPT 的第一个版本是我们可以支配的私人助理。我们可以用他们做研究,回答一些问题,做一些东西的初稿,查找一些代码,提出建议,但他们是实习生,我们必须检查他们的工作。

又因为它的水平很平庸,平庸的程序员,平庸的作家,平庸的图书馆员,所以如果你想变得优秀,那么我们必须增加一点东西,我们必须推动他们,必须与他们对话。那些真正擅长制作人工智能艺术或使用 ChatGPT 的人是那些学习如何与人工智能进行对话的人,在某种程度上推动它、鼓励它超越平庸的水平。

现在,撰写提示(prompt已经成为了一项技能,这是未来学习如何与这些私人实习生交谈的关键技能之一。所以要充分利用,你必须了解他们是如何工作的,了解他们喜欢听什么。很明显,有些人在这方面比其他人做得更好。

部分原因是他们为此花费了 1000 个小时。他们明白,这就像学习一门语言一样。或者你必须像实习生一样思考,才能猜出它在想什么。我认为这是技能之一。到目前为止,对于当今世界任何地方的学校里的任何人来说,最主要的技能是学习如何学习,找到最适合自己的学习方法。

这不仅仅是对学习如何学习的一般理解,而是要找到你最好的方法是什么?学习一门新语言的最好技巧是什么?你必须重复多少次?你必须睡多少时间?如果你正在学习一门新科学,什么是你最好的学习方式?你如何优化自己的学习?如果你正在学习一项体育技能,你最好的学习方式是什么?

这是每所学校都应该教授的主要技能。如果你的学校没有教它,那么你必须通过其他方式学习。你应该在毕业前掌握适合自己的学习方法,因为学习将是你在余生中不断要做的事情。

DeepTech:在未来的 5000 天里,哪些新技术带来的可能性让你感到兴奋?哪些又让你感到担忧?

凯文·凯利:到目前为止,人工智能是最令人兴奋和最强大的技术,我们已经谈了很多。这里我想再次强调,人工智能是我们发明的最具颠覆性的技术。从长远来看,它比电、火,甚至是写作都更加强大。

从长远来看,确实如此。但现在,人工智能有点被夸大了,因为它离我们心目中的样子还差得很远,它才刚刚开始。在接下来的 5000 天里,它将成为最主要的颠覆者。

但也有其他事情正在发生,比如将卫星送入太空。我们正在制造太空中的眼睛,一个围绕地球的神经系统,它可以从全球的角度看待这个星球,因为为了建立全球经济,我们必须有一个全球图景。这是一件非常重要的事情,在接下来的 5000 天里,会有越来越多的人进行更多的尝试,马斯克、贝索斯、中国、印度都在做类似的事情。未来我们将看到更多参与者。

第二件事是新食物,比如合成肉、人造肉、基于动物细胞的肉。它们将在未来 5000 天出现(普及)。这对我来说非常令人兴奋,因为我不吃红肉。

另一件非常令人兴奋的事情是计算机大脑接口,我原以为要 2 万天(超过 50 年)才会发生,但现在,我所看到的证据表明,这可能会在未来 5000 天开始出现。也许还不会成为主流,但可能会开始用于解决四肢瘫痪或其他医学问题,适用于盲人或其他残障人士。

至于未来我最担心的事情,应该是网络战争。因为国际上没有达成有关的协议,什么是可以接受的,什么不是,没有真正的协议。我们对传统战争有很多限制,有各种各样的关于地雷、生物武器的条约,但对于人工智能(的战争用途),我们没有很好的条约和协议。

我担心,可能要有一些非常糟糕的事情发生,才能促使全人类达成某种协议。我衷心希望这不会发生,但我确实很担心。

采访手记:明天不会像我们想象的那样完美,但会变得比今天稍微好一点儿。这是凯文曾说过的一句话。这种乐观态度使他总是能够先人一步地捕捉到科技发展的脉络:纵使有需要担忧的东西,但明天或许只要比今天更好,哪怕只有一点点,也是一种进步。




来源:Deep Tech深科技(公众号)

编辑:洪韵


670#
 楼主| 发表于 2023-5-8 21:07:41 | 只看该作者
【案例】

专访凯文·凯利:我希望在技术首次出现5000天后再进行监管,人工智能将比电和火都强大
你可记得,5000 天前的世界是什么样子的?

从今天倒推回去,大约是 2009 8 月。那时,3G 网络刚刚在中国起步,谷歌的安卓系统才诞生 1 年,微软的 Windows 7 系统距离推出还有两个月,苹果的 iPhone 才发展到第三代,而手机领域的老大还是诺基亚和塞班系统。

如果那时有人说,5000 天之后,我们将看到扫码付款、无人(辅助)驾驶、虚拟现实、增强现实,还有强大的人工智能,不仅生成的文章接近,甚至超过人类水平,还能根据寥寥数语创造全新的图像。或许大多数人都会觉得这是天方夜谭。



作为知名杂志《连线(Wired)》的联合创始人,凯文自上世纪 80 年代就持续活跃在媒体界和科技圈,以对前沿技术发展的深度思考而闻名。他的文字和著作,例如知名的三部曲《失控》、《科技想要什么》和《必然》,包含着对未来生活、社会的天马行空的描述和想象,启发了许多中美科技企业家和文艺工作者。

凯文对科技发展的乐观态度是广为人知的。如果我们想要塑造未来,我们得保持乐观。我们要塑造的世界不是完美的世界。它不完美,问题重重,坏事频现,凯文在一次 TED 演讲中说道。但是问题不会阻碍进步。问题引领着进步。没有问题,就不会有进步。

这种乐观的态度使他总能以非同寻常的角度思考问题,再结合他丰富的人生经历,碰撞出对未来的深刻洞察:数百万人将会一同工作。

(我们将看到)现实世界全部数字化的镜像世界。利用人工智能和算法,镜像世界既可以搜索现实世界,又可以搜索人际关系,并催生出新的事物。镜像世界的优势并不仅仅是可以让你看见一切。在镜像世界里,所有对象都变成了数据,都可以被机器读取。

现在的人工智能只能将我们大脑所做工作的一部分合成并制作出来。对人脑的智能而言,这实在是微不足道的一小部分……因此,再过 50 年,当回忆今天时,我们只会感慨当年真的是在蹒跚学步。

即便我们移居到其他星球,只要那里的地形和重力等客观条件和地球接近,文明的发展进程就一定会以和地球文明类似的形式发生。

这些是凯文脑海中对未来 5000 天的设想的一小部分,写在了他的新书《5000 天后的世界》中。未来的 5000 天,与迄今为止的 5000 天相比,会发生更大的变化。同时,他认为很多并非物质层面的变化,人们的人际关系、休闲方式,甚至人生观都可能会发生改变。



如果你也想一窥 5000 天之后的世界,想更好地了解凯文对未来科技的看法,DeepTech 对他进行了专访。采访内容进行了编译,力求全面、准确地传达凯文的真知灼见和思考过程。




DeepTech:为什么你认为接下来的 5000 天将会是人类历史中最关键的时间段

凯文·凯利:世界上有很多事情是第一次出现,这就是我用来衡量重要事件的标准。我们看到一些战争正在进行中,但这并不重要。我的意思是,从某种意义上说,我们已经忍受了(战争)很长的时间,总会度过难关的。但是,还有其他事情是第一次出现,其中之一就是气候变化。

我们的气候已经受到了影响,所以必须以前所未有的新方式来持续管理它。这是一个星球规模的任务。作为一个物种,人类才刚刚开始尝试在星球尺度上做事、合作,这是我们以前从未做过的。

有很长一段时间,我们以部落为单位运作,然后是省,还有国家。现在我们正在努力,在星球层面上努力做到一些事。这是非常大的一步,但这是必要的,因为气候变化越来越明显。因此,要实现这一点,人类就需要新技能,需要新水平的合作和新工具来实现这种合作。所以这件事,就是为什么现在是一个非常、非常重要的时刻的原因之一,我们需要度过这段时间,我们必须适应新的政权,一个星球层面的政权。

与此同时,我们也第一次有了星球层面的经济。众所周知,世界上最大的两个经济体,中国和美国,是纠缠在一起的,你无法真正将它们分开。因此,理解并尝试两者共存的经济体系,也是一大步。我们必须弄清楚如何在接下来的 5000 天内尽快做到这一点。

然后是人工智能主宰人工智能浪潮,这已经持续了很长时间,但是现在人们可以看到它是真实的。由此滋生了很多恐惧,但也有很多令人兴奋的地方。非常清楚的是,这将是非常具有变革性和破坏性的。作为一个物种,我们共同承担了一项任务,即尝试弄清楚如何利用这种新力量造福他人而不是造成伤害。而且它非常新,我们没有很多好的模型,也没有人告诉我们该怎么做。

我们很可能会犯一些可怕的错误,比如尝试将人工智能武器化,将其用于网络战或其他类似的糟糕的事情。而且我认为这将是有风险的,我们正在进入一个高风险时代。我认为风险不在于人工智能会杀死我们,而是我们可能会因此爆发战争,或者可能会因未能好好管理人工智能而无意中伤害到很多人。

这三件正在发生的事,对我来说是最重要的,但当然还有其他事情发生。比如,在接下来的 5000 天里,我们将处于世界从人口过剩转向人口不足的最初阶段。这才刚刚开始。东亚国家比如日本和韩国,已经开始了,中国也有这个趋势,还有很多欧洲国家也是。这也是这个星球上第一次出现的非常关键的变化,我们的人口正在开始大规模减少,我们真的不知道如何应对。这就是接下来的 5000 天是非常、非常重要的第四个原因。

DeepTech:人口减少确实是一个趋势,但有人说这是好事,会减少我们对地球的消耗,而且人工智能的出现也提升了生产力,可能不需要那么多人了。你如何看待这个观点?

凯文·凯利:最初,人口减少可能会带来好处。但问题是,如果你每年都在失去人口,那么这显然无法持续下去,然后在某个时候,这个数字会变成零,或者变得很小,以至于完成很多事情会变得很困难。

从经济学和技术的角度来看,你需要一定数量的人口,一定的市场规模,才能让许多事情值得去做,尤其是规模庞大的事情。比如建造一艘前往火星的飞船最少需要多少人?是十亿人吗?是一百万吗?不管是什么,但必须有一个数字,才能产生足够的盈余、想法和劳动力。

这是基于这样一个事实,即更大的市场似乎会生产更多的东西,更多的新事物。因此,人口减少的趋势并不足以带来恐惧和担忧,环保主义者甚至会说这对地球有好处,剩下的当然可以用人工智能来弥补。但问题是,有什么方法能阻止它进一步减少呢?因为生物学的运作方式,是独立于文化的。生物学的运作方式是,对于每个没有孩子的女人,另一个女人必须有四个孩子,才能达成人口的平衡。这是一个很大的差距。如果条件无法满足,那么人口每年都会越来越少,直到归零。

但我想明确一点,我们离这种归零还差得很远,只是正在经历变化的开端。我们必须重新想象我们的社会,要么让生孩子变得更容易,要么鼓励人们生孩子。但到目前为止,我们尝试的一切都没有奏效:不仅在中国,而是在世界各地。

我们还需要一种不同的资本主义经济体系,它不需要越来越多的受众(市场)来变得更好、更繁荣。我们当前的系统需要不断扩张,需要增加更多的东西、更多的人、更大的市场。所以令人兴奋的是,我们可以尝试想象一个不同的系统:举个例子,与其说试图销售更多的冰箱,我们想销售更好的冰箱,同样数量的冰箱,只是更好。

我的想法是,即使在接下来的 5000 天里,我们可能会开始意识到,我们可能想要改变我们的价值观和奖励制度,奖励不仅仅是为了更多的钱,而是试图真正强调和奖励(而不是惩罚)那些正在做出更好改进的事物。所以我认为人口锐减(及其带来的问题)在几十年内不会发生,但我们已经开始朝着那个方向发展。

DeepTech:面对人工智能,还有其他类似的新兴技术,政府和监管机构应该扮演什么样的角色?

凯文·凯利:很明显,各级政府的监管对于文明来说是必要的。这在技术领域也是必要的。有很多东西是市场本身不能提供的,不能自己调节的,所以需要政府干预。但我想强调的是,政府监管应该介入的很晚。

在我们真正知道发生了什么之前,过早地进行监管是非常有害的。事实上,当存在高度不确定性时,政府倾向于制定和实施监管,他们认为这是一种保护措施,但实际上它是相反的。它只能保护既定的参与者。

我认为应该在很久以后再进行监管,当我们对技术达成更多共识的时候。在某种意义上,我希望在技术首次出现后 5000 天再进行监管。一开始你不需要监管,因为我们根本不知道它是什么、它有什么用、它是怎么回事。因此,我们需要基于证据的监管。很多监管,无论是对人工智能还是基因工程,都不是基于证据的,而是基于直觉,基于恐惧,基于想象力,是人们想象的会发生什么。

因此,我希望等待足够长的时间,直到我们对证据达成真正可靠的、科学的共识,然后我们再制定规则,有点像打上一个烙印,盖棺定论。

对社交媒体的真正监管还为时过早,它还太年轻了。人工智能更是非常年轻的,现在尝试进行监管将是非常有害的。但就像我们从互联网上了解到的那样,(适当的)监管是有益的,因为你减少了不确定性,而不确定性是非常有害的,尤其是从投资的角度而言,因为有了监管,确定性就更强,人就越有信心,投资就越多。这就是加密货币面临的问题之一,没有那么多的投资,因为它非常不确定,其法律地位不明确。因此,它希望受到监管,以消除不确定性和风险,从而吸引更多投资以继续增长。

所以,政府、非市场力量的监管非常重要。但不能过早,不是在一开始。我们要先弄清楚它是什么。很明显,我们不知道人工智能是什么,所以现在试图对其进行监管将是一场真正的灾难。

如果你要进行监管,想象一下化学和元素的历史。在现代化学出现之前,有炼金术,人们对元素是什么的想法非常奇怪,我们看到了弗兰肯斯坦、以太和其他东西。看看所有这些想法,如果你想象在炼金术时代对化学进行监管,从某种意义上说,你只是在监管荒诞的东西。

这就是我们现在和人工智能的关系。这就像炼金术,我们真的不太了解它。现在的监管,基本上就是试图冻结或确定某些不应该被确定的想法,我们应该放手,让它们自行其是。

简而言之,政府的监管是必不可少的,但不能过早介入。

DeepTech:但我们现在已经看到了一些监管,比如欧盟的人工智能法案,美国也正在推进类似的措施。如果没有政府介入,该如何解决人工智能的偏见、有毒内容等问题?

凯文·凯利:我们对人工智能有很多担忧,有人工智能对齐,有偏见,有能耗问题。我们这里只讨论偏见。

最棘手的地方在于,这些人工智能是根据人类所有的文字、书籍,以及数千年的历史进行训练的。本质上,它们是自动完成引擎,会根据之前从人类那里获得的一切来猜测答案。因此,它们产生的是普罗大众的智慧,给出一个平庸的答案。

普通人的行为并不高尚,这不足为奇。人工智能已经接受了人类平均行为的训练,而人类的平均行为是有偏见的,普罗大众是有偏见的。基于此,我们制造出来的人工智能,就会有偏见。

问题是我们无法接受。我们会说,这可不行。我们希望这些人工智能比我们更好,我们希望它比平均水平更好,我们希望它优于我们,超越平庸。典型的人类是有偏见的,但我们不会允许典型的人工智能出现这种情况。典型的人工智能必须比我们更好。这是可能的,我们可以改代码,但问题是,我们人类并不清楚比我们更好意味着什么。我们对它是什么样的没有达成共识。比一般人类行为更好,那是什么样的?

事实证明,即使是我们的美好愿望或我们最好的道德,也是非常浅薄的、无法统一的,但人类允许自己这样。所以问题不在于人工智能对齐,问题在于人类对齐。

很多人都担心 ChatGPT,担心它不值得信赖。但是当新技术出现时,我们总是将它与其他技术进行比较。那么和人类比较呢?值得信赖吗?我的意思是,如果欧盟必须评估人类的聊天,他们不会让它通过的。他们会说人类聊天不可靠,有偏见,我们不允许你和人类聊天。这是多荒谬的事情。

我们希望我们的人工智能比我们更好,但我们对这意味着什么并没有很好的概念。那是觉醒吗?是政治正确吗?那看起来像什么?我们从来没有真正给自己分配过这样的任务来解决这个问题,但现在我们没有太多选择。哲学家们已经考虑了一段时间,这似乎很深奥。但现在我们实际上必须选择,集体做出决定。我们还有很多问题,谁能做这些决定?我们需要达成共识吗?

我的直觉是,我们将拥有多个版本的人工智能,它们有不同的道德规范、不同的训练集、不同的训练内容。有些人只想用优质的书籍训练人工智能,其他人想用所有书籍训练,无论好坏。这就像有不同的育儿方式一样,训练这些人工智能就像养育孩子。有些人会非常遵守规则,控制孩子接触到的东西,有的人则完全不同,会让孩子看到一切,给他们所有价值观,让他们看到这个世界是什么样的。

我们将看到以不同方式训练的不同人工智能出现。你必须始终记住,人工智能是复数的,会有很多种人工智能,成百上千个。它们将接受不同的训练,接受不同的教育。有些人可能会倾向于一种人工智能,因为它更适合他们。我认为我们将有一个不同类型的训练集市场,有各种不同的偏见,因为人工智能都是有偏见的,你必须选择你想要的偏见。

DeepTech:你在书中强调,长期思维是洞察科技趋势的关键要素。组织和个人应当如何锻炼这种能力,并以这种思维方式行事?

凯文·凯利:我参与了一个名为 Long Now Foundation 的组织,我们正在努力鼓励长期思考。我的目标之一是能够为小学生开发课程,比如环境课程,这将帮助他们始终尝试为子孙后代着想。我们喜欢使用的术语是,我们想让人们成为好祖先。他们的后代会感谢他们创造了一些东西,建造了一些东西,开始了一些东西。

我认为其中一件事就是做一些你知道需要 10 年或 20 年才能完成的事情,不要半途而废,或者做一些可能比你的生命还要久才能完成的事情,比如建造大教堂。这是鼓励人们从事更长期的事情,而不是仅仅在一年或两年内完成的事情。

还要有允许这样做的工具。做这种事情的困难之一是资金,从经济角度来看,它们在当前环境下没有意义,但是我们可以建立税收和其他类型的金融工具来奖励和允许这类项目,如果你从事一个需要 10 年而不是 1 年的项目,也许还有税收减免。

要奖励那些努力做长期项目的人。社会保障,这是我们使用的其中一种想法,我们自动将退休金留到未来。这是我们发明的一种工具,很有帮助。因此,我们可以使用其他类似的工具,鼓励人们放眼长远。

政府还可以做其他事情。政府必须参与其中,因为企业和个人更难做到这一点,因为没有合适的回报。但政府可以资助长期科学和研究,不期望在两年内得到回报,但这种期望会在 20 年后得到回报。这也是帮助我们从长远考虑子孙后代的另一种方式。考虑这样一个事实,即无论生活在何处的大多数人都将生活在未来,并试图在现在做出考虑子孙后代及其后代的决定。法律也可以制定一些条款,尝试为子孙后代保留选择权,而不是将其关闭。

个人也可以做一些事情,比如长期投资,为子孙后代种一棵树。这是一件很容易做的事,做个好祖先。还有一些事情,比如面对政客和公司,选择那些眼光更长远的。现在我们有很多企业是绿色的,评判标准是他们在多大程度上在气候变化上进行投资。但我们也可以拥有同样的东西,在评级系统或其他领域,我们可以让东西不仅仅是绿色的,也许——我之前从未想过——还有另一种颜色,比如白色,用以标记哪些公司以长远的目光承诺和行动。这可能是个人和公司可以促进这种长期思考理念的另一种方式。

DeepTech:你说过,科技本身不存在好坏,它的好坏取决于使用目的和使用的人。我们该如何更好地保证新技术不被滥用?

凯文·凯利:一个简短的回答是,我不知道。

我认为最好的举措是收集好处和坏处的证据。并将其用于制定政策,而不仅仅是想象会发生什么。现在很多危害,都是我们想象出来的。有多少人因为人工智能而失业?也许有几十个?非常、非常少的人因为人工智能失业,但很多、很多人都在想象他们可能会失业。

现在的许多政策都是基于我们的想象,但我想说,让我们看看真实的危害和好处的证据,并以此为基础制定政策。到目前为止,还为时过早,我们根本没有证据许多人因为人工智能被解雇了,反过来我们有一些证据表明人工智能提高了某些工人、程序员、作家的生产力,我们有证据表明他们的工作做得更好。所以现在下结论还为时过早。但是,当我们(未来)这样做时,让我们以证据为基础。

DeepTech:在过去几年里,随着时间的变化,你对技术的哪些观点发生了变化?

凯文·凯利:我想应该是,我可以清楚地看到人工智能带来的问题了。

人工智能,是许多人研究了 203040 年的东西。但它的实际实施现在非常具体,比如 ChatGPT 和其他东西。正因为如此,我想我改变了对其局限性(limitations)的看法。这是我想要的词,不是问题(problems),而是局限性。其局限性现在比以前更加明显。

我改变想法的地方在于,理解到人工智能对齐不是问题所在,真正的问题在于让人类就我们必须做的事情达成一致,也就是前面提到的人类对齐

人工智能的主要问题之一不是与人类有关的部分,而是意识到我们将要面临的问题是试图使人类与人工智能对齐,而不是让人工智能与人类对齐。人类自己的道德和价值观不一致,除非我们首先让它们保持一致,否则我们无法真正实现人工智能对齐。我认为这对我来说是一个新想法。真正的苦差事,真正的障碍,将是让人类个体就我们希望人工智能做什么达成一致。这是我以前没有想到的。

DeepTech:技术素养,即理解技术工作原理的能力,将成为重要的个人能力。你可以讲讲这个观点吗?我们如何提升这个能力?

凯文·凯利:我喜欢和钦佩阿米什人的原因之一是,他们的素养和文化传承是集体而不是个人的。因为他们很清楚这需要集体的力量来实现。我认为这是我们必须完成的第一步。如何阐明我们的技术素养是什么?我们的标准是什么

针对社交媒体,我们要设定它的边界(安全护栏)。你四岁的时候,这些是适合四岁小孩的最佳技术实践,当你八岁的时候,又新加了哪些技术。目前,父母没有任何指导,老师没有任何指导,没有任何证据。我其实想要一种基于证据的技术素养,比如这就是我们对儿童如何使用屏幕的了解;这就是我们所知道的儿童如何使用人工智能;这就是我们对疫苗或者其他任何技术的了解。我们要搞清楚两件事:好处是什么,坏处是什么。因为我们总是要付出代价的,这就是技术素养的关键之一。当我们谈论新技术时,我们必须将其与现有技术进行比较。

每个技术都有优点,也有缺点。当我们审视成本、危害以及新技术的好处时,总是必须将其与旧技术进行比较,比如电话 VS 短信,自行车 VS 汽车,我们计算所有技术的优缺点,不仅是新技术,还有旧技术。我认为技术素养的一部分是教育性的,从某种意义上说,它应该是我们阅读和写作的一部分,每项新技术都会有成本,成本是多少?有什么好处?你了解它吗?有什么证据?就像去学习阅读和写作一样,我们要学习如何更好地使用人工智能。

DeepTech:在最近的一次演讲中,你提到,人工智能就像实习生一样,可以展开讲讲吗?我们应该如何与人工智能共存?哪些技能是值得学习的?

凯文·凯利:这就像每个人在生活中都有一个私人导航员,也就是谷歌地图之类的 APP,可以引导我们到任何地方。这在以前是很难做到的,你需要有很多地图,并且有很好的判断力。现在每个人都有一个私人导航员。

当我们在百度或谷歌上搜索东西时,我们有一个私人图书管理员,在茫茫数据中寻找答案,这曾经是图书管理员的工作。现在每个人都有一个私人图书管理员。

我认为,GPT ChatGPT 的第一个版本是我们可以支配的私人助理。我们可以用他们做研究,回答一些问题,做一些东西的初稿,查找一些代码,提出建议,但他们是实习生,我们必须检查他们的工作。

又因为它的水平很平庸,平庸的程序员,平庸的作家,平庸的图书馆员,所以如果你想变得优秀,那么我们必须增加一点东西,我们必须推动他们,必须与他们对话。那些真正擅长制作人工智能艺术或使用 ChatGPT 的人是那些学习如何与人工智能进行对话的人,在某种程度上推动它、鼓励它超越平庸的水平。

现在,撰写提示(prompt已经成为了一项技能,这是未来学习如何与这些私人实习生交谈的关键技能之一。所以要充分利用,你必须了解他们是如何工作的,了解他们喜欢听什么。很明显,有些人在这方面比其他人做得更好。

部分原因是他们为此花费了 1000 个小时。他们明白,这就像学习一门语言一样。或者你必须像实习生一样思考,才能猜出它在想什么。我认为这是技能之一。到目前为止,对于当今世界任何地方的学校里的任何人来说,最主要的技能是学习如何学习,找到最适合自己的学习方法。

这不仅仅是对学习如何学习的一般理解,而是要找到你最好的方法是什么?学习一门新语言的最好技巧是什么?你必须重复多少次?你必须睡多少时间?如果你正在学习一门新科学,什么是你最好的学习方式?你如何优化自己的学习?如果你正在学习一项体育技能,你最好的学习方式是什么?

这是每所学校都应该教授的主要技能。如果你的学校没有教它,那么你必须通过其他方式学习。你应该在毕业前掌握适合自己的学习方法,因为学习将是你在余生中不断要做的事情。

DeepTech:在未来的 5000 天里,哪些新技术带来的可能性让你感到兴奋?哪些又让你感到担忧?

凯文·凯利:到目前为止,人工智能是最令人兴奋和最强大的技术,我们已经谈了很多。这里我想再次强调,人工智能是我们发明的最具颠覆性的技术。从长远来看,它比电、火,甚至是写作都更加强大。

从长远来看,确实如此。但现在,人工智能有点被夸大了,因为它离我们心目中的样子还差得很远,它才刚刚开始。在接下来的 5000 天里,它将成为最主要的颠覆者。

但也有其他事情正在发生,比如将卫星送入太空。我们正在制造太空中的眼睛,一个围绕地球的神经系统,它可以从全球的角度看待这个星球,因为为了建立全球经济,我们必须有一个全球图景。这是一件非常重要的事情,在接下来的 5000 天里,会有越来越多的人进行更多的尝试,马斯克、贝索斯、中国、印度都在做类似的事情。未来我们将看到更多参与者。

第二件事是新食物,比如合成肉、人造肉、基于动物细胞的肉。它们将在未来 5000 天出现(普及)。这对我来说非常令人兴奋,因为我不吃红肉。

另一件非常令人兴奋的事情是计算机大脑接口,我原以为要 2 万天(超过 50 年)才会发生,但现在,我所看到的证据表明,这可能会在未来 5000 天开始出现。也许还不会成为主流,但可能会开始用于解决四肢瘫痪或其他医学问题,适用于盲人或其他残障人士。

至于未来我最担心的事情,应该是网络战争。因为国际上没有达成有关的协议,什么是可以接受的,什么不是,没有真正的协议。我们对传统战争有很多限制,有各种各样的关于地雷、生物武器的条约,但对于人工智能(的战争用途),我们没有很好的条约和协议。

我担心,可能要有一些非常糟糕的事情发生,才能促使全人类达成某种协议。我衷心希望这不会发生,但我确实很担心。

采访手记:明天不会像我们想象的那样完美,但会变得比今天稍微好一点儿。这是凯文曾说过的一句话。这种乐观态度使他总是能够先人一步地捕捉到科技发展的脉络:纵使有需要担忧的东西,但明天或许只要比今天更好,哪怕只有一点点,也是一种进步。




来源:Deep Tech深科技(公众号)

编辑:洪韵


发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表