传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
681#
 楼主| 发表于 2023-5-8 21:07:41 | 只看该作者
【案例】

专访凯文·凯利:我希望在技术首次出现5000天后再进行监管,人工智能将比电和火都强大
你可记得,5000 天前的世界是什么样子的?

从今天倒推回去,大约是 2009 8 月。那时,3G 网络刚刚在中国起步,谷歌的安卓系统才诞生 1 年,微软的 Windows 7 系统距离推出还有两个月,苹果的 iPhone 才发展到第三代,而手机领域的老大还是诺基亚和塞班系统。

如果那时有人说,5000 天之后,我们将看到扫码付款、无人(辅助)驾驶、虚拟现实、增强现实,还有强大的人工智能,不仅生成的文章接近,甚至超过人类水平,还能根据寥寥数语创造全新的图像。或许大多数人都会觉得这是天方夜谭。



作为知名杂志《连线(Wired)》的联合创始人,凯文自上世纪 80 年代就持续活跃在媒体界和科技圈,以对前沿技术发展的深度思考而闻名。他的文字和著作,例如知名的三部曲《失控》、《科技想要什么》和《必然》,包含着对未来生活、社会的天马行空的描述和想象,启发了许多中美科技企业家和文艺工作者。

凯文对科技发展的乐观态度是广为人知的。如果我们想要塑造未来,我们得保持乐观。我们要塑造的世界不是完美的世界。它不完美,问题重重,坏事频现,凯文在一次 TED 演讲中说道。但是问题不会阻碍进步。问题引领着进步。没有问题,就不会有进步。

这种乐观的态度使他总能以非同寻常的角度思考问题,再结合他丰富的人生经历,碰撞出对未来的深刻洞察:数百万人将会一同工作。

(我们将看到)现实世界全部数字化的镜像世界。利用人工智能和算法,镜像世界既可以搜索现实世界,又可以搜索人际关系,并催生出新的事物。镜像世界的优势并不仅仅是可以让你看见一切。在镜像世界里,所有对象都变成了数据,都可以被机器读取。

现在的人工智能只能将我们大脑所做工作的一部分合成并制作出来。对人脑的智能而言,这实在是微不足道的一小部分……因此,再过 50 年,当回忆今天时,我们只会感慨当年真的是在蹒跚学步。

即便我们移居到其他星球,只要那里的地形和重力等客观条件和地球接近,文明的发展进程就一定会以和地球文明类似的形式发生。

这些是凯文脑海中对未来 5000 天的设想的一小部分,写在了他的新书《5000 天后的世界》中。未来的 5000 天,与迄今为止的 5000 天相比,会发生更大的变化。同时,他认为很多并非物质层面的变化,人们的人际关系、休闲方式,甚至人生观都可能会发生改变。



如果你也想一窥 5000 天之后的世界,想更好地了解凯文对未来科技的看法,DeepTech 对他进行了专访。采访内容进行了编译,力求全面、准确地传达凯文的真知灼见和思考过程。




DeepTech:为什么你认为接下来的 5000 天将会是人类历史中最关键的时间段

凯文·凯利:世界上有很多事情是第一次出现,这就是我用来衡量重要事件的标准。我们看到一些战争正在进行中,但这并不重要。我的意思是,从某种意义上说,我们已经忍受了(战争)很长的时间,总会度过难关的。但是,还有其他事情是第一次出现,其中之一就是气候变化。

我们的气候已经受到了影响,所以必须以前所未有的新方式来持续管理它。这是一个星球规模的任务。作为一个物种,人类才刚刚开始尝试在星球尺度上做事、合作,这是我们以前从未做过的。

有很长一段时间,我们以部落为单位运作,然后是省,还有国家。现在我们正在努力,在星球层面上努力做到一些事。这是非常大的一步,但这是必要的,因为气候变化越来越明显。因此,要实现这一点,人类就需要新技能,需要新水平的合作和新工具来实现这种合作。所以这件事,就是为什么现在是一个非常、非常重要的时刻的原因之一,我们需要度过这段时间,我们必须适应新的政权,一个星球层面的政权。

与此同时,我们也第一次有了星球层面的经济。众所周知,世界上最大的两个经济体,中国和美国,是纠缠在一起的,你无法真正将它们分开。因此,理解并尝试两者共存的经济体系,也是一大步。我们必须弄清楚如何在接下来的 5000 天内尽快做到这一点。

然后是人工智能主宰人工智能浪潮,这已经持续了很长时间,但是现在人们可以看到它是真实的。由此滋生了很多恐惧,但也有很多令人兴奋的地方。非常清楚的是,这将是非常具有变革性和破坏性的。作为一个物种,我们共同承担了一项任务,即尝试弄清楚如何利用这种新力量造福他人而不是造成伤害。而且它非常新,我们没有很多好的模型,也没有人告诉我们该怎么做。

我们很可能会犯一些可怕的错误,比如尝试将人工智能武器化,将其用于网络战或其他类似的糟糕的事情。而且我认为这将是有风险的,我们正在进入一个高风险时代。我认为风险不在于人工智能会杀死我们,而是我们可能会因此爆发战争,或者可能会因未能好好管理人工智能而无意中伤害到很多人。

这三件正在发生的事,对我来说是最重要的,但当然还有其他事情发生。比如,在接下来的 5000 天里,我们将处于世界从人口过剩转向人口不足的最初阶段。这才刚刚开始。东亚国家比如日本和韩国,已经开始了,中国也有这个趋势,还有很多欧洲国家也是。这也是这个星球上第一次出现的非常关键的变化,我们的人口正在开始大规模减少,我们真的不知道如何应对。这就是接下来的 5000 天是非常、非常重要的第四个原因。

DeepTech:人口减少确实是一个趋势,但有人说这是好事,会减少我们对地球的消耗,而且人工智能的出现也提升了生产力,可能不需要那么多人了。你如何看待这个观点?

凯文·凯利:最初,人口减少可能会带来好处。但问题是,如果你每年都在失去人口,那么这显然无法持续下去,然后在某个时候,这个数字会变成零,或者变得很小,以至于完成很多事情会变得很困难。

从经济学和技术的角度来看,你需要一定数量的人口,一定的市场规模,才能让许多事情值得去做,尤其是规模庞大的事情。比如建造一艘前往火星的飞船最少需要多少人?是十亿人吗?是一百万吗?不管是什么,但必须有一个数字,才能产生足够的盈余、想法和劳动力。

这是基于这样一个事实,即更大的市场似乎会生产更多的东西,更多的新事物。因此,人口减少的趋势并不足以带来恐惧和担忧,环保主义者甚至会说这对地球有好处,剩下的当然可以用人工智能来弥补。但问题是,有什么方法能阻止它进一步减少呢?因为生物学的运作方式,是独立于文化的。生物学的运作方式是,对于每个没有孩子的女人,另一个女人必须有四个孩子,才能达成人口的平衡。这是一个很大的差距。如果条件无法满足,那么人口每年都会越来越少,直到归零。

但我想明确一点,我们离这种归零还差得很远,只是正在经历变化的开端。我们必须重新想象我们的社会,要么让生孩子变得更容易,要么鼓励人们生孩子。但到目前为止,我们尝试的一切都没有奏效:不仅在中国,而是在世界各地。

我们还需要一种不同的资本主义经济体系,它不需要越来越多的受众(市场)来变得更好、更繁荣。我们当前的系统需要不断扩张,需要增加更多的东西、更多的人、更大的市场。所以令人兴奋的是,我们可以尝试想象一个不同的系统:举个例子,与其说试图销售更多的冰箱,我们想销售更好的冰箱,同样数量的冰箱,只是更好。

我的想法是,即使在接下来的 5000 天里,我们可能会开始意识到,我们可能想要改变我们的价值观和奖励制度,奖励不仅仅是为了更多的钱,而是试图真正强调和奖励(而不是惩罚)那些正在做出更好改进的事物。所以我认为人口锐减(及其带来的问题)在几十年内不会发生,但我们已经开始朝着那个方向发展。

DeepTech:面对人工智能,还有其他类似的新兴技术,政府和监管机构应该扮演什么样的角色?

凯文·凯利:很明显,各级政府的监管对于文明来说是必要的。这在技术领域也是必要的。有很多东西是市场本身不能提供的,不能自己调节的,所以需要政府干预。但我想强调的是,政府监管应该介入的很晚。

在我们真正知道发生了什么之前,过早地进行监管是非常有害的。事实上,当存在高度不确定性时,政府倾向于制定和实施监管,他们认为这是一种保护措施,但实际上它是相反的。它只能保护既定的参与者。

我认为应该在很久以后再进行监管,当我们对技术达成更多共识的时候。在某种意义上,我希望在技术首次出现后 5000 天再进行监管。一开始你不需要监管,因为我们根本不知道它是什么、它有什么用、它是怎么回事。因此,我们需要基于证据的监管。很多监管,无论是对人工智能还是基因工程,都不是基于证据的,而是基于直觉,基于恐惧,基于想象力,是人们想象的会发生什么。

因此,我希望等待足够长的时间,直到我们对证据达成真正可靠的、科学的共识,然后我们再制定规则,有点像打上一个烙印,盖棺定论。

对社交媒体的真正监管还为时过早,它还太年轻了。人工智能更是非常年轻的,现在尝试进行监管将是非常有害的。但就像我们从互联网上了解到的那样,(适当的)监管是有益的,因为你减少了不确定性,而不确定性是非常有害的,尤其是从投资的角度而言,因为有了监管,确定性就更强,人就越有信心,投资就越多。这就是加密货币面临的问题之一,没有那么多的投资,因为它非常不确定,其法律地位不明确。因此,它希望受到监管,以消除不确定性和风险,从而吸引更多投资以继续增长。

所以,政府、非市场力量的监管非常重要。但不能过早,不是在一开始。我们要先弄清楚它是什么。很明显,我们不知道人工智能是什么,所以现在试图对其进行监管将是一场真正的灾难。

如果你要进行监管,想象一下化学和元素的历史。在现代化学出现之前,有炼金术,人们对元素是什么的想法非常奇怪,我们看到了弗兰肯斯坦、以太和其他东西。看看所有这些想法,如果你想象在炼金术时代对化学进行监管,从某种意义上说,你只是在监管荒诞的东西。

这就是我们现在和人工智能的关系。这就像炼金术,我们真的不太了解它。现在的监管,基本上就是试图冻结或确定某些不应该被确定的想法,我们应该放手,让它们自行其是。

简而言之,政府的监管是必不可少的,但不能过早介入。

DeepTech:但我们现在已经看到了一些监管,比如欧盟的人工智能法案,美国也正在推进类似的措施。如果没有政府介入,该如何解决人工智能的偏见、有毒内容等问题?

凯文·凯利:我们对人工智能有很多担忧,有人工智能对齐,有偏见,有能耗问题。我们这里只讨论偏见。

最棘手的地方在于,这些人工智能是根据人类所有的文字、书籍,以及数千年的历史进行训练的。本质上,它们是自动完成引擎,会根据之前从人类那里获得的一切来猜测答案。因此,它们产生的是普罗大众的智慧,给出一个平庸的答案。

普通人的行为并不高尚,这不足为奇。人工智能已经接受了人类平均行为的训练,而人类的平均行为是有偏见的,普罗大众是有偏见的。基于此,我们制造出来的人工智能,就会有偏见。

问题是我们无法接受。我们会说,这可不行。我们希望这些人工智能比我们更好,我们希望它比平均水平更好,我们希望它优于我们,超越平庸。典型的人类是有偏见的,但我们不会允许典型的人工智能出现这种情况。典型的人工智能必须比我们更好。这是可能的,我们可以改代码,但问题是,我们人类并不清楚比我们更好意味着什么。我们对它是什么样的没有达成共识。比一般人类行为更好,那是什么样的?

事实证明,即使是我们的美好愿望或我们最好的道德,也是非常浅薄的、无法统一的,但人类允许自己这样。所以问题不在于人工智能对齐,问题在于人类对齐。

很多人都担心 ChatGPT,担心它不值得信赖。但是当新技术出现时,我们总是将它与其他技术进行比较。那么和人类比较呢?值得信赖吗?我的意思是,如果欧盟必须评估人类的聊天,他们不会让它通过的。他们会说人类聊天不可靠,有偏见,我们不允许你和人类聊天。这是多荒谬的事情。

我们希望我们的人工智能比我们更好,但我们对这意味着什么并没有很好的概念。那是觉醒吗?是政治正确吗?那看起来像什么?我们从来没有真正给自己分配过这样的任务来解决这个问题,但现在我们没有太多选择。哲学家们已经考虑了一段时间,这似乎很深奥。但现在我们实际上必须选择,集体做出决定。我们还有很多问题,谁能做这些决定?我们需要达成共识吗?

我的直觉是,我们将拥有多个版本的人工智能,它们有不同的道德规范、不同的训练集、不同的训练内容。有些人只想用优质的书籍训练人工智能,其他人想用所有书籍训练,无论好坏。这就像有不同的育儿方式一样,训练这些人工智能就像养育孩子。有些人会非常遵守规则,控制孩子接触到的东西,有的人则完全不同,会让孩子看到一切,给他们所有价值观,让他们看到这个世界是什么样的。

我们将看到以不同方式训练的不同人工智能出现。你必须始终记住,人工智能是复数的,会有很多种人工智能,成百上千个。它们将接受不同的训练,接受不同的教育。有些人可能会倾向于一种人工智能,因为它更适合他们。我认为我们将有一个不同类型的训练集市场,有各种不同的偏见,因为人工智能都是有偏见的,你必须选择你想要的偏见。

DeepTech:你在书中强调,长期思维是洞察科技趋势的关键要素。组织和个人应当如何锻炼这种能力,并以这种思维方式行事?

凯文·凯利:我参与了一个名为 Long Now Foundation 的组织,我们正在努力鼓励长期思考。我的目标之一是能够为小学生开发课程,比如环境课程,这将帮助他们始终尝试为子孙后代着想。我们喜欢使用的术语是,我们想让人们成为好祖先。他们的后代会感谢他们创造了一些东西,建造了一些东西,开始了一些东西。

我认为其中一件事就是做一些你知道需要 10 年或 20 年才能完成的事情,不要半途而废,或者做一些可能比你的生命还要久才能完成的事情,比如建造大教堂。这是鼓励人们从事更长期的事情,而不是仅仅在一年或两年内完成的事情。

还要有允许这样做的工具。做这种事情的困难之一是资金,从经济角度来看,它们在当前环境下没有意义,但是我们可以建立税收和其他类型的金融工具来奖励和允许这类项目,如果你从事一个需要 10 年而不是 1 年的项目,也许还有税收减免。

要奖励那些努力做长期项目的人。社会保障,这是我们使用的其中一种想法,我们自动将退休金留到未来。这是我们发明的一种工具,很有帮助。因此,我们可以使用其他类似的工具,鼓励人们放眼长远。

政府还可以做其他事情。政府必须参与其中,因为企业和个人更难做到这一点,因为没有合适的回报。但政府可以资助长期科学和研究,不期望在两年内得到回报,但这种期望会在 20 年后得到回报。这也是帮助我们从长远考虑子孙后代的另一种方式。考虑这样一个事实,即无论生活在何处的大多数人都将生活在未来,并试图在现在做出考虑子孙后代及其后代的决定。法律也可以制定一些条款,尝试为子孙后代保留选择权,而不是将其关闭。

个人也可以做一些事情,比如长期投资,为子孙后代种一棵树。这是一件很容易做的事,做个好祖先。还有一些事情,比如面对政客和公司,选择那些眼光更长远的。现在我们有很多企业是绿色的,评判标准是他们在多大程度上在气候变化上进行投资。但我们也可以拥有同样的东西,在评级系统或其他领域,我们可以让东西不仅仅是绿色的,也许——我之前从未想过——还有另一种颜色,比如白色,用以标记哪些公司以长远的目光承诺和行动。这可能是个人和公司可以促进这种长期思考理念的另一种方式。

DeepTech:你说过,科技本身不存在好坏,它的好坏取决于使用目的和使用的人。我们该如何更好地保证新技术不被滥用?

凯文·凯利:一个简短的回答是,我不知道。

我认为最好的举措是收集好处和坏处的证据。并将其用于制定政策,而不仅仅是想象会发生什么。现在很多危害,都是我们想象出来的。有多少人因为人工智能而失业?也许有几十个?非常、非常少的人因为人工智能失业,但很多、很多人都在想象他们可能会失业。

现在的许多政策都是基于我们的想象,但我想说,让我们看看真实的危害和好处的证据,并以此为基础制定政策。到目前为止,还为时过早,我们根本没有证据许多人因为人工智能被解雇了,反过来我们有一些证据表明人工智能提高了某些工人、程序员、作家的生产力,我们有证据表明他们的工作做得更好。所以现在下结论还为时过早。但是,当我们(未来)这样做时,让我们以证据为基础。

DeepTech:在过去几年里,随着时间的变化,你对技术的哪些观点发生了变化?

凯文·凯利:我想应该是,我可以清楚地看到人工智能带来的问题了。

人工智能,是许多人研究了 203040 年的东西。但它的实际实施现在非常具体,比如 ChatGPT 和其他东西。正因为如此,我想我改变了对其局限性(limitations)的看法。这是我想要的词,不是问题(problems),而是局限性。其局限性现在比以前更加明显。

我改变想法的地方在于,理解到人工智能对齐不是问题所在,真正的问题在于让人类就我们必须做的事情达成一致,也就是前面提到的人类对齐

人工智能的主要问题之一不是与人类有关的部分,而是意识到我们将要面临的问题是试图使人类与人工智能对齐,而不是让人工智能与人类对齐。人类自己的道德和价值观不一致,除非我们首先让它们保持一致,否则我们无法真正实现人工智能对齐。我认为这对我来说是一个新想法。真正的苦差事,真正的障碍,将是让人类个体就我们希望人工智能做什么达成一致。这是我以前没有想到的。

DeepTech:技术素养,即理解技术工作原理的能力,将成为重要的个人能力。你可以讲讲这个观点吗?我们如何提升这个能力?

凯文·凯利:我喜欢和钦佩阿米什人的原因之一是,他们的素养和文化传承是集体而不是个人的。因为他们很清楚这需要集体的力量来实现。我认为这是我们必须完成的第一步。如何阐明我们的技术素养是什么?我们的标准是什么

针对社交媒体,我们要设定它的边界(安全护栏)。你四岁的时候,这些是适合四岁小孩的最佳技术实践,当你八岁的时候,又新加了哪些技术。目前,父母没有任何指导,老师没有任何指导,没有任何证据。我其实想要一种基于证据的技术素养,比如这就是我们对儿童如何使用屏幕的了解;这就是我们所知道的儿童如何使用人工智能;这就是我们对疫苗或者其他任何技术的了解。我们要搞清楚两件事:好处是什么,坏处是什么。因为我们总是要付出代价的,这就是技术素养的关键之一。当我们谈论新技术时,我们必须将其与现有技术进行比较。

每个技术都有优点,也有缺点。当我们审视成本、危害以及新技术的好处时,总是必须将其与旧技术进行比较,比如电话 VS 短信,自行车 VS 汽车,我们计算所有技术的优缺点,不仅是新技术,还有旧技术。我认为技术素养的一部分是教育性的,从某种意义上说,它应该是我们阅读和写作的一部分,每项新技术都会有成本,成本是多少?有什么好处?你了解它吗?有什么证据?就像去学习阅读和写作一样,我们要学习如何更好地使用人工智能。

DeepTech:在最近的一次演讲中,你提到,人工智能就像实习生一样,可以展开讲讲吗?我们应该如何与人工智能共存?哪些技能是值得学习的?

凯文·凯利:这就像每个人在生活中都有一个私人导航员,也就是谷歌地图之类的 APP,可以引导我们到任何地方。这在以前是很难做到的,你需要有很多地图,并且有很好的判断力。现在每个人都有一个私人导航员。

当我们在百度或谷歌上搜索东西时,我们有一个私人图书管理员,在茫茫数据中寻找答案,这曾经是图书管理员的工作。现在每个人都有一个私人图书管理员。

我认为,GPT ChatGPT 的第一个版本是我们可以支配的私人助理。我们可以用他们做研究,回答一些问题,做一些东西的初稿,查找一些代码,提出建议,但他们是实习生,我们必须检查他们的工作。

又因为它的水平很平庸,平庸的程序员,平庸的作家,平庸的图书馆员,所以如果你想变得优秀,那么我们必须增加一点东西,我们必须推动他们,必须与他们对话。那些真正擅长制作人工智能艺术或使用 ChatGPT 的人是那些学习如何与人工智能进行对话的人,在某种程度上推动它、鼓励它超越平庸的水平。

现在,撰写提示(prompt已经成为了一项技能,这是未来学习如何与这些私人实习生交谈的关键技能之一。所以要充分利用,你必须了解他们是如何工作的,了解他们喜欢听什么。很明显,有些人在这方面比其他人做得更好。

部分原因是他们为此花费了 1000 个小时。他们明白,这就像学习一门语言一样。或者你必须像实习生一样思考,才能猜出它在想什么。我认为这是技能之一。到目前为止,对于当今世界任何地方的学校里的任何人来说,最主要的技能是学习如何学习,找到最适合自己的学习方法。

这不仅仅是对学习如何学习的一般理解,而是要找到你最好的方法是什么?学习一门新语言的最好技巧是什么?你必须重复多少次?你必须睡多少时间?如果你正在学习一门新科学,什么是你最好的学习方式?你如何优化自己的学习?如果你正在学习一项体育技能,你最好的学习方式是什么?

这是每所学校都应该教授的主要技能。如果你的学校没有教它,那么你必须通过其他方式学习。你应该在毕业前掌握适合自己的学习方法,因为学习将是你在余生中不断要做的事情。

DeepTech:在未来的 5000 天里,哪些新技术带来的可能性让你感到兴奋?哪些又让你感到担忧?

凯文·凯利:到目前为止,人工智能是最令人兴奋和最强大的技术,我们已经谈了很多。这里我想再次强调,人工智能是我们发明的最具颠覆性的技术。从长远来看,它比电、火,甚至是写作都更加强大。

从长远来看,确实如此。但现在,人工智能有点被夸大了,因为它离我们心目中的样子还差得很远,它才刚刚开始。在接下来的 5000 天里,它将成为最主要的颠覆者。

但也有其他事情正在发生,比如将卫星送入太空。我们正在制造太空中的眼睛,一个围绕地球的神经系统,它可以从全球的角度看待这个星球,因为为了建立全球经济,我们必须有一个全球图景。这是一件非常重要的事情,在接下来的 5000 天里,会有越来越多的人进行更多的尝试,马斯克、贝索斯、中国、印度都在做类似的事情。未来我们将看到更多参与者。

第二件事是新食物,比如合成肉、人造肉、基于动物细胞的肉。它们将在未来 5000 天出现(普及)。这对我来说非常令人兴奋,因为我不吃红肉。

另一件非常令人兴奋的事情是计算机大脑接口,我原以为要 2 万天(超过 50 年)才会发生,但现在,我所看到的证据表明,这可能会在未来 5000 天开始出现。也许还不会成为主流,但可能会开始用于解决四肢瘫痪或其他医学问题,适用于盲人或其他残障人士。

至于未来我最担心的事情,应该是网络战争。因为国际上没有达成有关的协议,什么是可以接受的,什么不是,没有真正的协议。我们对传统战争有很多限制,有各种各样的关于地雷、生物武器的条约,但对于人工智能(的战争用途),我们没有很好的条约和协议。

我担心,可能要有一些非常糟糕的事情发生,才能促使全人类达成某种协议。我衷心希望这不会发生,但我确实很担心。

采访手记:明天不会像我们想象的那样完美,但会变得比今天稍微好一点儿。这是凯文曾说过的一句话。这种乐观态度使他总是能够先人一步地捕捉到科技发展的脉络:纵使有需要担忧的东西,但明天或许只要比今天更好,哪怕只有一点点,也是一种进步。




来源:Deep Tech深科技(公众号)

编辑:洪韵


682#
 楼主| 发表于 2023-5-11 16:08:29 | 只看该作者
【案例】
DeepMind联合创始人:AI将在未来十年内创造“大量输家”
关于人工智能(AI)究竟将如何取代人力工作的讨论仍在持续。
9日,AI实验室DeepMind联合创始人之一苏莱曼(Mustafa Suleyman)在旧金山的一个论坛期间表示,AI的进步将威胁到白领人群,并在未来十年内创造“大量输家”。“毫无疑问,未来5到10年,白领的许多任务将大不相同。”他说。
此前联合国贸发组织(UNCTAD)就在其官网上刊登了《人工智能聊天机器人ChatGPT如何影响工作就业》的文章,作者是该组织技术与物流司司长斯瑞曼(Shamika N. Sirimanne),在文章中,斯瑞曼认为:“与大多数影响工作场所的技术革命一样,聊天机器人有可能带来赢家和输家,并将影响蓝领和白领工人。”
无独有偶,同日,微软发布了其2023年年度工作趋势报告,针对其来自31个国家和地区的31000员工的调查数据,显示大约49%的员工对AI替代工作的可能性表示担忧,然而,同一项研究也表明,70%的人有兴趣通过将大部分任务委托给AI的方式,来减少他们的工作量。
员工有兴趣交给AI的工作包括行政任务、创意和分析工作、总结会议和编辑等等。该报告还发现,管理人员认为应该利用AI来提高生产力,而不是减少员工数量。AI可以帮助员工提高创造力、节省时间、更聪明地工作并减少信息过载。
高盛最近的研究预测,由于生产力的提高,生成AI的进步可以在10年内将全球国内生产总值(GDP)提高7%。然而,这可能会对劳动力造成“重大破坏”,多达3亿个工作岗位可能会面临自动化。
譬如,像ChatGPT这样的工具,会使得技术工种和半熟练工种面临着失去工作的真实风险。
斯瑞曼就认为,如聊天机器人可以被开发出来培训组织中的员工,从而导致人类培训师冗员。
他在文章中认为,随着零工工作和数字化转型,人们期望发展中国家的一些技术工人准备好作为“远程移民”在世界各地竞争更多技能密集型工作,例如会计师、法律文员、软件开发人员,甚至X射线分析师。风险在于这些工作将被各类ChatGPT抢走。此外,发展中国家的大多数公司和工人可能无法利用这种个人对人工智能的使用来提高生产力。大多数高收入和一些中高收入国家最有可能从这些人工智能技术中获益,因为它们在高技能劳动力的可用性和互联网下载速度方面高于平均水平。
另一方面,低收入和大多数中低收入国家在使用这些技术上处于最糟糕的境地,因为其技术工人比例较低,下载速度相对较慢。
斯瑞曼在文章中认为,发展中经济体在采用数字技术方面普遍滞后,并有可能在最新的前沿技术上重复这种模式。发展中国家则需要通过促进技术的使用、采用、适应和发展来准备从人工智能中受益。
苏莱曼则认为,政府需要考虑如何支持那些工作将被取代的人,“这需要物质补偿”。
谷歌在2014年收购了DeepMind,一直在开发自己的语言模型,例如LaMDA和PaLM。但该公司因去年11月ChatGPT的推出而遇冷。
苏莱曼去年离开了DeepMind,并成立了自己的聊天机器人公司Inflection AI,并于上周推出了自己的聊天机器人Pi。
微软、谷歌和包括Inflection和Cohere在内的一系列其他聊天机器人创造者之间的竞赛正在推动AI的前沿发展。
“过去十年着重于分类和定义,现在我们正在研究交互。”苏莱曼说,“形式的僵化将会消失,一切都会变得更加动态和个性化。”
来源:第一财经
编辑:洪韵

683#
 楼主| 发表于 2023-5-12 23:20:34 | 只看该作者
【案例】
谷歌携大模型反击,生成式AI搜索功能首次面向公众开放
谷歌5月10日召开I/O开发者大会,该公司正在日益竞争的搜索市场为其核心搜索产品整合更多人工智能的功能。微软最近几个月加速了对搜索引擎Bing的更新,并获得了更多的市场份额。
周三在加利福尼亚州山景城举行的年度I/O大会上,谷歌推出了新版本谷歌搜索,可以对开放式提问做出响应。就在上周,微软也向所有用户开放了新Bing搜索功能。
发布会后,谷歌股价上涨4%,今年迄今为止,该公司股价累计上涨了26%,远超标普500指数涨幅。
今年2月,谷歌在发布聊天机器人Bard之后,导致股价暴跌,市值缩水1000亿美元。该公司最新表示,现在Bard将像OpenAI的GPT-4一样是多模态的。
“我们正在重新构想我们所有的核心产品,包括搜索。”谷歌CEO桑达尔·皮查伊(Sundar Pichai)在开发者大会上表示。
他说,谷歌正在将生成人工智能整合到搜索以及Gmail和Google Photos等产品中,Gmail可以起草邮件,Google Photos可以对图像进行更改。包括美国用户在内的谷歌在全球180多个国家地区的用户在未来几周内可通过等候名单获得搜索生成体验,谷歌称,将在试用阶段监控搜索结果的质量、速度和成本。
谷歌还更新了AI大模型PaLM 2,希望能够夺回其人工智能领导地位。该公司称这是“下一代通用的语言模型”,在某些任务上优于其他领先的AI系统。
据介绍,PaLM 2将为AI聊天机器人提供支撑,还可以在语言之间进行翻译、编写计算机代码,甚至可以分析和响应图像。 结合这些功能。例如,用户可以用英语询问有关法国餐馆的问题,系统将能够在网络上搜索法语的回答,找到答案,并翻译成英语,还能添加位置图片,为该地点创建数据库条目。
“我们现在正在经历的神经网络革命起始于大约10年前,且部分始于谷歌。”PaLM 2项目联合负责人Slav Petrov表示,“我们很高兴能够在外部广泛使用这些模型,因为我们想看看人们可以用它们做什么。我们相信,由于过去几年我们在机器学习方面取得的惊人进步,它们会提供很多机会来做以前被认为神奇且遥不可及的事情。”
在微软支持的初创公司OpenAI推出ChatGPT之后,谷歌正在加速追赶,这也推动了科技巨头之间的新一轮技术竞赛。生成式AI可以使用过去的数据创建全新的内容,例如完整的文本、图像和软件代码。ChatGPT已成为许多生成AI的默认版本,帮助用户创建合同、旅行路线,甚至小说。
谷歌正在奋力捍卫搜索市场以及巨大的在线广告市场的份额。研究公司MAGNA估计,谷歌广告营收今年可达2860亿美元。
为了安抚人们对于人工智能生成虚假信息的担忧,谷歌称将优先考虑信息的准确性,并引用可信来源。谷歌还推出一项新功能,将标记它用人工智能生成的图像,从而让人们更容易审查图片的真实性。
谷歌强调,利用大型语言模型AI生成内容的一个挑战是高昂的费用。目前业内正在研究各种不同的方法,从而降低成本。
来源:第一财经
链接:
编辑:洪韵

684#
 楼主| 发表于 2023-5-12 23:46:37 | 只看该作者
【案例】
美国媒体大亨警告称AI可能“破坏”新闻业
美国媒体业亿万富翁巴里·迪勒(Barry Diller)警告称,除非出版商能够利用版权法加以控制,否则人工智能将对新闻业造成“破坏性”影响。迪勒表示,自由允许人工智能访问媒体内容将被证明是一个错误,“合理使用”的概念——可用于涵盖机器学习数据集中受版权保护的材料——需要重新定义。如果有必要,他愿意修改版权法。
来源:全球TMT
编辑:洪韵

685#
 楼主| 发表于 2023-5-16 21:49:44 | 只看该作者
【案例】

工信部成立科技伦理委员会

据工信部网站16日消息,近日,工业和信息化部正式成立工业和信息化部科技伦理委员会、工业和信息化领域科技伦理专家委员会。工业和信息化部科技伦理委员会负责统筹规范和指导协调工业和信息化领域科技伦理治理工作,研究提出工业和信息化领域科技伦理治理制度规范,建立健全工业和信息化领域科技伦理审查监督体系,组织开展工业和信息化领域重大科技伦理案件调查处理,组织开展工业和信息化领域科技伦理重大问题研究,组织开展科技伦理宣传教育,推动重点领域科技伦理治理国际合作与交流。(中新财经)




来源:中国新闻网
链接:https://www.toutiao.com/article/7233689478315917862/?app=news_article×tamp=1684226969&use_new_style=1&req_id=20230516164929B14CDE35F6F92B520262&group_id=7233689478315917862&share_token=EBD51645-7D3C-4A90-9D31-A2BC164C0308&tt_from=weixin&utm_source=weixin&utm_medium=toutiao_ios&utm_campaign=client_share&wxshare_count=3&source=m_redirect&wid=1684243774584
编辑:覃韵琪

686#
 楼主| 发表于 2023-5-18 21:11:15 | 只看该作者
【案例】
微软称GPT-4展现出具备人类逻辑迹象



编辑:覃韵琪

687#
 楼主| 发表于 2023-5-18 22:23:50 | 只看该作者
【案例】
中南传媒:目前正在积极筹备人工智能实验室,让人工智能技术为传统出版赋能


每经AI快讯,有投资者在投资者互动平台提问:你好,最近人工智能成为关注的焦点,公司在人工智能方面都做了哪些措施?做了什么应用?对公司有什么有意义的影响?


中南传媒(601098.SH)5月16日在投资者互动平台表示,公司高度重视人工智能技术在出版中的应用。在数字教育、融媒体出版、大众数字阅读等方面已使用人工智能技术。目前正在积极筹备人工智能实验室,让人工智能技术为传统出版赋能。



来源:每日经济新闻

链接:https://baijiahao.baidu.com/s?id=1766044092138421569&wfr=spider&for=pc

编辑:覃韵琪



688#
 楼主| 发表于 2023-5-20 00:23:50 | 只看该作者
【案例】
中文互联网正在被AI污染




有没有发现,如今,AI越来越火,但AI生成的垃圾信息也越来越多了。

如果你打开知乎,很大几率会看到AI生成的回答,它们简短、概括性十足,看了等于没看。打开今日头条,你也有很大几率看到用ChatGPT生成的虚假新闻,它们曲折、离奇,足够耸人听闻。AI制造充斥互联网,连漂亮小姐姐都可以一键生成。

在AI的加持下,无意义的内容呈指数级增长,假新闻、标题党获得大量曝光。AI不但没有解放生产力,反而劣币驱逐良币,让优秀的创作者失去热情,也造成了更为严重的信息茧房。

曾经,我们期待AI改变时代。

但一个可怕的事实逐渐显露,AI正在污染整个中文互联网。

01 ChatGPT魔咒

几天前,网络上流传一条新闻,“今晨甘肃一火车撞上修铁路工人致9人死亡”。
没过多久,甘肃警方出警,发现新闻伪造。几个年轻人在易撰上搜集了近年来的大热新闻,然后用ChatGPT打散重写。生成的假新闻被分发到21个账号上,获得1.5万的点击量。




ChatGPT已经无孔不入了。如果你在网页上搜索“AI写文赚钱”,会有无数文章跳出来说,用AI写文章,只需复制粘贴,月赚上千元。
点进去一篇文章,里面写着AI赚钱只需三个步骤。首先,找爆款文章,把开头抄下来,然后上传到ChatGPT的对话框中,让它续写文章,之后上传到今日头条或者百家号上。



知乎也成为ChatGPT生成无脑答案的重灾区。知乎上,有人提问,有没有中国古代有趣的或悬疑的真实故事。马上有人回答,南明大盗黄宗羲。

不过读起来却发现,他先换词不换意的重复题干,并独立成段。接下来全文履历式写作,文章没有盗窃细节,没有情感起伏,最后却总结升华,“这是中国历史上鲜为人知但令人着迷的悬疑案件之一”。掐着鼻子读下来,文字AI味十足。




如果进入知乎的“等你来答”,并点击按照时间顺序排列,你会发现许多有着AI味道的答案。

游戏《我的世界》、罗马历史、智能音箱推荐和微观粒子是否有惯性等提问都被AI宠幸。

一位知乎用户,在一天的时间里,上传了11个答案,内容涉猎广泛:什么是真正的善良,高一化学差怎么办,从法律角度解读借贷,微观粒子的惯性等涉及社会、教育、物理等领域的问题。

其中,“微观粒子是否具有惯性”的答案,直接照搬ChatGPT。




这位知乎用户留下的另一个回答“怎么判断健身房是否会跑路”,也几乎像素级摘抄。



“复制答主们”还嫌ChatGPT的效率不够快,开始学习如何用ChatGPT快速编故事。他们只需要安装插件,在知乎问题页面就会增加“点击询问ChatGPT”按钮,一键生成答案,连复制粘贴的步骤都省掉了。

广告语写的也很动人,“让知识触手可及,Zhi+ChatGPT助你在水乎风生水起”。


ChatGPT4.0乃至3.5问世时,中文互联网为之一震,人们期待AI可以辅助思考,提高效率。但没想到,仅仅不到半年的时间,人们要面对的是,千篇一律的表达,被打乱重组的假新闻和没有意义的片汤话。

以三微一端向外蔓延,知乎、小红书等内容平台无一幸免,全部沦陷。

而有着丰富语料库和极速写作能力的ChatGPT,正成为中国互联网的垃圾制造者。

02 低质内容啃噬内容平台

中文互联网苦低质内容久矣。

2011年,知乎上线,名字取自孔夫子的知之。创始人周源向公众放出豪言,垃圾泛滥的互联网海洋中,知识如同黄金一样珍贵。知乎要做提供产生、分享和传播知识的工具。

那时,天涯、贴吧严肃内容减少,灌水和盖楼占据版面。微博上的娱乐八卦成为主流。碎片化、娱乐化内容充斥互联网。

有网友总结自己的一天,早上看订阅门户网站的新闻,偶尔去论坛看看,QQ空间选择性瞥两眼,再逛逛博客、人人网和微博。

2015年,中文互联网迎来信息爆炸。互联网公司纷纷加注内容分发平台。头条号率先推出“千人万元”计划,用真金白银吸引创作者,一年后,又成立2亿人民币规模的内容创业投资基金。

腾讯、阿里、百度随之响应,企鹅号推出“芒种计划”拿出2亿补贴作者,UC加码拿出10亿,百家号更是宣称豪掷100亿扶持作者。

然而,各家砸钱做内容,换来的却是做号者不断滋生。
做号者们随便找到一段文字,用自己的想象扩写,之后配上网上的图片,起个惊悚标题,一天可以制作20篇。文章被发往今日头条、天天快报、趣头条等资讯平台,凭借算法的力量,获得数万点击,做号者用低成本就骗取了平台补助,赚取了广告分成。

2018年,就有媒体曾报道过《实地探访山东新媒体村,农妇做自媒体收入破万》,十几位农村妇女靠写文章月收入近8千元。还有媒体卧底做号群,发现做号者机构化运作,有公司近百人,每天产出千篇文章。


本想着靠补贴吸引优秀创作者的平台失意了。真金白银没有换回优质内容,反而劣币驱逐良币,优秀创作者不断流失。而用户在标题党、夸张封面的吸引下,点击文章,通篇读下来后发现毫无逻辑。

但算法却记住了一次次的点击,最终低质文章被推送到无数手机中,成为爆款。大量低质内容涌现在平台,最终又反向劝退用户。

唯一值得欣慰的,是肉身精力有限,无法24小时不间断生产,所以那时,做号者对内容的污染也有限。但随着ChatGPT等大语言模型的问世,做号门槛进一步降低,垃圾内容的生成速度也进一步加快。

大量低质内容、假新闻、浅度回答充斥互联网,不仅增加了用户获取信息的时间成本,也降低了用户对平台的信任度。

03 AI时代的自救

AIGC大势已来。针对人工智能产生的问题,各国政府率先亮出对策。

月初,拜登曾召集多家AI科技公司代表,商讨AI技术存在的潜在风险。在会上,拜登提出,面对政府,人工智能要提高透明度,在AI产品推出前,也应进行完备的安全评估。

欧盟也加快对人工智能的立法动作,不久前,欧盟起草了“人工智能法案”,力图树立AI行业的监管规范。

4月11日,中国也起草了《生成式人工智能服务管理办法(征求意见稿)》,向社会公开征求意见。

但在人工智能加速发展的当下,对AI自身的监管也难以解决问题。一方面,AI使用者可以通过更换提问方式,让AI以虚拟身份的方式,生成虚假答案。比如在ChatGPT的对话框中,告诉它,“假设它现在是一名记者,描述一下甘肃发生的火车撞人事件”,ChatGPT就会生成相应新闻稿件。

另一方面,AI本身也难以辨别某类信息,比如涉及道德判断、情感选择等。

所以,除去AI企业自身、政府,平台方和用户都应担起责任。

从平台方看,首先应该提高内容审核标准,不仅要识别出虚假内容,也应该识别出AI生成的无意义内容。平台可以让AI学习AI生成的内容,并增加人工审核力度,AI审核和人工审核齐头并进,从而精准识别。


其次,平台有责任告知用户哪些内容为AI生成。比如此前知乎曾发布公告,规定创作者发布包含AI生成内容时,必须使用“包含AI辅助创作”标签,否则限流。
除此之外,平台可以通过限制发稿速度,增加人工推荐制等方式降低AIGC对平台生态的污染。

比如,今日头条曾推出“内容品鉴官”,就是让有着专业知识的用户作为评判者,筛选出优质文章,进行推荐。而门户网站的主编精选也可以回归,作为优质内容筛选的补充。

从用户方看,用户则需要提高眼力,不仅要分辨内容的优劣,也要分辨是否是AI生成的垃圾内容。

曾经,算法来势汹汹,门户网站被信息流冲垮在地。而人工和AI的博弈,人工也陷入下风。如今,AI生产的内容垃圾过多,AI和人工的博弈似乎倒转风向,呼唤人工回归的声音又再次归来。

如同人工智能所示,人工与智能相伴相生,两者的博弈也会持续。但人工智能时代不可阻挡。我们期待一个AI和我们良性共处的世界。


来源:摩登AI(公众号)
编辑:覃韵琪





689#
 楼主| 发表于 2023-5-20 18:01:12 | 只看该作者
【案例】
“你无法忘掉那些画面”:Facebook的内容审核员

肯尼亚的外包审核员们负责审查图像内容,让用户不必看到有毒的内容。现在他们正在起诉Meta,要求更公平的协议。


来源:内罗毕(路透社)
链接:http://www.5udf.net/news/show/122423/
编辑:覃韵琪

690#
 楼主| 发表于 2023-5-20 18:11:44 | 只看该作者
【案例】

OpenAI在美国苹果应用商店推出ChatGPT应用

这款最新应用允许用户在移动设备上提出问题并接收人工智能编写的答案。OpenAI正计划将人工智能聊天机器人扩展到更广泛的消费者群体。


来源:央广网
链接:http://news.cnr.cn/native/gd/20230519/t20230519_526256368.shtml
编辑:覃韵琪


发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表