传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
611#
 楼主| 发表于 2023-2-27 08:38:06 | 只看该作者
【案例】
编辑:陶鹏辉

612#
 楼主| 发表于 2023-2-27 09:24:09 | 只看该作者
【案例】
万字长文:ChatGPT能否成为互联网后下一个系统性机会?
2023年险峰线上沙龙的第一期,我们和四位行业大牛聊了聊最近大火的ChatGPT。首先介绍一下本场嘉宾:陶芳波博士是前Facebook高级研究科学家,回国后进入阿里达摩院,搭建了阿里的神经符号实验室,属于全球最顶级的AI科学家之一,目前正在创业,担任人工智能公司「心识宇宙」的CEO。黄东旭是险峰的老朋友,「PingCAP」的联合创始人兼CTO,他本人是国内最早一批开源数据库的创业者,在程序员圈子里非常活跃;PingCAP也是目前Infra领域估值最高的科技公司之一,险峰曾在天使轮分别投资了PingCAP和心识宇宙。费良宏老师是AWS的首席架构师,曾供职于微软、苹果等多家硅谷巨头担任技术顾问,在云计算行业里深耕多年;龙波博士目前担任Meta商业化AI研究团队的负责人,之前曾深度参与过京东搜索推荐算法的搭建。此次圆桌由险峰长青投资副总裁李抗主持,李抗主要专注于人工智能、机器人、云计算等方向的投资。本次我们将聊到:ChatGPT 效果如此“炸裂”,AI从业者们事先是否预见到了?
ChatGPT是否能理解语言逻辑本身?
为什么谷歌没能做出ChatGPT?
开源圈和云计算巨头是如何看待ChatGPT的?
ChatGPT能让TMT投资人“再干15年”吗?
ChatGPT正在对哪些工作岗位造成影响?
ChatGPT广泛使用后,人的认知能力会下降吗?
ChatGPT会导致哪些行业消失?哪些公司急需转型?
小公司如何抓住 ChatGPT的逆袭机会?
硅谷现在如何看待ChatGPT?
普通人如何拥抱 ChatGPT?报考计算机专业还有前途吗?
OpenAI的组织设计给创业者带来哪些启示?
全文较长,欢迎大家添加险峰视频号,点击“直播回放”观看完整内容。图片
ChatGPT效果如此“炸裂”,AI从业者们是否预见到了?险峰:去年AI作画也火过一阵,但都没能像ChatGPT一样让普通人感到震撼,似乎是一夜之间,AI就达到了一个如此炸裂的效果,基于各位对NLP与AIGC的理解,这种进步是在意料之中还是意料之外?陶芳波:刚才主持人已经介绍过我的背景,我本人从读博士到后来工作创业,一直在从事AI相关的科研工作,但坦白来说,这次ChatGPT给我带来的震撼,并不亚于屏幕前的每个人。传统上,越复杂的技术,信息壁垒也越高,所以过去的情况往往是,行业内的人都已经知道技术发展到了什么水平,但大众可能还不知道;而ChatGPT完全不是这样,它刚刚诞生3个月,我们就看到无论巨头大厂还是AI科学家们,都马上进入了一种非常紧张的应对状态,甚至可以说是应激状态。ChatGPT突然具有了这么强大的通用性能力和逻辑推理能力,是超出很多AI从业者设想的。为什么这件事会发生?我仅从个人角度做一个简单的总结。第一,是大数据和大算力的发展,这是一个基础。2012年深度学习刚刚诞生的时候,大家就尝试把更多的算力和数据灌输到一个模型中去,让AI具有更强的能力,这个逻辑在今天依然没有变化。我们知道人脑要比动物的大脑更聪明,两者最直观的差别,是人脑的神经元和神经突触更多,比如人脑的神经元有1000亿,神经突触可能有几万亿,今天ChatGPT可以达到上千亿的参数量,已经跟人脑比较接近了,量变才有可能引发质变,AI的发展首先要靠算力数据的指数级发展。第二,是在人工智能的发展背后,其实一直有「专用人工智能」和「通用人工智能」的两派观点的争论。以前我们熟悉的人工智能,比如计算机视觉算法和自然语言算法,都属于「专用人工智能」。而在他们以外,其实一直有另一拨人在尝试,有没有可能把单个的专项AI变成一个通用AI?用一个统一的大模型来解决所有的问题?这里面有几个关键性的节点,首先是2017年,谷歌大脑(Google brain)发表了一篇关于transformer的文章,奠定了包括今天ChatGPT所有技术的基础,细节这里不展开了——总之它让很多人意识到,通用型AI是有可能被造出来的。对此,谷歌的做法是首先搞一个底座,这个底座叫做「预训练大模型」,然后不断向底座里灌输数据,让它上面能长出一个个小模型来,再用这些小模型去解决不同的任务。这时出现了一家公司叫OpenAI,他说我不相信仍然需要训练小模型来造出通用AI,那我能不能直接让大模型去阅读互联网上所有的数据?砍掉中间环节,直接让人用语言去和大模型交流?基于这种思想,OpenAI在2018和2019年,分别推出了GPT1和GPT2,但当时它的通用性还不强,没有引起太多关注,然而到2020年,第三代也就是GPT3出现了。GPT3直接把模型参数量从15亿提升到1,750亿,接近了人脑中神经连接的数量水平,这时一个神奇的事情就发生了,AI开始「涌现」出了一些人脑独特的能力,甚至出现了逻辑判断能力,这在以前的机器学习界是不存在的,我甚至觉得连OpenAI内部都不一定能预判到这件事情会发生。而这个GPT3,就是今天ChatGPT诞生的起点,正是因为GPT3的出现,大家才开始去基于它去开发一些全新的AI能力。可以这么说,从2020年的GPT3开始,整个AI行业都进入到了下一代范式,至于它的边界在哪里,大家都不知道,没有人有足够的认知。这也是我想讲的第三点,就是OpenAI之所以能超越于谷歌,是他们真的在尝试理解「学习」这件事的本质。早期的AI要靠人工打标签,要一个活人坐在屏幕前告诉机器——这是一只猫,这是一只狗;之后发展到GPT3,这时已经不用再打标,而是让机器直接去阅读大量的数据,看它能不能找出里面蕴含的规律和规则。在这个基础上,OpenAI又进一步,他们说既然AI已经学了这么多知识,那下一步就是怎么把这些知识输出来,变成人可以用的东西;于是OpenAI开始教大模型如何自我改造,更好的去解答人类提出的指令,而后甚至演化成AI自我对抗一个人类制定的判断标准,完成AI的“社会化改造”,到2022年,ChatGPT横空出世了。刚才东旭提到,他现在每天都用ChatGPT帮自己写代码,代码其实比自然语言更有逻辑性,站在AI的视角,等于你也是在帮它培养逻辑能力。如果说GPT3还在无目的数据中学习,到了ChatGPT就已经变成了“在应用中学习”。整个过程真的很像一个年轻人走出校园,进入到公司中实习的感觉。所以我们可以看到,OpenAI一直在探索人类学习的本质是什么,当他们把这一整套工业化的体系和自己对AI的超前认知整合到一起,就创造出了ChatGPT,这时候所有人才发现,原来我们已经落后了OpenAI这么多,我们还在模仿人家2020年的GPT3版本。所以ChatGPT不仅对普通人是震撼,对大公司来说更是震撼,我们必须去面对这个全新的现实,思考该怎样迎接这样一个新物种的出现,以及未来人类分工的变化。费良宏:我补充两句,今天我们看到市场一夜间被引爆,但背后绝不是一日之功。首先是2017年transformer那篇论文,将整个NLP市场完全被颠覆了。以前很长一段时间里,大家都觉得非精确的模糊化语义很难被突破,但transformer出现之后,一下把NLP精度提升到了无法想象的量级。这时所有人的研究方向全部都开始转向了transformer,这是一个里程碑式的改变,我觉得怎么样去夸它都不为过。第二个是算力,刚才陶博士也提到,最早的时候我们自己搞一台电脑,装上1080Ti都可以跑一些模型,但今天由于参数提升,千亿级规模的算力已经不是普通人能参与的,也许真的是大力出奇迹,诞生了ChatGPT,那么未来延续着这条路,不断堆积数据量,增加模型的数量,比如据说GPT3使用了45PB的数据量,未来是不是可以用100PB数量、万亿级参数甚至更大规模的算力?或许真能诞生出一个非常强大的通用型AI,对此我是比较乐观的。龙波:我对于ChatGPT的出现并不特别惊讶,准确的说,是对它的效果不惊讶,但是速度上我还是挺惊讶的,没想到会来的这么快。刚才几位都谈到了一个重要的点,即transformer的里程碑作用,这里我想从NLP的角度分享一下,为什么它是里程碑?从NLP发展的逻辑来看,最早的NLP模型是基于对单个单词统计来做的,到后来卷积网络(CNN)出现,机器开始能够基于两三个单词来理解词义;再往下发展到RNN时代,这时AI基本上就可以沿着整个sequence进行积累,可以理解相对长的短语和句子,不过依然还无法真正理解上下文。随后一个很重要的突破,是「注意力机制」(attention model)被提出,其实transformer的核心概念也是来自于此;在这个阶段,AI开始能够结合所有上下文,理解每个词之间表达重要性的不同。这就很像我们的快速阅读,为什么人类能够做到“一目十行”,是因为我们能看到一些关键词,而每个词的重要性不一样。「注意力机制」正是起到了这个作用,它告诉AI各个关键词之间的关系如何,谁重要谁不重要。整个行业再往后就是transformer诞生,然后Bert(Bidirectional Encoder Representationsfrom Transformers)诞生,其实Bert也非常重要,就像陶博士刚才提到的,Bert可以使用大量没有标注的数据,自己创建一些简单任务来做self learning。举个例子,比如一句话,AI会把其中的一个词藏起来,然后猜这个词应该是什么,有点像机器自己和自己玩游戏,如此它的语言理解能力就变得越来越强——我觉得到了这个时间点上,当AI开始利用大量非标注数据完成自主训练,ChatGPT的出现就只是个时间问题了。但是这也是它的局限性,ChatGPT无论如何惊艳,它仍然是个统计语言模型,本质还是基于它所看到过所有数据,用统计意义上的预测结果进行下一步输出,当它拿到的数据里有逻辑的时候,它会通过统计的方法把逻辑找出来,让你感觉到它的回答很有逻辑,但假如它读了很多杂乱无章的文本,它一样会说话没有逻辑,这是统计语言模型天生的缺陷。所以我并不确定,未来随着参数越来越多,ChatGPT能否真正成为AGI(通用人工智能)?因为人的推理能力并不完全基于统计信号,这是我个人比较保守的看法。图片
ChatGPT是否能理解逻辑本身?险峰:这个话题本来是后面的,正好提到了就提前探讨一下。现在很多人会觉得ChatGPT很酷、很有逻辑,但有的时候也会觉得它在一本正经的胡说八道,有些很简单的问题它会答错,这件事反过来也会让大家好奇,ChatGPT是否真的具有逻辑?或者说理解逻辑?对此,也有两派观点,一派是觉得极致的模拟就可以实现逻辑,虽然只是基于统计学,但看起来有逻辑其实就等于逻辑本身;另一派觉得所有模拟都只能得到大概的正确,最后还是要建立在极其精准的规则之上,两派的分歧可能就是统计和规则的区别。此外还有第三种观点,借鉴了生物组织的复杂性来解释这个问题,比如蚁群,单独一只蚂蚁可能不知道自己在干什么,但是一个蚁群就可以做很多复杂的事情,这两者也类似于神经元和大脑的关系,对这个问题也想听听几位的思考。黄东旭:先说一个外部视角,我最近一直在用ChatGPT写代码,可能是玩的确实太多了,基本没有遇到AI胡说八道的情况;个人观点,很多人觉得它不准有两种情况,一种是问题没问对,如果问题本身是模糊的,它给出的答案也会是模糊的,比如一些开放式的问题。第二是它有些回答不一定是假的,只是中间跳过了很多步骤,比如一个问题,需要从A到B再到C依次推理,其实每一步都会有一些假设,但如果某个假设错了,答案也会出问题。所以我们内部在使用时,会不停地教ChatGPT如何思考,跟教小朋友一样,他回答错了就跟他说,你要不再读一遍题目?或者直接问他——那你觉得这个问题应该如何提问?最后你会发现,只要你把你想要的思考方法教给他,他回答的准确率会非常高。注意,在这个过程里,我们并没有向它提供任何的信息增量,所以我觉得ChatGPT已经超越了一个传统意义上的语言统计模型,绝对不是单纯的鹦鹉学舌,但我也不知道它为什么会有这个能力。陶芳波:我也简单说一下我的看法。我观察到一个现象,在GPT3出来之后,特别是今年ChatGPT出来之后,很多AI领域非常资深的人都在激烈地反对大模型。我曾经也有这样的心态,觉得这个东西也许就只是一个统计模型,解决不了人类的终极问题。但是现在我认为,这样的思想说严重点,就属于是“旧时代的余孽”,当然这句话是自嘲的,因为我曾经就是旧时代的余孽,但今天我选择去拥抱他。因为对于人工智能,我们永远都可以从「它在某某事情上做得还不够好」来批评它。但是如果我们回过头来想一下,一个人如果只有大脑,我们的逻辑能力又有多强?人的所谓逻辑能力,说到底也无非是通过直觉,跳过两三步来推演出一个结果,如果真到了六步七步的推理,我们光靠一个大脑也解决不了,也需要草稿纸和计算器,换句话说,人类也是要通过外部工具来增强逻辑能力的。从这个角度讲,今天ChatGPT所涌现出来的逻辑能力和人是其实差不多的。但是大家低估了一个东西,如果用发展的眼光再往前推一步,你觉得OpenAI下一步会做什么?微软下一步会做什么?一件非常可能的事,是他们会把ChatGPT跟各种各样的工具结合起来。那时,ChatGPT完全可以把这些工具变成自己的“草稿纸和计算器”,他自己只完成逻辑的部分即可。所以,我们其实可以把ChatGPT当做是一个非常稳定的原始大脑,未来他还将去学习使用工具,那时他所具有的能力会比今天大得多,这将是一个非常有想象力的未来。费良宏:非常认同陶博士,前几天看到LeCun在推特上跟人论战,谈ChatGPT对于AI的影响,我也有同样的感觉,就是可能很多人对ChatGPT的判断太拘泥于以往的经验了,还是把它当做是GPT3或者GPT2。比如OpenAI在发表ChatGPT的那篇论文中,专门提到他们使用了人类反馈的强化学习,去弥补堆砌资料造成的一些不足。所以某种程度来讲,ChatGPT的逻辑不仅仅是来自于文本的训练,还来自于人类给它的主观反馈,我们利用这种奖励机制,让AI产生一种内部的自我判断能力。我觉得这是一种非常巧妙的进步,相当于把强化学习跟大模型结合在了一起。今天可能我们的资源投入还比较有限,让ChatGPT不足以解决更广义上的所有问题,但未来如果我们的投入足够大,强化学习的引入程度足够高,机制设计得足够巧妙,会不会结果也将远远超出我们今天的预期?不过,这也引出了另外一个问题,就是关于ChatGPT倾向性的争论。随着人类用越来越多的反馈干预了它的判断,那会不会让ChatGPT带有某种思潮,比如说政治倾向,最近我看到国外有一些人对它进行测试,发现它在政治上并不是完全中立的,是一个左翼的自由派环保主义者。从这个角度出发,我认为ChatGPT是具有逻辑的,因为这个逻辑是由人赋予他的,也是人自身所存在的,这是我的看法。龙波:当一个非常有冲击性的产品出来后,人的观念很容易受到冲击,但这里还是要看一些根本问题是否发生了改变,这个话题涉及到一些更深刻的东西,即我们如何理解统计模型?比如大家都提到,ChatGPT反馈模型的提高,这是一定的,因为你给了它更多的统计数据,不论是用AI的方法,还是传统方法,模型都会提高,LeCun也谈到过这个问题,他并不是反对统计模型本身,他只是想说,如果我们要创造真正的通用人工智能,仅仅靠统计模型就够了吗?统计模型应用在人工智能领域已经几十年了,到深度学习神经网络达到高点,但是我们想一下,人的认知是纯粹基于统计的吗?我们每个人都知道,太阳从东边升起,这是我们每天都看到的,100%的概率,这是统计学上的认知,但是我们没有停留在这一点,我们最终理解了行星之间的相互作用力,从物理学的角度解释了这个现象。所以人类认知的本质是什么,我们对此的认知也还不够透彻,我觉得大师们是想说,统计模型之外,还有什么东西让机器能更接于近人?这个问题其实没有答案,他想表达的是一种open的心态,即统计模型不能解决一切,它甚至都没解决我们自己认知的问题。图片
为什么谷歌没能做出ChatGPT?险峰:刚才大家都提到了transformer,它其实是由谷歌发表出来的,但今天做出ChatGPT的却是微软系的OpenAI,各位觉得这背后的原因是什么?龙波:确实很多人都有这个疑问,但其实到今天我依然认为,谷歌在技术上是非常领先的,ChatGPT最关键的核心模型起点,无论是transformer,还是后来的bert,这些概念都是谷歌首先提出来的。我们知道微软在算力方面给了ChatGPT很大帮助,但谷歌自己的TPU研发能力也非常强大,谷歌不缺算力,更不缺数据,但正因为如此,大公司要做出这种创新性很大的产品,注意我是说产品,一般都会被自己的优势束缚住手脚。首先谷歌是一个搜索引擎巨头,它对此非常自信,这反而让它对其他系统的投入和关注都不够,在我看来,谷歌被ChatGPT反超其实是有先兆的。比如语音助手,坦白说谷歌的产品是不如亚马逊和Siri的,像Google Assistant ,采用的依然是搜索引擎的用户界面,你给它搜索词,它就给你最高质量的回答,强调的还是单次交互,这种观念已经深入产品的设计之中,我觉得在互动体验上谷歌的投入是不足的。但这并不是说谷歌技术不行,我有不少前同事就在谷歌research工作,他们的技术发展得非常好、非常成熟,他们有最好的资源可以从事研究,但是他们认为搜索是他们最重要的产品,他们会下意识的用搜索的观念去做一些新产品,对用户的交互式体验本身就没有那么注重,这是我从产品角度的观察。费良宏:这个话题让我想到一段商业史故事。世界上第一台数码相机,是一名叫史蒂夫萨森的工程师在1975年发明的,他后来被称为"数码相机之父",但是当时,他是一名柯达公司的员工。后来据他回忆,这是一次前所未有的尝试,“公司内的反之强烈超出了他的想象”,结果38年之后,由于数码相机的崛起,传统胶片时代的王者柯达公司破产,我觉得回顾历史,跟今天也有非常相似的地方。今天整个搜索市场,谷歌占了96%,微软只有3%,但因为ChatGPT的出现,微软很可能也会颠覆搜索领域的格局,而谷歌空有技术却没有做出这个产品,我觉得可见一斑,历史总是惊人的相似。黄东旭:这是件特别有意思的事情,因为以前扮演这个颠覆者的,其实是Google自己。2000年的时候,雅虎的地位就和今天的Google一样,当时雅虎的搜索引擎走的是人工标注路线,说你看我人工标注的黄页多准确,而Google是当时几个大学生搞出来的,结果历史又一次重演。如果抛开数据量和算力这些硬性限制,只去看里面最核心的代码量,其实就是一个小团队就能写出来的。一家巨头再次被一家小公司打败,我觉得这就是软件行业有意思的地方,一个非常硅谷的故事。图片
开源圈和云计算巨头是如何看待ChatGPT的?险峰:谷歌的早期模型都是开源的,但ChatGPT却选择了闭源,结果在2个月内用户破亿,东旭对此怎么看,ChatGPT的选择对于后来者是否有参考价值?黄东旭:我觉得ChatGPT的成功,并不在于开源或闭源,而是它向整个业界证明了某种技术的可行性,其实开源的工具一直都在,关键是有没有人会拿出几千万美金去做这些东西,对此我是比较乐观的,据我所知已经有一些开源项目在做和ChatGPT差不多的事情,未来很短的时间之内,一定会出现一个开源的通用语言大模型。它可能没有ChatGPT那么强,但是也会大致够用,甚至可能是一个通识模型,你可以把它装载到自己的系统里面去,跟它一起去协作,我觉得很快就会有人沿着ChatGPT的路线,做出可以私有化部署的开源大模型,可能会是一个大厂或者一个foundation,每隔半年change一次,然后大家下载下来用。险峰:云计算大厂们怎么看ChatGPT?费良宏:AI的商业化主要是SaaS化,之前有很多成功案例了。另外从技术角度来看,AI的推理能力API化也已经是一种标准做法,比如在云上部署一个推理服务器,让前端用户可以非常快速地获得图像语音内容,这两种模式在云计算发展的历史上已经被证明是完全可行的。接下来的关键就是如何差异化的大模型,我个人认为,我们可能低估计了ChatGPT的工程化难度,比如说并行训练、标注以及数据管理的工作量和成本开销,都会是非常巨大的,所以我不认为在短时间内,会有大量能完全媲美ChatGPT的竞品出现。当然,下一步还是有很多人会去做与ChatGPT类似的事情,但是我认为时间上可能会比较久,这其中,我个人比较看好谷歌和微软,因为他们之前的积累已经有足够多。其实刚才也谈到了微软的问题,虽然微软只是给ChatGPT投了钱,技术上没有参与,但是从它的布局来看,我觉得微软其实非常有野心,要知道2019年微软就开始向OpenAI投钱,第一次就投了10亿美元,2020年就跟OpenAI谈妥了GPT3的独家授权,2021年微软就专门给OpenAI构建了自己的超算能力。微软提供的这些工程能力和云计算能力,足以确保OpenAI继续保持领先优势,如果未来任何一个竞争对手想要超越OpenAI,在这些资源上都要加倍付出,甚至要在短时间内实现突破才有可能,但是现在,时间反而是最稀缺的,像之前“学徒巴德”(Apprentice Bard)在谷歌的发布会上“翻车”也说明,互联网产品的竞争是非常残酷的,虽然你也能做出来一个差不多的,但只要你不能超越市场中最好的,那就意味着失败。陶芳波:我接着这个话题稍微说下,因为我们的业务跟大模型接触非常多,首先大模型开源这件事不是刚刚开始,其实去年很多公司已经出来了,包括OPT(Meta AI 的开源项目)和BLOOM(法国政府资助的开源AI),但其实它们和ChatGPT的差距非常大。我觉得OpenAI的竞争力,表现在他们对于数据使用方式的认知,还有刚才费老师提到的工程能力和数据体系,这套东西不是说拿出50亿美金,招很多的人马上就可以解决的,这是现在很多投资人的误解。另外,我觉得AI的分层其实在今天就已经开始了,像Sam Altman(OpenAI首席执行官)自己就说过,OpenAI现在就是个Infra,未来在它上面可能会有中间层,这个中间层的作用是帮助一个个大模型Infra变成各个行业里的解决方案。图片
ChatGPT能让TMT投资人“再干15年”吗?险峰:ChatGPT下一步会往何处去?会不会被下一个transformer颠覆?陶芳波:个人观点,我们可以从底层视角来看,比如今天OpenAI做出了ChatGPT,未来或许还会有GPT4,我们先假设OpenAI的技术是最领先的,现在后面有一堆大厂巨头和创业公司,正在或者将要做大模型,那如果我是OpenAI,我接下来会做什么?我觉得第一个方向,还是怎样用好手上的现有数据,把模型的潜力全部挖掘出来。下一代GPT的参数量也许还能再大个10倍,但估计也就是这个规模了,不可能再扩大1000倍,因为参数要有足够的数据来匹配,全世界的优质数据就这么多,参数量搞得再大效果也不有太大提升。另一个方向,也是Anthropic提出的,叫做「宪法AI」。就是我们能不能让AI在一套宪法,或者说一套规则下,实现自我进化,最终变得符合这套规则。举个例子,每个国家都有自己的监管体系,比如中东地区,只有符合当地监管的AI才能进入该国,我觉得这会是一个非常好的方向,可以大大降低AI吸收信息的成本,提高它的效率。第三个方向是多模态,让OpenAI变成一个思考引擎。我们知道人类的感知不是单一的,而是许多模块组成的,不是说用户说了一段话,我能感受到这段话就够了,最简单的,比如看漫画书,人能够把感知图像和感知文字结合在一起,而不是两个单独的东西。所以我觉得,接下来大模型会在这些方向上继续发展,这是一个底座,这种状态会维持相当长一段时间,而接下来才是更巨大的挑战,无论是投资人,还是创业者,我们到底应该怎样去迎接ChatGPT的革命性变化,在它上面重构一个巨大的新体系?举个例子,2007年iPhone诞生,10年之后你会发现整个互联网生态都变了,iPhone上面长出了各种各样的应用,这10年间,全球诞生了多少独角兽,诞生了多少千亿、万亿美金级的公司,这些公司在iPhone出现之前都是不存在的,都是从一个很小的作坊开始做起来的。我觉得今天大量的机会其实是这里面,首先是中间层的机会,就像在大模型外面搭一个脚手架,让它有1000只手1000只脚,可以做更复杂的事情,比如基于如何使用大模型构建一个社区,这是一种最轻量级的创业思路。再比如教会大模型怎么去使用外部工具,怎么样更好的去理解对面的用户,而不只是从文字输入来理解他——这也是我们正在做的事情。在中间层上面,还会有各种应用层,刚才费老师也讲到,AI在SaaS端已经被验证了,但我个人认为这一波AI浪潮席卷的范围会远大于SaaS。因为SaaS更多还是服务于企业的效率工具,但ChatGPT肯定会拓展到C端,比如说健身、医疗,都有机会可以重做出一个交互式的软件,把用户界面完全抛弃掉,和移动互联网时代相比,我认为这会是一种全新体验的产品。黄东旭:我也有类似的观点,其实软件的进步一直都是交互方式的进步,以前是字符界面,到后来是UI,沿着这条线往下走,未来最重要的软件交互形态其实就是自然语言。过去我们一直在尝试,让软件的使用变得更加贴近人类自然语言,但是今天我们终于有了这样一个新工具,能重新去塑造我们跟软件的沟通方式。以前我们用软件,比如说Linux,输入一堆命令,机器才能去完成一件事情,相当于我们要去学习机器的语言。但现在有了ChatGPT,你可以直接去跟他说,我想要到达到某某结果,我不管你怎么干,最后能给我结果就好,这其实是一个非常颠覆性的东西,所以我们现在正在做的,不断跟GPT磨合的,也是类似的思路。陶芳波:我记得ChatGPT刚出来的时候,就有投资人提出一个观点,说TMT可以重新再干15年,我觉得这个逻辑是对的,因为上个时代我们基于移动互联网,做出了各种各样的APP,而今天新的交互形式出现了,每一个细分的赛道上可能都会成长出一个全新的独角兽,或者全新的商业模式,我觉得是一个完全的大洗牌。今天ChatGPT的潜力大概只发挥了百分之几,就已经创造出超过了万亿的市场,未来这个规模可能是几十万亿。ChatGPT 正在对哪些工作岗位造成影响?险峰:这个问题是帮别人问的,他是个很早期的NLP从业者,想问大模型出来以后,其他的模型可能就成为历史了,他们这些人未来应该怎么办?龙波:这个问题的答案还是比较清晰的,以前那些传统的NLP的手段,在这个时代肯定是不会再有用了,比如大量的语法树之类,非常繁琐,过去开发过程很痛苦,要一支很大的团队才能做出一个很小的东西,我们肯定不会再回到那个年代,老的技术基本都可以用大型语言模型(LLM,large language model)替代。对于ChatGPT的未来,我非常同意陶博士刚才说的,如果只是一味地增加数据或增加参数,不一定还能得到好的ROI,因为你给了更多的数据,就意味着有更多的噪音,最后信噪比可能反而更差,这也是为什么我们有时觉得ChatGPT会回答错的原因,所以还是要关注如何提高数据的质量。与数据质量同样重要的,可能是跟大模型的互动。举个例子,如果我们真的要让ChatGPT变成某个领域的专家,不再犯什么错误,可以想想我们培养一个PHD的过程是什么样的?他需要和他的导师、行业大牛反复地交互讨论学习,才能最终成为专家,而不是说简单的筛选高质量数据喂给他就完了。如果再进一步,我们要让ChatGPT成为真正的通用人工智能,在每个领域都很精深,也需要有一个方法能够让AI迭代高质量数据,所以我觉得未来在算法层面可能会有一些突破,比如说让RL和大语言模型更完美的结合,能够更好地筛选出高质量数据,甚至是自动采集这种数据,这些都会跟人学习的过程越来越像。到那时,我不知道是不是只靠现在的统计模型或者大型语言模型就够了,还是会跟其他新技术绑定在一起,比如现在也有人在研究,怎么把真正的推理能力和神经网络相结合,这是我看到一些未来可能发生的事情。险峰:接下来可能是很多CEO比较感兴趣的问题,创业公司应该如何使用ChatGPT ?它将可以替代哪些岗位?黄东旭:个人认为可以从两个方面来看,对内和对外,我先说对外。首先在AI爆发的大背景下,我们做数据库的还是一个挺安全的生意,因为不管怎么样你还是要存数据。在过去没有AI的时候,我要从数据库里提取数据,学过计算机的朋友可能都知道要用到SQL,或者其他语言,总之是需要敲代码才能去跟数据库做交互。举个例子,之前我曾经把我自己所有看过的电影、所有看过的书,全都导到了我的数据库里,我就可以直接去问我的数据库说,在我去年看过所有的电影里,哪个导演的片子最多?他会直接帮我生成SQL,SQL再去数据库里进行查询,非常快速且准确,但是前提是你必须会敲代码,懂得机器的语言。沿着我刚才的理论——自然语言会变成下一个软件交互的UI,大家想象一下,如果你是个CEO,你公司里面有很多运营数据,每次你去找财务,或者数据分析师,说我需要一个某某数据,他可能过好几天才能返过来,但现在如果有这样的一个很神奇的数据库,CEO可以直接开口问AI,比如今年公司花钱最多的部门是哪个,马上就可以得到答案。那如果再推一步,我们把背后的数据集换成了区块链,换成了房地产信息,换成了股市信息,你会发现一下子人人都是数据分析师,这对于各个行业都会是一个巨大的颠覆。至于对内部,我觉得CEO一定要放弃ChatGPT可以完全取代人的观念,现阶段肯定是取代不了,但是它能提高人的效率。如果大家写过程序就会知道,一个工程师可能有80%的时间都是做重复劳动,未来这80%的工作其实都可以让ChatGPT来做,比如说写文档、写单元测试,生成一些脚手架之类,它不会完全取代程序员,但是确实能带来很大的提升效率。大家如果看过《钢铁侠1》,里面有一个AI助手叫做贾维斯,现在我跟ChatGPT的工作模式与它很像,我会告诉它我要做什么东西,你先做一个原型出来,然后一步步跟它交互,告诉它可以这样这样搞。所以至少目前,我并不会把ChatGPT当做是一个可以取代人工的东西,而是给所有的工程师都配了一个账号,告诉他们遇事不决先问一下ChatGPT,搞不好效率就提升了,这是我大概的经验分享。陶芳波:我稍微插一句,我觉得东旭他们公司很厉害,已经开始使用ChatGPT来提高效率了,其实很多国内的公司都可以学一下。另外他讲的第一点我感触很深,数据库公司未来一定会存在,但也一定还会很多有提供其他互联网信息服务的公司,我觉得他们可能都要去思考,是不是今天我暂时是安全的,ChatGPT跟我就没有关系?我觉得可以换一种视角,现在的现实是,这个超级大脑已经在那里了,他未来一定是会跟各种各样的东西连接在一起,这里面有一个很重要的点,以前我们说信息服务的连接端口是API,还有一大堆代码之类的,但今天这个端口很可能会变掉,变成一个更加接近于人类语言的东西。所以我觉得每一个服务提供商,如果觉得你的信息服务很有价值,我觉得都可以尝试去拥抱ChatGPT,看看怎么跟他建立起对话通道,越早拥抱,就越早可以让ChatGPT把你的服务分发到更多的场景、更多的用户。我觉得这件事情谁做得快,谁就可能成为自己赛道里的下一代巨头企业。ChatGPT广泛使用后,人类的认知能力会下降吗?险峰:ChatGPT出来以后,主流声音认为以后可能就不再需要搜索引擎了,但也有一些悲观者认为,我们将来接触的大部分信息都会由机器生成,里面会有大量的假信息,这将威胁人类的认知和判断能力,如果我们从小就依赖这样的产品,可能会是一个灾难性,对此各位怎么看?费良宏:这不是一个新问题,其实互联网从诞生之日起,就一直在改变我们使用和消费信息的习惯。比如,最开始出现的是浏览器,它让网页信息变成了一种规范的、可以被浏览的形式;之后,随着信息总量的不断增长,大量垃圾信息开始影响我们的用户体验,这时出现了雅虎的黄页,它通过人工方式去维护目录,给每个网页设置优先级。再往后,当信息量继续爆炸,黄页的维护开始跟不上数据的生产速度,人们慢慢意识到,使用搜索可能会比使用黄页更有效率,这时诞生了最早期的搜索引擎,比如AltaVista和Infoseek,但是它们的能力受限于当时的技术,还只能在一个很小的范围内能进行搜索。后来的故事大家都知道了,1998年,谷歌的两个合伙人开始创业,他们希望用计算机构建一个更广义的集群,通过大量廉价的硬件设备来满足整个互联网的搜索需求。在当时,大家认为这是不可能实现的,但后来的事实证明,技术的进步远超我们的想象,于是人类进入了关键字搜索时代,开始通过搜索引擎来使用和消费互联网信息。到了今天,互联网上的信息总量已经是一个天文数字,你的每一次搜索,结果可能有成百上千页,里面存在大量无用或者重复的信息,那我们应该如何应对这样的局面?这时ChatGPT出现了,它可以帮助我们去做总结归纳,如果从信息消费的历史来看,这是一个巨大的进步,这点无可否认。而从历史来看,一旦我们养成了新的信息消费习惯,就没有办法再回到之前的时代,我们不可能用黄页去替代今天的搜索引擎,同样的,未来当我们适应了ChatGPT,我们也回不到关键字搜索时代。因此,人类下一阶段的信息使用习惯一定是更高级别的,当然这里还有成本问题,比如像ChatGPT的每一次搜索大概需要1.3美分,成本还是比较高的,如果再能降低10倍的话,我觉得整个搜索市场会被完全颠覆。从这个角度说,ChatGPT的历史地位可以等价于浏览器的出现,或者是谷歌搜索引擎的出现,人类每一个信息消费习惯的进步都意味着一个里程碑式。龙波:非常赞同良宏的观点,ChatGPT的交互方式让我们获取信息更加高效,它带来的影响是不可逆的,肯定会对搜索引擎,甚至推荐引擎都带来冲击,而且我认为冲击会很大。尽管短时间内会有些技术上的挑战,比如如何把ChatGPT融入到搜索引擎中去,但我认为这些都不是问题,很快都会被解决。那么ChatGPT的挑战是什么?第一个挑战是商业化,任何2C的技术应用背后一定要有商业支撑。刚才良宏谈到谷歌的巨大成功,但是其实在1999年,布林和拉里佩奇是准备以100万美元的价格把谷歌卖掉的,据说最后已经谈到了75万,如果当时交易达成,也就没有后面的故事了;到了2002年,雅虎打算收购谷歌时,开出的价格是100亿美金,等于说4年翻了一万倍。为什么形势会逆转呢?因为商业模式走通了,从display as到search as,搜索广告的收入开始有了巨大的增长,当时所有人都看到了谷歌的商业潜力,所以价值一下就不一样了。也正因为如此,谷歌才能有资源雇最好的员工,创造最好的企业文化。未来ChatGPT也会面临同样的问题,比如现在的搜索引擎是靠点击量来收费,本质上卖的是用户的注意力,而如果AI一秒钟就完成了答案交付,那卖广告的模式肯定就不再work了,一定还需要寻找新的商业模式来支撑它,当然,我相信最后肯定也会找到。第二个挑战是人文方面的,刚才问题中也提到了,ChatGPT会极大影响人的认知模式。在搜索引擎时代,我们每完成一次信息收集,其实都是完成一次学习的过程。举个例子,比如我们发论文,每篇文章后面一定要有一个reference(参考文献),你要先把前人做出的研究成果讲清楚,再说你在这个基础上取得什么成果,这是一种知识的传接,如果没有reference就不可以被称为学术论文。谷歌的搜索引擎,也是把它认为最相关、最高质量的链接排在最上面,最后还是需要你自己去做判断,这是人类学习的方法,你一定要有出处,要有reference,这是我们作为研究者对人类知识积累的一个基本态度。而如果AI就只给一个答案,会让信息茧房变得更严重。传统来说,我们在互联网获取信息有两种基本方式,一个是搜索,一个是推荐。搜索是说用户知道自己想找什么,我就给他什么,推荐是用户不知道自己想要什么,那我就猜你想要什么。而当ChatGPT出来以后,因为它每天都会和你有交互,它会猜得更准确,更严重的是,它还会主动创造出一些让你喜欢的答案或信息,你听了会觉得那就是真实的,而且又没有reference。到那时,我们要面对的信息茧房会比推荐引擎时代大得多,每个人可能只听到自己想听到的,只理解自己能理解的,我不知道这会对人类产生什么影响,但这个影响一定是世界范围的。ChatGPT 会导致哪些行业消失?险峰:在你们看来,ChatGPT的出现可能会把哪些行业冲垮?哪些公司现在急需转型?黄东旭:非常主观的个人观点,不一定对。第一我觉得是一些简单的内容编辑,或者简单的内容生成工作,比如写新闻稿、写一些简单的summary,或者一些初级分析岗位,未来可能都要想一想,但很遗憾这样的工作其实可能还挺多的。我觉得ChatGPT出来以后,肯定对整个社会分工造成很大的改变,但这个改变不会马上出现,会有一定的滞后性,但是这个改变一定是很深远的。第二是程序员这个行业会被改变,你想象一下,相当于过去大家都是步行赶路,现在突然每人发辆自行车,好处是效率一定会提升,但当有一波人能够熟练使用ChatGPT的时候,公司老板就会想,到底还需不需要雇这么多人了?甚至当未来AI能够自己写程序时,程序员在里面的位置又是什么?我自己会稍微有点悲观。陶芳波:其实从我的观点来讲,大公司可能是第一波受到冲击的,都会被迫面对这样一个巨大的变革。今天早上我跟一个非常知名的TMT投资人交流,提到了一个点,就是苹果的壁垒到底有多高?在移动互联网时代,用户只能用一台手机去处理许多复杂的事情,所以需要强大的算力,需要非常好的人机交互,这是苹果真正的壁垒。但如果ChatGPT开始与各种产品结合,产生了一种新的交互形态,是不是最后手机就会变成了一个普通的终端?换言之,如果未来AI的软件部分,提供的服务比重越来越高,就意味着硬件价值会越来越低,苹果手机做得再好,以后还会有那么大的价值吗?当天平的两端发生调整,如果苹果不能及时入场,为自己的开发者生态提供AI化的能力,我觉得它其实也是很危险的,再比如说亚马逊,它的内部也一定是redalert(亮起红色警报),假如一个微软云的客服,跑过去告AWS的用户说,你要用ChatGPT吗?来,come to Azure,我觉得至少对很多中小企业来说是一个巨大的诱惑。所以在我的视角里,未来大公司的格局会首先发生变化,就像是微软拿着一把全世界最牛逼的屠龙刀,一刀一刀的斩过去,就看谁的反应够快。同样冲击也会向下影响到中小公司,比如说订票软件,假设行业有10个竞争者,那么谁第一个拥抱ChatGPT,把自己的数据和大模型进行链接,为客户提供一种交互式模式的订票服务,就像一个私人助理一样,这家公司就能把所有的订单吸过去,其他9家可能就会死掉。这个逻辑在任何行业都会存在,因为人总要订票,总要接受医疗服务,法律服务,各种各样的服务,总要恋爱和社交,所以我在内部分享时常说一句话,当ChatGPT出现后,全世界只有两种人,一种叫溺水者,他的头被按在水下,他想要浮起来,奋力的想抓住一些东西让自己活下来,谷歌就是这种感觉。第二种人叫淘金者,他想冲到这波浪潮里面去淘金。这是今天市场上的两种公司,我觉得可能谁都无法完全置身事外。你适应能力很强,能接受现实,快速拥抱这个趋势,就能抓住下一个时代的机会。小公司如何抓住 ChatGPT 的逆袭机会?费良宏: ChatGPT 这一波技术革命来得比较迅猛,我个人是有点担心,主要是两点。一个是从个人层面。我们回顾历史,第一次、第二次工业革命彻底粉碎了手工业者,过去这些人曾处于一个比较优沃的社会位置,靠一门手艺就够确保自己的美好生活,但是机器大生产将他们变成了普通工人。在手工业者衰落的同时,另一个新群体开始崛起,就是知识工作者,在二战以后,他们成为了贡献和收益都最大的一群人,当然我们也都受益于这个群体。但ChatGPT出现之后,无论是程序员,还是知识工作者,都有着被机器取代的可能,这种模式一旦出现,对每个个体的挑战是非常巨大的,我对此会有担忧,尤其应该思考我们未来的价值在哪里?第二是从企业的角度来看,OpenAI并不是微软内部孵化的,它到今天也只有375个员工,是一个100%的创业公司,而且是一个小型创业公司。包括DeepMind也是家小公司,截止到今天它的员工数量也才1000个人,和谷歌的19万员工比起来九牛一毛。为什么微软和谷歌内部无法孵化出这些项目,而要依赖于外部的这些小企业?很重要一点,是大企业在创新上的天生存在弊端和不足,哪怕是最厉害的硅谷科技公司,也无法逃脱这个规律。我前几天读了一本书,Netflix 的创始人里德·哈斯廷斯所著的《不拘一格》,其中提到一个观点叫「人才密度」——这是创新的前提和基础,只有足够聪明的人聚在在一起共事,才会产生创意的火花,推动伟大的创意变成伟大的产品。而如果是在人才密度相对较小的环境中,哪怕他真的是一个人才,也会被淹没在各种噪声和平庸的见解中。OpenAI只有375个人,但他的人才密度一定比微软、谷歌更好,这样的小企业才会推动真正的科技进步。所以从创新角度看,我并不认为大企业会对整个市场产生多大的影响,反倒是在资本加持之下,创新小企业才是科技的颠覆力量。所以我觉得,ChatGPT给我们开了一个窗口,这个是一个千载难逢的机遇,但它是为创新型小企业准备的,而不是大企业。这点上,我的观点会和大家不太一样,我并不认为大企业能够获得最大的红利。龙波:谈下我的视角,这次ChatGPT带来的冲击和改变,无论是大企业小企业都必须要去适应。在它面前,我甚至认为所有公司都是创业公司,如果大企业不进行二次创业,那么就会失去自己的优势,走下坡路。总体来说,小企业的机会可能更多在应用层。大企业的话,更要在基础层和中间层开始二次创业,不然的话那么肯定会受到巨大的挑战。举个例子,很多人现在会关注微软和谷歌的竞争,这是一条明线,但暗线的话,我认为微软下一个对手其实是AWS,微软完全可以利用ChatGPT,改变整个cloud service(云服务)格局,实际上ChatGPT非常适合做各种to B或者cloud-based service一类的工作,比如刚才东旭讲到的数据库例子。再往前推一步,大家都知道,过去电商平台要搭一套推荐系统,是一件非常复杂的事情,因为你的库里已经录入了过去10年的商品,这些商品都是基于关键词搜索系统设计的,如果要改成推荐制,需要招一支非常资深的工程师团队,小公司完全用不起。但是如果将来,这些东西都可以通过ChatGPT指令自动化完成,整个cloud的格局都会改变,我觉得微软在这方面的机会很大,我更看好这条线。相反,在搜索引擎方面,我觉得除非是谷歌犯下很多致命的错误,不然它还是很有机会能翻身的。硅谷如何看待ChatGPT?险峰:现在国内媒体对于ChatGPT讨论的非常热烈,硅谷那边的情况如何?他们主要关注的点是什么?黄东旭:一样非常火。无论是在推特上,还是我身边的人,ChatGPT应该近几年最大的IT新闻了。我举个例子,从ChatGPT第一个demo出来到现在,可能也就是两个多月的时间,但硅谷可能已经有上百家基于类似产品的创业公司出来了,所以我觉得硅谷这边可能动作更快一点,而且大家不只是在讨论,我甚至觉得很快就会有独角兽出现了。Everything is a wrapper of openAI,现在就是这样的一个市场。龙波:同样的热度,中美都一样。不同点可能有两个地方,只是我自己观察的,不一定准确。第一是硅谷这边更多还是在聊未来,聊技术路线的分歧,比如现在的大模型是不是能产生通用AI?未来还需要融入哪些新技术?国内的话,我觉得反思的人可能会更多一些,比如为什么我们在AI领域落后了?下一步要如何追赶?这是我看到的不同,但我觉得两者都非常好,无论是反思还是展望,可能都是我们现在非常需要的。第二是硅谷对于人文关怀的讨论会多一些,大家更关心ChatGPT对社会、对人类有什么样的影响。比如很多人会持有一种悲观的观点,认为它不利于人类社会去中心化发展。想象一下,有一个万能的AI,它给你提供了所有答案,人人都依靠它,无条件相信它,它就变成了你的权威,实际上意味着一种中心化对个人思想的控制,而且这种东西往往只有大公司才能做出来,那就意味着大资本对整个社会思想的控制。所以可能大家会更关心如何避免这种情况发生,同时又能让这样的新技术提高我们效率和幸福感。普通人如何拥抱ChatGPT ?险峰:最后一个话题,各位觉得自己或者自己所在的业务部门,面对ChatGPT会有哪些思考和行动?陶芳波:因为我们自己就是AI公司,可能参与会比较直接。刚才也提到,国内现在没有办法使用ChatGPT,目前来看,虽然有一些很不错的团队正在组建,但离跑出来可能还需要一段时间。我觉得整个ChatGPT的生态,会在未来一两年内逐渐形成,所以对中国企业来说,这里面还是有一些全球性机会的,中国的创业者不一定非要窝在家里,等着国内的生态建立起来。就我们公司而言,第一,是尝试探索未来的中间层在哪里,怎样把ChatGPT的能力提升,并用它服务于其他的企业。像东旭刚才讲的,everythingis a wrapper of GPT,那么how can we be the best wrapper?我觉得能做好一个wrapper本身就很有价值。第二就是作为中国企业,我们未来怎么样帮助中国参与到全球的AI生态竞争当中?最近有几个大新闻,包括王慧文也在组建中国的OpenAI团队,我们也在时刻关注着,毕竟中国是一个世界大国,无论从国家安全考虑或者科技竞争考虑,中国都需要一个这样的东西出来。所以我们也在跟政府、大企业去合作,看看能不能帮到一些忙,或说是能参与到其中的建设。费良宏:可以预计的是,云计算跟AI的结合会越来越紧密,随着ChatGPT对整个市场的普及和教育,大家对AI的认识达到了一个新的高度。我身边很多非技术的朋友都开始跟我探讨ChatGPT,这是一个非常好的苗头,未来无论是AI as services或者是Model as services,一定会越来普及,帮助AI与人实现更好的交互。对于一个开发人员来讲,与 ChatGPT相关的工程化能力未来会是一个非常关键的技能,所以抓紧时间窗口的机会,尽快掌握这个能力,ChatGPT对每个人来说都是公平的,也是有挑战的,总体来讲还是机会大于挑战。黄东旭:说一个我最近的思考:在这个时代,我们应该放弃一种观念,就是人比AI强,未来不应该是我们去教AI做事情,而是让AI来教我们做事情,放弃这个执念以后,你才可能打开新世界的大门。比如之前我教ChatGPT写代码,会给他一些例子,告诉他说你不要这么做,你应该这么做,但他学了这些例子后,做出来的东西效果反而更不好了。后来我干脆放开手脚,让AI自己去弄,你觉得怎么样好就怎么做,结果反而更好。这件事给我带来一些哲学思考,我会经常提醒自己放下执念。龙波:我之前主要从事Computational Ad(计算广告行业),大家都知道,计算广告是支撑起整个互联网最重要的商业模式,前面我也谈到过,ChatGPT的挤占了传统广告的注意力空间,对这个行业带来巨大的冲击,这是挑战的一面。反过来,用户之所以讨厌广告,是因为这些广告的体验不好,用户觉得为什么你要让我看到这些,我不喜欢。但如果,未来AI会变成你最贴心的的管家,变成钢铁侠的贾维斯,那时广告可能会达到它的最高境界,即完全不损坏用户体验,我给你的就是你最需要的东西,也许ChatGPT真能做到这一点,这会是一个巨大的机遇,这是我的一些思考。险峰:谢谢几位,下面是几位观众的留言提问,有人问现在考大学的话,CS专业以后还有前途吗?各位怎么看?费良宏:如果一年之前,我肯定会鼓励他学习计算机专业,但是今年答案可能就没那么简单了,比如经济环境改变的裁员问题,包括ChatGPT带来的冲击。但冲击其实无处不在,我记得是去年Alpha Fold刚出来的时候,对大家冲击其实不亚于这一次,我们用一个简单的语言模型就能预测出2万多种生物蛋白,而且准确率非常高,整个分子生物学的格局都被改变了,背后也是千千万万的从业者受到影响。所以我是在这么看的,我们不一定要以薪酬高低来选择自己的行业,而应该看按照自己的特长。简单来说,如果你是基于薪水多才选择了做程序员,在大变革面前你很难坚持下来。但反过来,如果这是兴趣专长或爱好,能够长期坚持,我相信在这个世界当中的机会无处不在。回到最初这个问题上,我不建议大家简单的把专业定位在计算机或非计算机上,而是更大程度上选择你擅长和喜欢的领域,接下来AI会和各行各业发生连接,如果你有能力把自己的专业与AI相结合,可能会是一个更有价值的选择。OpenAI的组织设计给创业者带来哪些启示?险峰:有观众问,未来各巨头都会有自己的大模型,所有大模型之间会不会趋同?以后差异化会在哪里?陶芳波:这个是一个很预测性的问题,可能我也不能完全回答,但我觉得ChatGPT本身需要调教,这个调教的过程里就包含了很多你对于业务的理解,最终的形态肯定也会很不一样。这件事我一个人的大脑肯定是不够用的,现在全世界无数的人都在想大模型的下一个形态是什么?我觉得可以多关注一些行业动态,我相信一定有人已经在做类似的事情。险峰:有观众问到,OpenAI团队和组织框架设计上的一些独特之处,是否对他们的成功产生了影响?龙波:我可能刚才提到过一点,对于创新型企业,坚持是其中一个非常重要的品质。做出ChatGPT要调用大量的资源,对一家小企业来说其实是很困难的,另外站在当时看,技术路径也远不如现在清晰,所以他们选择了一个非常独特的非盈利组织架构,就是不想被短期商业利益所胁迫,这让创始团队在早期就打下了一个比较深厚的技术烙印。所以你看这次王慧文老师出来创业,也是要做一家关注技术创新,而不是短时间内商业变现的企业,我想这可能是OpenAI对我们的启发,要坚持长期主义,更加集中注意力,真正做出一些有深度的东西。陶芳波:非常同意龙波总说的,可能我俩都属于AI科班出身,会非常有共鸣。我觉得OpenAI的成功,跟团队成员都有着非常强烈的技术信仰有关,他们相信这件事情一定能成,在5年前刚开始做GPT1的时候,他们就坚信,只要把自回归的大语言模型做到极致,就一定能可以做出AGI,所以才能一直坚持下来。其实在GPT3出来之前,根本没人在乎他们,大家都觉得,这些东西我们也能做,但GPT3出来之后,那些大厂才开始追随他们去跟进,但此时他们已经继续再往前推了。所以我想说,坚持当然不一定能成功的,99%的坚持最后可能也都是失败的,但如果不坚持,至少就不会像他们那么成功。凡是取得巨大成功的人,一定是坚持下来的人,人有时候是要对抗全世界的,我觉得这种感觉真的会特别好。
来源:人工智能学家
编辑:陶鹏辉

613#
 楼主| 发表于 2023-2-27 09:28:54 | 只看该作者
【案例】

研究报告:揭秘ChatGPT背后的AI“梦之队”【附报告全文下载】
2022年11月30日,OpenAI公司(美国致力于人工智能研究的非营利机构)发布了由大型语言模型驱动的自然语言处理工具ChatGPT。该工具通过学习和理解人类语言,能够与用户进行高质量对话,甚至还能撰写邮件、视频脚本、文案、代码、论文和小说等。由于在同行中具有较卓越的性能,ChatGPT推出仅2个多月的时间即引爆全球。除了关注ChatGPT性能本身外,业内人士更关注该AI“梦之队”成员到底具有哪些特征,才促使他们在全球大型语言模型创新技术领域如此独领风骚。
根据OpenAI官网显示,为ChatGPT项目做出贡献的人员共87人。现就该团队成员职务构成、年龄分布、教育背景、人员流动、华人成员、成员贡献、性别分布等数据进行统计分析,并总结归纳其特征。
ChatGPT团队规模不足百人(共87人)。分析发现,其显著特征是“年纪很轻”、“背景豪华”、“聚焦技术”、“积累深厚”、“崇尚创业”和“华人抢眼”。
该团队平均年龄为32岁,“90后”是主力军。他们引领的这一波大型语言模型技术风潮,充分说明了那些经常被认为研发经验不足的年轻人,完全有可能在前沿科技领域取得重大突破。
团队成员绝大多数拥有名校学历,且具有全球知名企业工作经历。从成员毕业高校分布看,校友最多的前5大高校是斯坦福大学(14人)、加州大学伯克利分校(10人)、麻省理工学院(7人)、剑桥大学(5人)、哈佛大学(4人)和佐治亚理工学院(4人)。另外,该团队有3人是我国清华大学校友,即翁家翌、赵盛佳、袁启明,他们本科均在清华大学就读,目前均在团队担任研发工程师一职。ChatGPT不一味强调高学历,其成员并非“清一色”的研究生学历,而是本、硕、博人数相对均衡。
团队成员有10人从谷歌跳槽加入,其他成员也大多来自Facebook、Stripe、Uber、Quora、NVIDIA、Microsoft、Dropbox、DeepMind、Apple、Intel等顶尖或知名科技公司。另外,该团队有5人被评为2023年度“AI 2000 全球人工智能学者(全名单链接:https://www.aminer.cn/ai2000)”,其中2人为OpenAI联合创始人,2人分别被评为全球机器人和机器学习领域最具影响力学者。可见,技术型顶尖学者对创新型团队的引领作用至关重要。
从成员职位构成看,该团队成员近9成为技术人员,未配备技术与产品之外的职能人员(如公共关系、市场营销等人员),而是高度聚焦于技术研发。由此可见,在数字化传播时代,一款人工智能产品只要性能足够优异,即使未配置专人做推广营销,也能在短短的一两个月时间内在全球引爆。
ChatGPT是OpenAI在大型语言模型领域多年技术积累的结果。统计发现,在与ChatGPT相关的先前7大技术项目研发中,ChatGPT团队成员参与人数最多的是CodeX项目,共有22人参与过,占总团队人员总数的25%;其次是webGPT和instructGPT,共有9人参与过;第三是GPT3,共有6人参与过;第四是RLHF,共有3人参与过。由此可见,ChatGPT团队成员在生成式预训练语言模型领域有较深厚的技术积累,特别是1/4团队成员曾参与过同样基于GPT3的CodeX项目的研发经验,对后续成功研发ChatGPT打下了坚实的基础。
分析发现,该团队成员不再把进入“大厂”作为首选,而是更倾向于选择更加创新潜力的创业机构。团队成员大多是从“大厂”跳槽,以及作为应届生加入,其次就是从相对“稳定”的科研机构和高校教职岗位离职后加入。即使从ChatGPT团队离职的4位成员,也仍然选择加入创业公司或机构。
ChatGPT团队中的华人表现抢眼。团队共有华人9人,占团队总人数10%。其中5人本科就读于中国内陆高校,3人大学教育经历均在美国高校完成。梳理毕业于中国内陆高校的ChatGPT华人成员成长路径发现,他们就读于中国内陆顶尖高校的学习阶段均为本科,之后赴美深造,获得硕士或博士学位,然后加入美国诸如Dropbox、OpenAI等创新型公司。
华人学者欧阳龙参与了与ChatGPT相关的7大技术项目中的4大项目的研发,他是InstructGPT论文的第一作者,是RLHF论文的第二作者,可见他是这两个关键技术项目的核心人员。
根据以上分析所获相关启示,就国内人工智能前沿技术发展提出以下建议:
(一)注重科技兴趣和信仰培育,鼓励优秀年轻人投身于前沿技术创新浪潮
OpenAI是一家非营利的人工智能研究机构,其ChatGPT团队的显著特征是“年轻”和“优质”。一个平均年龄仅32岁的87人团队,就能够引爆全球新一轮人工智能技术浪潮,其背后是团队成员对人工智能技术的兴趣和信仰,以及对技术创新和研发的全心投入。国内不缺乏如OpenAI一样的年轻优秀人才,若能更加注重对其科技兴趣和信仰培育,鼓励其心无旁骛地投身于前沿技术创新,我们就能在全球科技竞争中处于不败之地。
(二)“大厂”前沿科技创新疲态显现,鼓励年轻人将目光投向创业公司
本次OpenAI不足百人的团队推出的大型语言模型ChatGPT,让谷歌、Meta包括国内的阿里、百度等“大厂”感到压力巨大,它们只好纷纷跟风上马类似项目。“大厂”因其创新机制、组织文化等相对固定,因而在本次大语音模型创新浪潮中疲态尽显。今后,正如ChatGPT一样,更多的突破性创新技术会来自创业公司。因此,鼓励国内有志投身前沿科技创业的年轻人,把目光投向更具创新潜力的创业公司。
(三)海外华人学者是全球科技创新的重要力量,鼓励加强对外学术交流
在全球人工智能前沿领域,华人学者是一支重要的科技创新力量。海外华人学者是中外学术交流的重要桥梁。本轮以ChatGPT为代表的基于大型语言模型的AIGC技术发展速度,令国内某些业界人士感到“惊讶”。对外学术交流的重要性在于,能够比较实时、准确感知和把握全球前沿技术发展的脉搏和趋势。在全球疫情走向尾声之际,鼓励国外顶尖学者走进来,国内学者走出去,对促进国内前沿科技创新发展具有重要意义(点击“原文链接”下载报告)。
来源:人工智能学家
编辑:陶鹏辉

614#
 楼主| 发表于 2023-2-27 09:35:26 | 只看该作者
【案例】

全球第一个ChatGPT主编,上任了
2月22日,Meta Media超媒体控股集团旗下杂志《InStyle优家画报》宣布推出全球第一个ChatGPT主编——Beatrice,并发布了Beatrice虚拟主编首个杂志封面。

据悉,这位主编就是根据谷爱凌与王羽佳人格魅力特征塑造的InStyle女性的化身,代表自信、自由、自律的女性。《InStyle优家画报》表示,将引入包括人机交互技术在内的前沿数字技术,为虚拟主编注入“灵魂”,使其成为虚拟与现实的连接带,以更加多元、灵活的方式为Z世代年轻人传递时尚资讯。

超媒体控股集团作为中国首家进入元宇宙的媒体集团,一直走在时代前沿。先后创建了中国第一个元宇宙誌屋、中国第一个赛博雅皮美学风格的元宇宙城市“元邦”。

2月14日,该集团宣布成为百度文心一言(ERNIE Bot)首批生态合作伙伴,未来将全面体验并接入文心一言的能力,把百度领先的智能对话技术成果应用在时尚、艺术及媒体传播领域。

超媒体控股集团创始人暨董事会主席、CEO邵忠表示:“我们必须做好三件事,一是社交平台Social Zine,二是元宇宙平台Meta Zine,三是掌握好智媒AI Zine的趋势,与时俱进。”

来源:传媒见闻


编辑:陶鹏辉

615#
 楼主| 发表于 2023-2-27 09:57:04 | 只看该作者
【案例】
ChatGPT等AI润色作品激增,美国知名科幻杂志《克拉克世界》停止接收投稿
据英国《金融时报》和《卫报》2月22日消息,美国知名科幻杂志《克拉克世界》(Clarkesworld)近日宣布停止接收投稿,原因是AI生成的稿件氾滥,导致编辑团队不堪重负。该杂志称,2月已收到500多篇由ChatGPT等程序编写或润色的投稿。

该杂志创办人兼总编尼尔·克拉克(Neil Clarke)在博客文章中指出,《克拉克世界》每个月一般会收到10篇左右的剽窃稿件,但在ChatGPT于去年底开放给公众之后,拒稿率迅速攀升,今年1月杂志共拒绝100份来稿,还禁止这些“作者”再次投稿,但2月到目前为止就已封杀超500位“作者”。

克拉克指出:“我担心这一渠道将导致新作者与国际作者面临更多阻碍,短篇小说需要这些人。”克拉克称,尽管停止接收投稿是极端举措,但直到发现解决方案前,《克拉克世界》不会考虑接收投稿,“我们会重新开放,但没有设定日期”。


来源:界面新闻
编辑:陶鹏辉

616#
 楼主| 发表于 2023-2-27 10:05:17 | 只看该作者
【案例】

聊天机器人、MBA和管理顾问——被动投资者都不在乎
科克:对于被动型投资组合来说,聊天机器人、MBA和管理顾问这些纷纷扰扰的题材都不重要。本文作者是汇丰投资管理(HSBC Asset Management)负责任投资部门的前主管,也是Lex专栏的前编辑现在当一名商业专栏作家真是艰难——幸好我不是。他们不得不思考聊天机器人对全世界的公司意味着什么,这着实有点难。比尔•盖茨(Bill Gates)称“生成式人工智能”与个人电脑和互联网一样重要。周一前得写一千字?

来源:FT中文网

编辑:陶鹏辉

617#
 楼主| 发表于 2023-2-27 10:09:31 | 只看该作者
【案例】
欧盟数字法案的落地对中国意味着什么?
严少华
里程碑式的数字立法,包括《数字市场法案》(Digital Market Act,简称DMA)与《数字服务法案》(Digital Service Act,简称DSA)。应DSA的监管要求,谷歌、脸书和Tiktok等搜索引擎和平台企业也都在2023年2月17日公布了在欧盟的月度活跃用户数量。
随着DAM与DSA两部重磅法案的逐步落地实施,其对中国数字企业和中欧数字合作的影响也受到广泛的关注。在当前地缘政治和技术竞争日趋激烈的背景下,目前舆论多关注法案带来的多重监管挑战,但实际上,欧盟数字立法及其背后所体现的数字治理路径也为夹缝中的中国数字企业提供了潜在的机遇和空间。
要合理评估欧盟数字法案的影响,需要对欧盟“数字主权”理念有更加准确的理解。“数字主权”是欧盟追求“战略自主”的宏大目标的一部分,也成为指导欧盟参与全球数字竞争的核心原则。在全球数字竞争中,欧盟处于相对劣势的地位。根据欧盟发布的《数字指南针》报告,全球主要数字技术是在非欧盟地区开发的,90%的欧盟数据由美国公司管理,只有不到4%的主流在线平台来自欧盟,而欧盟地区制造的芯片也只占欧盟市场的10%。
因此,“数字主权”就是要确保欧盟在全球数字竞争中占据一席之地。为了增强数字主权,欧盟在数字基础设施、数字技术、数字规则等领域都推出了重磅的立法与政策措施,包括前面提及的两部法案以及《欧洲芯片法案》、《人工智能法案》、《开放数据条例》和《数据治理法案》等。尤其是在数字规则和监管方面,欧盟毫不掩饰其追求主导地位的雄心,希望以《通用数据保护条例》(GDPR)的成功经验为蓝本,引领数字时代的规则制定。
对中国而言,欧盟追求“数字主权”的努力无疑会带来更多的竞争,尤其是在人工智能和云计算等一些关键技术领域。由于中欧在数字治理理念与路径方面仍然存在差异,欧盟的强监管倾向也为中国数字企业带来了不小的合规挑战。
但是我们也要客观地看到,欧盟的“数字主权”仍然遵循“开放性战略自主”的思路,在追求自主性的同时,也强调开放的重要性。欧盟委员会负责竞争的副主席维斯塔格(Margrethe Vestager)近日在接受《瑞典日报》(SvD)的专访时表示,欧盟不会考虑封禁TikTok方案,只要遵守法律,TikTok就可以在欧洲开展业务。维斯塔格的这一表态也体现出欧盟对开放性的承诺和对规则的重视,这与美国冷战式的对华技术脱钩与技术遏制政策形成了鲜明对比。
从这个角度而言,欧盟在“数字主权”理念下推出的相关立法固然给中国数字企业带来合规挑战,但也为中国完善数字治理规则和立法提供了经验和借鉴,成为中国数字企业摆脱政治困扰,在欧洲实现可持续经营的一次机遇。而把握这个机遇的关键在于合规,这不仅仅是企业的任务,也要求中欧双方在立法层面进行更好的对话与沟通。
在中国企业海外经营的过程中,所谓“与中国政府的联系”往往成为美西方政府打压中国企业的理由之一。维斯塔格在《瑞典日报》的专访中也表示对所谓“TikTok与中国的联系”和中国相关立法有所担忧。这里面固然有政治偏见的因素,但也反应了中欧双方在立法层面需要进行更好的沟通。
随着欧盟在数字立法方面的力度不断加大,中国的全球性数字企业也在面临不断变化的监管环境,这对国内的立法监管也提出了更高的要求。如何完善数字治理规则和体系,对监管措施和标准进行更精细化和科学化的处理,为国内企业海外合规经营留有余地和空间,是中国在数字治理领域需要进一步探索的一个重要议题。
中国与欧盟是数字领域的两大市场和两个关键力量,数字经济和数字化转型也可能成为中欧合作新的支柱。中国在算法、数据和应用场景等领域的优势也可与欧盟在基础创新和监管规则等方面的优势互为补充。实际上,中欧在数字规则与监管领域也有成功合作的经验与基础。2016年欧盟通过的GDPR不仅为全球跨境数据流动设定了一系列标准,也为中国在数字领域创立和更新其监管框架提供了示范和榜样。
这种成功的合作可以也应该推广至中欧在其它数字领域的合作中,这需要加强双方在数字领域的互动。2020年建立的中欧数字高层对话机制则为中欧在数字领域的沟通提供了一个很好的平台。如果中欧能够在监管规则与合规方面找到平衡的方案,则不仅有助于提升中国数字企业的全球化运营能力,也可以在日益激烈的技术竞争时代为数字合作探索一条务实的道路。
来源:OR商业新媒体
编辑:陶鹏辉

618#
 楼主| 发表于 2023-2-28 17:15:45 | 只看该作者
【案例】
看了ChatGPT的《使用条款》,确实有点东西
| 张延来
ChatGPT本质上应该是AI互联网的基础设施,这一点基本上已经在业内取得共识,正因如此,她的横空出世才引起了远超以往其他人工智能工具的关注热潮,毕竟我们聊了这么久的人工智能,这一次似乎是所有人都觉得她真的要来了。
当大家都在关注ChatGPT的强大功能的时候,作为法律人的笔者当然更感兴趣的是她的规则条款,如果接下来越来越多的机构和个人要使用这样的基础设施,《使用条款》就相当于具有法律效力的《使用说明书》,不看怎么行呢。
实际上,ChatGPT的全部条款(2022年12月13日版本)从目前的结构上看还略显粗糙,我们可以从ChatGPT和openai官网上找到《使用条款》和《隐私政策》,但还有更多广受关注的问题(例如ChatGPT开放接口使用要求)并不规定在这两个协议中,还有其他被引用在《使用条款》中的协议条款以及网站公开的答疑栏目里的内容,限于篇幅和日后另有用途的关系就不全面展示了,本文仅以chatgpt的《使用条款》作为样板,看看这样一个超级AI所提供的使用手册里都规定了哪些最重要的内容。
1、使用限制
在《使用条款》的2.(c)条中,ChatGPT规定了若干受限制的使用行为,非常值得关注,包括:
1)不得用于侵害他人权益
2)反向工程(对系统和算法源代码的反编译等)
3)使用chatgpt开发基础模型其他同类竞品用于同openAI开展竞争
4)通过授权API之外的渠道从chatgpt系统中抓取数据(爬虫等)
5)将机器生成内容对外以人为创作内容使用
6)API Key的滥用(买卖等)
前六项禁止行为中,最值得关注的包括2)、3)项,都是针对可能被用于开发出同类产品或者核心数据资源流失的限制,第5)项规定的内容替代性使用则更值得用户关注,这可能意味着用户如果用ChatGPT生成了内容并不能以自己的名义直接投入使用,至少在协议层面找不到依据。这个问题值得另外深入讨论,因为涉及到人工智能生成的内容是否享有版权的问题,对此恐怕不能一刀切的认为用户没有著作权(含署名),因为ChatGPT也是根据用户指令完成内容生成的,很多情况下生成高质量的内容也需要用户提前给出高质量的问题或者思路,这个过程依然有用户的智力投入。当然,在另外一些情况下,确实不能直接将ChatGPT的生成内容直接以人的名义使用,例如将考试题输入后获得的答案。
这个问题如果往再深一层延伸,就会涉及到《著作权法》对于作品原创性的判断,接下来立法和司法都不得不考虑一个Ai带来的问题,那就是人和机器结合起来创作将成为常态,这种情况下如何确认作品是否达到了原创度要求,恐怕需要有新的判断标准了。
2、第三方服务
在《使用条款》的2.(d)条中,还提到了ChatGPT不对使用第三方服务承担责任,显然他们也预见到了大量的应用会将自己的基础技术跟第三方服务进行嫁接整合,这种情况撇清自己的责任还是有必要的,但表述上非常简单,目测会随着以后使用情况逐步细化。
3、内容
《使用条款》中将用户输入和系统输出统称为“内容”,对于这些内容相关的权利和边界,《使用条款》第3条分别从用户内容(权益)、近似内容、系统使用内容提升服务以及版权投诉四个方面进行了规定。
其中3.a)条指出OpenAI授予输出内容的全部权益(righttitle and interest)给用户,此处用词很严谨,特指“输出内容”而不包含全部内容,毕竟openAI对于输入内容是没有授权基础的。同时规定openAI为了提供和维持服务可以使用输入和输出内容(用词依然严谨),而用户则需对输入和输出结果承担责任(包括法律上的和协议上的);
3.b)条指出相同请求可能出现相同的响应结果,基于其他用户请求做出的响应,不视为用户的内容。这一点保证了用户各自生成内容之间的独立性,以及由于系统算法等原因导致输出结果一致的情况下,避免单个用户对输出结果主张独占权利。
3.c)条非常重要,规定用户同意ChatGPT使用用户内容改进和提升服务,说白了就是用用户来训练自己的机器学习算法,这一点对搜索引擎时代的算法也是如此,可以说这一条是保证ChatGPT越来越智能和越来越有竞争力的基础。这更详细的内容使用规则是以另一个单独文档《用户内容如何被用于提升系统性能》提供给用户的,该条同时指出如果用户不愿意自己的内容被chatgpt使用,可以通过邮件的方式表示拒绝,但这种做法可能导致用户在特定场景下的使用系统能力受到影响。这样的说法,不是完全的没有依据,毕竟很多个性化的服务是有赖于在互动中学习用户数据而实现的,这让我们联想到国内法律要求推荐算法要向用户提供非个性化的选项,这样的做法也同样可能导致使用该选项的用户无法获得系统更加精准的推荐。
3.d)条是对版权侵权投诉的规定。该条指出知识产权受到侵害可以投诉,平台可能对侵权内容进行删除,甚至对重复侵权账号封号。看来,现阶段openAI还是愿意按照避风港的方式来处理知识产权侵权的,貌似他们自己并没有把自己当成一个基础设施,而是更多的作为应用层的技术服务提供者。
这一点,笔者作为代理过小程序平台责任案和云计算平台责任案的律师,建议OpenAI三思,因为底层技术面临的知识产权投诉无论在数量还是复杂程度上恐怕都是难以想象的,这个成本要不要直接揽过来,至少在中国目前的法律环境下,OpenAI是完全有可能比照小程序、云计算服务提供者尽到合理注意义务的,甚至可能再往下一层,比照电信业务提供者认定注意义务或者豁免条款。
小结
总体上看,ChatGPT的使用条款比较原则化,这可能跟她刚刚推出,还在不断的调整和优化使用策略有关,而且仍然有更多配套的条款被嵌入到《使用条款》中使之更具针对性,但即便以目前的版本,仍然颇具看点,可以说很多AIGC领域的特殊法律问题都带到了。
仅从条款本身内容来看,chatgpt是愿意最大程度将系统对用户的响应(输出)内容有关的权益授予用户的,这也是用户使用ChatGPT最大的激励所在,但ChatGPT也希望使用这些内容训练自己的系统和算法,毕竟这才是人工智能想要的,说白了每一个使用者都是训练素材,AI在与人不断的互动中变得越来越像人甚至超过人,这一点在条款中已经非常明晰了。
比较大的疑问还是在于用户无法直接将系统生成内容以“人创”作品进行使用,这一点恐怕给用户权益带来不确定性,当然这也不是靠一个《使用条款》就能解决的,即便如此,笔者仍然觉得《条款》作为第一层面的权益基础,还是不要一刀切,应该赋予用户直接以自己或其他人的名义使用生成作品的可能性,仅对作弊等情况进行排除就好,至于这些没有明显违规、损害后果的使用是否能够获得法律认可,完全可以交给立法和司法进行判断。
同时ChatGPT也对危害自己的或者第三方的各种行为进行监管,该撇清的责任也会毫不犹豫的扔给用户和第三方。
最后,ChatGPT为自己保留了知识产权侵权处理的权利,但这一点不知道是基于所在国法律要求还是其他考虑,笔者认为这种做法有利有弊,毕竟ChatGPT本质上是底层基础设施,把应用层的知识产权侵权处理揽到自己头上,恐怕面临很高的处理成本,当然也许人家有我们想象不到的黑科技也说不定呢。
欢迎加作者微信一起交流更多人工智能法律问题。
作者介绍
张延来
浙江垦丁律师事务所  创始人 主任律师  专利代理人
「网络法学社」及「网络法实务圈」创始人
中国政法大学法学院实务导师
西南政法大学人工智能法学院实务导师
浙江省反垄断专家指导委员会委员
杭州市律师协会理事
杭州仲裁委员会仲裁员
执业以来完全专注于互联网法律实务工作,担任数十家头部网络公司常年法律顾问,并代理《胖虎》NFT侵权第一案、群控第一案、微信小程序第一案、智能手机刷机第一案、5G云游戏第一案、人脸识别第一案等多个标杆涉网诉讼案件,代理的案例分别入选“最高院十大知产典型案件”、“最高院五十大知产典型案件”、“中国最具研究价值知识产权案件”、“中国十大宪法事例”等。
深度参与中国《电子商务法》、工商总局《网络交易管理办法》、杭州市《网络交易管理办法》的立法工作。个人专著《法眼电商》、《网络法战地笔记》、《无技术不法律》已分别由法律出版社、法制出版社出版。
来源:数字科技说
链接:https://mp.weixin.qq.com/s/058PzlOXJQCg_TL-3YW0cg
编辑:屈妍君

619#
 楼主| 发表于 2023-3-1 15:33:51 | 只看该作者
【案例】
曾白凌 | 目的之“人”:论人工智能创作物的弱保护
ChatGPT的热潮引发了学业界对AIGC(AI Generated Content,指利用人工智能技术来生成内容)的关注和讨论,与此同时,人工智能创作物的著作权认定及保护也成为必须面对和思考的重要议题。人工智能创作物能否具有著作权?将人工智能创作物纳入著作权保护体系是否正当?人类智能与人工智能有何本质区别?人工智能创作物应遵循什么保护原则及立法规则?带着这些问题,重读我刊2020年第4期刊发的文章《目的之“人”:论人工智能创作物的弱保护》,也许能给您带来别样的启思。
(人大复印报刊资料《出版业》2020年09期全文转载本文)
内容摘要:人工智能创作物是有别于人类创造作品的特殊生成物,法律如何认定和保护其价值权益,同时涉及法律主体资格和创造性(独创性)两个问题。非人类创新的人工智能创作物在法律意义上是物的进化,没有著作权意义,属于财产权法律制度范畴。但人工智能创作物在表现形式和内容属性上又被赋予强烈的思想、文化和艺术特性,与人类基本文化权利息息相关。应建立独立的、区别并弱于著作权法的人工智能创作物财产法律保护制度,体现为:分类保护、非人身性保护、强制登记制度、自动许可、强制标注、有期限的财产保护。法律保护的终极目的和价值是人的利益和价值,对创造性的确认和保护只是手段、路径,最终要服务和服从于对人的整体价值、利益的追求。
  // 目录  
一、目的之人与人之法律
二、人工智能的法律主体地位之争
三、人工智能创作物纳入著作权保护体系的不当性
  • 人工智能创作物的弱保护原则
    一、目的之人与人之法律
    “技术的发展是版权扩张的直接原因”,版权法律制度归根结底取决于技术并最终取决于人类自身的意志与利益。著作权在从无到有、不断完善中,折射出人、技术、法律制度三者的平衡、冲突与重构。
    1. 人工智能对人类中心主义的叩问
    人工智能创作物是否具有著作权,是技术(人工智能)向以人为中心的逻各斯中心主义挑战的开始。人类中心主义认为人是万物之灵。“我思故我在”的笛卡尔将人类自身意识作为事物和世界其他一切意识存在之基础。康德强调人是目的,把“人”这一特异的存在者视为一切形而上学真理的规定者。人工智能是对人类智能的模拟和进化,结果是赋予物(机器)独立的思维,使其具备独立的认知能力、学习能力、意识能力、执行能力,最终打破由人控制和主宰的精神世界和自然世界。技术进步能否借助人工智能导致一个非人非物的第三体出现,这将解构以人为唯一主体的人类社会和法律制度,有史以来第一次对以人类为中心建构的法律制度和社会关系发出追问:人是世界唯一的主体吗?人真是世界的唯一目的性吗?
    作品是创造者精神的表达和受者精神世界的勾连与反应,是精神和思想的抵达,是人与人之间社会关系的交流与抵达。他们彼此构成一个闭合的环节,缺一不可。著作权保护的是人类知识、思想的创造和传承。传承是著作权的重要使命与目的,体现为人与人之间思想信息的交流传播。意义和信息不仅来自于物的本身,也来自于受者的内心。没有与受者已有内在主观意识和情感的勾连,所有的物,无论是人工之物还是自然之物,都只是没有意义的客观存在。人工智能创作物所代表的思想、情感和知识、信息,只有在人所构建的认知世界和主观意识中才能成其为思想、情感和意义。离开人为主体的交流,离开人为中心的社会秩序的构建与体制,人工智能创作物所表达的思想、文化与精神就是无本之木和空中楼阁。人工智能可以进入人的逻辑、语言和思维世界,但无法进入情感、意识、欲望所组成的人类意识和理性世界。理性的人与人的理性世界是人类以自我为中心和主体的人为构建,是人为的人之世界。人工智能创作物能否具有著作权,关键是人工智能能否像人一样具有独立的意识和意志,具有法律意义上的主体资格。技术超越了人的主宰和控制,打破了人是世界万物之灵的神话。人工智能以人工之名,体现了人对知识和机器从创建、控制、依赖到失控的过程,由此会坍塌了以人为中心的认知世界、社会结构和法律制度。
    2. 法律是以人为中心的制度构建
    技术进步与人的智力进化的不同步,是人工智能产物与著作权冲突的根源,也是著作权法律制度完善和重构的动因。人类智力进化速度与技术迭代的速度向两个极端发展,“最高级哺乳动物的大脑每隔数十万年才增长大约一立方英寸,而计算机容量几乎每年都会翻一番”。人类自己发明构建的知识体系、技术超越创造发明者本身的认知能力和生理极限。人工智能(技术)独立甚至超越人类而自我存在、自我组织、自我进化,社会进入一个技术决定技术而非人类决定技术的时代,由此可能带来技术失控和人类社会自身的危险。法律制度本身是人为构建的体系,是人的体系;社会是以人为中心的社会,法律是人的法律。当我们讨论保护人工智能创作物的独创性时,却在有意无意中忘记了人是一切法律制度的本尊,忘记了法律的目的与价值。“人是一切价值存在的基础和前提,也是法的价值存在的基础和前提,是法的价值的最终归宿。”著作权制度和其他法律制度一样,建立在以人为中心的框架之中。人的理性和机器的可控制性,在人和物间建立起绝对的、明确的、不可逾越的区分。理性被认为是真实的世界本原和人的本质存在。“一切权利均因人而设。”民法是人法, 它为现实中的人而立并为其服务。“民法的终极价值是对人的关爱,最高目标是服务于人的尊严和人的发展。”法律主体地位是法律意义上人的抽象和虚拟,是指法律赋予自然人和社会组织依法承担责任、享有权利的资格。从禁止、限制奴隶、妇女的民事法律主体资格到确立其民事法律主体资格,再到创设法人、社会组织机构民事主体资格,民事主体的范围正逐步扩展。“人可非人”的主体资格限制已经绝迹,“非人可人”的趋势正在增强,这种抽象和虚拟是基于现实中人的需要的。
    3. 法律对技术风险的预见与管控
    技术进步是对人的赋能,是人体器官功能的延伸。人类从诞生之日起就无时无刻不在寻求对自己的拓展、超越、否定。借助工具是人体器官功能对现实的超越,借助神话和宗教是对思想精神的超越。技术进步的最终归宿是技术对人体器官赋能、延伸、超越、否定、进化。“智能,乃是主体在与环境客体相互作用的过程中,为了成功应对自己所面临的生存与发展的挑战而对客体信息进行深度加工演化从而生成智能行为的能力。”人工智能是指基于逻辑推理、人工规则和深度神经网络达到具有“独立智力创造”能力的人工系统。欧盟法律事务委 员会《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics)概括了智能机器人“独立智力创造”能力的四大特征:自主性能力和分析数据能力、学习能力、物质支撑形式、因环境而调整其行为的能力。但笔者认为还应该强调一点,即人工智能没有超越人类的意识与意志,没有脱离人的控制和管理,本质属性仍然是物的存在。
    人工智能是一个泛指的、充满想象力的概念,具有无限延展性和不确定性。广义人工智能存在于人类社会生活每个领域,从纳米机器人、自动汽车、智能手机,到写作软件、阿尔法Zero,人工智能正在以指数级的发展成为不可逆转的趋势。人工智能从是否有思考和学习能力,演变为是否有思维和意识能力;从最初人类的工具、助手,演变为是否成为独立于人与物之间的非人非物的“第三主体”;从帮助、服务于人类社会,演变为失控甚至改变、威胁人类自身的存在与发展。人工智能发展的历史也许向人提出了最后之问:人类将如何进化自我,人类能否允许超越人类的人工智能体存在?人工智能导致法律的确定性与科技发展的不确定性之间的矛盾。“人工智能对科学研究的异化将从根本上改变科学研究的范式,进而对人类自身及社会产生不可逆的影响。”法律制度必须预见并管控人工智能所带来的风险。“制度风险可能来自我们的工业制度、科技政策乃至法律规则,或是表现为对新技术无措的‘制度缺失’,或是表现为对新技术错判的‘制度失败’。”正因如此,阿西莫夫机器人法则规定:机器人不得伤害人类个体,也不得以其不作为致使人类个体受到伤害(不伤害原则)。阿西洛马会议(2017 Asilomar Conference)形成了23条AI原则:“要求AI系统的设计和运作应符合人类尊严、权利、自由和文化多样性的理念。通过控制高级人工智能系统所实现的权力,应尊重和改善健康社会所基于的社会和公民进程,而不是颠覆它。”人类智力进化、技术进步和社会制度从三个不同维度构建出著作权法。技术进步无限拉大其与人类智力进化、社会制度进步的差距,三者的平衡被打破,以此为基石的著作权法律制度必然受到挑战,表现为人工智能创作物在著作权法律制度中无处立命安身,在文化艺术和知识生产领域应用中不可逆转,在形态上与自然人创作物无法区分、无处区分,在保护上无法可依、无可奈何的现状。
    二、人工智能的法律主体地位之争
    法律的主体性不是来自法律本身的制定与赋予,而来自人的自由意志,并以此为依据。人在法律上的主体性至少基于:具备自由意志(行动之自由)、自我意识(主观性)、目的(行为与结果的关联性)。人工智能创作物需要法律制度保护是共识,但是人工智能的法律地位是什么?能否具有法律主体地位?人工智能创作物是否具有著作权性质?这些不同性质和层次的问题纠缠在一起,导致人工智能及创作物的法律性质与地位出现各自为战的困境,成为讨论人工智能创作物著作权的关键。
    有学者主张人工智能具有拟制的法律人格。“人工智能不是人,但人工智能创作物却构成版权法意义上的作品。”“人工智能生成物实质只不过是人的生成物,人工智能生成物是否构成著作权法意义上应受保护的作品,也应当按照著作权法关于人的创作物是否属于应受保护的作品标准进行判断。”“机器人创作物虽然出自于机器人之手,如果机器人创作物具有了著作权法所认可的作品意义,那机器人创作物是作品就具有了可作品性。”这些观点的共同之处是倒置因果关系寻找著作权人。因为有一个与人类作品相同的“人工智能创作物”,所以要为它寻找一个著作权意义上的作者。从作品的形态和结果找作者,很容易被具体的物象所困惑。猴子相片的著作权之争,主张猴子具有著作权正是被完全等同于人类照片作品的照片所迷惑,只看到猴子的参与,只看到照片的表现形态和内容输出的相似,却没有发现猴子后面人的意志和行为,更没有看到人和猴子的摄影虽然都是按动快门,却是两种不同的创造。
    “未来人工智能的发展或许会迈入强人工智能的时代,彼时我们必须将其纳入法律主体体系中,我们考虑的不再是其智能程度是否达到赋予法律主体资格的程度,而是如何设计其享有的法律主体地位的问题。”俄罗斯学者在《格里申法案》中认为:“机器人—在没有人类一方完全控制的情况下,依靠从外部环境获取的信息而能够行动、决定自己的行为并评估其后果的装置。”类似的观点在努力寻找一个根本不存在的、假想的人工智能,夸大了人工智能和法律的超前性,将只存在于科幻的强人工智能纳入法律调整范围。事实上,具有独立的意识和意志、不受人类控制的人工智能并不存在,而且在相当长时间内不会存在,一是技术还不能突破人的意识和意志,二是人类已经在法律、政策和伦理上对人工智能的风险进行预警和管控。具有独立主体资格的强人工智能不可能在现实中存在而成为法律调整的对象。
    有学者主张间接主体,强调创作主体“个性”的稀释、主体的隐形和间接性。“人工智能作品的创作由人工智能的创造者或所有者主导;将该类作品的著作权归属于人工智能的创造者或所有者。”“将人工智能生成物的著作权赋予投资者,而技术人员的利益则通过合同的方式予以保护。”这些观点强调人工智能创作过程中人的参与和关系,从著作权保护的产权关系上找作者,为独创性找作者,为利益找作者,为保护找作者。其实法律保护的目的与手段多种多样,人工智能创作物法律保护与著作权之间并不存在必然的对应关系,人工智能创作物的法律保护并不必然归属于著作权法律制度。
    有学者主张人工智能不能成为民事主体。著作权主体必须以自然人为前提,人工智能不具有法律人格。“智能机器人的民法地位应当概括为人工类人格”,“在弱人工智能时代,非生物智能尚未取代或超越人类智慧,因而不宜动摇民事主体制度的根基”。为什么要为人工智能创作物寻找作者?从何种角度和逻辑寻找作者?应该回归到著作权的基本性质和法律属性,从著作权本身属性上找作者,从作品的人身性和创造性出发寻找作者,因为作品是人类思想和情感的独特表达形式,是人的意识和意志的体现。“在主体的法律地位上,人工智能本身目前不享有独立的法律人格,其仍然属于机械的一种。”“人工智能拥有类似人类的智能,但是并未发展出人类理性,不可依‘理性论’取得类似自然人的主体地位;人工智能是人类实现自身目的的工具,但是赋予其主体地位并无实益,不可依‘工具论’取得 类似法人的主体地位。”人工智能还没有独立意识,它执行的只是设计者或操作者的意志。人工智能生成物是基于人预先设定好的程序、算法、规则及模型的结果。这些观点代表了理论的主流,即从技术能力层面,人工智能不能等同或超越人类而独立存在。从哲学和理性上讲,人工智能不具备人的意志与意识。在法律意义上,智能机器人属于物的范畴,是权利客体,而不是民事主体。
    三、人工智能创作物纳入著作权保护体系的不当性
    当前对人工智能创作物可著作权性的讨论,在一定程度上混淆了人工智能创作物的可著作权性与可保护性;将多种法律行为等同于同一种法律行为,将不同的法律关系混淆为同一性质的法律关系并采取同一的救济和保护措施。
    1. 不能等同的两种独创性
    人是法律的唯一主体;建立在生物意义人的基础之上的人工智能,不具备主体资格属性的独创性,不存在著作权意义。但有学者混淆二者的区别和作用,主张“认定人工智能生成内容是否具有独创性,是认可该内容构成著作权法意义上作品的首要条件”。把人工智能的独创性与人类智能的独创性等同,是讨论人工智能创作物是否具有著作权属性中最严重的误区。人类作品和人工智能创作物的独创性,在表现形态和文化思想及艺术属性上几乎是完全相同但彼此独立、客观的存在。在法律属性和社会价值上,二者之区分有十分重要的意义。两种独创性都有保护的价值和意义,但是保护标准应该不同、保护的理论基础和目的不同、保护的内容不同。
    第一,人类智能和人工智能独创性在认知、学习和创造能力上存在区别。在数量、时间、发展空间、进化速度、条件限制等各方面,人工智能认知、学习、创造能力都远远高于人类智能。软件生成新闻、机器人写诗、阿尔法Zero的一万个棋谱、光刻机,正在展现出人工智能无限的、无人能及的创造能力。“如果我们用足够在功能上模拟人类智慧的10^16cps估算,那么最终的笔记本电脑的计算能力将相当于5万亿兆人类文明的脑力。这种笔记本电脑能够在千分之一纳秒的时间里执行过去一万年内所有人类思维的总和。”第二,独创性标准上存在区别。著作权独创性的标准是人的作品与人的社会相比较,不能将人工智能独创性与人类作品独创性放在同一个水平比较。神经网络系统、数据与算法、自主学习能力加之机械能力的永不疲倦,正在无限扩大人类智能创造能力与人工智能创作能力之间的鸿沟。二者无论在效率还是能力上,都不可同日而语。人类创造已经被人工智能简化为机械制造。人类无法或难以达到的标准,于人工智能而言却可信手拈来。人工智能的创造性应该有自己同类比较的标准。第三,人工智能的创造性并不能应然地传递给人工智能创作物。考量人工智能创作物的独创性是否存在,必须将其与人工智能放在一起,作为一个彼此不能分割的整体来研究。具有独创性的人工智能软件可以被许可给无数使用者使用并生产出无数的人工智能创作物;当前的人工智能时代,大量的人工智能创作物不会超越创作它们的人工智能的预定,不具有独创性(也许同人类作品相比在形式上具有独创性)。比如目前的新闻写作软件,创造者是唯一的,使用者却不是唯一的,不论使用者是否是同一人,只要输入同样的程序及元素(不具有著作权的新闻事实),就会生成一样的作品。作品的创造(生成)过程实际是一种排列组合和随机选择,以及对可能性逻辑的选择过程,而非有意识的、有目的性的思考或创造。这样的人工智能创作物不应该具有独创性。第四,直接创造是关键。《中华人民共和国著作权法实施条例》第三条规定:“著作权法所称创作,是指直接产生文学、艺术和科学作品的智力活动。为他人创作进行组织工作,提供咨询意见、物质条件,或者进行其他辅助工作,均不视为作品的创造性劳动。”这从立法上回答了诸如投资人、设计者、使用者、所有者能否成为人工智能创作物的著作权人的问题。凡是没有直接产生文学、艺术和科学作品的智力活动,即没有直接的人的创造性劳动,不能成为著作权意义上的作者。
    2. 不可或缺的人身属性
    著作权制度的根本目的与意义是体现和保护人的意志与创造力。作品是事件和人思想的升华、提炼,源于生活而高于生活,是在人和事件作为基础和背景的条件下创作出来的。孟子曰:“颂其诗,读其书,不知其人可乎?”“狗舔热锅油”“吃茶去”的文字,智能机器也许能透过数据和概率组合出来,但其所蕴含的六祖慧能的心得和由此在佛教禅宗传播中的影响和地位、能量以及给人的启迪,却是任何智能机器所望尘莫及的。“工匠的身体是有心智的、感性的、性别化的通道(conduit),通过它,工匠使其世界物质化,与世界协商并改变世界,同时又通过这些方式使事物具有意义。”心灵和意识、意志、理性是器官的功能性作用,还是与器官的功能并列的精神?是精神、意志、意识使人的器官发生了生理反应,还是人的器官发生生理反应导致意识和精神发生?苏格拉底之死是对哲学的最高致敬,算法能否在同样的环境和众多生与死的选择中做出与苏格拉底一样的选择?苏格拉底为哲学而死是理性的体现,而不是生物神经元随机性发生的反应。心之官则思,“我们手头的工具是一种技术客体,但是操作它的手是文化主体”。作品是人思想与情感的物化表现,人格是著作权法律制度正当性的根本所在。
    3. 无法承受的权利与责任
    著作权作为一种法律权利义务关系,必须回到法律语境之中讨论人工智能及其创作物与著作权的关系。民法中权利主体和客体不能互为彼此。著作权的权利主体是人,著作权的对象(客体)是物;勾连人与物二者关系的民事行为或民事法律行为是人的行为。主体资格、权利、责任是相互关联对应、有机统一的。权利与责任是同一事物的不同方面,是构成法律主体之必要组成。民事主体的资格本质上是指当事人以自己的行为承担相应后果的自由选择,其行为建立在主体自愿和自由的基础之上,以自身的财产和人身作为承担权利义务之载体。无论刑事还是民事责任,法律主体都是建立在其身体完整权利、生命权利、财产权利、自由权利、自由意志、独立的行为能力和责任能力的基础之上的。人工智能创作物是对人认知能力、行为能力、判断能力、学习能力的模拟和侵入,人工智能是物的存在,在法理上物对物不能主张和享有权利。不具有身体完整权利、生命权、健康权、自由权、财产权,即不具备权利能力和行为能力,缺乏承担法律责任之意志基础和物质基础。有学者试图将法人著作权、雇佣作品的原理和机制援用在人工智能创作物保护上,其实是误解了法人拟制人格、人、人工智能三者的区别。法人成为法律主体的核心是“意思表示机关”和归属于法人机构的独立财产。透过法人意思机关形成的法人意志,是全体股东(自然人)意志的聚合和体现,仍然满足法律上主体具有人的意志的本质要求。法人独立拥有的财产则是法人作为主体承担责任的根本基础和保证。从个体独创到集体众创,最终都离不开人的意识、意志与利益。不具有自由意志、财产权利的人工智能,不存在承担权利、义务和责任的基础,不能在权利、义务、行为、责任之间建立起必然的、法律的联系。
    4. 可能被湮没的危险
    “著作权面对的对手不再是机械时代的无限复制,而是大数据和人工智能时代的无限创作。它直接绕过了著作权法,抹杀了创作与复制的成本差别。”从生产速度和创造能力来看,人工智能像一把双刃剑,在帮助人类拓展、延伸智力能力的同时,也在数量和效率上对人类智力的创造性和积极性造成严重的影响,对著作权制度形成冲击,给文化艺术创作带来打击。这种被湮没的风险和毁灭性打击并不是人工智能创作物本身的错误,而是法律没有对人类作品和人工智能创作物进行严格的区分并区别保护的恶果。这种恶果将会随着技术的加速迭代更加明显。微软人工智能“小冰”仅用22个月就对236位著名画家的5 000多张画作进行了上万次的迭代,“成功”地在中央美术学院美术馆举办首个画展《或然世界》。但这只是人类画家噩梦的开始,“小冰”不仅显示了人工智能绘画能力的新高度,也意味着打开了机器作画的“潘多拉魔盒”。机器作品将会湮没绘画市场,未来人类会为分辨机器作品和人类作品而苦苦挣扎。腾讯使用Dreamwriter智能写作助手,在抓取大量的事实新闻和素材后,仅仅用10秒的时间,就能生成一篇财经分析评论对外发布,每年可以完成大约30万篇作品。2020年新冠肺炎疫情期间,用生成器代写防疫课观后感成为一个公开的秘密,至少有289 922位学生生成了927 617次观后感。机器生成内容 (MGC) 、算法生成内容 (AGC),当人工智能与人类不良的欲望为伴时,洗稿、水军机器帖等低成本的人工智能作品大行其道,人工智能在文化、思想、艺术领域将逐步取代人类笨拙而有限的创造能力,资本和技术将假借人工智能之名,实现对人类科学、文化创造的垄断。数据、算法、程序、逻辑本身没有偏见和政治观点,但是控制者、使用者、所有者有目的、意识、观点、利益。算法和程序的背后隐藏着人预先设定的利益与目的。主张人工智能创作物享有著作权保护,把人的创造力与机器的效力放在同一标准,这将弱化、危害人类的创造力。放任和鼓励人工智能创作物对人类创作作品的侵蚀和湮没,会造成人与机器的不平等竞争。
    2018年北京互联网法院审理北京菲林律师事务所诉北京百度网讯科技有限公司著作权侵权案,2019年深圳市南山区人民法院审理腾讯计算机系统有限公司诉上海赢讯科技有限公司侵害著作权及不正当竞争案,分别被称为中国否定人工智能创作物著作权第一案和确认人工智能创作物具有著作权第一案。基于相似的事实,南北方两个完全对立的判决,正是人工智能主体资格、独创性两个问题之争和人工智能创作物可著作权性标准在司法实践中的具体呈现,值得从学理的角度进行反思与探索。
    四、人工智能创作物的弱保护原则
    利益具有多元性、冲突性、排他性,各种利益在法律上折射出不同的保护价值。“立法者在设定各种保护的法益的时候,就应当区分各种法益保护的等级”,确定利益之优先顺位,遵循法律之“优先价值” (superior value),对不同权益的不同法律保护制度。人工智能创作物弱保护不具有人身性质,是非著作权性质的保护,属于财产权法律制度范畴。人工智能创作物和人类作品在形态和结果上可能完全相似甚至相同,但是人工智能只是逻辑、算法、数据的选择和对应,不存在行动和结果之间的意识、目的及思想情感的关联,不具备著作权所要求的人身属性、人类智能创造力的稀缺性、对思想文化发展的不可或缺性。同时,法律制度在鼓励社会和个人知识和技术的进步与创新的同时,要防止资本和机构组织对知识、技术的垄断,注重和保障公民的基本文化权利,实现社会公共利益与个人利益的平衡。按照不同权益不同保护的立法规则,应该对人工智能创作物进行弱于人类作品的法律保护。人工智能创作物弱保护主要体现为四个方面:
    1. 厘清范围,分类保护
    人工智能创作物并无一个明确的内涵和外延,范围、内容非常广泛,具有不同属性,分属于不同层次,归属于不同性质的法律范畴。故应该区别对待,分类保护,而不是仅仅从概念上把不同属性的事物纳入同一个法律名称和体系之中。现有所谓人工智能创作物在法律性质上有三种类型。
    第一种是把部分人类作品(含法人或其他组织作品)混淆为人工智能创作物。一些有自然人或组织参与的所谓人工智能创作物,其实只是著作权人主体的稀释、隐藏。许多人工智能后面都有人的存在,都在人的利益和意志控制范围内。科技进步导致人的独创行为与作品完成在时间和空间的不一致性,甚至导致创作主体的隐形或分离。借助于人工智能,人的创造行为与作品之间在时间、空间和物质形态上绑定,彼此不再是即时、直接、有形、不可中断的一一对应,资本和技术作为人类创作过程中的闯入者和工具,在原有简单的作者与作品关系中,增加或突出了创造者、设计者、投资者、使用者、所有者、人工智能等角色在创造过程中的地位和作用,作为作者的人的主导行为、创造行为不再有清晰直接的脉络与痕迹。对人工智能创作物无论在现实生活还是在法律制度层面都应该进行限制性认定和解释,凡是有自然人(法人和社会组织)参与并表达其思想、情感和意志的创造行为,无论其是否使用了人工智能,也无论人工智能的参与程度,只要体现了人的意识、意志,都应该视其为人类作品,并纳入著作权制度的保护范畴。
    第二种是具有“独立智力创造性”人工智能的创作物,是真正意义上的人工智能创作物,应该将其纳入法律财产权利保护体系。人工智能创作物被保护的依据、意义,与著作权被保护的依据、意义有显著区别,人工智能创作物弱保护并不直接鼓励和保护人类的创造性和人身性,而是从财产权的角度,提供非人身属性的创造性法律制度保护。阿尔法Zero独立创造的棋谱,虽然与前期学习有关,但并不是按照或传递其设计者、使用者、所有者的意志和意识的产物,而是人工智能自我组织、自我进化、自我创造的产物,是独立于人的意识与意志的非人类创造物。面对人工智能不可逆转的发展趋势,兼顾促进科技进步和保障公民基本文化权利,如何有效、恰当地建立此类人工智能创作物的法律保护制度,就具有现实意义和战略意义。
    第三种是创造性程度不高的人工智能生成物。人工智能创作物的创造性本身也各有高低,参差不齐,有的只是与人类智能相比具有独创性,但不具有人工智能创作物标准的独创性,是人工智能系统的生成物。目前理论和实践中都没有对人工智能创作物与生成物做明确区分,两者应该是逻辑上的属种关系,却常常被混淆和等同。对人工智能生成物要从人工智能本身、从生产过程、从输入和输出的内容、从同类人工智能技术水平上来分析判断,当前由计算机程序、算法所生成的大量貌似人工智能创作物的内容,只是人工智能生成物,既不是人类作品,不能享有著作权;也不是人工智能创作物,不能享有超越一般所有物的特殊法律保护。
    2. 保护的先决条件:强制登记和明确标注
    第一,法律应对人工智能实行强制登记制度,以此作为人工智能创作物获得法律保护的必要条件。人工智能创作物必须实行登记注册制度才能取得相关的法律保护,这与著作权保护有本质区别。著作权法实行自动保护原则,著作权保护不以登记注册为先决条件,作品创作完成,具备独创性和可复制性就当然受到法律的保护。著作权法保护的是人身性和独创性,人身权在精神层面具有固有性、天然性、绝对性、不可转让性,不需要授权或认证,也不需要以公开发表为前提。由于人工智能创作物是财产性质的权利,不具有人身性,不具备与生俱来的属性,其权利关系人对权利的主张源于法律的赋予和确认。同其他所有权一样,权利的取得必须建立在一定行为和事实基础之上,法律有权设定其取得权利的必要条件和程序。
    第二,不能保护人工智能创作物的署名权和完整权。从独创性出发的保护,促进物质和技术的进步主要体现在对物质利益的保护,不能得出对人身性的保护,著作权的人身权,如署名权(即表明作者身份,在作品上署名的权利)、保护作品完整权(即保护作品不受歪曲、篡改的权利),是与特定的人身相联系的权利,受到法律永久保护。人工智能创作物不具备主体资格和人身属性,是低于著作权的弱保护的,人工智能创作物的所有者、使用者、持有者等相关人士不能因其所有关系、参与行为,而主张对人工智能创作物享有署名权和保护创作物完整权。
    第三,人工智能创作物必须被明确标注为人工智能创作物。人工智能创作物与人类作品在表现形式和内容上难以区分,在创造主体和独创性上却存在本质的差别。法律规定人工智能创作物必须被明确标注,是对人类著作权严肃性的尊重,是对人身权利的尊重和保护,是对人民文化权利的基本保障。依据诚信原则,当事人不得存在后来要对相对人隐瞒并且对之有害的目的,不得有欺诈或恶意行为。35 如果相关利益关系人或实际控制人不明确标注人工智能创作物,就不得以人工智能创作物的权利人主张相关权利,应视为自动放弃人工智能创作物的全部权利;对不明确标注人工智能创作物而注明人类作品者,应当视为民事欺诈行为而承担法律责任和道德责任。
    3. 有期限的财产性保护
    应严格限制人工智能创作物的财产权利保护期限,在时间上应该短于著作权保护期限。我国著作权的保护期限为50年,对人工智能创作物的财产性保护期限应该在20年以内,并根据技术进步做相应调整,以促进人工智能创作物更快进入公有领域,有效地保障人类基本文化权利和创造力。由于时间和资源限制所产生的法律之物的稀缺性及绝对性,法律对财产权利的保护是没有期限限制的,但人工智能创作物不是一般物权意义上的财产权利,只是在技术限制、智力限制上具有相对稀缺性,并以此为法律保护之基础。同时,“人的智力成果具有高度的公共性,与社会文化和产业的发展有密切关系 ,不宜为任何人长期独占。”所以法律对著作权的保护是一种限制性保护,在期限、许可、地域等方面都存在限制。同著作权保护一样,人工智能会越来越弱化甚至缓解创作物的相对稀缺性,越来越呈现公共性特征,这凸显了有效缩短人工智能创作物有期限的财产性保护的现实性和重要性。对人工智能创作物有期限的财产性保护的立法目的,是通过私权的确立和激励,保障创作物之相关利益关系人在特定时期对创作物享有独占性的、排他性的支配权利。通过对创作物的高于一般所有权物的保护,鼓励和促进对科技、文化的投入,保护创造和竞争,实现资源的优化配置,促进个人私权与社会公共利益的平衡与共同进步。
    4. 自动许可原则
    自动许可主要指不经人工智能创作物权利人明确同意或授权,在向人工智能创作物登记机关留存一定使用费后,相关当事人可以直接行使此人工智能创作物的复制权或者使用权。人工智能创作物所有人享有的是收益权而非著作权意义上的许可权。对人工智能创作物的保护是对物的利益人的保护,不包含对人类思想文化权利和人身权利的保护。使用人不经人工智能创作物权利人同意或授权,就能享有人工智能创作物的使用权,但必须支付相应的对价。自动许可原则源于人工智能创造力在数量上和能力上的无限性,以及在自我迭代进化上的指数级速度。是对人的智力成果的尊重与保护,是保障人类基本文化权利的具体要求。强制许可是对知识产权的特有限制,意在配置资源,保护公共利益,平衡社会利益与个人私权之利益之间的冲突。人工智能创作物的自动许可是人类基本文化权利对人工智能创作物的必然要求,因为人工智能创作物没有人身属性,不能享有只有人类才具有的人类文化权利。
    能否使用人工智能创作物,是否必须经过其权利人的许可才能使用人工智能创作物,具有重要的现实意义。浩如烟海的人工智能创作物使取得人工智能创作物所有人(持有人)的许可,在时间成本和经济成本乃至路径上变得十分困难甚至不能实现。为促进商业和技术创新,充分保障人民基本文化权益,应该比照著作权的合理使用原理,“当公共利益需要时,著作权人应放弃部分所得利益,对公共利益进行补贴。当交易成本过高而无法通过市场许可方式解决著作权授权问题时,使用行为可视为合理使用”。对人工智能创作物的使用采取自动许可原则,主要考量使用性质与目的、作品性质、使用程度、潜在影响等四个方面。以此类推,人工智能创作物的性质,最能吻合合理使用原理,是解决人工智能创作物许可难、使用难的理论依据。在物权的角度对人工智能创作物予以保护,是物的性质,享有的是所有权以及由此派生的收益权、转让权、使用权等权利。但是不能有人身性质的权利,也不能享有许可权,即他人不需要经过人工智能和人工智能创作物所有人的同意和授权,就能拥有使用权。
    法律是人类理性的产物,权利保护是一种制度安排。人工智能创作物权利的弱保护由其自身的属性决定。同人类作品相比,它不具有人身属性,人身性权利激励对人工智能创作物没有立法意义和价值目的,不能成为著作权法调整的对象。与一般所有权的物质对象相比,人工智能创作物在表现形式和属性上又被赋予强烈的思想、文化和艺术特性。面对不可逆转的人工智能革命,应该以人工智能创作物的本质属性为出发点和立足点,在鼓励技术创新和保护人类基本文化权利的双重目标指引下,以目的之人为基石,构建人工智能创作物的法律保护制度。
    (注释略)
    作者系《现代出版》主编,法学博士。
    来源:现代出版
    链接:https://mp.weixin.qq.com/s/1GoLpqhIn8CIe7OZ_Mj_8w
    编辑:屈妍君

620#
 楼主| 发表于 2023-3-5 10:39:03 | 只看该作者
【案例】
我的学生正在使用 ChatGPT 写论文和回答考试问题——我支持它
“在大学内禁止 ChatGPT 毫无意义,它已经被 1 亿人使用。”
鲍里斯·斯蒂普
2023 年 3 月 3 日
2001 年以来,我一直是多伦多大学生物化学系的教授。去年秋天,我教授了一年级的计算生物学基础课程,该领域将计算机科学原理应用于生物过程的研究。在最后的作业中,我要求我的 16 名学生每人检查一些与人体细胞损伤修复有关的基因的数据,并就他们的发现写一份简短的报告。我收到的回复中大约有两三个有点不对劲。他们读起来就像是睡眠不足的学生写的:混合了可信的英语散文和不合逻辑的逻辑,但没有抓住我要问的重点。几周前,人工智能聊天机器人 ChatGPT 向公众开放,但它太新了,我从来没有想过学生可以用它来帮助他们完成作业。我标记了报告并继续看下去。
在接下来的几周里,我看到 ChatGPT 从一种好奇变成了一种现象。它出现在我与所有学科(从人文学科到数据科学)的所有教职员工进行的每次讨论中。我的同事想知道如何判断学生是否使用 AI 来回答问题,而且许多人担心它可能如何助长剽窃。如果教授怀疑学生使用过 ChatGPT 但无法证明怎么办?剽窃指控不是一件小事:你不能冒险毁掉学生的学术生涯。我再次考虑了 12 月的作业,并意识到那些令人反感的答案可能是我第一次接触 ChatGPT。
我指导了大学的生物信息学和计算生物学项目 15 年,并且经常为我自己的实验室编写程序,所以多年来我一直在学习与计算机“交谈”。我注册了一个 ChatGPT 帐户,并对寻找解决这个新问题的方法产生了浓厚的兴趣。我认为在大学内禁止 ChatGPT 是没有意义的,因为它已经被 1 亿人使用。在圣诞假期期间,我突然想到:作为教授,我们不应该把精力集中在惩罚使用 ChatGPT 的学生上,而应该重新配置我们的课程计划,以培养不能外包给 AI 的批判性思维技能。球在我们的球场上:如果算法可以通过我们的测试,我们提供了什么价值?
我对 ChatGPT 问题如此着迷,以至于我决定在下学期将所有精力投入到我称之为有知觉的“教学大纲Sentient Syllabus ”的项目中。在世界各地的同事(一位在东京的哲学家和一位在耶鲁大学的历史学家)的帮助下,我正在创建一个公开可用的资源,帮助教育工作者教学生使用 ChatGPT 来加快学术繁重的工作,比如格式化 Excel 电子表格或总结存在于一个主题上的文献,并专注于更高层次的推理。教学大纲包括诸如“创建人工智能无法通过的课程”等原则,以及关于如何规范人工智能使用诚实的实用建议。
我们可以对学生问题的质量进行评分,而不是对人工智能可以管理的技能进行评分,比如雄辩的语言;他们如何权衡问题的两个方面并形成意见;以及,如果他们使用 ChatGPT,他们如何改进算法的答案。这个框架将改变我在 12 月设计作业的方式。与其让学生阅读数据并告诉我他们看到了什么,我会说:告诉我你看到了什么,但也告诉我你是如何得出这个答案的。这类问题鼓励学生创造性地处理事实——无论他们是否从 ChatGPT 收到事实。
ChatGPT 提供了许多可能性:这项技术可以帮助非英语母语人士将他们的想法转化为连贯的散文,或者帮助有非典型需求的人与一个永远不会变得不耐烦的平台交谈。它还开辟了个性化辅导和定制作业的选项——过去只有少数最富有的人才能获得的教育。总的来说,这项发明让我们可以花更多的时间和精力来培养学生的批判性思维能力,这是一件很棒的事情。然而,这不仅仅是关于更好的教学。生成式人工智能已经可以做很多事情,一整天,没有加班费、福利或产假。我们的学生必须学习如何变得更好,如何为自己和他人创造额外的价值。他们必须学习如何超越人工智能。  
我们正在进入 AI 历史上一个迷人的时代,但我有两个担忧:一个是适应速度如此之快,以至于造成巨大的经济混乱,这可能导致各行各业的人——包括一些教授——失业。当然,另一个担心是我们甚至不确定适应会是什么样子,或者同时我们应该传授哪些新技能。目前,我们需要接受 ChatGPT 是我们工具集的一部分,有点像计算器和自动更正功能,并鼓励学生对其使用持开放态度。然后,作为教授,我们有责任提供一种随着我们周围的技术以惊人的速度发展而保持相关性的教育。如果我们将所有的知识和思维外包给算法,那可能会导致我们的好奇心和创造力不幸地匮乏。
来源:科技时代千高原
编辑:屈妍君

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表