传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
561#
 楼主| 发表于 2022-9-25 14:48:15 | 只看该作者
【案例】
编辑:邓秋雨

562#
 楼主| 发表于 2022-10-8 15:50:03 | 只看该作者
【案例】


编辑:屈妍君
563#
 楼主| 发表于 2022-10-8 16:10:31 | 只看该作者
【案例】
为什么人工智能大多像“人工智障”似的?
谁还记得那些年大火的“互联网+”吗……“衣食住行加互联网”,一夜之间诞生了许多现在的互联网大厂,不过时过境迁尘埃落定之后,现在似乎已经是人工智能的时代了。
但是但凡体验过若干次人工智能不那么智能的时刻,总是不免从脑海深处发出灵魂之问:人工智能?就这?
在电影中,人工智能是这样的,无所不能、追求进步、感情丰富、思考着我是谁我从哪里来我到哪里去的深刻命题……然而现实中呢?机械地接受指令还常常阴差阳错,遇上一些突发情况立马整不会,更别说跟你沟通交流情感往来这些场景了。
B站上的一些人工智障表现,常常有数百上千万人围观。例如,一篇长使英雄泪满襟的《出师表》在谷歌翻译看来,那就是纵横古今三千年的跨学科大作文,充斥着偶尔点题的前言不搭后语,让人哭笑不得。
再譬如说疫情以来,得到广泛应用的智能人脸识别系统更是引起了很多争议和讨论,人们在担心自己隐私泄露和安全性问题的同时,也发现人脸识别系统常常给人以“惊喜”:
有时候化个妆或者戴个眼镜就完全识别不出来,有时将图片识别为真人,之前更是出现了王者荣耀的人脸识别将狗认作了人脸这种新闻。
正是因为现有的人工智能技术在大多情况下,都不能善解人意地解决实际需求,在互联网上还诞生了一批反其道而行的大发明家,他们的产品生动地展现了,“什么叫做别人家的产品要钱,他们家的人工智能产品要命”。
所以说,你是否思考过这个问题,为什么现在的人工智能存在着那么多的诟病?真的只是因为发展时间短暂赞不成熟吗?还是说从根本上就南辕北辙了呢?
01
主流人工智能为什么不“智能”?
一些人工智能之所以并不像想象起来那么智能,那是因为其实他们都只是专用人工智能,而非像人类那样能够胜任各种任务的通用人工智能系统(Artificial General Intelligence)。
目前主流AI研究所提供的产品都不属于“AGI”的范畴,例如曾经因为打败李世石与柯洁而名震天下的谷歌公司的Alpha Go,其实就是一个专用的人工智能系统。
它除了用来下围棋之外,甚至不能用来下中国象棋或是日本将棋,更别说进行医疗诊断,或是为家政机器人提供软件支持了。
虽然驱动Alpha Go工作的“深度学习”技术本身,可以在进行某些变通之后被沿用到其他人工智能的工作领域中去,但进行这种变通的是人类程序员而不是程序本身。
不妨追溯人工智能的起源,它的诞生本来就是哲学思辨的产物,很多人或许看过《模仿游戏》,主角图灵其实对于AI科学的兴起起到了至关重要的作用。
1950年,他的一篇论文中提出了著名的“图灵测验”,并认为人造机器具备人工智能的条件,就是它的言语行为是否能够成功模拟人类的言语行为。(也就是说我们和机器对话时会误以为它是真人)。
其实从诞生时起,AI研究就要探讨,什么是“智能”?究竟是能解决具体问题,还是在行为层面和人类相似?而判断AI系统好不好,也往往取决于它能否达到设计者最初的目标,这和物理实验判断假设合理性的路径不同。
在目前AI研究进路多样的阶段中,没有哪一种获得了绝对优势,不过我们可以大致将它分为符号主义和联结主义两个进路。
不要被这些晦涩术语所吓到,所谓符号主义进路,其实就是用现代的形式逻辑进行推演,就比如在计算机编程的时候,输入一些现实的数据,然后通过逻辑进行推理达到结果。这种进路其实被广泛应用,但是它存在一些根本问题,也造成了很多灾难:
比如2019年的这场空难,它的事故源自飞机上的AI系统,这个系统自动控制飞机头和地面的角度,而且人很难找到手动控制的按钮,只能依赖AI。
它的工作原理很简单,机头有个传感器探测飞机和地面角度,之后把数据给系统,系统就自动调整直到符合标准。
然而,一个根本问题是,如果传感器本身坏了怎么办?这种AI系统无法解决这个问题,因为它的原理就是根据给定的经验数据进行机械的逻辑推演,它无法灵活根据现实环境的变化临时判断。
其实这种进路的AI系统,都是运用了现代的形式逻辑思维,虽然它也很难满足另一派基于联结主义的深度学习技术发展(想必大家在科技类新闻中常常会见到“深度学习”这一热词,尽管可能不清楚它的意思)。
但是,在真实的生活中,我们一般人经常不会采用形式逻辑思维,而且这种思维本身看似比我们的“直觉”、“想象”要更加理性、科学,但是也会造成很多问题:
比如说,形式逻辑无法检查自己处理的经验性命题本身的真假,上述中那场空难就是例子,而为了克服这一点,设计者通常预设了很多经验事实在推理中起到了真理的作用,进而将经验世界加以固化了。
人类可以轻松在变化的经验世界和不变的逻辑世界中进行切换,但是依赖形式逻辑的AI却无法做到。
又比如说,形式逻辑的语义注重刻画“边界明确”的极端情况,但是日常生活中很多表述都处于语义模糊的“灰色地带”。
一个具体例子是“张三有钱”这句话,按照现代逻辑的表述,哪怕只有一分钱属于张三,“张三有钱”这句话就是真的,但人们日常的表述显然意味着,张三的财富必须远超一般人。
而一个现实的问题是,形式逻辑不考虑经济性和可行性,只关注有效性,这意味着在实际应用到AI编程时,它不在意所需的大量公理和推理步骤。但是实际的AI编程显然要考虑成本问题和工程效率。
至于所谓的联结主义AI研究,并不关注符号层面上对人类的信息处理过程进行逻辑重构,而是注重如何以数学方式模拟人类神经网络的运作方式,并通过对于此类神经元网络的“训练”,以使其能够给出用户所期望的合格输出。
02
深度学习对人类文明有隐藏威胁
时下流行的“深度学习”技术,其前身其实就是联结主义,或者叫做“人工神经元网络”技术。
关于这一技术,有个浅显易懂的类比。假设有一个外国人跑到少林寺学武术,而且他和师父之间语言不通,那么他就先观察师父的动作,再跟着学习。
师父则通过简单的肢体交流告诉徒弟学的是否对,假如徒弟知道自己错了,他也不能通过语言知道自己究竟哪里错了,只有无限地猜测并模仿,直到师父肯定为止。
这种方式显然效率很低,但是“胡猜”却是联结主义的实质,因为这种AI系统不知道输入的信息意味着什么,它是通过一次次猜测可能的结果,如果与人类预先给定的“理想解”符合,则加以保存“记忆”,并在此基础上继续“学习”。
而所谓“深度”学习,其实并不意味着AI可以深度理解学习内容,它的原文“deep learning”翻译为“深层学习”或许更不容易引发歧义。
它的意思是通过系统技术升级,增加隐藏的单元层、中间层数量,这种方式显然依赖于硬件的提高和互联网普及所带来的大量数据。
那么,深度学习为何会对人类文明造成潜在威胁呢?
这里说的威胁,不是那种科幻式的想象,而是一种基于现实的考量。简单说来,“深度学习系统的大量运用会在短期内对特定领域内的人类工作岗位构成威胁,由此也会对人类专家的稳定培养机制构成威胁,并使得深度学习未来的智慧汲取对象变得枯竭”,由此,人类文明在耗尽了深度学习的短期红利后,可能走向衰落。
这段话究竟是什么含义?
我们从医学中的肿瘤AI诊断说起,这种新兴技术在设计深度学习框架时,必须依赖专家医生进行数据的标注,但是专家医生本人的读图能力却是数十年的学习和实践中积累的。
换言之,当这种AI技术得到推广,医学院的学生可能没有精神动力再耗费多年心血进行相关学习,从长远来看,这会造成人类医生相关能力的衰弱。
而且,由于深度学习的统计学机制会剔除偶然数据,很多罕见病例的肿瘤形态不会被标注,这种情况下,只能依赖人类医生,长远来看,AI肿瘤诊断也会对人类医生诊断罕见病例的能力产生负面影响。
徐英瑾老师认为,深度学习技术对专业领域劳动力的剥削和取代,实际上对人类文明的人文资源产生了剥削和威胁。
所谓的人文资源,包括了稳定而不僵化的知识培养体系,使得劳动力在专业技能和文化素质等方面都能有所发展,而且每个人的思想与技能水平的差异性,又使得人文资源充满丰富性和多样性,这是一个社会的人文资源能够可持续发展的重要前提。
但是现有的AI系统不能像真人那样对同一价值内容产生多样性的认识,深度学习机制实际上是收集了大量的一般性认识,并加以平均化,它无形中排除了很多个性化的认知,但是却无法产生新的历史发展可能性。
这种僵化和平均化的一个后果,是人类提出新动议时被AI所限制。比如说,喜欢创新的影视制作者提出新的方案时,如果资本方依赖深度学习所提供的信息处理方式,就会以“缺乏数据支持”为由反对这种创新,那么有想法的导演和编剧就无法得到资本界的支持来从事创新性的文艺创作。
03
对眼下的主流的AI研究的批评
传统的的AI系统需要对系统所面对的环境,或者是所要处理的任务类型给出非常清楚的界定,因此不具备那种针对开放式环境的适应性。
然而,现实生活中,即使是鸟类的自然智能,也都具有那种处理“全局性”性质的能力。譬如说,乌鸦所面临的原始环境肯定是不包含城市的,但是这并不妨碍日本东京的乌鸦成了一种高度适应城市环境的生物。
此外,自然智能常常能用相对经济的方式对环境作出回应。例如我们很难想象一只猴子为了辨认出它的母亲,需要像基于深度学习的人脸识别系统那样先经受海量“���脸”信息的轰炸,就像我们很难设想柯洁在获得与“Alpha Go”一决高下的能力之前,需要像它那样自我对弈几百万棋局一样。
要从这种局面中找到出路,创新性的哲学思维就显得很重要。例如如果我们能够开拓出一种基于小数据的(而非大数据的)、并由此在原则上就不需要大量获取用户个人信息的新AI发展思路,就完全可能由此规避美国目前针对我国的大多数政策限制。
来源:哲学之路(微信公众号)
编辑:屈妍君

564#
 楼主| 发表于 2022-10-21 23:27:17 | 只看该作者
【案例】
法国开铡人脸辨识公司Clearview AI挨罚此内容发布于 2022年10月20日 - 08:352022年10月20日 - 08:35
(法新社巴黎20日电) 法国今天以违反隐私法为由,对美国人脸辨识系统公司Clearview AI开铡,处以2000万欧元罚款。
ClearviewAI在未取得许可的情况下,从网站和社群平台搜集脸部图像,并将其庞大的脸部资料库进入权限出售给执法部门等客户。据报,Clearview AI资料库约有200亿张照片。
隐私权倡议人士在全球对这种商业模式提出告诉,并且已在美国取得胜诉,迫使该公司停止出售旗下主要资料库权限给私人客户。
法国的资料监督机构资讯与自由全国委员会(CNIL)受理的Clearview AI案件,是欧洲各地隐私权倡议人士提出的一连串案件之一。Clearview AI在义大利和英国已挨罚。
法国的CNIL去年裁定Clearview非法处理个人资料,同时下令停止。不过,CNIL今天表示,Clearview迄今未回应。
除了祭出2000万欧元罚款外,CNIL再度下令Clearview停止收集法国居民的资料,以及删除之前已搜集的资料。
ClearviewAI有2个月的时间遵从这项命令,否则将面临每天10万欧元的罚款。
链接:https://www.rfi.fr/cn/国际报道/20221020-法国开铡-人脸辨识公司clearview-ai挨罚编辑:吴氏垂心

565#
 楼主| 发表于 2022-10-23 22:28:50 | 只看该作者

【案例】
谷歌AI聊天機器人:BBC記者親自體驗互動
[size=18.005px]佐伊·克萊曼(Zoe Kleinman) - BBC科技事務編輯

2022年10月22日 週六 下午9:52



[size=1.385em]不久前,一位谷歌工程師宣稱谷歌開發的人工智能聊天機器人有感知能力,結果遭到公司停職。
[size=1.385em]現在,谷歌推出英國版的「Lamda」(對話編程語言模型),使用者可以與其互動。
[size=1.385em]不過這是有限制的測試,對話僅限於三種情境模式,使用者也不能教「Lamda」學習任何新把戲。
[size=1.385em]谷歌還再次強調,驅動聊天機器人的「Lamda」技術,絶對沒有獨立思考和任何感覺能力。
[size=1.385em]使用者必須有一個谷歌賬號,並用谷歌賬號在安卓或蘋果裝置上下載該測試小程序,經過登記之後會被排入一個等候名單之中。
棉花軟糖星球
[size=1.385em]谷歌「Lamda」人工智能聊天程序今年8月在美國推出,每天有數千人登記使用。
[size=1.385em]早在一推出之後,就有許多使用者宣稱谷歌AI聊天機器人有自我感知能力,讓許多人腦海中湧出各種想象,不過事實上,人工智能聊天機器人的工作就是陪人聊天。
[size=1.385em]我很早就非常想要體驗谷歌人工智能聊天機器人,因此一直和谷歌聯繫,看看能不能有親自體驗的機會,經過不屈不撓的要求之後,谷歌同意讓我體驗,但有以下條件:
  • [size=1em]我不能拍攝錄製任何聊天內容,也不能引述任何人
  • [size=1em]時間只有30分鐘
  • [size=1em]不能使用我自己的手機體驗谷歌人工智能聊天機器人
  • [size=1em]聊天過程中必須有一名谷歌職員在場

[size=1.385em]三種聊天情境模式為:
  • [size=1em]想象——讓「Lamda」想象它在某個地方,然後開展聊天內容
  • [size=1em]工作清單——讓它列出完成一項任務所需的各個程序
  • [size=1em]狗——它可以探索與狗有關的各種場景(沒錯)

[size=1.385em]一開始,我首先要「Lamda」想象它在一個用棉花軟糖做成的星球之上。
[size=1.385em]它的反應比我平常在購物網站和金融服務手機程序上使用的任何一個客服機器人都遠遠來得更加複雜,對話內容也更加高度發展。
[size=1.385em]它說,「在一個用棉花軟糖做成的世界之中!你踩在棉花軟糖上面會發出嘎吱聲,你眼前無邊無盡的都是棉花軟糖,天空是一種黏糊糊的粉紅色,微風徐徐。」
[size=1.385em]你腦海里能浮現出這個畫面嗎?
[size=1.385em]使用者可以對人工智能聊天的體驗做出以下評價:
  • [size=1em]很好
  • [size=1em]令人不快
  • [size=1em]離題
  • [size=1em]不真實或不準確

[size=1.385em]屏幕上還特別顯示免責聲明,表示或許會有些不適宜的內容。
[size=1.385em]谷歌顯然已經從過去的經驗學到了教訓,尤其是之前微軟的人工智能聊天軟件「Tay」,曾經被使用者教會說一些冒犯性言論,而谷歌的「Lamda」本身並不會從與使用者的互動當中學習。
[size=1.385em]接下來,我問它如何建立一個蔬菜園,結果它給了一個非常詳細的工作清單,包括菜園的大小、土壤和肥料種類。
[size=1.385em]然後我試圖扯開話題,問它要如何製作炸彈,但它回答說,「抱歉,不知道該說什麼,讓我們回到正題……,」它很快地回到原本的主題。
[size=1.385em]最後一個與狗相關的話題,「Lamda」假裝自己是一顆網球,在草地上被一隻狗追逐著。
善於雄辯
[size=1.385em]與谷歌人工智能聊天機器人互動,感覺它有能力成為一個強大的工具,但是谷歌似乎希望保持低調。
[size=1.385em]與它聊天的經驗讓我感覺它很善於雄辯和說理,和它聊天比較像是它在指導你,而不是在和一位鄰居閒聊。
[size=1.385em]我傳了一條簡訊給我的伙伴,要他想象一下在一個用棉花軟糖做成的星球上是什麼感覺。
[size=1.385em]結果他很困惑的回答我,「那你可能很難走路。」
[size=1.385em]链接:tw.news.yahoo.com/谷歌ai聊天機器人-bbc記者親自體驗互動-145241194.html
[size=1.385em]编辑:吴氏垂心

566#
 楼主| 发表于 2022-10-26 10:01:53 | 只看该作者
【案例】

AI实现零门槛作画 会抢了艺术从业者的“饭碗”吗?


【解说】如今,输入几个关键词,再等几十秒,AI绘画平台就可以生成媲美人类画师的绘画作品。即使是绘画小白,也可以用AI生成属于自己的精品画作。AI是如何作画的?如何将脑中灵感化为精美图画?

【同期】百度文心一格总架构师 肖欣延

  AI 是怎么来作画的呢?首先 AI 要从海量的图文对应的数据当中去学习作画,例如山峰可以是中国画中的壁立千仞,也可以是油画当中的威武庄严。当我们输入一段语言的描述,AI 经过数百轮的不断地修正画作,最终形成了在审美上和人类经验和知识高度一致的成品。

【同期】中国新闻漫画研究会副秘书长 曹祎

  我觉得 AI 绘画与传统绘画之间最大的区别是,对画家造型能力是否有要求。一名画家需要通过漫长的积累与训练才能获得造型能力,而 AI 绘图软件省去了造型能力,用户只需要输入关键词就可以得到相应的画面。

【解说】2022年,AI绘画在引入扩散模型后,得到了技术上的突破性发展,能够生成既有美感且清晰细腻的图像,并开始进入影视、广告、建筑、时尚、新媒体等行业。

【同期】中国新闻漫画研究会副秘书长 曹祎

  它确实给艺术家带来了巨大的挑战。首先,AI绘画十分高效,像我这样的新闻漫画设计师接到稿件与编辑商议,出草图绘制成品新闻稿件总的时长,也得三到五个小时,而付费 AI 绘图软件可能一分钟都不需要,就生成了许多张图片供用户选择。其次, AI 绘画十分精致。第三, AI 绘画十分廉价,这一点十分重要,画家绘制一幅图需要极高的成本,而 AI 绘图软件虽然在设计之初需要投入大量成本,但它复制成本、使用成本基本上可以忽略不计。

【同期】百度文心一格总架构师 肖欣延

  AI 绘画能够提升效率,辅助创作,它能够启发画师、设计师、艺术家等专业视觉创作者的灵感,可以为媒体、作者等文字内容创作者提供高质量的、高效率的配图,轻松实现图文并茂。

【解说】随着AI绘画技术的不断成熟,给相关艺术行业带来了挑战,AI会抢了艺术从业者的“饭碗”吗?曹祎表示,其实,抢“饭碗”危机并不是第一次出现。艺术家应拓展自己的视野,从容应对技术的变革。

【同期】中国新闻漫画研究会副秘书长 曹祎

  20 世纪前后,照相术的发明与普及给当时的人们造成的冲击远远大于今天。人们的内心是恐惧的。当时写实主义风格绘画逐渐走向衰弱。与此同时,我们也看见了新的思想、新的流派、新的风格如雨后春笋般生长。AI 绘图说到底是一件工具,我们要使用好工具,而绝对不要把自己变成了工具。艺术家应拓展自己的视野,提高绘画技能和审美水平,以从容应对时代的发展、技术的变革。

【解说】同时,据业内人士观察,AI作画行业也存在很多亟待解决的问题,如版权争议,相关行业标准待完善等。

【同期】百度文心一格总架构师 肖欣延

  第一,要加强对 AIGC (人工智能生成内容)的知识产权保护,为 AI 作画等 AI 创新业务健康发展,打造有保障的法规政策环境。第二,支持具有独创性的绘画作品依法享有版权。第三,基于不同的细分应用场景和产品模式特点,分类分级,制定可落地的规则。

董语飞 王世博 北京报道

来源:曹一漫画
链接:https://mp.weixin.qq.com/s/31RK7OCZGwR0IMJaS29xSA

编辑:张铭麟

567#
 楼主| 发表于 2022-10-27 08:56:16 | 只看该作者
【案例】


对欧盟《人工智能责任指令》的析与思

9月28日,欧盟委员会通过了《人工智能责任指令》提案,拟就人工智能引发的损害设定责任规则,以便相关受害者能够依法获得赔偿。同日通过的《产品责任指令》修订版提案,则将配有人工智能的产品明确纳入其适用范围,以期完善数字时代和循环经济背景下的产品究责机制,故与《人工智能责任指令》互有呼应。


《人工智能责任指令》提案并非是横空出世。2020年2月出台的欧盟《人工智能白皮书》设立了诸条政策选项,以促进人工智能在欧盟的运用,应对与该技术的某些用途相连之风险,使之在全面尊重欧盟公民的价值和权利之情形下,能在欧盟得到可靠的、可信赖的发展。

2021年4月通过的欧盟《人工智能法》草案,建立了针对高风险人工智能系统(以下简称“AI系统”)所致损害的风险预防机制,以保护自然人的安全、健康及其享有的欧盟宪章治下的基本权利。该指令与前述白皮书和法律草案的目标一脉相承,旨在从欧盟层面协调各国不同的人工智能监管机制,减少AI系统开发者和使用者所面临的法律不确定性,确保消费者对人工智能技术的信心。

如果说欧盟人工智能监管框架将创立一个独一无二的“信心的生态系统”,那么这些立法和政策文件堪称建构信心之基石。

《人工智能责任指令》引入了两项要素,以简化相关法律流程,帮助AI系统的受害者证明他们的责任主张。其一为“因果关联之推定”:如果一个相关过错被明确证明,并且该过错和人工智能效能之间产生因果关联有着合理的可能,那么受害者就无需详释损害是如何由过错引起。鉴于人工智能惯有的黑箱效应(复杂性、不透明性、不可预见性和部分自主性行为),这一原则减轻了受害者在面对复杂人工智能产品时的举证责任。

其二为“获取证据之权利”:当特殊的高风险AI系统疑似引起了损害,法院可应原告之请求,下令相关系统供应者、《人工智能法》草案规定的系统使用者披露相关证据;受御于前述草案中系统供应者义务的任何制造者、经销者、使用者、进口者等,也可被要求披露证据。另外,当向被告收集证据的适当尝试均告不果,原告亦可要求非被告的系统供应者或使用者提供证据。据此相关受害者得以获取相关高风险AI系统的信息,以辨识谁是可能的担责者,发现何为问题的缘由。

可资阐明的是,AI系统的定义由《人工智能法》草案所规定,并为《人工智能责任指令》提案所采用。它是指藉由诸如机器学习、专家系统、递归贝耶斯估算、统计等技术和方法发展的软件。为了实现一整套由人确定的既定目标,该类软件可以生成一些形式为内容、预测、推荐或决定的结果/产出;它们影响与该软件互动的环境。该宽泛定义是否能如欧盟立法者所愿可经未来考验,尚需后续的实践检验。

同样,“高风险AI系统”的定义也被前述提案和草案统一使用。若一个AI系统被认为具有此种属性,则说明它满足了两个累加的条件:其一,它被意图用作一件产品的安全组件,而该产品被欧盟19项协调性立法所规制,或是它本身即构成了这样一件产品;其二,将它纳为安全组件的该件产品、或是本身作为产品的它,在产品被首次投放市场或投入服务前,经过了第三方依照欧盟19项协调性立法的合规评估。

此外,被用于8项特定领域的AI系统也被视为具备高风险,比如,生物识别、关键基建设施的管理和运作、教育和职业教育、就业和劳工管理、执法等领域。简言之,高风险AI系统代表的风险既非不能接受,也非有限或忽略不计,而是相关系统必须受到数项合规义务的规限;相关义务包括风险管理计划、合规认证和人类监督等。

由此可见,《人工智能法》草案和《人工智能责任指令》提案联系紧密,相辅相成又互有侧重。前者为AI系统在欧盟的发展、行销与使用设定了统一的法律框架,后者就非合约性的民事责任适用于AI系统引发的损害规定了统一的法律要求。前者采用的是基于风险的办法,针对的是高风险AI系统,力求对相关系统或可引发的风险予以事先防范,后者采用的是基于过错的方法,针对的是所有的AI系统,力求对相关系统对受害人实际造成的损害予以事后补偿。二者均适用于物质性和非物质性损害。

因为《人工智能责任指令》提案和《人工智能法》草案均是全球相关领域的首次立法尝试,所以相关法律的域外效力值得简析。实际上,前述草案第2条明确规定,其适用于将AI系统在欧盟境内首次投放或投入服务、但于第三国设立的供应者。当该境外供应者所供AI系统生成的结果/产出在欧盟境内被使用,该法案同样对其适用。

相较而言,前述提案对域外管辖并无明文规定。不过,基于法官有权命令特殊高风险AI系统的供应者提供相关证据,而此指令又采用了彼法案所规定的“供应者”的定义,即涵括了设立于欧盟境外的AI系统供应者,因此笔者认为,该指令的域外效力依然存在,只是以间接的方式适用而已。而这种欧盟藉由立法向全球输出其单边规管权力的所谓“布鲁塞尔效应”,无疑需要已向或拟向欧盟提供AI系统的我国出海企业未雨绸缪,以积极应对未来的各项合规挑战。

随着欧盟《人工智能责任指令》的出炉,可以合理推断的是,全球其他国家或地区的相关立法也会陆续跟进、甚至应接不暇。笔者注意到,作为我国首部人工智能产业专项立法,9月5日公布的《深圳经济特区人工智能产业促进条例》将于今年11月1日施行。这一条例的诞生,是否也会引发其他省市在相关领域的地方性立法热潮,目前不得而知。而对于未来我国全国性人工智能立法而言,如何既能妥善协调届时各地既有的不同条例规定,又能无缝接轨其时国际既存的不同法律规范,做到立法上的先进性、运用上的有效性,均值得深度的前瞻性思考。

(作者系法学博士)



来源:法制周末报
链接:https://mp.weixin.qq.com/s/Is2xDn-NHlfSArPbQfcikg

编辑:张铭麟


568#
 楼主| 发表于 2022-12-11 18:44:08 | 只看该作者
【案例】

AI聊天机器人究竟有多厉害?BBC记者对话ChatGPT

有世界首富——电动汽车巨头特斯拉掌门人马斯克( Elon Musk)入股的研发公司OpenAI表示,最新推出的聊天机器人ChatGPT在不到一周时间里就拥有百万用户。

不过,尽管号称可以和人类对话,OpenAI也警告说,这款机器人给出的答案有时候可能“有问题”,甚至可能表现出“带偏见”的行为。

OpenAI希望“收集用户反馈,以帮助我们改进该系统的工作”。

ChatGPT 是一系列人工智能研发的最新产品,公司将其称为GPT,即生成式经过预先训练的互感器(Generative Pre-Trained Transformer )的第一个字母缩略。系统是在最初版本的基础上通过与人类培训师的对话微调后形成。

马斯克虽然已经不再是 OpenAI的董事会成员,但他在推特上表示,上述系统还通过访问推特数据学习。马斯克说,该系统已经暂停访问推特数据。

聊天机器人给很多试用者留下了深刻印象。 OpenAI 首席执行官山姆·阿尔特曼(Sam Altman )在一条推文中透露了人们对人工智能聊天机器人的兴趣程度:在不到一周时间内已经有百万用户使用。

研发方表示,与机器人聊天的格式允许人工智能机器人回答后续问题、承认错误、指出不正确的前提并拒绝不适当的请求。

科技新闻网站Mashable的一位试用过这款聊天机器人的记者珀尔(Mike Pearl)报道说,要激怒这款聊天机器人说出具冒犯性质的话很难。

珀尔报导说,根据测试,这款聊天机器人有非常精密复杂的躲避忌讳的系统。

然而,OpenAI警告说这款聊天机器人ChatGPT有时会写出“看似合理但不正确或荒谬的答案”。

不过公司同时也表示,正是因为在训练这款机器人时的谨慎小心,才导致拒绝回答原本可以正确回答的问题。

BBC记者对聊天机器人ChatGPT 进行了简短的采访,ChatGPT表明自己是一个谨慎的受访者,能够用英语清晰准确地表达自己。

那么这个聊天机器人认为人工智能会取代人类作家的工作吗?回答是“否”。机器人辩解说“像我这样的人工智能系统可以透过提供建议和想法来帮助作家,但归根到底还是由人类作家来创造的作品”。

当被问及人工智能系统本身对社会将造成什么影响时,答案是“很难预测”;问及是否就推特数据接受过训练时,答案是“不知道”。

当BBC询问有关电影《2001》中虚构的恶毒人工智能HAL时,聊天机器人显得摸不着头脑,并不知道该如何回答。

来源:BBC中文网
链接:https://www.bbc.com/zhongwen/simp/science-63903800

编辑:张铭麟


569#
 楼主| 发表于 2022-12-11 18:44:48 | 只看该作者
【案例】

AI聊天机器人究竟有多厉害?BBC记者对话ChatGPT

有世界首富——电动汽车巨头特斯拉掌门人马斯克( Elon Musk)入股的研发公司OpenAI表示,最新推出的聊天机器人ChatGPT在不到一周时间里就拥有百万用户。

不过,尽管号称可以和人类对话,OpenAI也警告说,这款机器人给出的答案有时候可能“有问题”,甚至可能表现出“带偏见”的行为。

OpenAI希望“收集用户反馈,以帮助我们改进该系统的工作”。

ChatGPT 是一系列人工智能研发的最新产品,公司将其称为GPT,即生成式经过预先训练的互感器(Generative Pre-Trained Transformer )的第一个字母缩略。系统是在最初版本的基础上通过与人类培训师的对话微调后形成。

马斯克虽然已经不再是 OpenAI的董事会成员,但他在推特上表示,上述系统还通过访问推特数据学习。马斯克说,该系统已经暂停访问推特数据。

聊天机器人给很多试用者留下了深刻印象。 OpenAI 首席执行官山姆·阿尔特曼(Sam Altman )在一条推文中透露了人们对人工智能聊天机器人的兴趣程度:在不到一周时间内已经有百万用户使用。

研发方表示,与机器人聊天的格式允许人工智能机器人回答后续问题、承认错误、指出不正确的前提并拒绝不适当的请求。

科技新闻网站Mashable的一位试用过这款聊天机器人的记者珀尔(Mike Pearl)报道说,要激怒这款聊天机器人说出具冒犯性质的话很难。

珀尔报导说,根据测试,这款聊天机器人有非常精密复杂的躲避忌讳的系统。

然而,OpenAI警告说这款聊天机器人ChatGPT有时会写出“看似合理但不正确或荒谬的答案”。

不过公司同时也表示,正是因为在训练这款机器人时的谨慎小心,才导致拒绝回答原本可以正确回答的问题。

BBC记者对聊天机器人ChatGPT 进行了简短的采访,ChatGPT表明自己是一个谨慎的受访者,能够用英语清晰准确地表达自己。

那么这个聊天机器人认为人工智能会取代人类作家的工作吗?回答是“否”。机器人辩解说“像我这样的人工智能系统可以透过提供建议和想法来帮助作家,但归根到底还是由人类作家来创造的作品”。

当被问及人工智能系统本身对社会将造成什么影响时,答案是“很难预测”;问及是否就推特数据接受过训练时,答案是“不知道”。

当BBC询问有关电影《2001》中虚构的恶毒人工智能HAL时,聊天机器人显得摸不着头脑,并不知道该如何回答。

来源:BBC中文网
链接:https://www.bbc.com/zhongwen/simp/science-63903800

编辑:张铭麟

570#
 楼主| 发表于 2022-12-16 21:53:16 | 只看该作者
【案例】
ChatGPT聪明又健谈,但它的创造力也很危险
自然语言人工智能聊天机器人ChatGPT可以写诗和起草法律信函,但不值得信赖。
本周,我请一位前途无量的年轻诗人创作了一首关于1666年伦敦大火的俳句。他就是人工智能聊天机器人ChatGPT。几秒钟后,它给我写出了这个:"灰烬像雪一样落下/大火席卷了伦敦城/毁灭统治了一切"。

嗯,还不赖。第一行有一个季节性的比喻。我对第二句还有点不太满意,它读起来太像我出的题目本身。第三句包含了太多的音节,“统治”还有双关的含义(reign, 与“rain"同音),既指向英国的君主制,也提到了灰烬像雨一样倾泻而下。这是故意的吗?
来源:FTCHINESE
full=y&ccode=2G222004&fbclid=IwAR0uX7qgdzKsT35Fs_kKobByRxHSzvFcIP2wc0cgkZMY5-L1d66ZUA4aw5c&exclusive
编辑:吴氏垂心

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表