传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
461#
 楼主| 发表于 2021-2-7 18:47:50 | 只看该作者
【案例】
报告:人工智能 美国遥遥领先 中国正在追赶
一份研究报告显示,美国在人工智能的研发与使用上仍遥遥领先,中国正在迅速发展,欧盟则有所滞后。
(德国之声中文网)由信息技术与创新基金会(Information Technology and Innovation Foundation)发布的这份研究报告是用了30个衡量指数,其中包括人才、科研活动、商务发展、软硬件投资等。
报告显示,美国以44.6分(满分100分)居首,中国得分32位居第二,欧盟得分23.3。
报告作者发现,美国在初创企业投资以及研发的资金支持这样的关键领域领先。
不过,中国也在数个领域向前追赶,比如在超级计算机方面,去年中国所拥有的数量为214台,超过其它国家,比如美国(113台)和欧盟(91台)。
报告的首席作者、该智库的数据创新中心负责人卡斯特罗(Daniel Castro)向法新社表示:“中国政府将人工智能作为头号优先事务,结果正在显示出来。”
卡斯特罗说:“美国和欧盟应关注中国在这方面的动作并作出回应,因为在人工智能研发使用方面领先的国家将塑造未来,并显著提高其经济竞争力,落后者则将在关键工业领域有失去竞争力的风险。”
欧盟主要在风险资本和私募投资方面有所落后,不过,在科研报告的发表方面则表现更佳。
此份报告显示,中国2018年发表24929份人工智能科研报告,这是可得的最新数据。欧盟则为20418份,美国16233份。
不过,报告称, 美国的科研平均质量仍高于中国和欧盟。
报告还得出结论,在人工智能系统的芯片设计上,美国仍领先全球。
报告称,为保持竞争力,欧盟需要加强对科研的税务优惠,并扩大公共研究机构对人工智能的科研。
而对美国而言,为了保持领先地位,须加强对人工智能研发使用的支持,在利用本国人工智能人才的同时,吸引世界各地的顶尖学者。

原文来源:法新社
原文链接:https://amp.dw.com/zh/%E6%8A%A5%E5%91%8A%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%BE%8E%E5%9B%BD%E9%81%A5%E9%81%A5%E9%A2%86%E5%85%88-%E4%B8%AD%E5%9B%BD%E6%AD%A3%E5%9C%A8%E8%BF%BD%E8%B5%B6/a-56345206?maca=zh-Twitter-sharing&__twitter_impression=true


编辑:刘佳莹
462#
 楼主| 发表于 2021-2-20 22:07:44 | 只看该作者

【案例】


谷歌AI伦理团队创始人:我被开除了!


去年末,谷歌AI伦理团队联合负责人Timnit Gebru被解雇一事在全球都闹得沸沸扬扬。


新年伊始,你以为谷歌就会“新年新气象”了?


天真!


这不,就在几个小时前,谷歌AI伦理部门创始人Margaret Mitchell在社交媒体上表示,“我被开除了”。


对于这项举措,谷歌在邮件中表示:

在对该经理的行为进行审查之后,我们确认其存在多次违反公司行为准则和安全政策的行为,其中包括泄露机密的业务敏感文件和其他员工的私人数据。


根据Axios报道称,早在1月份,谷歌就撤销了Margaret Mitchell的公司访问权限,原因是其使用自动脚本查找了公司“虐待”Timnit Gebru的相关证据。


本月早些时候,Mitchell在推特上发布了一封电子邮件,邮件中谈到了Gebru被解雇的情况,以及该事件似乎“受到了种族主义和性别歧视者们的支持”,“如果AI系统被别有用心的人加以利用,也会受到同样的影响”。




邮件全文链接:

https://docs.google.com/document/d/1ERi2crDToYhYjEjxRoOzO-uOUeLgdoLPfnx1JOErg2w/edit


Mitchell认为,发生在Gebru身上的事情“似乎源于对于现代技术缺乏远见,因此该事件本身就是这个问题的显现”。


支持GebruMitchell被解雇的原因?


也正如Axios之前所报道的那样,Mitchell被解雇发生在谷歌宣布对其AI伦理团队进行重组的后一天。谷歌工程组织副总裁Marian Croak现在领导着“谷歌研究中心一个负责任的人工智能新专业中心”。


根据MitchellLinkedIn资料显示,她在2016年加入谷歌,担任高级研究科学家。两年后,她与Gebru一起成立了谷歌AI伦理团队。


去年12月,MitchellGebru正在撰写有关大型语言处理模型的危害的论文,当Google Brain副总裁Megan Kacholia要求撤回该文章时,Gebru却表示,谷歌需要更加开放,思考“为何这项研究不被接受”。


这此后不久,Gebru便被解雇了,尽管谷歌将其描述为主动辞职。


Gebru事件发生后,Mitchell便开始公开批评谷歌高管,包括谷歌AI部门负责人Jeff Dean和谷歌首席执行官Sundar Pichai1月,在谷歌开始着手调查相关事宜时,Mitchell发现自己失去了公司电子邮件访问权限。


对此,外界普遍猜测,Mitchell被解雇在很大程度上都是因为其与Gebru的关系,以及在后续一系列活动中对Gebru的声援。


在对Gebru事件进行调查之后,谷歌宣布将对其研究和多元化政策进行更改。在一封内部电子邮件中,Jeff Dean向员工道歉,表示他对公司处理Gebru离职一事深表遗憾。


“我听到并承认Gebru博士的退出对女性技术人员、黑人社区人员以及追求技术职业的其他代表性不足的群体以及对谷歌负责任地使用AI表示深切关怀的人代表着什么。这会使得这些人质疑他们在公司的位置,对此我感到遗憾。”


Gebru事件于去年12月发酵以来,谷歌的AI伦理团队就一直处于危机中。在宣布重组后,高级研究员Alex Hanna写道,直到周三晚上新闻报道后,团队才知道Croak的任命。


“他们都让我们要相信他们的处理方式,相信Marian Croak这样的决策者,他们会把我们利益最大化,”她在推特上写到,“但所有的决定都是背着我们做出的”。


谷歌连续曝出的解雇风波在业界引起巨大轰动,也引发了人们对谷歌对异议的容忍度的质疑。


2018年至今,谷歌内部已经发生过多次大规模的抗议活动。最近,多位谷歌员工宣布共同成立Alphabet工会,希望在薪酬和伦理等问题上向公司施压。


伦理问题需要得到相同程度的重视


Mitchell以在人脸识别偏见的批评而闻名于世。


去年7月,MIT正在使用的一个高引用图片数据集Tiny Images被曝出存在强烈种族歧视和厌女症标签。


这个数据库内,当黑人或猴子出现时,标签显示为N*gger这一对黑人的蔑称词汇;此外,身穿比基尼或抱着孩子的妇女的图片被标记为b*tch等这一侮辱性词汇。



这在学术圈迅速引发广泛关注和激烈争议。得知消息后,MIT迅速下线了这一数据集,并发布公告称,由该数据集训练出的AI系统,会潜在地使用种族主义、厌女症和其他激进术语来描述对象,请所有研究员暂停使用和训练。


下线该数据库后,MIT还表示,将敦促研究人员和开发人员停止使用培训库,并删除所有副本。


ImageNet也有同样的问题,因为它也是使用WordNet进行注释的。一项名为“ImageNet Roulette”的实验允许人们将照片提交给由ImageNet训练出来的神经网络,该神经网络将使用数据集中的标签来描述这些图片。不出所料,人们在系统中输入的是他们最感兴趣的照片:自拍,而软件会输出一些种族主义和冒犯性的标签描述他们。


在这些庞大的数据集中,有问题的图像和标签所占的比例很小,并且很容易将其作为异常现象清除掉。PrabhuBirhane认为,如果将这些材料用于训练现实世界中使用的机器学习模型,则很可能导致真正的伤害。


他们在论文中写道:“缺乏对规范数据集的规范,会对女性、种族和少数民族以及处于社会边缘的弱势个体和社区造成不成比例的负面影响。”


少数群体在AI训练数据集中往往没有得到重视,这也是人脸识别算法在识别女性和肤色较深的人时遇到困难的原因。今年早些时候,底特律的一名黑人被面部识别软件误认为小偷嫌疑人,被警察错误逮捕。


这也是为什么此前,一个有争议的人工智能算法从低分辨率的快照中生成高分辨率的图像,把一张奥巴马的模糊照片变成更像白人而不是黑人的原因。



尽管随着技术的成熟,科技公司都在不同领域取得了不小的进步,但是与技术相伴生的伦理问题却并未得到相同程度的重视。


谷歌的系列事件到底会成为导火索,还是伦理问题被提上台面的引线,我们将拭目以待。



来源:大数据文摘



编辑:李佳怿

463#
 楼主| 发表于 2021-3-12 10:22:01 | 只看该作者
【案例】


                                                                                                                                                                              编辑:贾梦琪
464#
 楼主| 发表于 2021-3-18 10:51:40 | 只看该作者
【案例】
智能门店人脸识别应用的安全合规策略
前言
随着进入移动互联、大数据分析时代,人体的面部特征、指纹、虹膜、声音、步态等个人生物识别信息得以广泛运用,生物识别技术获得迅速发展,大量应用于各行各业安全认证领域,尤其是在数字化门店发展中。然而,随着公众隐私保护意识的加强,企业在各项业务中应用个人生物识别技术以提升效率的同时,也面临安全合规风险防范的挑战。
早在2008年,美国伊利诺伊州就率先颁布了《生物信息隐私法案》(BIPA),以规定生物标识符的收集与使用。2016年,欧盟推出了《通用数据保护条例》(GDPR),其中包含了生物识别数据在公共和私人领域的应用。我国现行的《网络安全法》、《个人信息安全规范》、《数据安全管理办法》以及2021年新施行《民法典》中,均对包含生物信息在内的个人信息的管理与使用做出了明确规定,同时督促企业加强自身风险管控。
普华永道在个人隐私保护咨询领域深耕多年,制定了个人生物信息应用安全合规建设的总体解决方案。在数字化发展时代,人脸识别技术被越来越多的企业应用,本文旨在全面分析人脸识别技术的应用场景、风险,并提出整体解决方案,提升企业安全合规水平。
人脸识别技术应用的优势和挑战
普华永道认为,人脸识别技术应用在数字化门店的优势有三:
第一,可以有效提升企业的业务效率,主要体现在设备终端身份识别、人流量统计、热区统计、店员考评等场景,改变传统门店的管理模式。
第二,将人脸识别技术应用到用户身份判别,尤其是涉及分销模式及开展渠道风控时,可以大大降低重复的人工沟通时间,结合大数据分析技术将用户进行细分,协助企业降低成本,提高利润。
第三,用户可以体验更为专业的定制化服务,如商家通过人脸识别技术进行会员管理,还可以利用实时人脸跟踪与属性分析,通过顾客的人脸互动娱乐反馈,结合产品促销信息,实现更加生动的互动营销体验,从企业角度提升用户体验。越来越多的企业将人脸识别信息与其他信息融合开展综合数据分析,便于企业制定特定化用户服务方案,提高服务质量,进而增加用户黏度。
现阶段,普华永道结合数据安全合规咨询领域的经验,归纳和总结了数字化门店在收集使用个人生物信息时所面临的挑战,主要集中在用户授权、安全防护、风险控制和治理管控四个方面。
整体解决方案
普华永道认为,企业需要制定个人生物信息全生命周期总体框架解决方案,以应对上述四个数字化门店人脸识别信息的安全合规挑战。
应对1:建设用户授权同意方案
目前国内外对人脸识别技术的关注程度日渐提升,国内部分房地产售楼处已出现无感收集客户信息等事件。由于各国政策法规各异,合规管理是目前企业在应用人脸识别技术时需要着重考虑的首要问题。应对思路如下:
梳理生物信息相关的法律法规、行业监管要求
目前我国在《民法典》、《远程人脸识别系统技术要求》以及《个人信息保护法(草案)》中分别对生物信息收集提出了明确要求。此外,针对出海企业,还需要充分梳理和识别不同国家对个人生物信息相关的安全合规要求。
识别并建立个人生物信息收集、使用场景
近年来,生物信息识别应用场景日益扩展,广泛应用于商场、景区、小区、办公楼以及政务机构等。例如,人脸识别门禁是物业的标配,售楼处无感采集个人信息识别客户来源,但这也存在个人生物信息泄露的安全隐患,所以需要全面排查目前人脸识别技术应用场景,禁止滥用现象。
设计健全的用户授权同意方案
在充分识别个人生物信息采集的目的和使用场景的基础上,依据国家法律法规和标准的要求,设计基于场景的用户授权同意方案。例如以“熟客识别场景”为例,目前很多企业在数字化转型过程中为了打通线上线下数据,采用的人脸识别系统通常具有顾客身份识别或熟客营销的功能,在本场景下可以考虑采用“双重授权”机制。
应对2:加强安全防护能力
所谓“刷脸”需谨慎,个人生物信息泄露将不可逆,人脸识别信息具有高度的直接识别性和唯一性,因此在人脸信息处理的过程中,存在更多的数据泄露、非法滥用、盗用等隐患。数据泄露造成的经济损失严重,波及范围甚广,泄露的数据被用于非法用途的可能性更高,对公司声誉影响很大,事后补救艰难。
20198月,由于系统存在安全漏洞,某全球知名生物识别技术公司发生重大安全事件,数据泄露包括数百万用户的指纹、面部识别数据、未加密的用户名和密码等,影响涉及83个国家的5700多个政府部门、银行和警察局等。此外,我国也发生过银行APP人脸识别技术被00后黑客攻破等一系列事件。
在应用人脸识别技术的过程中,除了合规管理的要求外,企业应主动采取安全防护措施,积极提升技术手段,全面保障生物信息安全性,防止出现信息泄露事件。
从数据生命周期的角度出发,企业应建立个人生物信息安全合规技术框架,充分识别数据全生命周期中的安全风险,按实际情况的需要采取加密保护、隔离存储、脱敏使用等技术措施,并在确认不具备处理的必要性后进行及时、彻底的销毁,制定全面有效的增强型防护措施。普华永道认为,在以下五个环节中均需要采取必要的安全防护措施:
数据收集
规范数据收集处理的流程,设置多重参数,减少环节盲区,遵循“最小化收集”、“业务开展所必须”等原则,全面满足政府监管需求。
数据存储
标准化数据存储条件,增加多重防御,抵抗外界攻击,防止数据遗失或被窃。最小化存储,在完成业务需求后及时(可参考国外实践)删除临时文件、过程文件等。
数据分析
尽量采取门店本地化分析及处理策略,降低数据在传输、共享过程中的滥用、泄露风险。限制数据转移方式,必要时采取去标识化方式,降低原始数据泄露的可能。
数据处理
提高数据处理手段,去除非必需数据的处理,减轻隐私数据长期大量保存的压力。应严格限制客户人脸原始数据(照片)的展示与披露场景,避免个人信息的二次泄露。
数据删除
生物信息要尽可能最小化存储和使用,原则上应在人脸特征信息完成身份核验后及时删除原始样本,保证数据使用的合规合法性。
应对3:构建第三方风控机制
企业应建立第三方(包括人脸技术的开发商、服务商等)风险管理机制,从法律、管理、技术等多维度,降低第三方在个人生物信息的收集、使用过程中出现泄露风险。目前市场上主流的人脸识别技术供应商,通常会采取“本地采集、云端分析、店端应用”等形式,在此过程中会涉及数据采集并采取云端算法模型进行在线处理、分析。此外,还涉及数据统计分析并共享结果到企业或门店,因此,供应商应满足国家网络安全防护、数据保护相关的安全要求,并具备相应的安全资质。
供应商应满足包括但不限于:网络安全等级保护要求、人脸识别系统商用密码技术要求、视频监控人脸识别技术要求、数据保护技术等。
应对4:健全安全合规治理与管控机制
所谓“无规矩不成方圆”,从企业自身管理角度考虑,应建立健全的治理与管控机制,使人脸识别技术的应用有“轨”可依,有“迹”可循,这是数字化门店设立前期应对安全合规风险的有效手段。普华永道认为,企业应着重考虑以下三个方面:
数据安全影响评估机制
企业在收集、处理个人面部识别信息前,应建立个人信息处理活动清单,提前开展数据安全影响评估。涉及到面部识别信息、声纹等信息时,由于该类数据的泄露对个人权力和自由造成高风险,应当特别注意。应开展DPIA评估(数据保护影响评估),全面识别安全合规风险,制定有效的安全管控与技术措施。
使用人脸识别技术、开展DPIA评估时,企业应当将收集使用个人信息的合法性、正当性、必要性,以及对个人信息主体权力的影响进行综合评估。个人信息主体有知情权、访问权、了解人脸识别使用目的及其原因的权力、反对权和更正权、删除权等。如果采用人脸识别应用技术,数据分析人员根据数据综合分析进行决策,则可被视为自动化决策。
用户权益保障策略
由于人脸识别信息是基于对个人信息的处理,用户享有充分的个人信息的选择同意权、知情权、访问权、反对权、更正权、删除权等。由于个人生物识别信息技术特性,其数据采集与匹配可能会存在数据识别率错误、数据匹配错误等情况,如在错误匹配下,数据主体可以请求更正以防止进一步或重复性的错误匹配。因此,企业应当建立健全的用户权益保障机制,包括管理规程以及用户权利管理工具平台,以支持管理机制的有效落地运行。
人脸识别应用安全合规运营机制
企业应构建个人信息保护组织,清晰定义各部门职责,尤其是在人脸识别应用环节,建设新型技术引入与管理风控机制,从而明确企业三道防线职责,编制并发布人脸识别信息在全生命周期的内部安全合规运营策略,通过人脸识别应用提升企业业务发展的同时,保障数据安全合规性,满足各项监管要求。
领先案例分享
伴随着数字化的进程,某汽车企业数字化门店项目的实施实现了从线索、商机、跟进、试驾、销售推进、赢单、交付全流程数据化服务,提升了门店运营及销售团队的执行能效。与此同时,这对人脸识别技术的应用带来了更多安全挑战。
该企业在建设数字化门店方案时,充分识别了每个环节的业务需求与对应的监管要求,开展大量行业实践经验调研分析,实施用户个人信息安全影响风险评估与处置,并引入privacy by design(隐私保护设计)理念,把隐私保护体现在产品设计阶段,加强安全合规保障能力。例如,在人脸识别技术投入生产使用前,该企业通过对生物识别设备、系统组件,以及特征信息安全、数据全生命周期等方面进行了全面的安全合规风险识别,并制定了有效的风险管控措施。
同时,该企业充分识别了人脸识别应用场景,并且在生物特征注册和身份认证这两个过程中,分析了解到生物特征识别系统处于与外界交互的状态,系统此时非常容易受到外界攻击,因此制定了增强性的安全保护策略,并且在物理安全方面对伪造身份、伪造特征、篡改特征处理器、传送攻击、侵库攻击等方面建立了安全防护策略,以减轻在进行数字化门店转型过程中生物信息的使用风险。此外,除了用户数据的安全防护之外,该企业也参照国内外最佳实践做法,结合人脸识别信息收集使用场景与目的,制定并实施了健全的用户授权方案,包括充分告知、选择同意的多种授权机制。
该企业先前根据国家数据安全、隐私保护如《网络安全法》、《信息安全技术个人信息安全规范》等国家法律法规和标准,并依据ISO27701国际标准体系,建立了健全的数据安全合规保护体系。随着建设并试点推广数字化智能门店,企业全面识别了人脸识别应用的安全合规风险,制定并实施了风险整改措施,在原有的数据安全合规保护框架体系下,细化了“人脸识别信息应用安全合规关键策略”,有效指导企业在个人信息安全合规体系的落地运行。该企业人脸识别应用技术的安全合规关键策略如下图所示(部分示例):
来源:微信公众号——普华永道
编辑:邱亚婷

465#
 楼主| 发表于 2021-3-26 20:37:39 | 只看该作者

【案例】



英国工会呼吁限制职场使用算法


英国工会联盟一份新报告显示,英国急需出台新的法律保护措施,规范人工智能(AI)在职场的应用,防止劳动者被算法雇佣或解雇。新冠疫情加速了高科技管理工具的应用,雇主越来越多地使用人工智能来帮助他们远程招聘、筛选裁员候选人、确定绩效评级、分配工作并监控居家办公的员工的工作效率。英国工会联盟认为,劳工法未能跟上新技术的推广步伐,并希望雇主、科技公司和政府采取行动填补空白。



编辑:王雅欣

466#
 楼主| 发表于 2021-3-26 20:51:11 | 只看该作者

【案例】



国内新闻传播领域人工智能技术研究综述



摘要

作者围绕国内新闻传播领域人工智能技术研究相关的“智媒”“发展应用”“趋势和影响”“人工智能的接受”等关键词,对CNKI、万方数据库、国家哲学社会科学学术期刊数据库、SCIEILISAJSTORProQuest等数据库进行了系统的检索,对相关研究成果进行梳理,全方位展示了这一领域研究的现状。


  


随着人工智能理论和技术的不断进步,人工智能技术正全面进入新闻传播生产各个环节。我国人工智能技术在新闻传播业的应用起步较晚,但在国家和政府大力支持下发展迅速,人工智能技术基本涵盖了从信息采集、内容生产、产品分发,到用户接受及培养等新闻传播生产的全过程[1]。彭兰认为人工智能技术已经在包括用户平台、新闻生产系统、新闻分发平台及信息终端几个主要方面全面运用,并对新闻生产的各个环节产生了不同的影响[2]


我们围绕与本研究相关的“智媒”“发展应用”“趋势和影响”“人工智能的接受”等关键词,对CNKI、万方数据库、国家哲学社会科学学术期刊数据库、SCIEILISAJSTORProQuest等数据库进行了系统检索。对本研究相关的研究成果进行了梳理。




人工智能技术在信息采集方面的应用研究


人工智能技术和大数据技术的结合使得信息采集的手段和渠道都得到极大拓展。


随之而来,传感器的概念也开始逐步进入新闻生产领域,并且逐步成为研究者关注重点。新闻传播业传感器的概念源于美国,传感器是一种监测装置,能感受到被测量的信息,并能将其按一定规律转换成为电信号或其他形式予以输出,以完成信息的记录、传输、存储、显示和控制等。从本质上讲,传感器是一种收集数据信息的方式[3]


传感器在新闻传播业的运用,有助于让我们调查无法看到、听到或触摸的事物,这些工具为我们提供了新的感官[4]。许向东[5]研究后发现,美国新闻业界的传感器应用实践主要有以下三个方面:一是利用现有商业设备设计出自己的传感系统;二是从政府部门或公共设施现有传感资源中采集数据;三是设计原型传感系统对数据进行生产。目前美国各大媒体主要采用以下五种方式对新闻传感数据进行采集:通过公共设施收集数据;“众包”方式收集数据;媒体直接用传感器采集数据;从政府部门获得传感数据;运用无人机收集传感数据。从美国新闻业的实践可以总结出传感器新闻具有如下特点:新闻信息的量化收集和处理;传感数据相较于其他数据易于电脑解读;传感数据的收集越来越多地采用“众包”方式。结合国外经验,从具体实践看,我国传感器与新闻生产主要有三种结合方式:一是利用市面上已有的、成熟的商业设备,设计出适合自己的传感系统;二是从已有的传感资源中获得所需数据;三是设计原型传感系统来生产数据[6]


彭兰[7]主张从两个角度理解传感器对新闻业的意义:作为新闻源的传感器和作为新闻反馈机制的传感器。作为新闻源的传感器可以极大提高和拓展新闻感知、信息采集的维度;可以对未来发展趋势进行预测并为预测性报道提供新依据;可以将受众的个性化需求反馈给新闻生产者,对新闻进行“定制化”生产;新闻源得到极大拓展,万物皆媒,削减了媒体的中介性意义。作为用户反馈机制的传感器可以通过智能可穿戴设备,使用户反馈从意见层面深化到人体生理与心理层面。这使媒体用户研究进入更加精准的层次。反过来看,这些精准的用户反馈又可能成为新的消息来源,带来新一轮的新闻生产。


有学者[8]认为以传感器为代表的智能设备可以自动抓取、处理和分析数据,在某种程度上使新闻更接近现实驱动和舆论驱动。这有利于记者从一系列数据中发现宏观、重大而隐秘的联系,找到容易被忽视的有新闻价值的线索。这无疑扩大了新闻的来源途径,从以往单向度的、有限的途径转变为未来多维度的、无限的来源。一方面,很多政府和公共区域内的传感器能够采集环境数据,监测温度、气象、交通等,应用这些数据有助于媒体更好地扮演社会监督和公共服务的角色;另一方面,利用传感器采集用户的心理和情感反馈信息,有助于媒体调整新闻报道方式以尽快满足用户的需求,同时使采集到的用户数据变成新的消息源,服务于新闻生产。


喻国明[9]在研究中提到传感器与人工智能的结合已经被用于具体实践中。新华社发布的人工智能平台“媒体大脑”就是通过摄像头、传感器、无人机、行车数据分析与价值挖掘的细腻入微,使基于人工智能的内容生产擅长于事态发展和需求构造的预测。借助记录仪等智能采集设备,结合新闻发生地附近的多维数据,自动检测新闻事件、自动生成数据新闻和富媒体资讯。让摄像头以及各种传感器成为记者的眼睛,在突发事件和重大事件的捕捉和生成上,快人一步、自动生成。实际上,这是传感器新闻与人工智能的结合。由此可以看到,传感器新闻拓展了信息采集的维度,弥补人类观察范围受感官局限的缺陷。喻国明[10]等学者在研究中表示,从时间维度上看,传感器获取的信息不仅仅可以描述现在,还可预测未来,因为传感器检测到的数据是不断变化的,它可以体现监测对象的动态和趋势,而这些特征是传统媒体无法通过传统的信息采集渠道获取的。从空间维度上看,传感器获取的信息不仅仅局限于某一区域,还可以扩展到更为宏观的范围,它可以用一种更加广阔的视角洞悉事件的全貌。


通过文献梳理发现,目前学界对人工智能在信息采集上应用的相关研究集中在传感器新闻和数据新闻上。传感器新闻和数据新闻与人工智能的结合大大拓宽了信息采集的渠道和方式,加深了对事物探测的深度和广度,这是传统新闻传播业的原始信息采集方式难以企及的。然而,就目前研究而言,多集中在理论研究领域,在具体技术供需、效果体现以及前瞻性等实践方向上仍有一定的不足。同时随着语音交互技术、图文交互技术等技术的不断革新,对新兴的人工智能技术在新闻传播业上应用的探索也相对较少。




人工智能技术在内容生产方面的应用研究


人工智能技术的不断创新给新闻传播业带来巨大变革,人工智能技术进入内容生产领域,发力于新闻编辑制作环节,“机器写作”和“自动化新闻”应运而生。机器写作作为人工智能技术在新闻传播业应用的实践代表成为众多学者的关注重点。


机器人新闻又叫自动化新闻,是指运用算法程序对输入或搜集的数据自动进行加工处理,依靠计算机程序自动生成“成品”样态的新闻报道。根据新闻报道,我国的“机器写作”大规模实践始于2015年,而相关研究几乎是与具体实践并行的。林楚方[11]通过介绍今日头条的数据分析处理能力、个性化的定制服务,展示了借助机器写作,新闻内容生产个性化、丰富化的可能性。胡郁、袁杰春[12]则表示当前机器写作在新闻生产实践中已经被广泛应用,尤其是在财经、体育、气象等数据分析性领域。


喻国明[13]曾在早期研究中提到机器写作给新闻传播业内容生产带来巨大调整,集中在四方面:一是动态新闻资讯生产的准确与迅速;二是基于对语料库的深度学习,实现新闻叙事语言的贴近性、新闻叙事风格的多样性;三是海量新闻信息内容自动归纳、整理、分档并结合专家知识库进行推理、判断信息来源的可靠性;四是基于大数据挖掘和自然语言处理技术实现对新闻时间的纵向挖掘、横向连接,全面、立体地呈现客观世界的图景。同时,随着机器新闻写作的应用,新闻人角色向两方面转变:一是从重复、复杂的琐碎工作中解脱出来,可以将更多精力投入到深度报道中;二是着眼构建能够充分吸收多个新闻源的新兴新闻传播平台。喻国明[14]提出,在互联网智能化发展趋势下,机器写作展现出以下特点:机器高效、全天候的工作,带来了海量的新闻;反应迅捷、秒级的出稿速度,尤其是应对突发事件时,当人类记者还处在惊愕中之时,机器人写手已经迅速完成了数据描述和分析,以及进一步的数据价值挖掘、最后迅速完成自动写稿的全过程,秒级出稿速度,人类望尘莫及;机器写作能够以用户偏好来制作相关的新闻内容,而且还能提供与用户个人生活场景相匹配的私人定制产品,不仅能够生成一种产品,还能够在合适的地点、合适的场景用合适的形式分发给用户。另一方面,用户画像也将促进媒体对用户的了解,使媒体运营更加个性化、精细化,做到千人千面、精准到达,有效占领传统媒介市场无法激活的长尾市场和利基市场,极大地为新的盈利模式提供技术支撑,这也是传统内容分发方式无法实现的。人工智能技术推动下机器人加入新闻生产者的阵营,加快新闻生产速度、增加新闻生产内容、消灭人为的技术差错,提高了新闻质量、减少了写作成本[15]。同时有学者[16]的研究中还提到机器写作对新闻事实的准确呈现。很多时候,记者很难对所有资料进行核实比对,验证真伪。自动化技术的运用解决了记者核实新闻来源真实性难题,记者可以借助数据分析找出新闻事件和新闻人物出现的假证据、伪证言,挖掘出新闻点。只要保证程序员编程环节不出现偏差,引用的数据来源真实可靠,以数据说话的新闻写作机器人可以避免立场偏向导致的新闻失实,最大限度地保证新闻的客观公正。


也有学者对机器人新闻写作的不足和负面作用进行思考。匡文波[17]认为“机器人写稿”在内容生产方面具有强大优势,但其生产的内容缺少“温度”。新闻作品其实既要有思想、有品质,更要有温度。机器人写作虽然提升了新闻的数量和深度,但在新闻温度的层面上还有发展空间。随着机器学习技术不断进步,机器新闻写作技术也在不断发展,喻国明等多位学者均在研究中提到,目前机器新闻写作的拟人化程度在不断加深,在大量数据支持下,机器通过海量文本阅读和文本结构分析,可以做到在新闻写作中有意识地模仿某种风格。机器新闻写作正在力图去掉机械化、金属化的标签。


国外学者富兰克林[18]也表示了对机器新闻写作的担忧,他通过预期违背理论和主要模型进行了两个实验,证明了机器新闻作者(machine authorship)正在深刻地影响着新闻公信力,认为将新闻产品权利归属于机器会使得新闻变得更不可信。


喻国明、姚飞[19]在研究中提及目前人工智能技术有两种掌握方式:机构掌握和个人掌握。目前,人工智能的成果、手段和技术更多是掌握在机构手里,比如百度、新华社等。现阶段人工智能的使用需要大量人力物力的投入,个人还无法满足相应要求。所以机构在使用人工智能进行写作、传输和资源配置时必须要清楚人工智能可以做什么,不能做什么。当人工智能技术向下渗透到普通人都可以掌握时,就需要更多的专业工作者去平衡内容的结构,而非生产内容。概言之,就是随着人工智能技术的发展,需要更多专业工作者对内容的表达边界、开放和汇总提供更多平衡机制。


此外,值得关注的一点是,目前大部分研究在基于实践的理论升华部分亟待加强。除机器人写作外,随着智能语音识别技术、图文交互技术、智能翻译技术、社交机器人人机交互技术的发展革新,由此发展出来的社交机器人采访、多语种互译、新闻现场要素智能识别等技术先后进入新闻传播领域[20],但遗憾的是,目前国内文献中有关这些新兴技术的研究多停留于简略介绍阶段,缺乏具体、深入、全方位的研究。




人工智能技术在新闻信息产品分发上的研究


近几年来,随着今日头条等算法先行的内容平台兴起,产品分发的核心逐渐从编辑分发转移到算法上,带来了产品分发的算法革命。学者们对算法的研究主要集中在:对算法机制的技术解读,算法对新闻业的重塑以及算法技术的中立性和有无价值观等方面。


姜红[21]认为算法给传统新闻业带来巨大冲击,具体体现在算法将传统新闻业的“把关人”角色转移到了机器身上,解构了传统新闻的价值选择标准以及新闻的“公共性”。范红霞、孙金波[22]指出,算法渗透到数据新闻生产的各个环节,例如数据查找与采集中的字符串查找算法、数据聚合与集成中的基于K-Means算法的新闻聚类分析、数据挖掘算法——购物车理论和FP树关联分析、数据推荐算法和预测模型——协同过滤推荐和潜在因子推荐。算法带来了传统媒体的革命,媒体从“信息传播”向“知识传播”转型,算法取代议程设置,开始影响公共舆论。


喻国明[23]等学者更是提出了人工智能技术就是一种算法模型,而这种算法模型的“智能化”程度取决于计算能力、大数据,以及算法模型的“三位一体”的品质。同时算法的社会化本质是一种权力。研究提到数据和算法正在重塑整个新闻业的生态系统,算法本身暗含的权力关系在新闻传播的全环节中也有明显体现:一是在新闻线索获取上,信息权的弥散化。随着算法在新闻来源环节中的应用,新闻的生产与传播过程逐渐由先前的集中式趋向分布式,即多重主体在某种模式下共同介入某一个话题的报道、评论、分析与信息的加工和进一步阐释。这种范式的转变与普及得益于人工智能技术,在技术的作用下,分布式新闻生产过程的参与主体甚至扩展到了物体。二是在新闻写作编辑上,算法威胁传统的把关权力。当算法通过对各种数据的捕捉,在传统媒体和政府之外成为广受认可的消息源,它就具备了影响舆论和社会情感的形成和表达的能力,传统媒体的社会控制能力受到削弱。算法甚至可以使公众在由自己的意志编织起来的“信息茧房”中背离事实,削弱其理性判断力,从而实现对公众的意识操纵。三是算法通过非制度性权力来构建“社会共识”。算法可通过大数据将个体的诉求随时随地进行表达、记录及价值挖掘,并且对这些数据进行连接、分析,为社会民意搭建一个前所未有的社会基础的平台。四是大数据构建算法无所不至的传播权力,也导致其传播结果的新一轮“窄化”。五是在受众接收上,平等与分化产生悖论——算法以“座驾”的方式实现着对人的自由度的新限定。在这种算法的权力范式之下,用户被平等地赋予了网络主体的身份,并对其赋能和赋权。但同时算法技术也在相当大的程度上规定了人对世界的感知及其自由度,即它框定了我们的视界,深刻地影响着我们对自我的认识与呈现,并已渗透到我们的生活空间之中。


同时,基于算法的特性,很多学者在研究过程中也关注到了算法带来的问题。个性化算法会造成“信息茧房”和“回音室”效应,对用户造成一种信息隔绝,使用户无法对外界环境进行全面感知。尚帅[24]指出算法作为一种技术和权力,潜在且隐蔽地控制着用户,并将这种控制转变成让人浑然不觉的符号暴力。方师师[25]认为,算法机制有可能会在当前的社会条件下产生算法审查、信息操控与平台偏向,从而影响受众态度。


随着人工智能领域的不断拓展和新技术的面世,一些学者将视野转移到新技术、新产品与新闻传播内容分发上来,人工智能对谣言的治理和对舆情的监测开始进入研究者的视野。喻国明[26]以阿里公司达摩院NLP团队基于大数据与人工智能技术推出的一款被命名为“谣言粉碎机”的智能辟谣产品为例,介绍了其工作原理,同时提出人工智能技术在网络谣言治理中的应用至少可以包括这样几个方面:一是形成谣言防范的社会促进机制。通过相应的大数据计算机建模,能够提出防范谣言的技术建议,以及公众参与的谣言治理教育对策。二是构建谣言预测模型库,基于受众反应行为数据,构建和完善具有谣言自动识别、预测,且能够用于实操的模型库。三是总结谣言演化的机制与规律,形成治理方案:即借助计算机仿真技术,探索海量用户的受众反应生成、传播与动态演化规律,并探索不同网络结构、不同干预策略的治理对策及其效果评估。四是构建信用分级的造谣者、传谣者和易信谣者数据库。网络谣言的治理从根本上讲是对人的治理,需要考虑针对性和精准化,按照谣言传播链条的角色和地位,可以将之分为造谣者、传谣者和易信谣者,并对之进行传播信用等级的评估,对信用等级较低的账号进行预警,一旦用户点开其传播的信息,自动预警提示。五是充分利用谣言的传播时滞性,变事后“灭火”为事先防范。有研究表明,网络谣言从核心地区向边缘地区、从核心人群向边缘人群的传播是有时间周期的,大约为1~3天。网络谣言需要抓住传播时滞周期,及早切断传播路径,实现网络谣言预警。


张志安、田丽等学者也在各自研究中讨论过人工智能下舆论监测的相关内容。张志安[27]将关注点放在人工智能给新闻舆论和意识形态工作带来的机遇与挑战上,他认为人工智能在以下几方面的发力可以给新闻舆论和意识形态工作带来机遇:一是提升主流资讯传播的力度,推动传统媒体与新兴媒体融合发展,凭借快速反馈、灵活交互、精准匹配与个性化服务,确保主流媒体的内容始终具备先进传播力的基石。二是提升主流资讯传播的精度,通过大数据分析和人工智能推送机制,主流媒体可针对关注公共议题的特定人群进行更加智能化、有针对性的时政内容推送,从而提高舆论引导的针对性和精准性。三是提升主流资讯传播的效度,用新数据、新工作和新方法来指导新闻舆论和意识形态领域的工作实践,可提升舆情监测和意识形态引导的效果。同时人工智能的应用也为新闻舆论和意识形态工作带来挑战,如新闻传播领域内人工智能当下的应用场景更多的还是感性化与实用性的,无法促进受众公共意识的培育;基于人工智能的信息推荐更多的是针对人的感性需求,信息消费主要立足于感官刺激或实用需求的满足,容易造成新闻消费与网络空间的过度娱乐化、碎片化,乃至低俗化,降低公众对严肃新闻、主流新闻的关注度;此外,社交网络传播所产生的“回声室”效应,导致信息在封闭的小圈子中得到传播,“信息茧房”则加剧社群区隔,从而不利于主流意识形态的整合,等等。刘德寰、李雪莲[28]认为“大数据的意义不仅在于改善我们的新闻展现方式、讲故事的方式、推送方式等,如果认为这就是数据对于新闻的意义,那是舍本逐末,买椟还珠。”田丽[29]则讨论了基于机器学习的AI点赞评论系统的产生,及其对舆论监测系统的挑战,并提出了相应对策。


通过文献梳理不难发现,算法研究占据新闻传播业内容分发的绝大部分,即使有对谣言治理、舆论传播、舆情监控的讨论也仅局限在宏观的人工智能技术的影响方面,很少能触及应用机制、趋势判断等微观内容。




人工智能技术在用户接受和反馈方面的应用研究


在文献梳理过程中发现,直接研究讨论人工智能技术在用户接受和反馈方面的内容相对较少。目前的讨论多集中在人工智能技术对受众的影响、人工智能技术的终端应用和用户反馈等几方面。


彭兰[30]认为智能化算法分发模式解决了人与内容的连接问题,个性化、场景化、关系化等方面“算力”的增强,有助于激发受众新需求、精确定位用户需求,破除“信息茧房”束缚、促进受众对公共话题的关注度,使其重新找到社会归属感。同时,彭兰[31]还提出人工智能技术在信息采集和内容分发上的应用,促成了受众“生产—消费”的一体化,尤其是社会化媒体兴起之后,内容消费和内容生产逐渐融为一体。


智能化的终端设备可能是人工智能技术与受众最直接的联系,这部分研究主要集中在新闻体验,即VR/AR技术在新闻传播领域的应用。近一两年随着智能语音识别系统和人机交互技术的发展,智能音箱开始进入研究者的讨论范围。


VR/AR等技术,将为人们塑造全新的新闻临场感。VR/AR可以营造出让用户在三维空间里直接“到达”现场的体验感,让用户360度沉浸于现场。用户在现场的观察与感受,更多取决于他们的主观兴趣与认知需要,而较少受到传统的摄像、导播视角的限制[32]。喻国明[33]提出VR新闻将从新闻生产方式、新闻呈现方式以及新闻传受关系等方面全面建构新兴媒介环境。杨曙[34]指出当前VR新闻制作存在缺陷,设备不成熟、制作周期长,VR新闻的内容发展不够成熟,新闻深度互动性带来一定伦理问题[35]。以人工智能为核心的声控智媒风头正劲,成为当下最受瞩目的人工智能媒体之一。语音控制、人机对话等主要特征,为新闻传媒业提供了全新的内容分发渠道,其代表产品包括Amazon EchoGoogle HomeApple HomePod等。作为其核心技术的智能语音控制则具有更为深远的应用前景,以Amazon AlexaGoogle AssistantApple SiriSamsung Bixby等为代表的智能语音助手被广泛应用于智能手机、家用汽车、电视机、微波炉和电冰箱等诸多日用品和生活场景中。由于现有技术水平和版权限制,以智能音箱为代表的声控智媒所能提供的新闻产品有:新闻简报、电台广播、互动问答与交互式体验。其应用远没预期的频繁、广泛。基于声控智能媒体的新闻产品开发和消费尚处于起步阶段,现有智能语音新闻产品服务依然存在种种不足,平台方的技术支持仍有一定的优化提升空间。但这丝毫不妨碍在人工智能技术和新闻传播业进一步融合的未来,新声控智媒成为新的突破点和增长点。


在用户反馈方面,除前文提到过的AI点赞等具体应用,智能评论管理系统也崭露头角。纽约时报是以智能技术管理评论的先行者。2015年,纽约时报与Google旗下的Jigsaw合作The Coral Project(珊瑚计划),依靠算法对不同用户进行分级画像,以此决定哪些用户的评论可以不经人工审查就可以发布,同时对评论呈现的优先级进行排序。殷乐、朱豆豆[36]则以智能音箱为例,通过对智能音箱使用特点的介绍,展现了人工智能技术在声音媒体上的突破:首先,突破媒体形态的限制,各媒体形态之间转换自如,文字、音频、图片的相互转换,“人工智能+音频”打破了原有的音频生态。其次,突破传统音频产业关系,加速跨界合作,智能音频终端被广泛应用于各种设备,同时精准化推送受到广告商青睐,加速了智能音频企业与上下游公司的合作。再次是人机交互走向深化,智能终端、智能助手的爆发直接促进了人机交流的深化,使得个性化推荐成为播客主推的分发方式,实现了智能问答、按需收听、人机直接对话等人机交互新形式。


通过梳理,不难发现此类研究涉及的方向比较单一,对技术多是描述性介绍,少有宏观影响、发展趋势和微观具体应用等方面的探讨。刘德寰、李雪莲的研究中提到:“数据处理人员、部分学界专家使用机器化数据做频率表、交互表分析,进而得出一些看起来非常美丽的图表与论断,这些描述的特点在于直接、简单、快速,以其形象化和便捷化一时间带来新鲜强大的感觉......数据无论在广度、深度、范围层面达到何种成就都只是商业附庸,而不可能拥有真正的科学内涵,并对科学研究、理论创新产生实质性的影响。”[37]




人工智能技术在新闻传播各个具体领域的应用研究


人工智能与媒体的结合、人机协作一体化加深,技术、产业、人的融合传媒生态结构开始显现。彭兰[31]认为,智能化技术正在进入内容行业,并使内容生产、内容分发与消费等全面升级,表现为以智能化驱动的内容生产升级、以算法为核心的内容分发升级、个性化与社交化交织、消费与生产一体的内容消费升级,进而逐渐构建新的内容生态。范以锦[38]认为商业互联网企业对人工智能的应用走在了专业媒体前头。专业媒体机构正密切关注这一态势,并进行布局和积极寻找发展路径。学界与业界有人将2018年视为智媒时代的到来。


在广播电视领域,人工智能运用到播音主持、广电监测系统中,广电媒资系统等方向。人工智能主播可以全天候地进行工作,工作时间地点不受约束,不会出现口误和忘词的情况,其大数据搜集能力和整合能力也远超人类。有学者[39]指出,人工智能技术在电视媒介的应用,将实现电视节目内容、形式的突破,推动电视媒介的转型、升级。何艳秋[40]通过对时下语音交互技术、语音交互方式、广电监测系统的构架的介绍,解释了语音交互这项人工智能技术在广电监测系统中的应用。研究认为,语音交互在广电监测系统中的应用在提升播出一线工作人员工作效率的同时,也减少了琐碎的操作流程,融合了不同监测厂商、整合优化了不同监测系统的统一接口,使得庞大、复杂、多样化的监测系统操作容易、使用方便、响应迅速。王志明[41]详细分析了语音识别、人脸识别、光学字符识别等在广电中运用的关键技术并以举例的方式介绍了这些人工智能技术在广电媒资系统的应用。


通过对以上相关研究成果的梳理,可以看到,国内人工智能技术在新闻传播业各个维度均有相关研究成果,归纳起来有如下几个方面:


第一,学界对人工智能保持很高的研究敏感度,但囿于技术本身的复杂性和不确定性,人文社科领域对此的反映往往只能聚焦于相对显性的现实议题。研究普遍遵从“技术现状—产生影响—对策建议”的视角。


第二,国内学者对人工智能在新闻传播业的相关研究集中于机器人写作、算法研究等几个主题上,研究多集中于实践应用,缺少对相关问题的理论梳理,呈现出视角单一、主题集中的问题。


第三,人工智能技术影响下媒体受众的研究仅仅局限在人工智能终端技术设备的进步带来的临场感、算法推送的千人千面、精准打击、以及精准化推送导致“信息茧房”的负面影响等主题,忽视了受众作为接受者对人工智能技术的接受程度、反馈情况、消费情况等内容。在受众研究上,目前的成果大多过于宏观和概括,缺乏细致、微观的受众分析。


第四,对于人工智能技术的具体展示集中在算法推送、机器人写作这几方面,然而时下最新的相关智能语音识别、智能翻译、图、文、声交互等技术即使是在最新的研究成果中也仅粗略提及,缺乏对其目前发展状况、前景、可能性的相关研究。




参考文献:


[1] 许向东, 邓鹏卓. 人工智能时代的对外新闻报道[J]. 对外传播, 2019(06):65-67.


[2] 彭兰.  正在消失的传媒业边界[J].  新闻与写作, 2016, (02):25-28.


[3] 许向东. 数据新闻中传感器的应用[J]. 新闻与写作, 2015, (12):70-72.


[4] Angela Washeck, Tow Report:As Sensor JournalismRises,  Guidelines Needed, June25, 2014, https://mediash.org/4/06/forging-a-path-for-sen-sor-journalism/


[5] 许向东. 大数据时代新闻生产新模式:传感器新闻的理念、实践与思考[J]. 国际新闻界, 2015(10):107-116.


[6] 许向东. 趋势、规范与本土化——移动传播时代数据新闻的生产实践研究[J]. 新闻爱好者, 2017(12):20-23.


[7] 彭兰. 移动化、智能化技术趋势下新闻生产的再定义[J]. 新闻记者, 2016(1):26-33


[8] 曹彦. 智能化趋势下的新闻传播变革及反思[J], 2017(08):77


[9] 喻国明. 人工智能的强势崛起与新闻传播业态的重构[J]. 教育传媒研究, 2018(01):95-96.


[10] 喻国明, 兰美娜, 李玮. 智能化:未来传播模式创新的核心逻辑——兼论“人工智能+媒体”的基本运作范式[J]. 新闻与写作, 2017(03):41-45.


[11] 林楚方. 今日头条如何玩转大数据[J]. 新闻与写作, 2015(11)


[12] 胡郁, 袁春节. 人工智能技术在传媒领域的应用——以智能语音技术为例[J]


[13] 喻国明. 机器新闻写作带动传媒新变局[J]. 新闻采编, 2015(06):26-27.


[14] 喻国明. 人工智能的强势崛起与新闻传播业态的重构[J]. 教育传媒研究, 2018(01):95-96.


[15] 喻国明, 兰美娜, 李玮. 智能化:未来传播模式创新的核心逻辑——兼论“人工智能+媒体”的基本运作范式[J]. 新闻与写作, 2017(03):41-45.


[16] 白龙. 新闻写作机器人在美国新闻业的应用[J]. 青年记者, 2016(05):99-100.


[17] 匡文波. 记者会被机器人取代吗[J]. 新闻与写作, 2017(09):59-62.


[18] Waddell, TF.  A ROBOT WROTE THIS? How perceived machineauthorship affects news credibility[J]. Digital Journalism,  2018, 6(2): 236-255.


[19] 喻国明, 姚飞. 试论人工智能技术范式下的传媒变革与发展——一种对于传媒未来技术创新逻辑的探析[J]. 新闻界, 2017(01):39-43.


[20] 彭兰. 移动化、社交化、智能化:传统媒体转型的三大路径[J]. 新闻界, 2018(01):35-41.


[21] 姜红, 鲁曼. 重塑“媒介”:行动者网络中的新闻“算法”[J]. 新闻记者, 2017(4):26-32.


[22] 范红霞, 孙金波. 数据新闻的算法革命与未来趋向[J]. 现代传播, 2018(5):131-135.  


[23] 喻国明, 杨莹莹, 闫巧妹. 算法即权力:算法范式在新闻传播中的权力革命[J]. 编辑之友, 2018(05):5-12.


[24] 尚帅. 传播的兴趣偏向和浑然不觉的符号暴力——基于《今日头条》的算法控制研究[J]. 现代传播, 2018(10):58-62.


[25] 方师师. 算法如何重塑新闻业:现状、问题与规制[J]. 新闻与写作, 2018(9):11-19.


[26] 喻国明. AI“谣言粉碎机”:从原理到效能[J]. 现代视听, 2019(02):87-88.


[27] 张志安. 人工智能对新闻舆论及意识形态工作的影响[J]. 人民论坛·学术前沿, 2018(08):96-101.


[28] 刘德寰, 李雪莲.  大数据重塑新闻业[J]. 中国出版, 2017(5)


[29] 田丽. 解析当前网络舆论传播的挑战与应对之策[J]. 信息安全与通信保密, 2018(04):36-37.  


[30] 彭兰. 增强与克制:智媒时代的新生产力[J]. 湖南师范大学社会科学学报, 2019, 48(04):132-142.


[31] 彭兰. 智能时代的新内容革命[J]. 国际新闻界, 2018, 40(06):88-109.  


[32] 彭兰. 更好的新闻业, 还是更坏的新闻业?——人工智能时代传媒业的新挑战[J]. 中国出版, 2017(24):3-8.


[33] 喻国明, 张文豪. VR新闻:对新闻传媒业态的重构[J]. 新闻与写作, 2016(12):47-50


[34] 杨曙. 当下VR新闻制作的缺陷与未来发展[J]. 中国记者, 2018(3):93-95


[35] 史安斌, 胡宇. 声控智媒与新闻传播:现状与前景[J]. 青年记者, 2019(01):77-80.  


[36] 殷乐, 朱豆豆. 声音媒体的智能化发展——新终端新应用 新关系[J]. 中国广播, 2019(04):31-35.  


[37] 刘德寰, 李雪莲. 数据生态的危险趋势与数据科学的可能空间——兼谈中国市场调查业的现状与问题, [J]. 现代传播2016. 1


[38] 范以锦. 人工智能在媒体中的应用分析[J]. 新闻与写作, 2018(02):60-63.


[39] 张蓝姗, 黄高原. 人工智能技术给电视媒介带来的机遇和挑战[J]. 中国电视, 2018(07):52-55.


[40] 何艳秋. 语音交互方式在广播电视监测系统中的应用[J]. 广播电视信息, 2019(07):45-48.


[41] 王志明. 人工智能在广电媒资系统中的应用[J]. 有线电视技术, 2019(07):22-26.



来源:新媒体大趋势

作者:刘德寰王妍孟艳芳  




编辑:王雅欣

467#
 楼主| 发表于 2021-4-1 15:56:06 | 只看该作者
【案例】
人工智能背后的“幽灵工人”为何也需要工会



人工智能和机器学习有赖于很多人的大规模辛勤工作。
除了科学家,还有成千上万的低收入工作者,他们的工作是对数据进行分类和标记——这是人工智能这类系统的生命线。
但越来越多人质疑,这些所谓的“幽灵工人”是否受到剥削。
当我们把机器训练得更人性化时,是不是也在让人类像机器一样工作?
当人工智能系统越来越多地控制生活的方方面面,这些工人究竟扮演着什么角色呢?
人工智能帮助写电子邮件是好事还是坏事
“AI之父”艾伦·图灵 英国50英镑上的新面孔
人工智能AI的前世今生:神话、科幻和现实
在众包平台中,最成熟的是亚马逊土耳其机器人(Amazon Mechanical Turk,简称MTurk),由线上零售巨头亚马逊网络服务(Amazon Web Services)运营。
还有Samasource、CrowdFlower、Microworkers等其他公司。这些平台都允许企业远程雇用来自世界各地的员工,来完成计算机目前无法完成的任务。
这些任务包括,标记图像、帮助改进计算机视觉算法、为自然语言处理提供帮助,甚至担任YouTube或Twitter的内容主持人。

18世纪的土耳其机器人愚弄了国际象棋选手,让他们以为自己在与一台机器竞争。
MTurk是以18世纪曾在欧洲巡演的国际象棋机器人命名的,但后来发现,这个机器的背后其实是人。
该平台在其网站上被标记为众包市场,是“将机器学习开发的每一阶段所需的成本和时间最小化的好方法”。
在这个平台上,下单者要求工作人员执行特定的任务。
亚马逊网络服务的发言人表示:“大多数员工将MTurk视为兼职工作或有偿爱好,他们享受可以选择任务的灵活性,可以随心所欲地加班,或者少量工作。”
但对于已经在这个平台工作了六年的谢莉·斯坦利(Sherry Stanley)来说,这更像是全职工作。这份工作帮助她在经济上抚养三个孩子,也让她觉得自己是巨大机器上的一个小齿轮。
她告诉BBC:“土耳其机器人是我在西弗吉尼亚为数不多的一个工作机会,和许多工人一样,我们为自己的工作感到自豪。”
“但我们是亚马逊一时冲动下的产物。亚马逊是世界上最大的公司之一,需要像我这样的员工对工作条件保持沉默。”
她说,如果说出自己被如何对待,就会一直活在“遭报复的恐惧中”。
很难描述斯坦利生活中的典型一天,因为正如她所说,“每天的工作时间都不一样,工资也不一样。”

这种工作的好处是,可以想做多少就做多少,也可以在家工作。
但她被要求完成的任务多种多样,包括图像标记、帮助智能助手Alexa理解地区方言。
还有一系列她不理解的问题,比如:
为什么有些工作(成果)被拒绝,花了很长时间的工人却不被告知不符合标准的原因?
为什么有些账户突然被冻结,却没有任何通知,没有或官方渠道来挑战这种决定?
为什么申请机构把一些项目的价格定得极低?
“土耳其机器人应该在我们的工作对象、内容、原因和地点等方面拥有更大的透明度:为什么我们的工作(成果)被拒绝,这份工作到底在建设什么,为什么账户被冻结,不付费时数据去了哪里,以及我们在为谁工作。”
Turkopticon是Mturk的工人拥有的最接近于工会的东西,这个组织正在努力让工人们感觉不那么隐形。
斯坦利表示:“Turkopticon是让土耳其机器人变成组织的工具,让他们就工作条件相互交流,并使工作变得更好。”
她正在筹集资金,以帮助该组织创建由工人操作的服务器,承包商可以在那里讨论工作条件。
亚马逊回应BBC,它在2019年推出了一项功能,允许员工看到“下单者的活动水平、批准率和平均付款审核时间”。
它在一份声明中说:“尽管工人的成果被下单者拒绝的整体率很低(小于1%),工人们也获得了一组标准,可以帮助他们确定想要的工作任务,包括下单者接受任务的历史记录。
“MTurk继续帮助各种各样的工人赚钱,并为他们社区的发展做出贡献。”
YouTube禁令

在YouTube上,与LGBTQ相关的内容在没有明显原因的情况下被禁,但到底是算法还是背后的人应该受到谴责呢?
赛飞·萨维奇(Saiph Savage)是西维吉尼亚大学人机交互实验室的主任,她的研究发现,对于很多工人来说,工资可能低至每小时2美元,而且他们通常不知道需要在一个特定任务上工作多少个小时。
她在接受BBC采访时说:“他们被告知,这份工作值5美元,但可能需要两个小时。”
“雇主比工人拥有更大的权力,可以突然决定,否定工作(成果),而工人却没有办法对此采取任何行动。”
她还表示,人们往往对这些平台上的员工是谁,以及他们的偏见是什么知之甚少。
她引用了最近一项与YouTube有关的研究,该研究发现,算法已经禁止了一些LGBTQ的内容。
“深究下去,并不是算法有偏见,而是幕后的工作人员,他们在一个需要审查LGBTQ内容的国家工作。”
这种有关偏见的观点是蒙特利尔人工智能伦理研究所(Montreal AI Ethics Institute)的亚历山大·罗耶(Alexandrine Royer)提出的,她写道,迫切需要对这些员工进行更多监管。
她说:“数据工作者负责全球平台上的数据标签和内容审核,非洲和其他地方的数据工作者做出的决策,反馈给了世界各地的互联网用户,并塑造了每天与之互动的算法。”
“在数字经济的阴影下工作,这些所谓的‘幽灵工人’作为在线内容的仲裁者负有巨大责任。”
她还说,谷歌的搜索、推文、产品评论都依赖于这种“看不见的劳动力”。“我们早该监管并适当补偿这些工人了。”

原文来源:BBC NEWS
原文链接:https://www.bbc.com/zhongwen/simp/science-56562828.amp
编辑:刘佳莹

468#
 楼主| 发表于 2021-4-6 19:49:16 | 只看该作者
【案例】

算法社会的“囚徒”风险
【作者】彭兰:中国人民大学新闻与社会发展研究中心研究员,中国人民大学新闻学院教授。
【摘  要】今天算法的应用正在全面普及,一个算法社会正在到来。人们在享受算法带来的便利的同时,在某些方面也面临着成为算法“囚徒”的风险。人的认知、判断与决策可能会受制于算法,人的社会位置也会因算法偏见、歧视以及其他原因受到禁锢。在一些数字劳动平台,算法在隐性控制着劳动者的劳动,算法、大数据及其他新技术也可能增强对人的监控。但反思算法社会的“囚徒”风险,并不意味对算法的拒绝,加强算法开发者的技术理性和算法伦理培养,提高算法应用者的算法素养,我们才能更好地应对算法社会的挑战。
【关键词】算法;算法社会;算法伦理;算法素养
近年新闻传播学界对于算法的关注越来越多,但聚焦于算法与信息传播特别是信息茧房的关系的研究居多,然而随着大数据、人工智能技术的发展,算法已经开始全面进入并影响着我们的生活,在某个角度看,一个算法社会正在到来,因此,对于算法的研究,也需要更广阔的视角。
在算法专家看来,算法是“一种有限、确定、有效并适合用计算机程序来实现的解决问题的方法,是计算机科学的基础”(Sedgewick & Wayne2012)。通俗地说,算法可以看作用计算机程序实现的、基于数据分析、面向特定目标的一套指令或方案。今天与人们生活紧密相关的算法也是多种多样的,既包括个性化推荐算法、决策算法,也有各种平台的算法、各种管理目标下的治理算法等。
算法的广泛应用是必然的,我们也必须面对算法带来的挑战和风险,从个体角度来说,在享受算法带来的各种便利的同时,是否会受到算法的钳制,甚至成为算法的“囚徒”,是需要思考与警觉的。
一、人的认知、判断与决策是否会受制于算法?
天然的传播优势,它不仅能够淡化价值观
从本质上来说,算法是一种中介,它基于特定目标下的计算模型,在人与现实世界之间构建了一种数据化的界面,也因此,它会对人的认知以及在此基础上的判断决策产生影响。
()推荐算法对人的认知的影响
个性化推荐算法虽然因为近年来一些基于算法的内容平台的兴起而受到关注,但事实上个性化推荐早就进入网络,搜索引擎、电子商务平台等都早已采用推荐算法。
目前主要的个性化推荐算法包括基于内容的推荐、协同过滤推荐、基于标签的推荐、社会化推荐、基于深度学习的推荐、基于知识的推荐、基于网络结构的推荐、混合推荐等。
基于内容的推荐是指根据用户选择的对象,推荐其他类似属性的对象(许海玲等,2009)。在个性化推荐中,这是一种常见的推荐机制。协同过滤推荐(collaborative filtering)是根据用户兴趣的相似性来推荐资源,把和当前用户相似的其他用户的意见提供给当前用户,从而使用户发现新的感兴趣的资源(邢春晓等,2007)。基于标签的方法通过分析用户的标签偏好、物品的标签特征,基于二者的相似性为用户进行物品推荐,其本质是通过引入标签,形成用户—标签—物品三元关系(孔欣欣等,2017)。而近年来开始受到关注的社会化推荐主要是根据用户之间的社会关系信息构建用户之间的社会化关系网络,根据这种社会关系和已知用户兴趣模型,向用户进行推荐(孟祥武等,2015)。基于深度学习的推荐算法则可能更为“聪明”,如通过建模用户的历史序列行为来预测用户的下一个动作、挖掘用户的背景信息以进行更全面的推荐等(刘君良、李晓光,2020)。可以预期,未来的推荐算法还会有更多的新思路。
推荐算法之所以在今天成为一种互联网广泛应用的技术,其核心动力在于解决海量信息(或产品)与用户之间的供需适配问题。对于用户来说,是为他们发现符合自己需要的信息(或产品);对于生产者来说,是为内容(或产品)找到合适的用户。
从内容或产品推荐角度看,作为中介的算法本身就是为用户提供一个过滤器,这种过滤在减少用户的认知负担的同时,也可能局限用户的视野。
美国学者帕里泽很早就关注到了搜索引擎的个性化推荐带来的信息“过滤泡”问题。他指出,个性化过滤器会用两种方式打破我们在强化现有想法和获取新想法之间的认知平衡:其一,它使我们周围充满着我们已经熟悉(并且已经认可)的想法,导致我们对自己的思维框架过于自信;其二,它从我们的环境中移除一些激发我们学习欲望的关键提示(帕里泽,2020p.65)。他还认为,个性化推荐限制了我们的解答视界,即寻找问题解决方案的空间大小,也会限制人的创新性(帕里泽,2020p.72)
而国内研究者则更多地从信息茧房的角度探讨算法是否会带来人们的视野狭窄、态度与立场固化等问题。但研究者的判断却并不一致。虽然有很多研究者担忧算法会造成信息茧房,但也有研究者认为信息茧房还不是一种科学概念,目前也还不能证明算法与信息茧房之间存在确切关系。
无论是用过滤泡还是用信息茧房这样的表达,也无论算法与信息茧房之间的关系是否被证实,至少我们可以看到,从算法本身的原理来说,算法的确会带来过滤,这种过滤不可避免会在一定程度上影响人们对外部环境的认知。
在信息爆炸的今天,信息过滤是必然的选择。即使是传统媒体也会对信息进行过滤,在媒体上构建拟态环境。如果媒体对内容的公共性有合理的评估,如果媒体秉持“客观”“平衡”等立场,那么,媒体的拟态环境仍有助于人们全面了解现实社会。专业的媒体在进行信息过滤时,重点考虑的不是人们想要知道什么,而是从社会环境传达与感知角度判断人们应该知道什么。媒体的信息选择,通常也会考虑到内容的平衡与多样性。
但在目前的算法设计中,内容推荐算法主要是参照人们的习惯和相似人群的兴趣,也就是关注人们想要获得什么,在某种意义上也就是在顺应人们的认知心理中惰性的一面,顺应甚至可能强化人的选择性心理。虽然从信息获取效率的角度看,这样的算法可以帮助人们以更小的成本获得与自己偏好、需求更吻合的信息,但是,推荐算法是否只能顺从人们的惯性与意愿,是一个值得思考的问题。信息传播的一个重要目标是社会整合,促成不同人群连接,促进公共对话,这就要打破个人的作茧自缚,因此,内容推荐算法也需要兼顾个性化满足与公共整合双重目标,这也应是算法未来努力的方向。
除了个性化推荐算法对个体的影响,内容推荐算法也会在其平台上营造一种整体的拟态环境。这种拟态环境能否全面、真实地反映现实社会,也与算法的设计思路相关。但今天平台算法过分倚重流量的思路,容易带来马太效应,加重信息环境的不平衡,也使拟态环境与现实环境的偏离加大。
技术界对推荐算法的评测指标主要包括:准确度(用户对推荐内容满意度)、排序合理性、覆盖率、多样性(用户间的多样性和用户内的多样性)和新颖性等(朱郁筱、吕琳媛,2012)。目前提出的评测指标更多的是面向电子商务平台中的商品推荐系统,准确性因此被放在第一位,这种准确性主要也是考虑与用户的惯性、需求的吻合度。但是,对内容推荐算法的评估,还缺乏相应的标准。虽然人文社科领域的研究者呼吁,要在内容推荐算法设计中体现“专业价值观”,但这些价值观具体如何嵌入算法中,仍然是一个很大的挑战。
或许在内容推荐算法的衡量标准中,多样性需要被放到更重要的位置。这种多样性,不仅是内容主题的多样性,还需要包括态度立场的多样性、内容生产者的多样性等。这也是新闻的客观、平衡的专业价值观的具体体现。
内容推荐算法一方面有必要从个性化推荐这一内容消费者视角向内容生产者的视角扩展,也就是说,内容推荐不仅是面向内容消费者的,也应该是面向内容生产者的,有必要通过算法设计让更多内容生产者生产的高质量内容得以传播,特别是使那些具有重要公共价值的内容到达更广的人群。
另一方面,从用户角度看,即使算法在未来能更好地实现内容推送的多样性、个性化与公共化内容的平衡,但如果人们把对信息的选择权完全交给算法,每天都只是等着算法投喂的信息,也会导致他们越来越失去自主性与判断力。
除了推荐算法外,社交机器人对人的认知的影响也是算法影响的另一种表现。社交机器人是指在社交媒体中,由人类操控者设置的、由自动化的算法程序操控的社交媒体账号集群(郑晨予、范红,2020)。在很多社交平台,社交机器人在算法的控制下自动生产着各种内容,这些内容混杂于人生产的内容中,很多时候也不能为一般用户所辨识,因此,通过社交机器人,社交平台的信息环境容易被操控,而这种信息环境也会作用于用户。
在今天的智能化内容创作中,也有算法的作用,无论是文字报道,还是视频,或是其他作品。这些作品在外观上与人创作的作品相似,有时甚至没有差异,但这些作品也只是算法建构的一种认知界面。算法虽然在模拟人的创作思维,并且有可能在某些方面打破人的思维套路,将人带到一些过去未尝涉足的认知领域,但算法本身也有其局限性,它们只能从某些维度反映现实世界,它们对世界的反映仍是相对“平面”的,如果我们总是通过算法构建的界面去认识世界,我们认识世界的方式会越来越单调,也会失去对世界的完整把握能力。
()算法对人的判断、决策力的抑制
今天很多时候,我们也会依赖算法作出判断与决定,甚至进行大的决策。
对于个体来说,当他接受算法推荐的内容、产品时,某种意义上也是在借助算法作出判断与决策,也就是把对内容与产品的价值判断建立在算法的评价上。
使用导航软件,是在依赖算法进行路线的判断与选择,未来的无人驾驶,更是取决于算法的判断,在这方面,很多时候算法的确可以帮助人们作出正确甚至更优的决策。
在大数据和人工智能技术的支持下,算法对组织机构或一些行业性的决策的作用也越来越显著。例如,银行在对企业或个人发放贷款进行信用和风险评估时,可以参照数据和算法分析的结果。企业在聘用员工时,可能会借助算法进行判断。在医疗领域,智能影像分析系统、疾病诊断系统在帮助医生作出诊疗决策。在法律系统,人工智能也在尝试直接参与决策或进行局部裁判,如进行再犯风险评估、嫌疑人逃脱可能性判断、合理量刑测算等(栗峥,2020)。城市交通和其他方面的管理也会越来越多地依赖算法。
算法对生产决策的影响也在显现,内容生产行业便是典型。通过各种排行榜来决定内容生产的选题方向或进行内容产品的策划,是今天媒体依赖算法进行内容生产的一种表现,因为各种排行榜也是由一定的算法形成的。除了排行榜,媒体还可以借助更复杂的数据分析与决策算法。例如,2020B站跨年晚会不仅成功地吸引了B站的用户,也成功地实现“破圈”,这与应用相关数据及算法进行表演嘉宾、表演节目的遴选不无关系。正在兴起的计算广告,其核心思想也是将广告的创意、形式选择、目标人群选择、广告分发与互动等广告生产的全流程建立在数据与算法的基础上。
算法对其他经济活动、经营决策的影响也在日渐深入。例如,在共享经济平台(如网约车平台)上,生产者与消费者直接进行动态、多变、复杂的网状连接和点对点交易,需要依赖平台企业所设计、维护和运营的强大算法(姚前,2018)。企业的产品开发,可以利用算法进行规划、评估,对产品的定价、运营效果的评价以及运营的实时调控等,算法也有其独特的作用。
算法在某些方面的决策中之所以重要,一是因为它可以对与决策相关的对象进行历史、现状甚至未来趋势的数据分析(包括大数据分析);二是因为它可以建立决策模型,基于这种模型对各种可能性进行分析,寻求最优解决方案。算法以过滤信息、建构模型为手段,降低认知负担、提高认知效率(蒋舸,2019),因此,在决策速度与效率甚至某些决策的准确度方面,算法都有可能形成自己的优势。
但这是否意味着人们应该把所有判断与决策都交给算法?
“人们之所以需要借助算法来解决问题,是因为需要借助认知模型将认知负担控制在合目的的范围内。”(蒋舸,2019)既然算法是一种认知模型,它就是对现实世界的一种抽象和简化,很多时候,它只是反映了典型的对象,而不是事物的全部。多样性的世界并非都能通过数据来描绘或计算。算法可能会在某些层面较好地描述与解释现实社会,但在另一些层面则无能为力。完全依赖算法,一些时候就会形成错误的判断与决策。
今天人们的创新,也是一种判断与决策的过程。算法虽然打破了人的某些旧套路,但也会形成一些新套路;如果人们的决策越来越陷入算法营造的套路,那么人类的想象力与创造力也会萎缩。
算法决策主要依赖对事实的判断,但决策过程往往还需要加上情感、道德伦理等其他方面的判断。有法律研究者认为:“司法裁判不是程序化的理性计算,而是事实与价值的复合体(实体上)和技术应用与民主过程(程序上)的统一体,它要借由事实查明和法律适用这一过程体现人性温度、彰显人文关怀。”(陈敏光,2020)这种观点也可以适用于其他一些决策领域。
算法决策中的伦理问题,在今天更是一大困扰,也是未来人工智能发展的重要关切。有研究者指出,人工智能应该包括有伦理影响的智能体、隐含的伦理智能体、明确的伦理智能体、完全的伦理智能体,人工智能在与人的交互中会呈现出某种拟主体性(段伟文,2017);但也有学者认为,人工智能和机器人无法处理开放性情境中的实践伦理问题(蓝江,2018)。未来算法能否更好地解决各种伦理困境还未可知,但即使我们对它在伦理判断中的能力寄予希望,也不能完全把伦理判断交给机器。
另外一个更基本的问题是,我们如何判断算法的可靠性。数据的质量、算法模型的合理性等,都会影响到算法结果的质量。基于数据的算法虽然看似客观,但其实也隐藏着很多主观因素,这些主观因素也会对算法的可靠性产生干扰。
因此,算法社会对人的决策、判断力带来的挑战是双重的:一方面我们要防止把所有决策、判断都交给算法,我们要判断算法在哪些方面可以帮助我们做出更好的决策,而在哪些方面算法可能把我们带入歧途;另一方面,即使在很多时候要参照算法,我们也需要有能力判断算法本身是否有缺陷,算法依据的数据是否可靠,算法是否存在偏见,算法提供的结果是否合理、准确。在没有这种判断力的前提下,盲目依赖算法,也就难免会陷入各种陷阱。
二、人的社会位置是否会被算法禁锢?
除了认知与判断可能受制于算法外,人们的社会位置也可能被算法影响。
这首先与算法偏见与歧视相关。算法偏见与歧视既可能源于算法本身的设计,也可能源于算法所依据的数据。
人工智能是人类思维的映像,人类在面对某些问题时采取的“范畴化倾向”的认知态度,也在人工智能的算法流程中体现出来(卜素,2019)。而在这种“范畴化倾向”中,就隐藏着人类思维与文化中的偏见。或许很多算法设计者并没有意识到算法中的偏见或歧视问题,他们只是遵循着社会文化或自己的思维惯例来进行算法设计,这个过程将过去隐性的偏见显现出来。如有研究者指出:“人类文化是存在偏见的,作为与人类社会同构的大数据,也必然包含着根深蒂固的偏见。而大数据算法仅仅是把这种歧视文化归纳出来而已。”(张玉宏等,2017)
在数据层面看,“与算法偏见相关的数据偏见是历史数据本身不可避免的产物。而AI等在进行学习训练的时候,恰恰是依据这些有偏见的数据,自然其分析的结果带有了很明显的偏见。利用历史数据进行训练的算法程序可能会延续甚至加剧基于种族或性别的歧视”(杨庆峰,2019)。在进行数据挖掘的时候,常常会把不同的人群进行分类,这种分类也会继承甚至加大不平等体系(林曦、郭苏建,2020)
虽然在推荐算法中,会存在着算法偏见、歧视等问题,但相对来说,其影响主要是在人们的认知层面,但在决策算法中,偏见以及歧视则有可能影响到人们的权利、社会位置及流动。
目前受到较多关注的算法歧视,如就业歧视、信用歧视、投资歧视等,就在很大程度上关系到人们的社会位置及流动可能。“在算法决策中,个体被赋予一种新的身份,即‘算法身份’,一旦将个体算法身份贴上某种易于被歧视的标签,就会产生双重累积劣势。”(刘培、池忠军,2019)人们往往因为自身的身份和原有的社会位置等,而被决策算法打下某种标记,原来处于优势地位的人往往会获得有利的标记,因而有获得更多资源和向上流动的可能性,而原来处于不利地位的人,则因标记而处于更不利地位,从而失去就业、获得投资等相应机会。算法可以对人们的历史记录进行追踪,将各种平台的数据相关联,将人们的背景翻个“底朝天”,这使得人们更加难以逃离既有社会位置的束缚。“当算法将虚拟世界和现实世界的个体相联结,将某一个体的过去、现在和未来相联结时,一次性的不公可能暗藏着对个体结构性的歧视锁定。”(张欣,2019)
如果没有足够的规制,未来算法歧视可能还会在教育、医疗等其他领域体现。
在一定意义上,算法的偏见和歧视不能完全避免。对于算法的设计者来说,需要一定的机制包括法律上的约束,尽可能减少算法偏见、歧视的产生;而对于一般人来说,则需要意识到算法偏见、歧视在哪些方面存在,它们是如何对个人产生影响的。
除了算法偏见与歧视外,算法对人们的社会位置的禁锢还会通过其他方式实现。前文所说的推荐算法带来的认识局限,也会在一定程度上影响人们对其他群体的了解。算法在连接相似人群的同时,也可能会造成不同人群之间的区隔。在这个意义上,算法也容易将人们限定在某个特定“圈”“层”中。
算法社会带来的另一种社会分化是信息技术的贫者与富者的分化。“算法社会一定是科技精英社会。少数人会成为主宰,而大多数人只能顺从。”(於兴中,2018)在某种意义上,算法会加剧数字鸿沟,信息技术的贫者不仅与算法权力无缘,也会在他人的算法权力的控制下,被困在自己的社会阶层中。
三、人的劳动是否会被算法隐性控制?
20209月,一篇题为《外卖骑手,困在系统里》的特稿,引起了很多人的关注。报道中提到,外卖平台有一种算法,从顾客下单的那一秒起,系统便开始根据骑手的顺路性、位置、方向决定派哪一位骑手接单,订单通常以3联单或5联单的形式派出,一个订单有取餐和送餐两个任务点,如果一位骑手背负5个订单、10个任务点,系统会在11万条路线规划可能中完成“万单对万人的秒级求解”,规划出最优配送方案(赖祐萱,2020)。虽然对于顾客来说,这种算法可以使他们在最短的时间里拿到外卖;但对于骑手来说,这却可能意味着不断提高的时间压力和劳动强度。
有研究者指出,送餐时间的不断缩短与算法对送餐员的规训密不可分。数字平台通过算法中介了劳动和消费的关系,通过建构高效、及时等时间话语来赢得资本市场,但同时也对外卖送餐员实行了算法管理下的时间规训和时间操控。送餐平台依靠算法精细化的管理,将传统情境下的情感劳动付出合理化和规范化,进一步实现了对于送餐员的纪律规训(孙萍,2019)
其他研究者也有类似的判断。有研究发现,相比传统劳动中的雇主控制、等级控制、技术控制和科层制控制,外卖骑手的劳动是由平台控制的。平台系统将劳动过程精确到可计算的程度,实现了对劳动的高度控制和精准预测,这很大程度上源于平台系统背后的数据、算法和模型的支持(陈龙,2020)。甚至有些平台通过算法升级,使原本由骑手自己决定工作内容与工作数量的状况转变为依靠算法强制分配。同时,拒绝算法的强制分配会付出隐秘但更严重的代价——可接收的订单总数量大幅下降(叶韦明、欧阳荣鑫,2020)
数字平台上的内容生产,是一种更直接的数字劳动,这种数字劳动也在很大程度上受到平台规则的影响。平台规则会调节供需关系和刺激劳动,而平台规则往往也需要付诸算法。
有研究者对网络文学的生产机制研究指出,“付费阅读模式”已成为文学网站通行的营利规则,为了获取读者的关注度,也为了得到更多的金钱回报,网络作家开始越写越长,写作不再是自由的、个性化的自我呈现,迎合读者和市场需要、维持读者的阅读快感和引发阅读欲望成为网络文学作品生产的内在逻辑。“文艺青年”逐渐演变为没有固定劳动合同、按照单件作品的文字量获取报酬的“计件工”(蒋淑媛、黄彬,2020)
同样,在短视频、视频直播等平台,算法在激励用户参与内容生产的同时,也在无形中控制着他们的劳动付出和回报,甚至异化着他们的劳动目标。
平台算法之所以能对人们的劳动产生直接的控制,一个重要原因是平台将劳动者与消费者直接连接,消费者可以通过平台反馈、评价劳动者的劳动;劳动者的结果可以直接量化,并成为评价劳动的主要指标,而这是算法最适合做的事。通过量化结果来控制劳动,看上去劳动者的劳动过程变得自由了,但为了获得更好的劳动结果,他们会付出更多的劳动,包括情感劳动,通过各种方式取悦消费者,以获得额外的肯定。
对于内容生产者来说,流量成为最基本的评价指标。有研究者指出,数字空间对流量的追逐带来了交往资本主义,讯息的另一个价值变得更为重要,这就是贡献流量。重要的不是内容,而是流量。在此流量和彼流量之间没有实质内容上的差别,只有流量计算大小的差别(蓝江,2019)。将对内容本身的信息量、质量优劣的评价简单化为对流量的评价,这是新媒体时代传播发生的重要变化,平台对流量进行的数据统计与在传播界面中的直接呈现,以及各类基于这些数据的排行榜、指标体系,造就了传播评价体系的算法化。这不仅给劳动者施加了压力,也有可能使他们的内容生产的出发点发生偏移,他们不再是作为内容生产者作出独立判断,而是要时时顾及内容消费者的心理与需求,在社交媒体中,他们尤其需要考虑作为“人媒”的社交网络对内容的需求。虽然在一定程度上,面向消费者的考量可以使内容生产者的生产更有目的性,与市场需求产生更多呼应;但另一方面,过于单一的评价算法体系也会使得简单的“鼠标投票”机制取代专业的评判机制,内容生产者自身的专业判断力因此可能被削弱。
当影响力或舆论声量等都靠流量来衡量时,一种另类的数字劳动者———网络水军也就应运而生。利用碎片化时间进行有偿数字劳动的网络水军,其主要工作就是人为制造各种数据(如刷分、刷评论、刷单),以影响相关评价;在某种意义上,网络水军是量化制度设计的“社会症候”(吴鼎铭,2019)。水军这样一种数字劳动者本身的劳动报偿与算法紧密相关,他们又改变了他人的评价体系中的相关数据,对他人的劳动产生影响。
平台还有可能将劳动改头换面,将一些劳动变成舒尔茨所说的“玩劳动”(play-laborplaybor),实现生产性和休闲性的统一(李弦,2020),使人们更心甘情愿地参与到数字劳动中。甚至在克里斯蒂安·福克斯看来,今天所有的数字平台的用户实际上就是运输工人,而且是免费替大平台和广告商运输商品意识形态的工人,都是一种数字劳动者(蓝江,2019)。虽然新媒体用户的“劳动化”是多重力量推动的,但算法在其中的作用也不容忽视。
平台的各种机制通过数据与算法模型体现出来,平台的控制最终会演变为劳动者的自我约束与激励,在这种自我约束与激励下,一些劳动者会变成“永动机”。
而在很多劳动领域,即使没有平台的存在,面对各种量化考核指标,人们也不得不给自己加压,但人们的努力却会带来水涨船高,考核指标不断升级,人们的压力不但没有减轻,反而进一步加强,这也是2020年备受关注的内卷现象的一种典型表现。虽然内卷这个词近年才流行,但内卷现象早就存在。用各种简单、表面的考核指标衡量劳动者(包括脑力劳动者)的成果,与流量的统计类似,也可以说是一种简单的评价算法,而在算法时代,这样的评价思维似乎还有愈演愈烈之势。
当然,也有一些平台试图通过算法的调节,缩小劳动者流量的“贫富差距”,使更多的劳动者的劳动得到关注,获得更多回报,虽然这并不能从根本上解放劳动者,但也说明,算法本身存在多种可能性。算法本身是中性的,算法既可能禁锢劳动者,但应用得当,也有助于为劳动者松绑、减负,只是对此今天我们还没有充分的思考和行动。
四、算法社会对人的监控会强化吗?
随着人工智能应用的发展,人工智能为国家权力对个人和社会的监管提供了数据基础,“治理体系的算法化”开始萌生(王小芳、王磊,2019),一种集成运用互联网、物联网和人工智能技术构建的以“智慧管理器”为中介系统的智慧社会也正在到来(何明升,2020)。算法在这样的智能管理中也扮演着核心的角色。
从积极的方面看,如学者们所指出的,在社会管理中,人工智能在硬性价值引导(经过全面的技术监控让人信守规矩)、社会制度设置及其守持、生活世界的秩序制定与维护上,已经发挥出重要的作用(任剑涛,2020)。智能化社会治理可以通过大数据、人工智能等技术将复杂的社会运行体系映射在多维、动态的数据体系之中,不断积累社会运行的数据特征以应对各类社会风险、提升社会治理有效性(孟天广、赵娟,2018),社会治理规则的算法化有助于提高社会治理的主动性与预判性,让社会治理主体更加主动地预测预警预防社会风险(周汉华、刘灿华,2020)。算法的不透明也不一定都是坏事,如果运用合理,不透明的算法也有可能弥补社会裂痕,维持社会共识(丁晓东,2017)
但在包括算法在内的人工智能技术进入社会治理的过程中,个体受到各种监视、控制的风险也在加大。
算法管理的一个基础是人的数据化。今天对人的数据的收集,不仅涉及人们主动在新媒体平台生产或提供的数据,也涉及很多人们被动提供的数据。数据采集的工具也向各类传感器、可穿戴设备拓展,它们对于人的数据的采集进入深层,人的现实行为数据、生理数据等成为收集对象,其中很多是人们不愿意透露的甚至是涉及个人隐私的数据。
对人的数据的广泛采集虽然表面上看给生活带来了一些新的便利,例如,人脸识别加快了人们支付、安全审核等的速度,但这些便利后面往往隐藏着巨大的风险;而个体可能对这些风险毫无知觉,即使他们能意识到风险,很多时候也无法与数据的收集机构相抗衡。强制人们进行各种形式的数据化,用个人数据兑换各种服务便利或权利,已经成为算法社会的一个普遍事实。
在数据收集的基础上,算法可以进一步对个体进行计算,从而发现数据背后个体的更深层的秘密,并以此对其进行控制。算法对人的控制是全程的控制,人们的每一个活动和行为都可能成为当下算法的依据,也会累积起来影响到未来的算法计算结果。“表面上看起来不起眼的一次行为活动,实际上已经被后台看不见的算法程序演算过无数遍,任何选择都是符合算法的选择,最终,我们看似自主的行为全部在算法治理的彀中。”(蓝江,2020)
算法隐含着各种社会规则,与算法相关的评分机制,则把人们对规则执行的结果量化出来。因此,算法与评分很多时候结伴同行,“这种评分机制可以帮助汇集社会主体的日常活动,将弥散化的社会意识与价值判断进行一定程度的集中,形成公意并强制执行”(胡凌,2019)。在一定意义上评分制强化了人们对社会规则的认识与遵守,激发了人的自我约束,“基于数据—算法—后果模式下的信用评级裁量决策系统取代法律—行为—后果模式下的法律构成要件分析框架。社会信用的生成源自数据提取,是单向的自我问责过程,而非基于双向法律关系”(虞青松,2020)。基于评分的奖惩简单、直接,有时也是有效的。
评分机制在某些时候对于社会风险控制是有价值的,但不可否认的是,它可能形成对个人隐私的侵犯以及对算法控制权的滥用。如研究者指出,评分权力可能会造成道德与社会规范发挥作用空间的压缩,权力的实施方式更加深入和动态化(胡凌,2019)。社会信用监管者能够进入以往传统权力所无法企及的私人领地,将行为人的私人空间(包括心理状态、行为道德等)统统纳入社会信用系统的监管之下(虞青松,2020)2020年某地方政府提出的“文明码”等之所以受到质疑,也在于其试图滥用管理权力,通过算法入侵道德评价这样的私人空间。
算法下的评分制不仅为管理机构的监控提供了支持,也为人们之间的相互评价、监督提供了基础。算法技术的发展也可以使人人成为他人数字人格的观察者、执法者、裁判者(虞青松,2020)。虽然在某些情况下,这种评分可以为人们在网络空间的互动(特别是交易)提供安全评价依据,便于人们进行风险判断,但与此同时,用户间的相互评分的权力也可能被滥用,用户间的相互监控会使个体面临更大的压力。
不仅算法治理需要个人数据,各类企业也在收集个人数据,以获得市场的分析与运营基础。对于企业来说,算法是用来实现利润最大化的工具;而对于算法而言,个人信息与市场数据就是能量棒(扎拉奇、斯图克,2018)。与此同时,“算法与商业资本结合形成监视资本主义,用户被嵌入数据生产链条,变成被算法支配调控的客体”(张凌寒,2019)。企业对用户的控制不仅表现为对用户的个人信息与数据的利用与控制,还表现为对他们需求与行为的控制,算法在不断挖掘用户的潜在需求,甚至诱导出他们的需求,助推消费主义倾向。
在外部力量通过算法等强化对个体的控制的同时,个体自身在数据和算法的导向下,也可能会在自我传播或社会互动中强化自我审查。算法的监控,也会内化为人的自我规训。
学者段伟文指出,作为一种新的智能社会形态的数据解析社会已悄然而至,其运作和治理基础是用数据和智能算法来分析人的行为,但这种智能监测属于揣测性的认知,有可能误读和不当干预被认知对象的能动性,急需为可能出现的技术滥用设定边界(段伟文,2020)。也有研究者呼吁智慧社会背景下的以数字人权为代表的第四代人权(马长山,2019)。但这些目标的实现,还有很长的路。
五、结语:我们如何对抗算法的囚禁?
尼尔·波兹曼在《娱乐至死》一书前言中提到了《1984》和《美丽新世界》暗喻的两种警告。“奥威尔警告人们将会受到外来压迫的奴役,而赫胥尼则认为,人们失去自由、成功和历史并不是老大哥之过,在他看来,人们会渐渐爱上压迫,崇拜那些使他们丧失思考能力的工业技术。”(波兹曼,2004)算法在某种意义上是这两种风险的结合,一方面,算法对人的算计越准,就意味着它对人的了解越深,因此,对人的监视与控制也可能越深;另一方面,当算法对人的理解越深,对人的服务越“到位”,人们从中获得的满足也越多,而对算法的依赖、依从也会越多。当算法渗透到社会生活的各方面,人对它的依赖成为惯性,人对算法带来的囚禁也可能会越来越浑然不觉。
“算法社会将自由与枷锁的张力推向了极致”(齐延平,2019),算法一方面在促成人的某些能力的解放与扩张,另一方面又用某些方式实现着对人们的禁锢。但是,当我们深入反思算法对人的各种囚禁时,我们的目的并不是将算法拒之门外,这一点正如我们对待汽车的态度。
汽车进入我们生活,带来了正向与负向的双重影响,但人类的解决方案不是禁止汽车的使用,而是通过对驾驶技能的培训,以及严格的交通法规制定与实施等,来尽可能减少其可能产生的危害。同样,当算法成为一种广泛应用的技术,在很多方面可能带来对人的囚禁风险时,我们也不能简单禁止算法的使用。除了在法律、制度等层面作出必要的调整外,也需要面对算法社会的新特点,培养不同主体的相应素养与能力。
对于算法的开发者来说,新的技术理性、算法伦理的倡导与培养,尤为关键。
近年来对算法等智能化技术的批评中不乏技术理性批判的视角。尽管反思与批评是必要的,但也如有学者所指出的有些技术理性批判存在一个误区,那就是把技术理性等同于工具理性,认为技术理性张扬必然导致价值理性衰微(赵建军,2006)。也有些研究虽然并没有涉及技术理性这样的概念,但也习惯性地将技术思维与工具理性画了等号,也就是有意无意地默认技术一定是以工具理性为导向的。然而,正如一些研究者意识到的,技术理性本应是工具理性与价值理性的内在统一,只是由于这两种理性之间的内在张力才使技术理性始终处于内在的矛盾运动中。随着人类技术实践活动的扩展和深入,技术理性内在的矛盾才以一种单向度的、异化的形式呈现出来,即工具理性压倒价值理性、技术的价值理性萎缩成极度膨胀的工具理性的单纯附属物(刘祥乐,2017)
在今天,有必要重新理解技术理性应有的“题中之意”,在算法开发者群体中倡导价值理性与工具理性、技术思维与人文精神的融合,而不是将算法推向工具理性的极端。在此基础上,充分探讨算法伦理的目标、原则与实现路径,并使之成为算法开发者的制衡。
对于算法的使用者来说,算法时代带来了对人的素养的新要求。除了一般的媒介素养、数字素养外,也需要一定的算法素养。
就像媒介素养一样,倡导算法素养的前提,不是简单地将算法认定为坏的东西,让人们一概排斥算法,而是要让人们意识到在今天这个时代,算法无法避免,因此,重要的是要理解不同类型的算法是如何运作的,算法在哪些层面影响着我们的认知、行为、社会关系,影响着我们的生存与发展,在此基础上学会与算法共存,对抗算法的风险,更好地维护人自身的合法利益与地位。
面对一个无可回避的算法社会,我们只有提高对算法的认识与驾驭能力,才能成为算法的主宰者,而不是其“囚徒”。
来源:全球传媒学刊
编辑:马皖雪

469#
 楼主| 发表于 2021-4-6 22:16:02 | 只看该作者
【案例】
                                                                                     揭秘人工智能背后鲜为人知的人工力量——数据标注

  尽管随着AI的普及,我们在生活中越来越依赖于人工智能,但“人工智障”的相关调侃也从来没有消失过。

  相信大家都知道,如果我们想要让AI准确识别出图中的鸟,我们需要在数据集中手动将这些照片标记为鸟,然后让算法和图像之间产生关联性的判断识别。
                                                                             

  要是小规模的实验性数据还好,一旦遇到那种规模多达数百万个的标记需求,个中消耗的时间真是难以想象。

  所谓“得数据者,得人工智能”,如今人工智能早已在我们的生活中屡见不鲜,像“指纹解锁”、“人脸识别”等等都属于人工智能的范畴,然而人工智能的上游基础产业,数据标注却鲜为人知。

什么是数据标注?

  在了解数据标注之前,先来了解人工智能。

  人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。

  人工智能,其实是部分替代人的认知功能。人工智能算法是数据驱动型算法,也就是说,如果想实现人工智能,首先需要把人类理解和判断事物的能力教给计算机,让计算机学习到这种识别能力。

  类比机器学习,我们要教它认识一只猫,直接给它一张猫的图片,它是完全不知道这是什么。
                                                                           


  我们得先有猫的图片,上面标注着“猫”这个字,然后机器通过学习了大量的图片中的特征,这时候再给机器任意一张猫的图片,它就能认出来这是猫了。

                                                                           

  训练集和测试集都是标注过的数据,以猫为例,假设我们有1000张标注着“猫”的图片,那么我们可以拿800张作为训练集,200张作为测试集。机器从800张猫的图片中学习得到一个模型,然后将剩下的200张机器没有见过的图片去给它识别,然后我们就能够得到这个模型的准确率了。

  所以目前人工智能需要标注大量数据,即对原始信息进行数据标注。

  数据标注为通过分类、画框、标注、注释等,对图片、语音、文本等数据进行处理,标记对象的特征,以作为机器学习基础素材的过程。

  数据标注是大部分人工智能算法得以有效运行的关键环节。数据标注是把需要机器识别和分辨的数据贴上标签,然后让计算机不断地学习这些数据的特征,最终实现计算机能够自主识别。

数据标注的应用场景

智能安防

  智能安防是人工智能与信息技术结合的关键领域,对于城市与民生发展有重要的意义。通过生物识别、行为监测等技术手段,广泛地应用于城市道路监控、车辆人流监测、公共安全防范等领域。

  人脸标注在智能安防中主要应用于人脸识别与身份识别。

                                                                           

  人脸识别也称人像识别、面部识别,是基于人的脸部特征信息进行多年龄段、多角度、多表情、多光线的人脸图像采集,从而完成身份识别的一种生物识别技术。人脸识别涉及的技术主要包括计算机视觉、图像处理等。

                                                                           

  人脸识别(视觉识别技术的一种应用)在国内的应用大致经历从公共安全领域扩展到商业领域的过程。最初,机场、高铁站以及酒店等场景使用这项技术对个人身份进行验证,随后商业银行也开始采用人脸识别实现远程开户。再之后,刷脸支付、刷脸门禁也相继出现,人脸识别逐渐从少数有限场景渗透到人们的日常生活之中,目前,人脸识别技术已广泛应用于多个领域,除了智能安防之外,还应用于金融、司法、公安、边检、航天、电力、教育、医疗等众多领域。

  此外,物品标注在智能安防应用中,物品标注需要和行为标注结合。

                                                                           

智能交通

  近年来,随着人工智能浪潮的兴起,无人驾驶、智能交通安全系统一度走进我们的生活,国内许多公司纷纷投入到自动驾驶和无人驾驶的研究,例如百度启动的“百度无人驾驶汽车”计划,其自主研发的无人驾驶汽车Apollo还曾亮相2018年央视春晚。

  在汽车自动驾驶的过程中,想要让汽车本身的算法做到处理更多、更复杂的场景,背后就需要有海量的真实道路数据做支撑。而这就需要依靠数据标注。
                                                                          

  此外还有智慧停车,这些也都要依赖于人工智能数据标注的介入,对于行车视频进行采集,路况进行提取,停车点进行标注,包括D点云障碍物、红绿灯、车道灯及高精地图。为行人识别、车辆识别、红绿灯识别、车道线识别等技术提供精确训练数据,为智能交通保驾护航。

智能医疗

  智能医疗是通过打造健康档案区域医疗信息平台,利用最先进的物联网技术,实现患者与医务人员、医疗机构、医疗设备之间的互动,逐步达到信息化。AI与医疗行业的结合将有望迎来跨越式发展。

  医疗影像标注是对医疗影像进行区域标注及分类标注,多应用于辅助临床诊断。人工智能通过学习大量的医疗影像标注数据集,将会很好的辅助医生进行临床诊断以及提出治疗方案。
                                                                           

得数据者,得人工智能

  人工智能主要算法应用领域集中在计算机视觉、语音识别/语音合成,以及自然语言处理三个方面。

  图像方面:一个新研发的计算机视觉算法需要上万张到数十万张不等的标注图片训练,新功能的开发需要近万张图片训练,而定期优化算法也有上千张图片的需求,一个用于智慧城市的算法应用,每年都有数十万张图片的稳定需求。

  语音方面:头部公司累计应用的标注数据集已达百万小时以上,每年需求仍以20%-30%的增速上升,要求数据服务商不仅要掌握专业的声学知识、数据标注经验,还要拥有语音合成的算法能力。

  自然语言处理方面:随着工业、医疗、教育的AI应用产品进一步爆发,将会有更多交互方式出现,自然语义数据处理的需求将会持续增长,有望成为继图像、语音之后的第三大增量市场。


有多少智能,就有多少人工

  这些海量的数据几乎全部依赖数据标注师手工进行标注,数据标注行业的缺口十分可观,并且数据标注已经在各行业产生了极广的应用,行业也开始逐渐升级,走向产业化。

  在数据标注行业流行着一句话,“有多少智能,就有多少人工”。

  近日,来自普林斯顿大学、康奈尔大学、蒙特利尔大学以及美国国家统计科学研究院共同发表的最新论文指出,这部分手动标记工作大多在美国及其他西方国家之外完成,并对全球各地的工人施以残酷剥削。

  以 Sama(原 Samasource)、Mighty AI 以及 Scale AI 等数据标记公司为例,他们主要使用来自撒哈拉以南非洲以及东南亚地区的劳动力,每天支付给员工的薪酬仅为 8 美元(折合成人民币为 51.6 元)。但与此同时,这些企业每年却能赚取数千万美元的巨额收益。
                                                                  
  现代人工智能依赖各种算法处理规模达数百万的示例、图像或文本素材。但在此之前,首先需要由工作人员在图片数据集中手动标记出对象,再将标记完成的大量图像交付给算法以学习模式,掌握如何准确识别对象。这类工作量极大、过程极其枯燥且耗时的手动数据标记过程,已经成为 AI 经济体系中的重要组成部分。

  未来,随着AI应用场景逐渐多领域化,在数据标注行业内部,从业者也必将随着AI行业而一同进入细分市场追逐阶段,可谓机遇与挑战并行。

来源:北京物联网智能技术应用协会
                                                                                                                                                                                              编辑:古凤
470#
 楼主| 发表于 2021-4-16 18:01:01 | 只看该作者

【案例】


智能伦理:人工智能时代的伦理新视野


摘要:随着人工智能的发展,基于碳基智能出现了硅基智能。抽离生物载体和机器载体,两种智能体构成一个更大的类。一个更高层次的智能体类无疑意味着一种具有更高层次的伦理关系。本文在人工智能算法及其发展进化研究的基础上提出了“智能伦理”的概念,并就智能伦理的信息性质呈现和日益凸显的身份认证问题进行了初步探索,以期为智能伦理的基本特性及其基本问题研究提供基础探索,并在智能伦理这一更高层面,为人类伦理和机器伦理特别是人机伦理的研究,甚至通用人工智能本身的研究提供更高层次的整体观照。由于抽离了具体物能载体,其信息性得以凸显:一方面,智能伦理是信息性的,作为信息伦理,它没有源自载体的传统伦理特质;另一方面,智能伦理具有典型的规则和规律一体化特征。作为智能层次的信息伦理,智能伦理研究智能体之间的伦理关系。对智能伦理进行系统探索,不仅有助于深化理解智能体之间的关系,而且能够为智能发展提供更好的积极伦理和信息环境,从而在扑面而来的信息文明发展中,为智能时代的理论发展和实践探索带来深刻启示。


关键词:人工智能;人类智能;智能伦理;智能算法


基金项目:教育部哲学社会科学研究重大课题攻关项目“人工智能的哲学思考研究”(18JZD013


原文目录

一、人工智能发展的智能伦理启示

二、智能伦理的信息性质呈现

三、智能伦理的人机身份认证问题日益凸显


人工智能的发展,在自然进化的人类智能之外又新增了一种机器智能。人类智能是碳基智能,以生物体为智能载体;人工智能是硅基智能,以机器为智能载体。在人类伦理关系中,生物载体具有重要甚至核心地位;在机器智能中,机器载体的伦理地位和意义还有待深入考察。而在抽离具体载体的情况下,就出现一个更高层次的“智能伦理”问题。


随着人工智能的发展,智能伦理越来越得以彰显。对于智能伦理的研究,无论是对人类伦理还是人工智能伦理研究,甚至对人工智能和人类智能的发展,都无疑具有特殊重要意义。


一、人工智能发展的智能伦理启示


人工智能发展过程中出现的伦理问题,肯定是人类社会伦理问题中最受关注的问题之一。这一问题经历了曲折的发展过程,引起人类越来越多的关注和越来越深入的思考。这种思考的迭代不是一个寻常过程。


“一代人以前,关于人工智能(AI)的社会和伦理影响,曾有过一场激烈的辩论。从20世纪80年代末开始,人们对这场辩论的兴趣逐渐减弱。然而,公共风险感知的模式和新技术的发展都表明,现在是重新展开这场辩论的时候了。随着机器人和数字代理系统能够自主做出具有社会意义的决策,有关人工智能的重要问题也随之出现。既然这是可能的,现在的关键问题是哪些决策应该委托,哪些不应该委托给机器。广泛意义上的监管问题,涵盖从消费者的信息到设计师职业道德守则到法定管制、设计责任问题和赔偿责任问题等方方面面。”


关于人工智能的社会和伦理影响,以前的激烈辩论之所以很快过去,除了没有在人工智能甚至智能整体层次将伦理作为整体的一个维度看待,主要原因是没有具体涉及智能算法及其发展。从人工智能到算法是人工智能问题讨论在机制层面的深化;在智能算法层面,可以深化有关人工智能伦理问题的研究。


新一代人工智能的发展,将使人工智能伦理问题成为长期的关注热点。人工智能算法伦理所涉及的重要问题,主要是由智能算法的发展引发的,智能算法才是所有这些问题产生的核心因素。正是在智能算法层次,既可以看到伦理之于智能算法机制的重要性,又可以看到伦理维度的整体性内涵。


智能算法伦理的算法机制关联把人工智能引向更深层次的研究进路,伦理维度的理解则导向智能算法伦理及更深入的探索,二者构成一个整体的互动机制。这种互动机制将不仅深化对人工智能算法伦理的理解和研究,而且推进智能算法从而推动人工智能的发展。


在人工智能算法发展的早期,人们就提出了“算法伦理”的概念。在目前的算法伦理研究中,所涉及的重要问题是价值负载。智能算法是由有目的的人进行设计的,其价值负载总是不可避免的。


在算法设计中,智能算法的价值负载明显涉及算法设计者的伦理问题。“设计算法的软件工程师必须认真对待我们关于本质上有价值的算法的说法。如果某些算法本质上是有价值负载的,也就是说,如果设计算法的人不能避免对什么是好的和什么是坏的做出伦理判断,那么有理由认为软件设计者对他们设计的算法负有道德责任。虽然‘算法伦理’一词可能具有深远的含义,但它还是抓住了这里的利害关系。如果我们关于本质上有价值负载的算法的说法是正确的,那么就的确会存在算法伦理。”


算法伦理不仅涉及价值判断,而且涉及具有整体性的伦理维度。“说一个算法包含了一种价值判断,因而具有基本的伦理维度,可能意味着什么?”一些算法本质上的价值负载,构成了基本的算法伦理根据。


“有些算法(例如那些用于将细胞分类为疾病或非疾病的算法)迫使算法设计者在有争议的伦理问题上采取立场,例如,是否更希望使用假阳性错误而不是假阴性错误。这是一个有争议的伦理问题,伦理学家之间在这个问题上存在很多分歧。我们建议算法设计者应尽可能将伦理问题留给用户,如果不可能,算法中的伦理假设至少应该是透明的,并且容易被用户识别。”


这里的“有些算法”与其说意味着判断算法有没有价值负载,不如说是对算法价值负载本身发生发展的判断。算法经历了一个从没有价值负载到有典型价值负载的发展过程。作为数学概念,算法不存在伦理问题,但一旦发展到计算机算法,伦理问题就不可避免,尤其是人工智能算法。


在人工智能算法设计中,由于涉及算法设计者,所有层次的算法都涉及伦理问题,只是程度不同而已。因为算法作为创构的产物,不仅不同程度地涉及价值负载,而且涉及比价值负载更重要的观察眼光和思维方式。


从算法的发展历史看,算法伦理问题很早就存在。而真正涉及根本的算法伦理问题,主要是在智能算法中出现的,因而其集中地与人工智能相联系。人工智能伦理问题的更深层次根源,在于智能算法的自主进化。


智能算法的自主进化,意味着机器智能的伦理主体发育。无论在人工智能体成为真正意义上的伦理主体之前还是之后,人工智能伦理问题都将是人类必须密切关注和预先深入研究的重要课题。在人工智能成为真正意义上的伦理主体之前,人工智能作为自主体,其行为都会在与人类的错综关系中引发复杂的伦理问题;而在人工智能成为真正意义上的伦理主体之后,则更有不断复杂化的人机伦理关系。


因此,一方面,人工智能的伦理问题归根结底主要是智能算法的伦理问题,而这一领域的研究远未成熟。“在人工智能所涉及的伦理问题中,算法伦理居于基础地位。在智能时代,算法不只是存在于网络空间的代码,而且已经渗透到人们生活的每个片段和角落,深刻地影响着我们对周遭环境的认知和理解,并渐趋成为我们生活世界底层架构的一部分。可以说,在人工智能的广泛应用并引发的越来越多的社会伦理问题中,多数都是由算法所派生的。”正是由于智能算法的发展本身,可以看到人工智能伦理问题的算法根源和发展方向。


另一方面,深入开展智能算法伦理研究,不仅涉及通用人工智能伦理问题,而且涉及专用人工智能伦理问题研究的深化。从专用人工智能到通用人工智能的发展,人工智能伦理越来越呈现为一个整体的维度。


人工智能伦理维度的初步研究表明,新一代人工智能发展,使智能算法的伦理问题逐渐呈现出一个更具整体性的伦理维度。人工智能伦理维度的形成,在更高层次涉及伦理问题研究范式的转换。深入人工智能伦理的算法根源,可以从这一伦理维度更真切地看到人工智能算法的伦理属性。


正是根据智能算法伦理属性的理解,人工智能伦理研究领域形成了越来越系统的基础性和操作性智能算法伦理原则,并基于这些伦理原则制定相应的智能算法伦理规则。作为一个整体维度,智能算法伦理就必定在逻辑上超越人类,向机器智能体延伸。


当智能算法发展到一定程度,就会逐渐发展出自主性。而自主性行为则意味着智能算法的伦理问题就是由算法所在智能体自主引发的。当发展出自主行为甚至自主进化,智能算法就成为既涉及人工智能核心机制,又涉及伦理维度的新课题。


在智能算法伦理属性的研究中,只要涉及智能算法的自主进化,就必定触发一系列新的伦理问题。进入自主进化的人工智能算法与具有自由意志的人类智能之间应当是一种什么样的伦理关系?作为工具的专用人工智能与人类智能应当具有一种什么样的伦理关系?这是人工智能算法发展到自主进化层次必定引发的一系列新的伦理问题,这些伦理问题的基础就是不同载体智能体之间的关系。


在算法伦理研究中,立足点是自然人类,所讨论的是人类伦理,而当机器智能具有伦理地位,伦理问题的研究就不能仅仅立足于自然人类了。事实上,关于机器伦理的研究已经涉及这一重要区别。


在谈到机器伦理时,尼克·波斯特拉姆曾经耐人寻味地说,“从道德角度来看,人是在硅上还是在生物神经上运行,都没有关系(就像你是黑色还是白色皮肤一样,都没有关系)。”


毫无疑问,当只是在人类道德的意义上讨论机器道德的时候,载体的不同并不在同一语境之中,但不仅不能由此得出结论,认为智能载体对智能体没有伦理影响,而且可以由此看到另一种意义:人工智能的发展给我们提供了一个机会,使我们有必要抽离智能载体,去审视不同载体智能体之间的关系。


在只有人类智能的条件下,抽离载体既无必要亦无意义,事实上同一载体也不存在抽离问题。而当我们抽离人类智能和人工智能载体的不同,则可以看到,智能算法的伦理属性意味着人工智能伦理研究进入更深层次,其发展意味着将导向一个更高层次的伦理领域。


其中一个日益凸显的重要伦理层次,就是不同载体智能体之间的伦理关系。抽离智能载体,存在一个不同载体智能体之间的关系。由此可见,随着人工智能的通用化发展,伦理研究出现了一个越来越重要的领域:抽离智能载体的智能伦理。


在人工智能伦理研究中聚焦于智能算法伦理,就为导向智能伦理打开了通道。人工智能伦理的发展,不仅涉及人工智能和人类的伦理关系,而且涉及超越机器和人类的智能体之间的伦理关系;不仅涉及智能进化过程中不同智能形态之间的伦理关系,而且涉及智能进化过程中不同形态智能体之间的规则和规律一体化承续,由此对智能伦理研究产生启示并催生人们反思智能体之间的伦理关系。


正是人类智能和人工智能关系的极端重要性,晓示了智能伦理研究的必要性;正是人工智能算法伦理,预示智能伦理的研究和发展。这种智能伦理研究不仅涉及人机智能伦理关系,而且对于理解人类智能体之间的伦理关系,也具有相应的启示价值。


二、智能伦理的信息性质呈现


抽离物能载体之后,智能具有不同的性质和特点。最能彰显智能伦理独特性的,就是抽离物能载体而呈现的信息性质及其规则和规律的一体化表现。这与智能算法伦理研究密切相关。


关于智能体之间伦理关系的反思,与人工智能的发展特别是算法的智能化和算法伦理密切相关。智能算法发展到具有学习能力,就意味着自主性的萌生,当智能算法开始独立编写越来越复杂的程序甚至具有某种程度的自主性,就具有自己执行的能力,由此产生的智能算法伦理,既有与人类伦理相同的本性,又因载体不同等造成的巨大区别而具有不同性质。由此可见,智能算法伦理的研究,涉及不同于一般算法伦理的内容。


在算法伦理研究中,目前主要涉及算法设计中的伦理问题,因此与研究智能体之间伦理问题的智能伦理有很大区别。如果不涉及智能算法,算法伦理研究就不属于智能伦理范围;而当涉及智能算法时,则属于智能伦理研究的一个特定领域。


算法伦理涉及什么样的算法,在什么具体条件下是道德的还是不道德的,这方面最初的典型例子就是计算机病毒。“2017512日在全球范围内肆虐的勒索病毒(Wanna Cry)就与算法有着密切的关联,它导致成千上万台的计算机感染,给人类造成了难以估计的损失。”


一般的计算机病毒还不是源自真正意义上的智能算法,但由此可以预见智能算法病毒对于智能体的威胁。如果这种性质的智能算法与生物基因编辑技术相结合,还可能造成人类存在性危机级别的严峻挑战。损害智能体及其信息环境的算法,不仅本身是不符合智能伦理的,而且发展到一定程度还会构成犯罪。


由此深入,可以得到既不同于人类伦理,也不同于人工智能伦理,而是关于智能的更高层次伦理研究。正是智能算法自主性的发展,推动智能算法伦理出现从人类伦理到机器伦理进而智能伦理的发展理路。


对于人类来说,病毒本身不关涉伦理,就像上帝造世或自然进化是与伦理无关的。而智能算法是人类创构的或与人类创构具有前提性关联,随着智能算法出现自主性发展进化,算法设计和应用甚至自主性发展到一定程度,则智能算法设计者,甚至作为智能算法行为表现的智能体本身都关涉伦理,因而可以也应该追究其伦理责任。


正因如此,人工智能算法本身具有伦理属性,算法的发展将使伦理由人类扩展到机器智能体,即扩展至广义智能体。这既是传统伦理主体概念的扩展,也意味着伦理对象范围的扩大。由于这种扩展,在传统伦理意义上对人类而言是符合人类伦理的,在信息文明时代有可能就不符合智能伦理;在传统犯罪意义对人类而言不属于犯罪的,对智能体而言就可能构成犯罪。由此,可以清晰地看到一个不同于一般伦理的新的概念:“智能伦理”(Intelligent Ethics)。


作为对智能体(IntelligenceAgent)之间关系的伦理反思,智能伦理属于智能体之间伦理关系的研究范畴。这种具有独特性质的伦理问题,早在人们的网络交往中就能在人类范围内感受到。人类的网络交往就具有抽离身体的情景,可以在一定程度上感受到智能伦理的性质,但只有到人工智能的自主进化,才会有真正意义上的智能伦理。


由于超越了智能的生物和机器载体,智能伦理研究不仅可以跳出智能载体看智能载体,而且可以为人机融合进化探索前提性理论基础,更得以抽象到更高层次,从而可以为人工智能伦理和人类智能伦理研究,甚至为人工智能和人类智能及其相互关系研究提供更高层次的整体观照。


如果我们把智能算法伦理理解为与人类伦理相对的机器伦理,那么,正是从机器智能伦理可以看到超越机器伦理与人类伦理的更高层次的智能伦理。无论人类伦理还是机器伦理,都既涉及智能体,也涉及其载体,而正是机器智能体和人类智能体的载体区别,意味着抽离不同载体的智能伦理。由于抽离了智能载体,所得到的是人类智能体和机器智能体的共同特性,将其与人类伦理相比较,可以看到智能伦理的不同特性。


智能算法本身的伦理属性具有与人类伦理属性相似的本性,即使在其与人类的伦理关系方面,也由于人机之间对称伦理关系的形成而与人类伦理具有相似属性,因为与此同时,人类的伦理关系也增添了与机器的对称伦理关系。智能算法本身的伦理属性与人类伦理属性的区别,主要源自与人类不同的智能载体。


而作为抽离了智能载体的智能伦理,则具有与人类伦理和机器伦理不同的性质。因此,相对于人类伦理和人工智能伦理,智能伦理具有不同的基本特性。


智能伦理的基本特性是一个需要深入研究的课题,主要讨论两个基础方面:智能伦理的信息性质以及由此彰显的规则和规律一体化性质。


智能伦理是信息性的,智能伦理是智能层次的信息伦理。由于抽离了具体的载体,智能伦理没有源自载体的传统伦理特质,所涉及的都是智能层次的信息伦理。随着信息文明的发展,一种新的伦理问题越来越多地出现,由此引出了“信息伦理”(Information Ethics)的研究。


按其本意,信息伦理是人类使用信息过程中所涉及的伦理关系,弗洛里迪就“将信息伦理(Information EthicsIE)解释为信息哲学的一个分支,从广义上研究信息和通信技术(Information and Communication TechnologiesICTs)对人类生活和社会的伦理影响”。


信息文明的发展催生了关于信息伦理更为深入的研究,到目前为止,信息伦理研究主要涉及人类与信息相关行为中的伦理问题,伦理主体仍然是人类,所涉及的也仍然是人类之间的伦理问题,实质上仍然是通常的人类伦理研究。


智能伦理研究则上升到智能体之间的伦理关系,而智能体之间的伦理关系不仅基于信息,而且基本上都是信息性质的。这不仅涉及更大范围甚至也是更高层次的伦理关系,而且由此可以形成对于人类智能体之间,甚至人类个体之间伦理关系的更高层次的整体观照,从而在智能领域推升伦理问题研究的整体层次。


由于抽离了具体的物能载体,智能伦理以智能体为主体。由于与智能载体关系无涉,作为人类伦理中建立在生物体基础上的人伦关系伦理,不复包含在智能伦理范畴中,有些则以伦理规则与信息规律一体化的信息方式呈现。


比如,在人类伦理关系中,根源于生物载体的问题不仅最为基本,而且也最为敏感。由此可见智能伦理与信息伦理的联系和区别:


信息伦理主要研究人在信息关系中的伦理问题,而智能伦理研究智能体之间的信息伦理问题。当研究对象涉及智能体之间的信息关系时,信息伦理就不仅涉及智能伦理的基础,而且越是发展到智能层次,就越涉及智能伦理。信息伦理研究无疑将涉及智能体之间的伦理关系,正是在这个意义上,信息伦理研究的智能关系层次,事实上应当是智能伦理。而且正因如此,也可以看到典型的规则和规律一体化发展趋势。


由于智能伦理的信息性质,智能伦理具有典型的规则和规律一体化特征。由于智能伦理不仅仅源自智能发挥和发展规律,而且产生于同一个机制,智能伦理最典型地体现了规则和规律的一体化;由于在智能算法中,伦理维度和智能机制是一体的,伦理规则与算法规律密不可分。


在智能算法中,其最为典型的表现就是:编码即规律(Code Is Law),编码即规则(Code Is Rule);由于智能算法不仅因其信息性质而具有创生性,而且因其造世性质而具有整体性,伦理属性具有规则和规律一体化的性质,因此其对人类的伦理不仅具有很深层次,而且是非同一般伦理意义上的影响。


在智能算法中,规则和规律之所以具有一体化的性质,根本原因是智能算法设计是一个创构的过程,创构特指信息创生意义上的建构,因此不同于对既存对象的描述。在对既存对象的描述中,由于描述者立足点和信宿已有成见等的影响,描述结果具有主体特性,而在对人类根据自己的需要设想出的对象的创构中,由于创构者首先必须有奠基性的先在预设,必定会有源自创构者需要的决定性影响。


创构者的需要可以十分复杂,可能仅仅是自身的需要,更可能是对社会和整个人类的需要及其发展的不自觉反映甚至自觉的理解和把握,但无论是自身的需要还是其所反映和把握的社会和人类需要,都必定将其作为创构的出发点和目的,因此就负载着基于这种需要的价值等,甚至由此而使算法本身具有善恶等伦理属性。而智能算法的价值加载本身,就意味着价值和事实,从而实现规律和规则的一体化。


从智能算法的价值加载到智能算法的自主进化,包含一个规则和规律一体化发展的过程。智能算法设计中的价值加载,具有重要智能伦理后果,这些后果在算法伦理研究中有集中涉及。对于智能算法的价值负载,米特尔施泰特(Mittelstadt)经过系统梳理,得出了一个“算法的价值图谱”。


在算法所引起的六类伦理关切中,包括由“非决定性证据”(Inconclusive Evidence)、“难以理解的证据”(Inscrutable Evidence)和“误导性证据”(Misguided Evidence)构成的“认知关切”(Epistemic Concerns),由“不公正结果”(Unfair Outcomes)、“转化效应”(Transformative Effects)构成的“规范关切”(Normative Concerns),五类证据再加上“可追溯性”(Traceability),构成算法的整个价值图谱。非决定性证据导致不正当行动,难以理解的证据导致不透明,误导性证据导致偏见,不公正结果导致歧视,转化效应导致自主性挑战。


智能算法的价值图谱,体现了智能算法中价值和伦理的一体化。这也是为什么在算法伦理问题中,很多都是典型的造世伦理问题。而当智能算法进入自主进化,伦理问题的造世性质就更为凸显。正是造世伦理性质的凸显,意味着科学和哲学一体化发展的必要性。


仅就算法伦理而言,哲学家和科学家共同努力、协同攻关,不只是通常意义上的学科交叉和跨学科研究,而是进一步提升到认知机制的一体化构成。在这个意义上,这正是科学和哲学一体化发展的典型领域。现在越来越不能想象,算法伦理单独由哲学家或科学家去探索,可以得到令人满意的理论效应和实践效果。在智能伦理中,以往与规律分离的规则在更高层次回归,正在成为越来越重要的发展趋势。


因此,智能伦理不仅具有信息性质,而且具有规则和规律一体化的特点。在创生意义上的信息创构活动中,“是”和“应该”之间通过“正成”(going to be)形成相互交织的双向循环,构成更高层次的整体机制。


在智能算法深处,可以看到新的机理:事实和价值在分门别类研究的基础上“合拢”,规则和规律越来越呈现一体化发展趋势。由于特定的学科特质,这种整体发生的规则和规律一体化回归,首先在伦理学中得以开显,表明伦理学领域的特殊性。


由此可见,智能伦理的研究不仅是一个新的伦理领域,而且其规则和规律一体化特性,无论对于人类伦理还是人工智能伦理研究的深化,无疑都具有重要启示。正是规则和规律一体化,在根本上表明了智能伦理的整体性。智能伦理的基本特性,意味着智能伦理研究将面对不同的伦理问题。


三、智能伦理的人机身份认证问题凸显


同样,由于抽离智能载体,智能伦理所特有的问题也日益凸显。最能凸显智能伦理的特殊问题,则是智能体身份认证以及与此相关的信息共享伦理问题。由于身体隐匿,人们在网络上交往身份难辨。


由于人工智能的发展,不仅从人类身份难辨发展到载体抽离后的人机身份难辨,而且涉及不同载体智能体的信息特征认证和信息共享等问题。


由于涉及不同载体智能体之间的伦理关系,智能伦理一方面没有根源于智能载体的复杂性,另一方面又意味着非常重要的新伦理问题。随着信息文明特别是人工智能的发展,这些问题会越来越多,对其探索的价值也会越来越大。


智能伦理涉及的问题主要有两类:


一类是与智能体身份认证相关的伦理问题,另一类是与智能体信息本性相关的伦理问题。两类问题的系统探索需假以时日,这里主要从智能伦理问题凸显的角度讨论智能体身份论证问题,以及由于涉及不同载体智能体而变得极为特殊的信息共享问题。


在凸显智能伦理的重要问题中,有一类问题与身份认证密切相关。这些问题根源于智能体不同于智能物能载体的独一无二身份特征,可称之为与智能身份认证相关的伦理问题。


与智能体身份认证相关的问题属于智能伦理的最基础问题。在智能载体抽离的情况下,其自身的发展会越来越多地遇到人工智能和人类智能难以区分的问题。最典型的情况有:由于不能识别人工智能还是人类,网络登录不得不使用识别码;在电话和网络中,分不清和我们联系的是人还是人工智能,这就成为突出的智能伦理问题。


随着人工智能的发展,由此带来的智能伦理问题也越来越多,越来越复杂化。而就人类智能体而言,所涉及的问题则更为复杂,智能伦理问题不仅涉及生物智能体和机器智能体之间的伦理关系,而且涉及人类智能体之间新的伦理问题。随着人机融合的进化,智能载体的趋同进化使载体区别逐渐缩小,智能伦理甚至意味着信息化和数字化对性别的超越。


在网络时代,人类身份认证的信息化必定引发性质不同的问题。一方面,由于人类可以身体隐匿,依靠网络信息交流获得的信息特征很难进行身份认证;另一方面,由于人类越来越以信息的方式存在,人类作为信息体的身份认证又势在必行。从网络的身体隐匿到智能载体抽离,主要以身体特征为根据的身份认证向主要以算法特征为根据的身份认证发展,由此人们提出了“新算法身份”的概念。


在谈到“新算法身份”时,约翰·切尼-利波尔德(John Cheney-Lippold)认为,“身份类别是根据个人的网络使用情况推断出来的。代码和算法是这种推理背后的引擎,也是我在网上思考身份和类别新结构的轴心。我们正在进入一个网络世界,我们的身份很大程度上是为我们制作的。‘新算法身份’位于与传统自由主义政治相距遥远之处,通过许多算法的专有性质从民间话语中消除,同时前所未有地享有普遍存在的监控和记录有关用户的数据。”由此引发的一系列伦理问题都与信息身份认证及其可靠性密切相关。


到目前为止,人类作为信息体的身份认证远不如作为生物体的身份认证可靠,即使通过身体特征的信息化进行身份认证,也存在可靠性问题。这方面最典型的例子之一就是人脸识别,由此引发出一系列复杂的智能伦理问题,比如越来越复杂的智能隐私问题等。


由于抽离了具体的载体,智能伦理的身份认证问题,在目前越来越广泛应用的人脸识别技术中有十分微妙的反映。目前人脸识别技术的应用,在一般情况下问题不大,比如作为上下班刷卡的记录;但越是重要的身份认证,其不可靠性带来的风险越大。越来越多的报道表明,由智能算法可靠性引发的智能伦理问题,在人工智能的人类身份认证中普遍存在。


随着人从主要以物能方式到主要以信息方式存在的发展,身份认证必定会有相应转换:从原来主要根据身体特征到主要根据信息体或智能体特征。目前涉及的信息体或智能体特征,主要是身体特征的信息化,典型的如人脸识别技术。


人脸识别技术一方面存在可靠性问题,另一方面存在一个更基本的问题:信息特征是否更具根本性?随着信息文明的发展,一个基本事实日益凸显:算法特征是信息体身份认定的根据,不仅通用机器智能体的身份认定必须根据算法特征,而且当人类不再能以身体特征作为主要身份认定根据时也是如此。


由此可见,抽离了载体,智能体的身份认证就成了新的伦理问题的重要根源,这正是智能伦理研究的重要问题。由于载体的性质,这一问题在人类身份认证中可能还不是最为突出的;同样,由于载体性质,身份认证问题随着机器智能体的发展会越来越严重。从现阶段研究看,智能体的身份认证是智能伦理研究中越来越凸显的重要问题。


智能伦理中的身份认证问题不仅涉及人类智能体,更涉及人工智能体以及二者的区分。机器载体和生物载体在物能发展阶段上存在很大不同,个体的独一无二特征存在巨大区别。这意味着机器智能体的身份认证必须主要借助智能体的特征,而不能主要根据载体。对于智能体来说,最基本的独一无二特征就是个体经历。人在长相真假难辨时,问一个特殊的经历,身份认证就十分可靠地完成了。


正因如此,一方面智能伦理将随着智能算法的发展而复杂化,另一方面又必须通过这种复杂化的发展才能解决相关伦理问题。如果人工智能体不像人类那样涉及复杂的经历,其相互区分即身份认证就会存在更多更严重的伦理问题。


智能伦理与信息本性相关的问题,则主要包括信息对称伦理问题、信息相互性伦理问题和信息共享伦理问题等。由于本文主要讨论智能伦理发展中最凸显的问题,这里主要讨论最具代表性的信息共享伦理问题。


智能伦理与信息本性相关的一个重要问题,可称之为信息共享伦理。信息的重要特性是共享性,信息的共享性以信息流通为前提,信息共享伦理问题不仅是最为广泛,也是最能彰显智能伦理的问题。


与物能不同,信息具有共享的本性,而信息共享不仅是智能体发展,更重要的是智能体类群进化的最重要条件之一。因此,不同载体智能体之间的信息共享,不仅涉及技术问题,而且涉及更为明显的信息共享伦理问题。


正因如此,可以从智能体身份论证的信息特征看出,信息共享问题日益凸显智能伦理。在信息文明的发展过程中,凡是不利于信息共享的行为都是不符合信息共享伦理的。随着智能体的发展,符合信息共享伦理的信息共享行为,对于智能进化越来越重要。


由于信息共享不仅关系到具体的共享个体,更关系到整个智能体类群的整体信息共享水平,从而关乎智能体类群进化,信息共享伦理不仅具有更为明显的类群伦理的性质,而且随着智能算法的发展而发展。这意味着信息共享伦理具有一个扩展效应:随着共享类群规模的扩展,共享伦理的后果呈指数级放大。由于智能类群的扩展在很大程度上取决于算法,它与智能算法的发展密切相关。


归根结底,智能伦理取决于智能算法的发展,它会随着算法自主性发展程度的不同而具有差异较大的不同性质。因此,智能伦理的规制必须在一个可以不断推升的更高层次进行。这将在不断提升智能伦理研究重要性的同时,也不断加大智能伦理研究的难度,特别是智能体层面的伦理规制。因此,及早开展智能伦理研究事关重大。


智能伦理研究旨在为规范智能体关系提供理论基础,而智能伦理规范的目的则不仅在于对智能行为进行伦理规制,还在于通过人机融合推动相关观念的进化,加深对有关问题的理解,更在于深化对智能与环境关系的理解,为智能发展创造更好的伦理环境,使智能体更好地发挥其智能。


人工智能的发展,使我们意识到不同载体智能之间的伦理关系,看到智能伦理;而在此基础上抽离智能载体,又可以让我们进一步意识到与载体无关的更高层次的智能伦理。也就是说,从相同载体智能体之间的伦理关系到不同载体智能体之间的智能伦理关系,可以看到智能伦理;而从不同载体智能体之间的智能伦理关系,又可以进一步看到相同载体智能体之间的伦理关系。



来源:阅江学刊

链接:https://mp.weixin.qq.com/s/0aZ2qqIf8BqNXEQH2qy4vA


编辑:李佳怿

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表