传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
传媒教育网 新闻聚焦 查看内容

德国发布AI和数据伦理的75项建议,提出数据和算法协同治理等理念 | 腾讯网络法专报

2020-1-7 22:21| 发布者: 刘海明| 查看: 79| 评论: 0|原作者: 曹建峰 腾讯研究院高级研究员;熊辰 腾讯研究院法律研究中心助理研究员|来自: 腾讯研究院

摘要: 链接:https://mp.weixin.qq.com/s/W-4lYEQM-G1evreawLT87g
《腾讯网络法专报》汇集每月全球互联网法律政策新动态,涉及范围有网络安全、人工智能、数字产业、GDRP等各方面,旨在从法律政策角度,为新兴技术带来的社会问题进行专业解读。2019年10-11月《腾讯网络法专报》涉及知识产权保护、平台责任、未成年人保护、人工智能、隐私保护、数据治理、虚拟财产等主题。


本文为精选Part1《人工智能与平台责任篇》,2019年10-11月《腾讯网络法专报》全部内容将于近期发布,敬请关注腾讯研究院公众号。



// 人工智能 //


德国发布AI和数据伦理的75项建议,提出数据和算法协同治理、分级监管等理念

关键词:数据、算法、应用伦理、算法问责

2018年,德国成立了数据伦理委员会,负责为德国联邦政府制定数字社会的道德标准和具体指引。2019年10月10日,委员会发布“针对数据和算法的建议”(以下简称《建议》),旨在回答联邦围绕数据和人工智能算法提出来的系列问题并给出政策建议。[1]《建议》围绕“数据”和“算法系统”展开,包括“一般伦理与法律原则”、“数据”、“算法系统”、“欧洲路径”四部分内容。德国数据伦理委员会认为,人格尊严、自我决策、隐私、安全、民主、正义、团结、可持续发展等应被视为德国不可或缺的数字社会行为准则,这一理念也应在“数据”和“算法系统”的监管中加以贯彻。





数据治理方面,《建议》指出在一般治理标准指导下,对个人数据与非个人数据分别监管,平衡数据保护与数据利用。《建议》提出了治理的一般标准,包括数据质量应符合其用途;信息安全标准与信息风险水平相适应;以利益为导向的透明度义务(Interest-oriented transparency)。因此在数据治理中,必须建立具有预见性的责任分配机制,尊重数据主体以及参与数据生成的各方权利。总体而言,数据伦理委员会认为数据是由各方的贡献生成的,不能基于这种对数据生成的贡献来主张对数据的所有权,但是各方可享有对具体数据生成和利用的参与、共同决定等数据权利,反过来可能导致其他各方承担相应的义务,这意味着承认服务提供者对服务提供活动中产生的各类数据享有法律权益。具体而言,数据监管需要区别个人数据和非个人数据,因为不同类型的数据权利和义务是不同的。就个人数据而言,个人在多大程度上享有权利应取决于如下因素:对数据生成的贡献程度;在数据权益中个人权益所占的比重;与第三方可能存在的利益冲突;公共利益以及当事人利益的平衡。就非个人数据而言,《建议》提出在欧洲改进数据基础设施(例如平台、应用程序接口标准和示范合同等),防止过度依赖第三方的基础设施,防止欧洲创新型公司外流。此外,《建议》还提出要建立和推广政府数据开放平台(open government data (OGD)),支持私营部门自愿的共享数据安排。同时,委员会认为非个人数据保护在推动数据开放与加强数据保护之间存在紧张关系,因此推动开放数据应审慎评估其对数据保护、商业投资的影响。当两者发生冲突时,国家应优先数据的保护。


数据驱动下,算法治理重点在于“算法监督”以及“算法责任”。委员会认为以人为本,与核心价值观相符合,系统的可持续性、稳健性和安全性,减少偏见和算法歧视等理念是算法系统设计应遵循的基本原则。以上述基本原则为基础,《建议》提出制定算法评估方案,其核心设想在于建立数字服务企业使用数据的5级风险评级制度,对不同风险类型的企业采取不同的监管措施[2]:


(1)对于具有较低潜在危害的系统例如饮料制作机,不应监管;


(2)对于具有潜在危害的系统,例如电子商务平台的动态定价机制应该放宽管制,可以采用事后控制机制,加强披露义务等来降低其潜在危险;


(3)对于具有一般或明显危害的系统,应考虑以发放许可证的方式,促使审批、监管常规化;



(4)对于具有相当潜在风险的系统,例如在信用评估方面具有准垄断地位的公司,应公布其算法细节,包括计算所参考的因素及其权重,算法所使用的数据,以及对算法模型的内在逻辑进行解释;



(5)对于自动化武器等具有潜在不合理危险的系统,则应该“完全或者部分”禁止。


对于二级以上的企业,委员会建议引入强制性标记系统(mandatory labelling scheme),要求运营商明确是否、何时以及在何种程度上使用算法系统。一旦运营商接受该强制性要求,就必须严格遵守该标记,否则其负责人需承担责任。数据伦理委员会将在“可解释人工智能”(旨在提高算法系统,特别是自主学习系统的解释能力)的框架下开展工作,包括编制和发布风险评估建议、解释数据的处理过程、衡量数据质量以及算法模型准确性的方法等。委员会认为,以上机制能成立的前提是细化GDPR第22条中自动化决策的适用范围和法律后果;并在算法规则以外引入外部保护机制,比如加强反歧视立法。此外,《建议》还就政府机构、媒介中介使用算法系统提出了具体的建议。在算法系统的责任方面,委员会建议必要时对《产品责任指令》以及其他责任法进行修订,增加针对数字产品和数字服务的侵权责任规则。最后,《建议》认为,即使是高度自主的算法系统也不能获得法律上的独立地位,经营者使用高度自主的算法技术产生的赔偿责任应当与以往辅助设备的负责人需要承担的替代赔偿责任制度相一致。


《建议》是德国数据伦理委员会设立以来的主要研究成果,为德国下一阶段数据和算法的监管提供了较为清晰的思路。鉴于数据生态系统的复杂性和动态性,《建议》在数据以及算法的监管中突出了协同治理,分级监管,多样化监管的理念。治理手段不仅包括立法和标准化建设,还包括各方利益的协调以及行业自律。此外,数据和算法技术本身也可作为治理工具发挥作用。


《建议》侧重于数据与算法的监管,其所提议的监管举措也引发了对阻碍创新的担忧。如美国数据创新中心认为,该建议将会对人工智能的发展产生寒蝉效应:“德国希望在全球数字经济的发展中更具有竞争力,但不应该以监管来代替创新。这一政策将使在德的外国企业处于不利竞争地位,以这样的方式加强欧洲的数据主权是不可取的。”[3]


德国的立法动议往往影响广泛,此次《建议》中有关数据和算法的监管思路很有可能被纳入欧盟未来的人工智能规则构建之中,并进而影响全球的数据保护政策。德国数据伦理委员会在论及欧洲未来的发展时提出,在未来的全球竞争中,面对技术和商业模式的快速更迭,捍卫数字主权(the digital sovereign-ty)不仅是一种政治上的远见,还是一种必要的道德责任外化( expression of ethicalresponsibility)。德国乃至全欧盟成员国,应努力成为全球规则的制定者而不是接受者。[4]






AI版权保护成国际社会关注焦点,美国USPTO推进AI知识产权政策的明确化

关键词:人工智能、AI生成作品、人类干预、新型数据权利


随着人工智能(AI)持续影响内容创作、发明创造等人类智力创造领域,开始更多扮演“创作者”“发明者”等角色,国际社会已在着力应对人工智能对版权、专利、商标、商业秘密等知识产权制度的影响。8月27日,美国专利商标局(USPTO)就AI对专利制度的影响,向美国各界公开征求意见。[5]10月30日,USPTO再次发布通知,将公开征求意见的范围扩大到了AI对版权、商标及其他知识产权的影响。[6]此次公开征求意见表明美国在AI知识产权保护立场上的重大转变,因为在此前的猴子自拍案中美国法院认为,美国版权法只保护人类作者的独创性表达。美国版权局此前也明确表示,“机器或纯粹的机械程序在没有人类作者的创造性输入或干预的情况下,随机或自动运行而产生的作品”不具有可版权性。此次公开征求意见对AI创作物的知识产权保护的影响还未可知,但未来USPTO可能就AI知识产权保护问题发布指南,进一步阐明AI知识产权保护规则。在此基础上,USPTO最终可能对美国的IP法律和政策作出调整。


就此次公开征求意见而言,USPTO主要关注以下方面。一是专利方面,如何界定AI发明(包括使用AI的发明和AI开发的发明);如何认定自然人对AI发明的贡献,如设计、调整算法,组织数据,训练算法等;开发训练用于进行发明创造的AI程序的公司是否可以获得专利权:AI发明相关的可专利性条件、披露条件、据以实施要件、本领域技术人员、现有技术等事项有何特殊变化;AI专利是否需要新形式的知识产权保护,如数据保护。


编辑:冯梦玉

鲜花

握手

雷人

路过

鸡蛋

最新评论

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.