摘要:如何考量人工智能带来的潜在风险?人类机构和以人为本的价值观在人工智能发展中应该发挥什么样的作用?人工智能作为21世纪最有影响的一项科技创新, 在某种程度上说已然成为当今时代的隐形把关人和隐形决策者。如何使人工智能的发展符合人性化价值,巩固人的尊严和自由并增进社会的可持续发展,这是一个巨大的现实挑战,首要解决的是人工智能的伦理问题。 人工智能的伦理问题引发国际社会的强烈关注,许多国际组织、国家、业界和各方机构纷纷出台数百份人工智能伦理原则和倡议文件。本文综述了近年来全球范围和国家层面代表性的机构和代表性的文件来归纳人工智能伦理原则制定的主要维度,同时聚焦各方共同关注的隐私保护问题,结合全球新冠疫情(COVID-19)防治带来的危机,从技术、国际法标准、国家层面隐私保护框架/指标、儿童隐私保护等多个角度来探讨人工智能时代隐私保护的挑战、风险和对策。 关键词:人工智能(AI),伦理,隐私,数据保护,数据治理,物联网(IOT),多方利益相关者参与,新冠疫情(Covid-19),互联网治理,互联网政策,可持续发展,儿童隐私 人工智能技术的开发和应用正在影响着社会和生活的方方面面:无论是搜索引擎在几微秒内扫描数十亿计的网页、电子痕迹和传感器数据,还是各行各业使用算法筹备并制定重要决策;人工智及其数据、算法、硬件、互联网接入和存储等组成要素使得信息传播技术的效能突飞猛进,正在深刻地改变和重塑现代社会发展的方式和方向。 许多技术决定论者乐观地认为人工智能的发展决定如同历史上科技变革那样,具有推动社会持续发展的巨大潜能并带来一场历史性的发展机遇。然而科技的发展历来都是一把双刃剑,人工智能不同于既往各种技术,它颠覆性地改变了技术创新的方法和进程,人类不再是生产和创造知识的唯一主体, 基于大数据和算法的机器学习和自动决策系统改变了各行各业的运营方式, 这一切都给人类尊严、社会组织和发展方式提出新的问题,并不可避免地带来一系列不确定的风险。 本文关注如何全方位并谨慎评估人工智能技术可能带来的社会、经济和伦理风险,旨在探索如何遵循以人为本的方向,确保人工智能的发展真正地造福人类,使人工智能的发展符合人性化价值、巩固人的尊严和自由并增进社会的可持续发展。面对这一系列巨大的理论和现实挑战, 首要解决的是人工智能的伦理问题。 一. 国际社会对于人工智能伦理的探讨 近年来,国际社会有关人工智能伦理的讨论和规则制定风起云涌,许多国际组织和国家纷纷出台各自的人工智能伦理原则和倡议文件。目前国际范围内的人工智能伦理规则制定的主体来自多元化的各方,包括国际组织、区域性政府间机构、私营公司、技术社群、学术界以及非政府组织。 2020年5月,联合国秘书长安东尼·古特雷斯发布报告《数字合作路线图:执行数字合作高级别小组的建议》 [1],指出全世界已有逾 160 套关于人工智能伦理和治理的组织、国家和国际原则。报告警示,目前尚没有任何汇编这些单独倡议的共同平台,而且全球讨论缺乏代表性和包容性,尤其是发展中国家的讨论缺席;如不更广泛、更系统地开发人工智能的潜力和降低其风险,就会失去利用人工智能造福公众的机会。秘书长还在报告里强调了对面部识别软件和数字身份识别等人工智能相关技术侵蚀隐私的忧虑,以及人工智能可能加深既有的社会不平等和歧视。秘书长的报告引发热烈国际反响。联合国教科文组织总干事阿祖莱表示:“我们有义务引领一场开明的全球辩论,以便带着清醒的认知进入这一新时代,确保我们的价值观不被牺牲,并为人工智能的伦理准则建立一个全球共同基础。” [2] G20 峰会、G7峰会、欧盟以及发达国家为主经济合作与发展组织(OECD)、欧洲议会(Council of Europe)早在2017年就开始磋商人工智能伦理的规则制定和治理问题。经合组织2019年发布了关于人工智能的推荐原则 [3],并建议其成员国在制定人工智能发展战略和政策时予以遵守。经合组织主要制定了五大原则:1. 包容性的增长、可持续并促进福祉的发展;2. 以人为中心的价值观和公平;3. 透明性和可解释性;4. 稳固、安全和没有伤害;5. 问责。经合组织的五项原则作为较早期对人工智能的规范探讨,被各界视为经典。这五项原则关注人工智能对于经济增长的影响、人工智能的安全性以及开发过程的透明和问责,经常为各界引用,为更广泛的国际范围内的讨论带来了一个好的开端。目前经合组织的人工智能原则获得了包括该组织成员国、G20国家以及包括一系列亚非拉发展中国家的认可。许多人工智能公司和业界机构在制定人工智能战略时也经常参考经合组织的五项原则。除了侧重发达国家的经合组织,其他以发展中国家为主的区域性国际组织,如非洲联盟、阿拉伯联盟也都设立了关于人工智能的专家工作组跟进国际人工智能伦理的讨论。 在同时涵盖了发达国家和发展中国家的联合国层面,从秘书长到包括国际电讯联盟和教科文组织在内的专业机构,都在世界信息社会峰会和联合国2030 可持续发展目标 [4]的框架中, 率先探讨了人工智能的伦理和治理问题。国际电讯联盟自2017年开始联合30多家联合国机构举行AI for Good 全球峰会 [5],旨在召集来自政府、业界、学界和非政府组织的各方专家领袖, 分享AI的最新应用实践和具有全球影响的人工智能解决方案,讨论人工智能的研发使用如何促进和加快各国的可持续发展。该峰会迄今已经举行了四届。 在2019年11月召开的教科文组织大会期间,193个会员国决定委托该组织秘书处就人工智能(AI)开发和应用带来的伦理问题提出适用于世界各国的推荐建议。教科文组织总干事阿祖莱为此任命24名推荐建议起草组专家,他们来自不同国家和文化背景、精通人工智能相关技术和伦理的各个领域,并兼顾性别组成。专家组负责拟定一份草案,用于向国家和地区层级的各利益相关方征求意见。该推荐建议将提交2021年教科文组织大会审核,如获所有会员国批准,将成为第一份有关人工智能伦理的全球性规范性文件 [6]。 根据2020年5月教科文组织发布全球磋商的草案第一稿 [7],目前专家组的推荐意见草案初步拟定了四大价值、十条原则和一系列政策建议。人工智能应当恪守的四大价值:尊重、保护和促进人的尊严、人权和基本自由;环境和生态系统的蓬勃发展;确保多样性和包容性;和谐与和平共处。人工智能应当遵守的十大原则包括: 1.相称性和不损害: 指人工智能的技术应用应当同所需要达到的目的和范围相对称,要防治过度和滥用人工智能技术;每项人工智能技术在研发和应用之前, 要充分评估该项技术是否对于人类、环境或生态系统可能造成潜在损害,是否影响人类尊严和基本权利的价值观;要确保落实风险评估程序,并采取措施以防止发生此类损害和负面影响。 2. 安全和安保:指在人工智能技术的发展过程中,应注重技术本身的安全性和承受风险的保险系数;要可持续的、保护隐私为前提的开发和使用数据,促进利用优质数据更好地训练安全可靠的人工智能模型。 3. 公平和非歧视:指人工智能的开发者应尽量减少和避免强化或固化基于身份偏见的不适当的社会—技术偏见,确保人工智能系统的公平。对于不公平的算法决定和歧视应可以作出补救。人工智能开发者应尊重公平、促进社会正义;在地方、国家和国际层面共享人工智能技术的福祉,同时又考虑到不同年龄组、文化体系、不同语言群体、残疾人、女童和妇女以及处境不利、边缘化和弱势群体的具体需求, 以便让每个人都得到公平对待。 4. 可持续性:人工智能技术的发展应当促进社会的可持续发展和实现联合国2030 框架下的可可持续性目标,因此要持续观测和评估人工智能技术对于社会、文化、经济和环境等方方面面可持续发展造成的影响。 5. 隐私:人工智能技术的发展, 无论是人工智能所用数据的收集和使用还是人工智能算法的研发,都必须尊重隐私和保护个人数据。独立的隐私和个人数据监管机构应当依法治理人工智能所涉及的数据收集、算法设计、基于人工智能的监控是否符合隐私规范, 并依法保护数据所有人的知情权、对个人数据的使用权和控制权。 6. 人类的监督和决定:即人工智能的发展的伦理和法律责任应当属于人类,人类在决策和行动上可以借助人工智能系统,但人工智能系统永远无法取代人类的最终责任和问责。 7. 透明度和可解释性:人工智能发展的各个环节保持透明度,包括共享特定代码或数据集,可以帮助人们了解人工智能系统的研发原理、工作机制并预测影响;可解释性是指让人工智能系统的算法决策过程和结果可以理解,并提供阐释说明。可解释性与透明度两者相辅相成。透明度和可解释性与适当的责任和问责措施是确保人工智能基于人性化价值和保障各项权利的先决条件, 有助于提高人们对于人工智能系统的可信度。 8.责任和问责:人工智能开发者应根据现行国家法律和国际法以及伦理准则,承担伦理和法律责任,并应建立适当的监督、影响评估和尽职调查机制,确保人工智能系统的研发、使用和的运行可审计、可追溯和可问责。 9.认识和素养:包括政府、政府间组织、民间社会、学术界、媒体、社区领袖和私营部门在内的各利益攸关方应共同促进开放性教育培训资源、公民参与、数字技能和人工智能伦理问题方面的培训、媒体和信息素养培训,同时兼顾现有的语言、社会和文化多样性,促进公众对于人工智能技术和数据价值的认识和理解,确保公众的有效参与,让所有社会成员都能够就使用人工智能系统作出知情决定,避免受到不当影响。 10. 多利益攸关方以及适应性治理和协作:人工智能的发展影响到社会各个群体, 多方利益攸关方应当充分参与并影响的人工智能发展和治理,以确保实现包容全纳的人工智能发展、共享人工智能的益处和公平的技术进步。多利益攸关方包括但不限于政府、政府间组织、技术界、民间社会、研究人员和学术界、媒体、教育、决策者、私营公司、人权机构和平等机构、反歧视监测机构以及儿童和青年团体。适应性治理和协助指必须采用开放标准和互可操作性原则,以促进各方协作。 目前教科文组织的十项原则可以说概括了国际社会迄今已有的对于人工智能伦理原则的大部分面向,目前还在进一步磋商之中。这十项原则对比OECD的五项原则来说更进一步, 拓宽了对人工智能伦理的关注面, 强调了人工智能研发的可持续性以及人类在其中的监督和决定,关注和提升了公众和人工智能素养以及各利益相关方的参与。该十项原则还将隐私问题单独列出来, 强调隐私保护对于人类尊严和自主行动的重要意义, 鼓励各国完善和加强数据保护和数据治理的框架和政策,并提倡将隐私保护预设在算法的研发之中。 在人工智能教育领域,教科文组织2019年在北京召开了国际人工智能与教育大会与会者,包括50名政府部长和副部长,自100多个会员国以及联合国机构、学术机构、民间社会和私营部门的约500名代表经讨论达成的《北京共识——人工智能与教育》 [8], 重申教科文组织人工智能使用方面的人文主义取向,旨在保护人权,并确保所有人具备在生活、学习和工作中进行有效人机合作以及可持续发展所需的相应价值观和技能。该共识还申明:“人工智能的开发应当为人所控、以人为本;人工智能的部署应当服务于人并以增强人的能力为目的;人工智能的设计应合乎伦理、避免歧视、公平、透明和可审核;应在整个价值链全过程中监测并评估人工智能对人和社会的影响。”[9] 二. 国家和业界层面的人工智能伦理规范制定 在国际范围内有关人工智能伦理规则制定风起云涌之时,许多国家鉴于本国数字经济和数字战略的发展需要, 也纷纷制定国家层面的人工智能发展规则。根据经合组织的人工智能观察网站 [10]数据, 包括美国、澳大利亚、加拿大、法国、德国、日本、新西兰、新加坡、瑞典、英国等在内60个国家、制定了300多个有关人工智能发展战略和伦理规范。 受法国总理委托,法国著名数学家兼国会议员Cedric Villani牵头出台了法国的人工智能战略,于2018年发布了战略报告 《创造有意义的人工智能——国家以及欧洲战略》 [11],其中第五章专门论述了人工智能的伦理问题并提出了五条基本原则:1. 透明和可审计;2. 保护权利和自由;3. 问责和负责;4.多样性和包容性;5.对人工智能及其后果进行政治辩论。这五项原则充分体现了法国和欧洲国家的价值取向, 重视人工智能对于保护所有权利和自由的影响,而且非常明确提出要从政治角度来探讨人工智能影响。而在现实中,人工智能也逐渐成为国际政治和外交论坛的重要议题。 2019年6月17日, 中国的国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》 [12],提出了人工智能治理的框架和行动指南。人工智能发展相关各方应遵循八项原则:1. 和谐友好;2.公平公正;3.包容共享;4.尊重隐私;5.安全可控;6.共担责任;7.开放协作;8.敏捷治理。值得注意的是, 在人工智能领域领先的中国,其伦理原则也同样重视隐私保护的问题。 在政府部门之外,世界各国的人工智能研究所、智囊、业界社群如雨后春笋, 试图就人工智能的伦理问题制定标准。其中比较有代表性的是人工智能独立研究社群“深脑”(Deep Mind)早在2017年就确定了人工智能伦理的主要原则 [13]:1.保护隐私;2.透明和公平;3.人工智能的道德和价值观;3.治理和问责; 4. 人工智能用于应对最复杂世界挑战; 5. 人工智能滥用和连带后果;6. 人工智能的经济影响:就业方面的包容性和平等。 谷歌、IBM、微软、法国电信 Orange、腾讯等领军人工智能的企业也都纷纷制定本行业的人工智能开发原则。 美国的谷歌公司于2018年发布了谷歌的人工智能原则:1.确保人工智能的开发有利于造福社会;2.公众获取信息; 3.避免偏见; 4.安全;5.问责;6.保护隐私;7.保持高科技水准 [14]。中国的腾讯研究院和腾讯AI Lab于2019年发布了联合研究《智能时代的技术伦理观——重塑数字社会的信任》 [15]。该研究认为,在“科技向善”理念之下,需要倡导面向人工智能的新的技术伦理观,包含三个层面:技术信任,人工智能等新技术需要价值引导,做到可用、可靠、可知、可控(“四可”);个体幸福,确保人人都有追求数字福祉、幸福工作的权利,在人机共生的智能社会实现个体更自由、智慧、幸福的发展;社会可持续,践行“科技向善”,发挥好人工智能等新技术的巨大“向善”潜力,善用技术塑造健康包容可持续的智慧社会,持续推动经济发展和社会进步。 三. 隐私问题:人工智能伦理的共同关切和巨大挑战 纵观目前各个国际组织、各个国家以及人工智能相关机构、公司和社群制定的人工智能伦理规范和原则, 虽然着眼点和范围各有不同, 但归纳起来,其中仍然有很多共识的部分。哈佛大学伯克曼中心2020年发布了一个题为“人工智能的原则:伦理和权利为基础的共识”的研究报告 [16],分析了47份具有代表性的原则文件,归纳出八条各文件达成的共识:1. 保护隐私;2. 问责;3. 安全和无害;4. 透明和可解释性;5. 公平和非歧视原则;6. 人力掌控;7. 专业责任;8.提升人文价值。 无论是伯克曼中心归纳的共识还是前文所述各界对于人工智能伦理的原则制定都各有侧重, 值得注意的是,隐私问题成了国际社会、各国和各界对于人工智能发展的共同关切和挑战。隐私和隐私保护一直是互联网治理和数字变革的焦点问题,为什么在人工智能的发展上也再次成为挑战? 首先,人工智能的技术特点带来许多新的隐私隐患,使得隐私保护更加困难。 人工智能系统以算法为根据,算法通过收集、储存和处理海量数据进行学习,并做出最符合设计者意图的决定。各大搜索引擎、社交媒体平台、网购电商、银行交易、远程教育等互联网服务都在使用人工智能技术大规模收集用户的个人数据并将其用于进一步的算法学习和商业模式优化。 人工智能的算法研发依赖于海量数据的收集和使用,尤其是跟个人有关的数据交易,伴随一系列包括5G、物联网(IOT)等先进配套技术,个人数据的收集和使用达到了前所未有的规模和程度,个人隐私和数据保护在AI时代变得前所未有的困难。 现代人每天工作和生活都离不开用各种网络设备,不但在社交媒体上写帖子、发表情或上传图片会生产大量内容型数据, 同时个人浏览网站、点击链接、接受建立网络标记(cookies)的数字足迹,也在被互联网运营商和平台收集。许多涉及个人行为的数据还被公共空间的卫星影像或视频所收集和监视。在许多国家,人工智能支持的面部识别软件和监控设备被越来越多地运用于公共空间,如车站、学校、剧院、街道、购物商场等,来进一步收集个人数据并用于大规模监控。 不仅在公共场所,越来越多的家庭也开始装上了摄像头监控设备。还有许多家庭安装了配备虚拟助手的智能音箱,如虚拟助手“亚马逊Alexa”(常简称“Alexa”),这些助手经常在被收集者不知晓或未明确同意的情况下收集数据。 个人使用互联网也越来越不安全,因为很多互联网搜索引擎、社交媒体平台可能运用人工智能技术监听和监控用户的语音对话,在用户使用互联网平台的同时收集个人数据,以便精确定位,推送信息和广告。 其次,在法律和概念层面, 数字时代的隐私和数据保护问题尚未得到妥善保护和全面探讨,生活在数字时代的公民的隐私经常受到干涉和侵犯,但他们对此经常浑然不觉,甚至因为过于依赖技术带来的方便性而不再顾虑隐私问题;在学术界和公共政策领域,对数字时代的隐私问题缺少综合而深入的理解和研究, 对人工智能的隐私保护的政策讨论远远滞后于技术的发展。 隐私权早在1948年就载入《世界人权宣言》(UDHR)的第12条和《公民权利和政治权利国际公约》(ICCPR)第17条:“任何人的私生活、家庭、住宅和通信不得任意干涉,他的荣誉和名誉不得加以攻击。人人有权享受法律保护,以免受这种干涉或攻击” [17]。 隐私权也以不同的方式载入国际和区域性法律文件以及许多国家的宪法和法律中。但数字时代的隐私问题比起传统社会来说面临更多新的风险,比如政府大规模数字监控、包括企业和其他个人的第三方跟踪、为商业目的利用私人数据以及非法获取并使用数据进行犯罪活动等。而且当人工智能进行非透明数据收集、去匿名化、第三方数据共享以及对个人进行大数据跟踪和分析时,都是在用户不知情和浑然不觉的情况下进行的,因此个人用户通常很难意识到他们的个人隐私和数据被侵犯,也就难以寻求立法和法律保护。 随着技术对社会生活的全方位渗透,私人空间和公共领域的界限开始模糊,数字时代的隐私概念和范畴随之扩展。隐私的概念已经超出传统意义上的保障私人空间和个人数据不受侵犯的范畴,需要扩展到捍卫个人生活边界和定义个人发展空间的情境下来理解, 一言以蔽之, 数字时代的隐私实际上越来越成为构筑人类尊严和人格发展的基础。但目前在大部分有关隐私的国际法律文书里,比如经合组织(OECD)和欧洲委员会(COE)的108号协定,隐私权仍然主要局限在信息隐私权的范畴之内。值得注意的是在2017年,联合国人权理事会的一项决议 [18]认定了更加宽泛的隐私权含义, 认为隐私是一项能够促进其他人权的基础权利,隐私权的保护对于保护人的尊严和自由发展人格的权利至关重要。进而,隐私特别报告员Joseph A. Cannataci在当年的报告 [19]中指出, 大数据侵入到个人的生活当中,大数据的收集和分析机构掌握了人们生活方面事无巨细的数据,因此大数据不仅挑战了隐私,而且也关乎一系列包括人格自由发展的个人权利。 由于越来越多的儿童上网和使用数字技术,儿童的数字隐私问题也越来越引发关注,保护隐私对于数字时代正处在成长期的儿童的成长和人格发展尤其重要。在国际法体系中, 1989年联合国大会通过《儿童权利公约》 [20],其中第16条重申儿童的隐私、家庭、住宅或通信不受任意或非法干涉,其荣誉和名誉不受非法攻击。儿童有权享受法律保护,以免受这类干涉或攻击。 许多国家也都出台了相应的儿童权利保护法律和儿童保护措施。但在数字时代,儿童的隐私经常受到来自家长和学校的忽视。鉴于此, 2016年,法国的警察、个人数据保护机构和法律专家公开提醒公众,儿童的隐私同样受到法国法律的保护, 劝诫父母要重视保护儿童的数字隐私, 不能随意将子女照片上传到社交媒体, 违者将面临45000欧元的罚金 [21]。联合国人权理事会(OHCHR)等国际组织也开始制定保护儿童数字隐私的国际准则。 可见,人工智能时代的隐私保护需要多方利益相关者的充分参与,不但需要加强法律框架和执法力度,还需要技术解决方案, 并且要提高公众对于隐私问题的意识,具备应有的数字素养,同时也不能忽视对儿童隐私的法律保护。数字时代无论是成人还是儿童都需要加强保护隐私的意识。新闻媒体、记者在这个技术快速发展的时代,同样要关注、报道和监测技术带来的负面影响,促进公共领域对隐私问题的关注。 四. 人工智能时代的隐私和数据保护的国际标准:兼论全球新冠疫情(Covid-19)防治对隐私的挑战 联合国大会分别于2013年和2018年通过《数字时代的隐私权》 [22]的系列决议,这是数字时代隐私保护领域里程碑式的文件。该系列决议在国际法体系第一次确认飞速发展的数字技术增强了政府、公司和个人进行监控、截获和数据收集的能力,从而大大影响到隐私权的保护。该系列决议一再重申隐私保护的一般原则,即人们在网下享有的各种权利包括隐私权在网上也必须受到保护,并专门提出了数字时代监控、加密和匿名等问题 [23]。该决议还关注到人工智能带来的个人敏感数据的收集、处理、使用、储存、 分享,并警示如不采取适当保护措施,人工智能的特征类型分析、 自动化决策、机器学习等技术可能影响到人们的有经济、社会、文化等各项权利,并建议人工智能的设计、评价、管理要符合国际法权利原则。 该决议促请所有国家尊重和保护隐私权,包括在数字通信背景下的隐私权;建议各国定期审查本国涉及监控和截取通信以及收集个人数据,按照国际法准则保护隐私权,以确保国家监控通信、截取通信、收集个人数据的行动具备适当的透明度并接受问责。 2020年10月,联合国大会再次通过最新一版的《数字时代的隐私权》 [23]决议,该决议更进一步, 充分聚焦于人工智能技术对于隐私保护的影响并给出一系列推荐建议。该决议明确认识到涉及人工智能的技术的构思、设计、使用、和部署极大地影响到隐私保护和其他权利的实现,因此有必要按照国际法准则,针对包括人工智能在内的新技术开发和部署采用适足的监管机制,并采取措施确保安 全、透明、可问责、可靠和高质量的数据基础设施,以及建立对人工智能发展的审计机制、补救机制和人力监督。 该决议建议各国考虑制定、更新和执行法律、法规和政策,确保所有工商企业,包括社 交媒体企业和其他在线平台,在开发使用人工智能技 术时要充分尊重隐私权和其他相关权利。该决议建议各国政府完善数字通信数据保护等方面的数 据保护立法、规章、政策,并成立独立的隐私和个人数据监管机构来调查违规和侵犯行为。该决议还强调隐私保护要充分考量对所有人的影响,尤其重视预防和补救对女性以及儿童的隐私权侵犯和行为。 人工智能时代,数据保护必须受到最严格法律保护。在欧盟层面,2018年5月25日, 欧盟29成员国批准生效历史上最为严格的个人数据保护法案《通用数据保护条例》(GDPR) [24], 主旨之一就是应对同人工智能直接相关的自动化分析和自动化决策所带来的隐私保护问题。在欧洲地区,自2018年10月起, 包括47个成员国的欧洲委员会(Council of Europe)通过了最新的《有关个人数据自动化处理的个人保护108号公约》 [25]并开放签署,公约协商委员会同时发布了详尽的《人工智能和数据保护指南》 [26]。为应对数字时代和人工智能新挑战,欧洲委员会和欧盟国家都在集中精力优先通过强有力的立法实践来保护隐私,作为促进数字技术和社会可持续发展的基础条件。换句话说,数字技术和人工智能的发展不能放弃保护隐私和人类尊严这一根本前提。 根据联合国贸发组织(UNCTAD)2020年的调查 [27],世界上还有三分之一的国家完全没有数据和隐私保护法律,尽管在2015-2020 五年间, 采纳数据和隐私法律的国家数目增长了11%。联合国隐私报告员Joseph A. Cannataci在2018年向联合国大会的年度报告中建议各国参照欧洲委员会《有关个人数据自动化处理的个人保护108号公约》所确立的个人数据保护原则, 尽快在国家层面改进立法,尤其是为那些用于国家监控和安全收集的个人数据确立保护性规范。 目前世界范围内的新冠肺炎疫情(COVID-19)再次引起国际社会对于隐私问题的关注。为了收集病毒传播信息和抑制病毒传播,许多国家的抗疫措施中都增加了对人际接触信息、个人健康数据以及公共卫生资讯的收集和监控,许多国家和互联网公司开发和使用了各种手机程序来跟踪和收集用户的日常行踪、人际交往、邮件、旅行、社交媒体、银行、邮递等有关的各种个人信息和数据。由于新冠疫情的日益加重、多次在多国范围内爆发,以及抗击疫情的需要,这样的个人数据收集在范围、种类和程度上都是前所未有的,对于隐私保护带来巨大风险和危机。 世界卫生组织2020年5月份发布的报告《Covid-19 数字跟踪技术的伦理问题》 [28]中预测, 监控会很快逾越疾病监控和人口监控之间本来就模糊的界线。该报告建议各国执行数据保护和隐私法律,同时就数据处理、数据使用的限制、监督措施以及终止某项技术的夕阳条款提供附加法律依据。 个人数据,特别是涉及私生活的敏感区域的数据(如健康、性取向、可鉴别出个人经济状况的信息、生物特征识别数据等等),在使用、处理、储存、转移和传播前要征求用户同意,因此人工智能中基于用户同意和透明度的数据保护十分重要,但此类保护在世界范围内不平衡,且未能全面地处理隐私问题所涉及的所有范畴,这些都需要加以立法和监管。 联合国隐私报告员Joseph A. Cannataci 于2019年10月发布了一系列《关于健康和医疗数据保护的国际标准推荐意见草案》 [29],该报告指出由于健康和医疗数据作为个人的敏感性信息具有高度商业价值,经常被非法收集、使用、售卖,亟需健全国际标准和国家法律规范来予以保护,尤其在保护电子健康记录、手机程序以及业主获取雇员监控数据方面。该报告对于目前新冠病毒抗疫很具前瞻的指导性,人工智能和数字科技能够积极地促进防控疫情,但不能以牺牲个人隐私为代价。 2020年11月, 联合国秘书长发布了包括30个机构在内的联合国隐私政策工作组《新冠病毒Covid-19抗疫中的数据保护和隐私的联合声明》[1],该声明基于《联合国机构个人数据和隐私保护原则》[2] 以及秘书长的联合国机构《数据战略》[3],重申所有已经确认的隐私和数据保护原则都应当适用于当前国际机构应对新冠疫情的各种措施之中,强调抗疫措施中的数据使用和数字技术的应用必须以尊重隐私保护和个人权利为前提,才能真正取得成功并真正推动可持续的经济和社会发展。 五. 国家层面的隐私保护政策框架/指标 人工智能技术的发展不是一个孤立的事件,而是广阔的包括大数据、物联网及区块链在内的互联网生态系统的一部分。评估人工智能风险,也需要一个综合性的政策框架,例如联合国教科文组织的互联网普遍性框架 [30],主张将技术发展遵循促进个人权利、开放性、人人可及以及多方利益相关者的基本原则,以此引导和影响人工智能发展的一系列价值观、规范、政策、 法规、准则和伦理规范。 国家层面的网络隐私保护有没有具体指标可循?教科文组织发布的《互联网普遍性指标体系》(UNESCO,2018)包括一系列有关网络隐私保护的指标,可以用于衡量一个国家是否具备了基本的隐私保护框架, 分别从三个维度进行考量: 1. 有关隐私、数据保护和监控的法律安排,其中数据保护涉及数据收集、分析、使用、存储、传输与共享:考量隐私权是否受到宪法或法律保障,并在实践中得到尊重;是否具有个人数据保护的法律框架、个人数据商用和国际数据传输和安全的法律框架;执法机构及其他机构合法拦截用户数据的权力是否必要、相称;合法拦截数据的法律框架(包括独立的监督和透明度),以及政府和其他主管部门的落实情况;是否设立独立的数据保护机构或类似实体及其权力。 2. 网络空间个人身份的保护:需要考察公民身份认证及验证和注册(包括电话、互联网订阅注册)的要求是否必要、相称并符合法律规定;数据加密及网络隐私是否在法律和实践中都受到保护。 3. 国家和持有商业及个人数据的企业之间的关系:为约束国家和持有商业及个人数据的企业的行为,一个国家是否具备向政府提供用户信息的法律和监管规定;当政府要求互联网企业向政府机构提供互联网用户信息时,是否必要、相称并符合相关的法律和监管规定;是否具备数据保存和跨境数据流的法律和监管规定;对于数据保存位置及期限的规定是否符合国际数据保护标准和执法机关的合法要求。 在短短不到两年期间,互联网普遍性指标已经被世界五大洲的21个国家采纳并开展评估,包括非洲的贝宁、塞内加尔、肯尼亚、加纳、埃塞俄比亚,亚洲的泰国、尼泊尔、巴基斯坦、乌兹别克斯坦,阿拉伯地区的突尼斯、苏丹、约旦和巴勒斯坦,拉丁美洲的巴西、厄瓜多尔、巴拉圭和乌拉圭,以及欧洲的德国、法国和塞尔维亚。巴西是第一个完成互联网普遍性核心指标评估的国家,发布了教科文组织互联网普遍性国际评估系列的第一部评估报告[4]。到目前为止,完成并出版评估报告的国家还有贝宁、塞内加尔和肯尼亚[5]。 从目前有关“互联网普遍性”的国家评估结果看,一个普遍存在于所有国家的挑战就是隐私保护。在巴西,互联网普遍性评估建议该国应设立一个独立的国家个人数据保护机构和个人数据保护委员会,以便落实和执行该国刚通过的数据保护法案。在巴拉圭,信息与传播技术副部长盛赞互联网普遍性评估对于数字决策的重要意义,并表示巴拉圭正在组织一个多方利益相关者参与的机制以便多方讨论并向国会提出个人数据保护方案。[6] 互联网普遍性指标在国家层面的评估已经引起许多国家的国家领导人、电信部长、互联网政策制定部门以及有关各方的关注,该评估的政策改进作用十分明显,尤其是在评估过程中所采纳的多方利益相关者充分参与的方法和机制取得很好成效, 许多国家因为这个评估过程而第一次启动了和组建了多方利益相关方咨询专家机制,为国家层面包括隐私保护在内的互联网决策的制度创新和加强政策制定质量起到示范和推进作用。 虽然人工智能的发展对于隐私保护带来许多挑战, 但作为一种先进的技术, 人工智能也可以用于保护隐私,帮助人类监测侵犯和滥用个人隐私的行为,因为人工智能系统将变得越来越复杂,单靠人类已经无法充分地监测人工系统对隐私的侵犯。教科文组织2019年发布的报告《引领人工智能与先进信息传播技术构建知识型社会:权利-开放-可及-多方的视角》(UNESCO,2019)指出,人工智能完全可以用于隐私增强技术(PETs)技术,如谷歌最近开发了联邦学习方法,无需在云中存储用户个人数据,就可以通过数据收集来改进联邦机器学习模型。 总之,人工智能对于隐私保护可谓双刃剑,数字时代的隐私保护需要进一步推动国际层面的标准制定和合作,在国家层面加强立法规制保护隐私,鼓励更多的企业和科技公司运用隐私增强技术及应用程序, 同时也需要提高包括公众在内的所有利益相关者对隐私问题的意识和认识。只有基于保护隐私的方式发展和普及的人工智能技术,才能有利于维护数字时代的个体尊严以及人格发展,并最终推动社会的可持续发展,服务于人类福祉。 (作者:教科文组织(UNESCO)传播与信息部门项目官及全球互联网普遍性指标项目负责人,哈佛大学伯克曼互联网和社会中心附属专家;2007年北京大学新闻传播学院传播学博士。本文内容仅仅是作者个人认知和观点的表达,不代表作者所服务机构的任何立场和政策) |
掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1 )
Copyright 2013 小马版权所有 All Rights Reserved.
Powered by Discuz! X3.2
© 2016-2022 Comsenz Inc.