【案例】
前沿转载 | 闫宏秀:数据时代的道德责任解析:从信任到结构
数据是一种新型的生产要素,以数据为纽带的“东数西算”工程为数字中国的建设注入了强劲的动力,基于数据的数字化转型已成为全球发展的一个重要趋势,基于数据的人类网络空间命运共同体构建被视为人类命运共同体的一个重要组成部分,基于数据的社会形态构想正在成为人类社会发展的一种未来样态。就我国而言,近年来,旨在有效激活数据要素潜能、充分发挥数据作为新生产要素关键作用的《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》以及来自不同省市、不同行业的相关政策法规相继出台。一系列政策法规的出台一方面说明了数据所具有的重大战略意义,另一方面也反映出关于数据要素的理论研究亟需加强。如关于数据的本质、伦理问题、经济价值、法律地位、治理等的研究就是当今社会的热点与难点,而责任问题则伴随人类社会的数据化与数据的日益智能化成为备受关注的焦点。
特别是当人类基于数据科学与数据技术进行认知以及作出判断与决策等时,分布式数据的聚合及其与人类的融合所带来的后果是否可归因或可追责到数据,数据是否有承担道德责任的义务,数据承担着何种责任又是如何来承担的,诸如此类的问题也相伴而至,并成为了技术伦理学研究的新论域。如同汉斯·约纳斯(Hans Jonas)在20世纪80年代针对当时的技术发展而展开对责任的反思一样,面对数据科学与数据技术在当今社会中所产生的重要效用,我们同样也需要对道德责任予以进一步的反思。
对数据的“信任”与道德责任的“转移”
数据科学与数据技术因其对人类的生活方式、生产方式、思维模式与未来等的全范围塑型而引发了诸多讨论。维克托·迈尔-舍恩伯格(Viktor Mayer-Schönberger)、伊恩·艾瑞斯(Ian Ayres)、尤瓦尔·赫拉利(Yuval Noah Harari)等在论著中展开了关于数据的多种解读。其中,数据主义(dataism)将宇宙视为“由数据流组成,任何现象或实体的价值就在于对数据处理的贡献”。这种观点一方面充分彰显了数据科学与数据技术在人类社会中的重要性,另一方面则将世界万物的价值囊括在数据之中。
(一)世界的数据化与人类对数据的信任缘起
毫无疑问,人类正在通过数据科学与数据技术将人类社会中的诸多事物与事务予以表征。这种表征既包含人类对世界万物认知的数据化,也涉及人类自身生理、心理等的数据化。基于数据的人工智能、物联网、身联网、数字经济、数字人文、数字政府等将人类社会的方方面面与数据紧密地关联在一起。从本体论的维度来看,世界被视为是由数据构成的,即万物皆数据的观念涌现出来;从认识论的维度来看,数据已经成为人类表征与认识世界以及自我的一种重要方式,在当下,数据自然界和数据自我被视为与传统意义上的自然界和自我并存的现象;从价值论与伦理学的维度来看,关于数据时代的人类自我评判与认知、关于人类文明的重新界定等打开了关于人与数据的关系、关于人的价值以及数据价值的深度反思,数据正义、数据偏见、数据挖掘、深度学习、数据所有权、许可权、隐私权等的伦理意蕴解析成为伦理学的研究对象,数据伦理学作为一个学科分支也正在悄然兴起。
事实上,上述所描绘的人与数据的紧密关联所呈现出的种种现象不仅仅在于人类对数据的依赖,更多的在于人类对数据的信任。伴随海量数据的涌现,以及数据科学与数据技术对数据处理能力的不断提升,通过对现实世界的模拟而构建虚拟世界的数字孪生技术(digital twin)已经超出了产品的设计和运维,延伸到了非物理对象和流程的分析与监控,信数据得永生、数字文明、数据权利、数据力等观念进入人类的视野之中。从这些观念中,可发现人类对数据的不同程度的信任。如,“信数据得永生”这一论断体现出了对数据的完全或绝对信任。进一步说,依据此论断,还可推演出若不信任数据,则意味着失败与错误。因此,信数据意味着通向成功与正确,人类也应该且有义务信任数据。若不履行该义务,则就应承担相应的责任。此时的责任主要指向由不信任数据而带来后果的追责、问责或曰指责。
与此相映成趣的是,由于信任数据而带来的后果也面临着责任的问题。如替代性制裁的惩罚性罪犯管理量表(Correctional Offender Management Profiling for Alternative Sanctions,简称COMPAS),因其依据数据智能所作出的预测与现实不吻合而遭受质疑,但这种质疑并非是对COMPAS的完全否定,而是旨在提醒人类注意数据主义所带来的危害,呼吁人类应当以更负责任的方式来对待数据,警示人类不应当无条件地信任数据科学与数据技术。此时的更负责任既涉及后思性的道德责任,即追责、问责或指责,也包含作为前瞻性的道德责任,即作为义务与美德的道德责任。
因此,无论是数据主义对数据的完全信任,还是对由于信任数据而带来后果的追问,都伴随着道德责任的出场。虽然道德责任在上述两种情境中出场的方式并非完全相同,但无论是哪种方式,都是由对数据的信任而引发的。就对数据的信任而言,包括人类究竟该不该信任数据、应该信任什么样的数据,以何种方式信任,这种信任的底线在何处等问题。对这些问题进行破解的一条有效途径是追溯对数据产生信任的源头。
(二)道德责任问题的出场:信任过程中的“委托”
对数据的信任源自人类依赖数据科学与数据技术来处理原本由人类所完成的任务。事实上,反观人类借助数据完成任务的过程,在某种意义上就是人类将自身的部分行为或部分能力委托给数据。这种委托旨在将任务进行委托,而非将人类自身进行委托。但也正是在这种委托过程中,人类将自身的责任也“随着机器在普通人的生活和工作中的普及,通过机器使行为和责任脱钩日益成为普遍现象。越来越多的人将失败的责任转嫁到机器身上”。上述责任的转嫁意味着机器在某种程度上被视为一种道德责任主体。
与此同时,数据科学与数据技术呈现出了某种能动性与某种技术自由的特征,而能动性与自由意志是判断是否应当负道德责任的两个基本依据。那么,机器被视为道德责任主体的原因何在?这种责任转嫁成立的理由又何在呢?若这种责任转嫁是成立的,机器与人又分别应该承担什么样的道德责任?
特别是在数据科学与数据技术完成任务的能力在某些方面表现出了超越人类的迹象,其在完成任务的过程中出现了超乎预期的结果或后果时,此时关于数据信任的追问就走向了关于道德责任的追问,更确切地说是人类是否可以将道德责任转移到数据科学与数据技术?数据科学与数据技术能否承担责任,承担何种责任以及对谁负责?在数据已经成为人类社会的一个基本要素的当下,无论是基于人类自愿式的主动性数据信任,还是基于人类对技术的长期高度依赖而形成的被动性的或者强迫性的数据信任,事实上对数据信任的探究,都是对人类道德责任转移的审视。只有当数据具有成为道德责任主体的资质时,人类的道德责任才有转移的可能。于是,数据时代的道德责任主体界定成为人类不得不面对的问题,而关于此问题的解答可以从数据自身的特质与成为道德责任主体的条件两方面着手。
数据智能化与道德责任主体
数据科学与数据技术发展的核心重在预测与决策功能,而预测与决策功能能够得以实现的主要基础是数据智能化。近年来,数据智能(data intelligence)被视为数据科学与数据技术发展的未来所在,其旨在“从数据中提炼、发掘、获取有揭示性和可操作性的信息,从而为人们在基于数据制定决策或执行任务时提供有效的智能支持”,并“朝着更自动、更智能、更可靠、更普适、更高效的方向继续发展”。
(一)数据智能化及其对道德责任主体界定方式的新挑战
在数据智能化的过程中,数据在与人类的互动中不断地趋向自主,并逐渐呈现出成为具有自学能力的智能体的趋势,完成着原本需要人的智能才能完成的任务。如,就人类的决策而言,无处不在并日趋智能的数据使得人类作出决策的这一行为被置于数据背景之中,数据可助推、导引甚或规约人类决策。在当下,从数据在决策中所发挥的效力来看,数据力是构成人类决策力的一个核心要素,但更值得人类关注的是“数据智能应用的终极目标是利用一系列智能算法和信息处理技术实现海量数据条件下的人类深度洞察和决策智能化,最终走向普适性的人机智能融合”。
在数据时代,预测与决策通常不仅仅是由人类独立作出的,而是在人类与数据科学和数据技术的交互中形成的。在数据智能所追求的人机智能融合中,或许人类可以如愿以偿地保持对机器智能的有效控制,即人类的预测与决策仅仅是基于数据智能,而非高度依赖或受制于数据。但这仅仅是一种可能,且这种可能也颇受质疑。退一步说,假设这种可能就是人类的未来,但我们同样不能忽视数据智能所蕴含的技术能动性与某种技术自由度。基于此,需要对“一个人只能在他行为——派生性的——的后果边界上承担责任,因为它是真正自我行动的后果,也即在控制力下自我意图的结果”作出新的解读。
智能主体、拟主体、准主体等词汇的出现一方面体现了学术界对新兴科学技术所蕴含的巨大力量作出的新诠释,另一方面对现有的道德责任主体界定方式提出了新挑战。如关于“某人对某事负道德责任是因为他对某物负责任是适当的,还是因为某人对某事负道德责任所以他对某物负责任”的争议等。“如果一个实体能对其行动承受道德责任,并具有道德层面的责任,它需要至少满足如下两个标准:意向性(intentionality,即形成意向的能力)和实现其意向的自由(freedom)。”在彼得·保罗·维贝克(Peter-Paul Verbeek)这里,意向性即拥有意向,其意指能动性。那么,依据上述标准,基于数据智能的数据科学与数据技术是否可以被视为道德责任主体呢?
(二)基于能动性的道德责任主体与数据
首先,从能动性的维度来看,所谓承担责任就意味着责任主体拥有完成某事的能力,即责任主体与能力或曰能动性相关。“当我们说某个人是一个道德责任的行为主体时,一般就意味着他有足够的能力对某事负责。”数据智能之所以被称为数据智能的一个重要原因就在于其拥有预测与决策的能力。
数据分析是数据智能的核心所在,是在人类的需求与其自身的功能共同聚合下进行的,其结果是人类作出预测与决策的必要环节。如,在日常生活中,智能软件基于用户自身的习惯、喜好、体能特征、所处环境等数据参数的分析可为用户提供决策选项,可对用户的行为进行预测,进而导引用户的未来行为。在这个过程中,数据的能动性与某种技术自由度不断呈现。这表现为智能软件在数据智能的驱动下,既可以满足人类的需求,也可以导引人类的需求;既可以呈现与分析人类已有的行为轨迹,也可以预设甚或创设人类未来的行为轨迹。特别是数据智能的导引、预设甚或创设能力,将技术的能动性与自由进一步放大。由谷歌所研发的自动机器学习(Auto ML)就旨在将数据的处理、特征的选取等任务无需人工干预而进行自动化。易言之,智能闭环式的自动机器学习将替代机器学习专家的技能,并拥有完成数据分析任务的能力,技术所具有的能动性可将人类置于该系统之外。
当这种能动性带来了人类从未预料或期望的结果时,虽然是数据的这种能动性促成了该结果的发生,虽然人类是处于技术回路之外且被动接受结果,但是这不足以将数据界定为道德责任主体。是否可以将数据界定为道德责任主体还需要辅助其他的判据。因为按照传统的理论框架,道德责任是人特有的一种品质,“人与其他生物的一个重要区别是仅有人能够对其所为负道德责任”,“尽管人和非人都可能对某一事件负有因果责任,但只有人才能有道德责任”。
(三)基于自由意志的道德责任主体与数据
从自由意志的维度来看,“存在责任的唯一真正的形式,它和自身自由行动有关”。当某主体拥有自由意志且其行动是在自由的而非强迫的情景中进行时,才能探讨与其相关的责任问题,例如,何为责任主体等。
2018年11月,微软亚洲研究院在其所发布的《数据智能的现在与未来》一文列举了“数据智能技术的未来热点”,指出“智能代理(intelligent agent) 技术与数据分析技术的融合是一个重要的方向”,“且这样的智能体还具有一定的学习能力,能够通过与人类分析师的对话交流积累特定领域的知识”。这种具有学习能力和拥有与人类进行沟通能力的智能体或许在特定场景中具有自由运作的能力,具有产生出乎人类意料结果的自由能力,但这种自由不能完全等同于自由意志。
毫无疑问,数据科学与数据技术对人类社会的影响使得人类将数据作为自身的一个智能陪伴,数据自然界的出现为人类造设了一个新的存在境遇,数据画像成为人类自我的又一种表征方式。但是这些迹象可以说明数据智能可以拥有某种形式的自主性和某种技术自由度,但这并不足以说明其拥有自由意志,能被视为等同于人的自由行动者。
(四)基于可归因性的道德责任主体与数据
从可归因性的维度来看,当所产生的结果与道德责任主体有因果性时,道德责任主体才涉及相关的责任。承担道德责任意味着要追问促使这个结果的原因,即责任的可归因性。而责任的可归因性是“基于行动是我们的能动性表达的这一观点。我们对我们的行动负道德责任是在仅当我们的行动显示了我们是作为道德行动者的时候,即当作为我们的目的、承诺或价值表征的行动确实是由我们引起的时候”。
当数据智能调节人类的决策与预测时,数据科学与数据技术和人类一样都是参与者,只是参与的程度有所不同。因此,在对此情境中的预测与决策所产生的结果进行道德责任归因时,该如何对数据的功能进行解析呢?之所以能被归因是因为主体的能动性及该结果与主体之间的因果性关联,而数据智能确实蕴含着某种能动性,且调节着人类的预测与决策。这种调节可以视为数据与道德责任存在相关性的理由,但关于道德责任是否可归因到数据科学与数据技术则有待进一步的商榷。
能动性与自由意志一直被哲学界视为考察责任主体的两个基本要点,即是否具有能动性与是否具有意志是具有责任的必要条件。因此,数据智能化并不意味着数据科学与数据技术可被视为道德责任的主体,即其并不拥有主动承担责任的资格,但是在被追责的意义上,应将其纳入其中,因为数据智能所具有的能动性确实是导致结果产生的一个原因。 基于数据科学与数据技术的
分布式道德责任
对道德责任主体的考察有助于道德责任的厘清。当将数据视为对道德责任进行审度的一个元素时,数据科学与数据技术自身的特质也必须予以考察。数据科学与数据技术可将分布在不同时间、不同地点与不同主体的数据、分布在不同领域与不同区域的专家们,以及数据意义上的相关利益群体汇集起来,形成一个由分布式的行动者构成的数据之网。
(一)数据科学与数据技术的分布式特征所引发的分布式道德责任
从技术层面来看,数据既是分布式的散落,也是全球化与网络化的聚合;既是个体性的独立呈现,也是集体性的汇集表征。如在日常生活中,由诸多用户所提供的网络点评、道路信息等数据虽然是个体性的、分布式的,但是由这种大量分布式的数据聚合所带来的效应确实远远超乎其在单个个体层面的效用,并创建出新的效用。其中,与数据的这种分布式特征相伴随的是分布式道德(distributed morality,DM)和分布式道德责任(distributed moral responsibility,DMR)。
分布式道德仅仅指“在一个多代理系统中,道德中立的或者至少是道德上可以忽略的代理间的交互行为能产生的道德行动。在这里,代理可以是人、人工的,或者是杂合体”;分布式道德责任则是基于分布式道德基础之上的,旨在对分布式行动的道德责任进行厘清。例如,将某人存留在不同区域的分布式数据痕迹进行综合之后,不仅可以勾勒出其行动轨迹、行为模式、偏好,更可以衍生出关于其的数据画像,并可借助该数据画像对其进行行为预判。显然,该数据画像是由不同代理的交互行动聚合而形成的,且其用途及其结果也并非是原始数据采集者或提供者所能有效预期的。面对不同用途所带来的迥异结果,将产生相应的责任问题。数据提供者是上述数据画像中的一个代理,但就单个代理而言,其无法对其被综合化之后的用途作出有效判断。那么,该如何审视这种由分布式代理聚合而来的结果的道德责任呢?
(二)道德责任多手问题与分布式道德责任
汤普逊(Dennis F. Thompson)在其关于公共部门的道德责任论述中指出,政府的决策和政策是源自不同的部门,因此存在难以辨别谁应当对政治结果负道德责任的情况,于是他提出了多手问题(the problem of many hands)。此时的道德责任针对的是人以及由人组成的机构。对上述数据画像所带来结果的道德责任追问,与汤普逊所言的多手问题有着共同之处,即结果都是由多元代理以及多代理之间的交互或曰互动形成的,但也有不同之处,即数据科学与数据技术的多元代理除了数据的提供者、使用者等之外的人的因素,还涉及数据智能、机器学习等技术逻辑的因素,以及人与技术之间的交互。
关于此,劳伦斯·马格尼尼(Lorenzo Magnani)和艾曼纽·巴顿(Emanuele Bardone)将分布式道德视为伦理知识外化在技术物中的结果,认为:“虽然从道德的视角来看,许多外部事物是惰性的,但是其可被转换为道德调节者(moral mediator)。因此,并非所有的道德工具都是内在于头脑之中。事实上,在作为道德装置发挥作用的外部客体和结构中,也有一些道德工具,如互联网就是一种道德调节者。”当今,关于算法中立的质疑、关于算法霸权的揭示、关于数据权力的阐述等一方面显示了对技术作为道德调节者的某种认同,另一方面则说明了对结果进行道德责任厘清的复杂性。
因此,关于数据科学与数据技术所带来结果的道德责任毫无疑问也是一个多手问题。如同汤普逊对多手问题分析的那样,“我们很难鉴定是谁应当对所有的一切负责”,但是“对个人责任的追寻,能为人类能动性在好的政府和坏的政府中的作用解读提供最好的基础”。依据此逻辑可发现,就对由数据多代理所带来结果的道德责任探究而言,对各个代理的分布式道德责任探讨或许有助于对结果的解读,但是这并不足以对其进行解析。因为“如果将分布式道德责任的诠释彻底还原为(某些)人、个体和负道德责任的行为总和时,那么分布式道德责任的分配,无论是赞赏和奖励或谴责和惩罚,从概念的角度而言,是没有问题的,但从实际操作上则是非常困难的”。
(三)分布式道德责任在数据时代的有效性与局限性
在数据智能化的背景下,虽然数据的透明性和可解释性有助于对道德责任的归因,但是这并不意味着在数据的运作及其与人的交互过程中不会形成更新的模糊性与不可解释性。例如,一种新的、未曾预期的结果在各代理之间的交互中出现,然而关于这个结果的归因却并不能被简单还原到某个或某几个代理,或某个具体的环节。因为即使数据生产者或提供者清楚何种数据被采集与被输入,且数据使用者或平台按照约定使用上述数据,但是最终呈现出的数据样态及数据所产生的效用并非如各方所愿。
在新冠肺炎疫情的防控过程中,信息疫情的出现就是由科学技术的分布式特征与多元主体汇聚所产生的爆发效应带来的。目前,对于信息疫情的防控已经成为新冠肺炎疫情防控的一个核心任务。在此情境中,若囿于还原式的分布式道德责任,将可能出现基于交互的隐匿性、基于交互过程中的隔阂或交互错误而造成诸如无责任主体、责任主体泛化,或者诸如安德烈亚斯·马蒂亚斯(Andreas Matthias)所言的“责任鸿沟”等困境。因此,对数据时代道德责任的合理解析与数据相关伦理问题的有效应对必须走出分布式道德责任。恰如尤金·施洛斯贝格尔(Eugene Schlossberger)所言,“不能将道德责任局限于行动和选择”,而且关于道德责任的解析不应是“一个因果概念。重要的不是如传统观念所要求的,我们导致某事以正确的方式发生的原因,而是特性,那种我们通过实例所表达的或者适合我们世界观的特性”。
易言之,分布式道德责任虽然有效地呈现了数据科学与数据技术的分布式特征,但是其尚未能有效诠释数据科学与数据技术的全球化与网络化特征,因为数据科学与数据技术的在线性、生成性及其与人的交互等又使得分布式的多元个体责任与网络式的集体责任之间的转换更为深度与及时。反观对分布式道德的界定可发现,道德行动可以是源自道德中立或道德上可以忽略的代理之间的交互行为。进一步来说,对道德责任考察需要将各个代理在系统中的交互行为纳入。因此,依据此逻辑,道德责任至少可以推演到代理所在的系统之中。这种推演因其包含数据科学与数据技术自身的逻辑演绎、人与数据之间的交互等,所以并非是重现基于以人为单位的集体责任,而是一种多元代理的结构式道德责任出场。
探寻分布式道德责任有限性的破解
在《“十四五”国家信息化规划》《全球数字治理白皮书》《数据治理标准化白皮书》《欧盟数据治理法案》等对数据治理模式所展开的探寻中,责任共担、责任分担一直是非常重要的议题。2020年11月世界互联网大会组委会发布的《携手构建网络空间命运共同体行动倡议》中所提出的“责任共同体”㉖显示出了分布式道德责任在当下的有限性。人类对数据信任的道德责任转移、数据科学与数据技术的分布式特征是分布式道德责任产生的两大主要原因。而上述两大主要原因恰恰为分布式道德责任的破解提供了最佳的突破口。
(一)弗洛里迪的破解方式 弗洛里迪基于设计的视角,提出了解决之道,即“制定一个机制,在默认情况下,把对整个因果关系网络造成的所有责任后向传播给它的每一个代理”。该解决之道是基于如下两点建立起来的:一是基于视角的转换,即从以代理(agent)为导向的伦理学走向以受事(patient)为导向的伦理学,从关注个体发展、社会福利和终极救赎,转向了对受影响体系的福祉和终极繁荣的关注;二是基于对无意向性的伦理是何以可能的论证,将道德责任与代理意向性之间的关联进行了某种剥离。
就数据科学与数据技术而言,上述解决之道一方面呈现出了各个代理之间的交互性,以及由这种交互性所带来的生成性等对人类的影响,如数据智能的生成性、人与数据之间的交互性等所产生的结果并非可以简单地还原到某个代理的意向性;另一方面用后向传播的方式来界定道德责任主体,避开了分布式道德责任因其分散性而造成无道德责任主体的僵局。即不能因数据科学与数据技术的多代理分布而使道德责任消解,应当通过严格的后向传播来进行破解。因此,该解决之道有效地回应了技术、意向性与道德责任之间的关联性问题,恰如汉森(F. Allan Hanson)对延展能动性道德责任的考察一样:“对于一个行动来说,如果道德责任在于承担责任的主体,且如果主体包括人和非人的话,那么道德责任也可以如斯。”
与此同时,一个不容忽视的现象是:数据科学与数据技术的分布式道德责任恰恰是在一个由多代理构成的结构式系统之中产生的。因此,必须重视关于这个系统的整体考察。如果说,分布式道德责任是基于向后看的后向传播而展开对道德责任的探究,那么对其产生语境的考察则应是从向前看的视角展开对道德责任的探究。弗洛里迪通过转向关注受影响体系的福祉和终极繁荣来树立道德责任产生语境的伦理目标,但又该如何看待产生语境的道德责任呢?当向前看的视角与向后看的视角共同指向分布式的道德责任时,需要从广义的视角将上述二者置于某个系统中进行有效的统摄。易言之,对于分布式道德责任的审视应有效涵盖分布式道德责任,但又不能囿于其简单汇集,这样才有可能破解分布式道德责任的局限性。
(二)基于系统视角的分布式道德责任破解
同样地,数据科学与数据技术的道德责任是散落在基于多元代理集成的系统之中,也正是在这个系统中,多元代理可以构成一种结构式意图。这种意图因其并非是单个代理意图的静态拼图,故不可也不应被直接还原,但是它确实存在。
以数据治理为例,其至少包含两方面:其一,将数据作为被治理的对象而展开的对数据的治理,即对技术的治理;其二,将数据科学与数据技术作为治理工具而展开的治理数据化,即基于技术的治理。但无论是前者还是后者,从技术生命周期的意义上来看,在数据收集、分类、典藏、交易等的过程中,道德责任已经渗透在所有环节之中;从该行为所涉及的群体来看,数据的生产者、使用者、拥有者以及数据挖掘工具的设计者与开发者等都可视为道德责任的主体。进一步而言,基于技术生命周期的以单个过程为模块的数据治理和将所涉及群体进行细化的数据治理为将问题在某个环节进行最大限度的阻断提供了可能。 与此同时,更需要注意的是,数据作为一种新型生产要素,正在以基础性架构的方式深植到人类社会之中。毫无疑问,分段、分层式的碎片化治理模式与数据科学和数据技术的分布式特征相契合,但是数据效能的释放恰恰在于流通与汇聚,缺乏顶层逻辑的碎片化治理必将以隐匿的方式带来灾难性后果,特别是由单个独立的善意或非恶行为悄然汇聚的恶。即,虽然就每个参与者、每个环节而言都没有恶的输入,但是最终输出的恰恰是恶的结果。针对上述现状,亟需一种结构式道德责任出场来弥补碎片化的治理模式。那么,何谓结构式道德责任呢?
(三)结构式道德责任的定位
首先,结构式道德责任的定位是分布式道德责任的一种补充,其功能是通过对分布式道德责任产生语境的解析,将基于多元代理交互的道德责任从一个整体性的视角予以呈现,以一种动态结构式的模式进入数据科学与数据技术的道德责任探究之中,进而避免数据治理的碎片化。
其次,结构式道德责任作为一种底层架构,为分布式道德责任的后向传播阈值设定提供理论依据。弗洛里迪从结果输出的角度,以后向传播的方式进行道德责任的分配。例如,当输出的结果是恶的时候,将责任通过后向传播分配到每一个代理。从理论上来说,通过这种方式,可对每个参与者、每个环节都没有恶的输入但是最终输出的恰恰是恶的结果的情况进行严格意义上的追责。然而,循环式的无限后向传播可能会导致该过程中的某个代理不愿承担技术创新风险,进而阻碍技术发展的现象。因此,需要为其设定一个合理的阈值,确保在保留追责边界的情景下保护技术创新。
最后,结构式道德责任是依托于一个宏观的伦理主旨,且该主旨渗透在分布式道德责任之中。针对数字技术的发展,贝尔纳·斯蒂格勒(Bernard Stiegler)认为:“一个系统性愚昧的时代”已经开始,“普遍性麻木状态似乎已经伴随着系统性愚昧、功能性愚昧而出现了。”反观数据时代的日常生活,信息茧房的出现与斯蒂格勒所言的“系统性愚昧”之间有着某种同构性,对数据的高度依赖与斯蒂格勒所言的“功能性愚昧”之间有着某种相似性,深度沉溺于数字技术及其产品现象的出现,事实上就是一种斯蒂格勒所言的“普遍性麻木状态”的悄然而至。对于系统性的、普遍性问题的应对,需要有一种更为本源意义上的系统性纲要,即以宏观的伦理主旨作为顶层逻辑为人类行动提供指南。就宏观的伦理主旨而言,人类社会基本的伦理准则是其底线,科技为善、构善、至善是其主线。在数据活动与数据生产的所有环节中,以保持该条主线一直在线的方式,规范数据科学与数据技术的发展,避免出现斯蒂格勒所言的数字化困境,为构建良好的数字生态环境提供实践智慧。
综上,分布式道德责任与结构式道德责任分别从两个不同的维度回应了由数据科学与数据技术的不同特征所引发的道德责任问题,但这两者并非是以二元的割裂模式来应对数据时代的道德责任,而是以一种有效的融合来共同构筑良好的数字生态环境,共同助推数据要素潜能的激活。
注:本文原载《探索与争鸣》2022年第4期,于2022年05月17日首发于微信公众号“探索与争鸣杂志(ID:tansuoyuzhengming)”,原文标题为“闫宏秀|数据时代的道德责任解析:从信任到结构|“东数西算”与科技伦理治理”,作者“闫宏秀”,原始链接:
来源:中国伦理在线(公众号)
编辑:陶鹏辉
|