【案例】
智能时代的数据伦理与算法伦理──第五届全国赛博伦理学暨数据伦理学研讨会综述
摘 要:互联网、大数据、人工智能的发展得益于“数据+算法”,我们身处的世界也越来越多地被“数据+算法”来定义。然而,数据和算法也引发了诸多社会问题,数据伦理与算法伦理成为学界关注的热点。第五届全国赛博伦理学暨数据伦理学研讨会以“智能时代的数据伦理与算法伦理及其法律规制”为主题,从数据伦理、医疗大数据伦理、算法伦理、人工智能伦理和人工智能哲学等方面,梳理了互联网、大数据与人工智能迅速发展所带来的伦理问题,并综合国内外关于数据伦理与算法伦理等领域的最新研究成果,讨论了智能时代背景下我国健康、合理地发展互联网、大数据与人工智能的方法和路径,并呼吁人文社会科学学者积极拥抱智能时代,积极应对互联网、大数据与人工智能发展过程中的问题,对人工智能的发展做一个合理的思考。 关键词:数据伦理;算法伦理;赛博伦理学 第五届“全国赛博伦理学暨数据伦理学研讨会”于2018年12月14~16日在海南海口举行。本次会议由中国自然辩证法研究会科学技术与工程伦理专业委员会、国家社科基金重大项目“大数据环境下信息价值开发的伦理约束机制研究”课题组、国家社科基金重大项目“智能革命与人类深度科技化前景的哲学研究”课题组、国家社科基金重大项目“高科技伦理问题研究”课题组、中国法学会“人工智能科技的法律规制研究”课题组、《伦理学研究》杂志社、《湖南师范大学社会科学学报》杂志社、上海玛娜数据科技发展基金会、湖南师范大学人工智能道德决策研究所、大连理工大学大数据与人工智能伦理法律与社会研究中心联合主办。 来自中国社科院、北京大学、复旦大学、上海交通大学、国防科技大学、华东师范大学、华南理工大学、科学出版社等高校、媒体和企业的近200名代表参加了会议。上海大学孙伟平教授主持开幕式,海南政法职业学院院长吴杰教授致欢迎辞,中国自然辩证法研究会理事长何鸣鸿教授、中国自然辩证法研究会科学技术与工程伦理专业委员会理事长王前教授致辞。大会围绕“智能时代的数据伦理与算法伦理及其法律规制”这一主题,从数据伦理、医疗大数据伦理、算法伦理、人工智能伦理和人工智能哲学等方面展开了热烈而深入的探讨。 一、数据伦理大数据、人工智能的发展得益于数据的有效开发,而由数据引发的哲学伦理学问题逐渐成为学术热点问题。段伟文、李伦、黄欣荣、闫宏秀和苏令银等学者就数据智能、数据主义、记忆与数据、数据分配、数据被遗忘权、小数据研究等问题进行了研究与探讨。 中国社会科学院段伟文认为,当前人工智能发展的主要应用是数据智能,这使得智能算法在社会生活中所扮演的角色日益重要,并正在导致一种新的“数据解析社会”的来临。首先,数据智能建立在世界的数据化之上,但具体的以数据呈现世界和人的行为方式的某些方面上,难免有其偏向性。其次,对数据智能背后的数据主义认识论及其以数据把握世界的关联性的数据观应该展开深入的技术和伦理反思。进而从能动性和拟主体性等角度,对数据解析社会及其算法权力进行政治与伦理层面的审视,使算法权力强化循环机制、以预测为导向的可能性以及数据画像对主体性和能动性的剥夺得以揭示与辨析。 数据主义能否成为信息时代的精神?大连理工大学李伦的回答是,数据主义是数据化的一种哲学表达,主张信息自由主义和“数本主义”,试图替代自由主义和人本主义,而人类的自由和繁衍是永恒的价值,数据主义亦产生了诸多不良后果,数据主义不足以成为信息时代的精神基础。基于数据权利与数据权力失衡的状态,我们应倡导基于权利的数据伦理,减少数据主义的不良影响。 江西财经大学黄欣荣认为,大数据将万物数据化并将世界透明化,由此引发了诸多伦理问题。传统的伦理学从消极伦理观出发,认为大数据给人类带来了隐私、公平与安全等问题,于是开出了阻止和治理的药方,试图用旧伦理规制大数据。从积极伦理观来看,大数据及其透明世界可能给我们带来真诚、平等、自由、安全和个性等人性的本真回归。我们应当坚持数据开放,缩小数据鸿沟,改变隐私观念,重建伦理体系,追求有限自由,以积极的伦理态度拥抱大数据时代。 针对记忆伦理与数据的关系问题,上海交通大学闫宏秀认为记忆伦理的探究在本源形式上与数据有必然的关联性,这种关联性不仅仅表现为数据作为一种技术对记忆伦理所产生的影响,也表现为数据的伦理属性与记忆伦理之间的羁绊及数据相关的伦理问题与记忆伦理之间的羁绊。这些影响与羁绊正是记忆伦理的新面相。从技术伦理学的视角看,当其介入到记忆时,会引发一些记忆伦理问题,同时也会解决一些记忆伦理问题;从记忆伦理学的视角来看,记忆与技术的深度关联使得对记忆伦理的考察必须将技术纳入其中。 伴随数据资源和数据财富的理念日益深入人心,大数据时代的数据资源分配领域矛盾问题突显,与传统的分配正义理念的冲突集中体现为分配机会正义、分配程序正义和分配责任正义3个方面。国防科技大学张煌认为在大数据时代要实现分配正义,应当遵循机会均等、分配标准与程序合理、利益与责任同等分配等原则。 国防科技大学黄嘉认为,空间数据对当代民众社会生活和国防建设都具有重要意义,实现空间数据的公正共享既是一个经济、政治和法律问题,同时也有着深刻的伦理意蕴。空间数据分享和知识产权保护的伦理困境实质上是由外空探索利用中的“人类共同利益”原则与空间利用商业化发展过程中的“经济理性”相冲突而引发的。化解伦理困境的基本思路是协调人类共同利益与国家、商业利益之间的关系。 复旦大学黄斌认为,传统的知情同意模式及其内在关系预设,都是建立在个人自主性价值之上。大数据技术将人置于不同的群组进行分析,使得“知情同意主体”和“行动主体”的界线变模糊,从而产生了新的伦理问题。大数据本身所预设的“未知目的”与传统知情同意模式的“确定目的”预设存在着深刻的内在矛盾,从而使数据主体的自主性很难得到尊重。 信息技术的发展改变了人类记忆与遗忘的状况。信息技术以物质手段克服了人类记忆能力的限制,使得记忆可以成为永恒,这就引发了对数字记忆的讨论。以欧陆为代表的保守主义积极推动被遗忘权的立法,GDPR明确赋予个人数据的被遗忘权;另一方以维纳和弗洛里迪为代表的数据伦理学家认为删除信息是一个熵增行为,是不道德的,数据主义则更为激进。湖南师范大学胡晓萌认为这两方的观点都过于极端,未来基于权利的数据伦理是将数据权利赋予个体,通过行为准则和技术标准,能够对数字记忆给人类生活带来的诸多问题进行有效消解,区块链技术为这种理论的现实可行性提供了技术前提。 在过去的几个世纪里,学术知识的构建普遍使用小数据研究,然而这种研究方法目前正受到大数据发展的挑战,但小数据研究在未来仍将是受欢迎和有价值的,因为它们在回答有针对性的问题时具有实用价值。上海师范大学苏令银阐述了大数据时代小数据研究的价值,以及它与大数据和数据科学的关系,并重点探讨了将小数据扩展到数据基础设施的意义。 二、医疗大数据伦理医疗大数据是大数据发展的重要组成部分,但医疗不同于传统产业,它切实关系到个体生命、公共健康、医学科研与医疗诊断等诸多方面。张海洪、孙雯波、王晓敏、李晓洁等分别就数据伦理准则、医疗人工智能、大数据管理与受试者保护、健康医疗大数据法规与伦理体系等方面进行了探讨。 北京大学医学部张海洪认为,数据的使用对于促进公共健康、提升服务等有着重大意义,伴随着各种机遇的同时也面临着诸多伦理挑战。为了更好规范政府以及公共部门对于数据的使用,英国文化、媒体和体育部于2018年更新了《数据伦理框架》。该框架尝试界定数据伦理的七条原则,包括:①始于清楚的用户需求和公共利益;②了解相关的法律及实践准则;③基于用户需求的恰当使用;④理解数据可能的局限;⑤在力所能及的范围内追求高标准;⑥在工作中确保公开透明与负责任;⑦负责任地使用数据。这不仅为数据科学专家和政策专家提供具有可操作性的伦理指导,而且从最初的设计出发,对数据收集、存储、分析和共享等全过程可能涉及的伦理问题提出规范要求,对我们探索负责任的数据伦理最佳实践有着积极的启发意义。 当前以深度学习和数据挖掘两大核心技术为主的人工智能,向医疗产业赋能,其在政策、资本、社会、技术等优势上推动医疗人工智能领域的开发和进展,将引发医学领域颠覆性革命。目前医疗人工智能领域关于医学数据的诸多乱象和困局亟待破解。其主要表现在数据主权不明、数据共享受限、数据质量不高、数据成本昂贵、数据安全堪忧、数据不公平利用等方面。湖南师范大学孙雯波认为,以伦理视角关照和分析这些困局中的问题,在科学技术和社会发展的平衡中寻求法律法规和行业伦理约束至关重要。 中南大学王晓敏认为,随着国家食品药品监督管理总局加入人用药品注册技术要求国际协调会(International Council for Harmonization of Technical Requirement for Pharmaceuticals for Human Use, ICH)以及新药首次临床研究的默认许可制等系列国际化步骤的加速,中国正逐渐走向探索性强、风险性高、技术复杂的创新性临床试验时代,这对我国受试者风险评估和安全权益保护提出了新的挑战。受试者安全评估是伦理委员会审查的重要内容,但我国目前对于非预期事件的关注和审查经验相对不足。通过对临床研究大数据管理系统中的非预期严重不良事件报告进行伦理分析,可以全面了解、掌握非预期严重不良事件发生的情况,为非预期事件的全面而系统的评估审查,以及最大限度地保护受试者安全提供参考。 北京大学医学部李晓洁认为,健康医疗大数据对公民生命健康保障极其重要,然而我国相关法规和伦理体系尚不健全,在采集应用和管理中面临着一系列问题。因此需要在透明性、现实性、准确性、责任、特殊群体保护和公正性等六大原则和共识基础上,设立数据专员并加强监管,在保护患者利益的同时,更好推动健康医疗大数据对数据所有者的回馈。 三、算法伦理随着算法辅助或人类决策的领域越来越成熟,算法的伦理问题日益成为人们关注的重要话题。算法的设计、价值负载、道德决策等问题成为学者们关注的热点。张本祥、张卫、管开明和孙保学等从复杂适应系统(CAS)、算法的道德物化、自动驾驶的算法伦理、算法与文化多样性、算法的道德合理性等问题和视角进行了探讨。 黑龙江大学张本祥认为,复杂适应系统(CAS)是对人类社会非常贴近的模拟,在其视角下考察智能社会的伦理原则能给出伦理学理性的洞见。CAS是一个并行性的寻优机制,对应的智能社会伦理原则是优化原则和效率原则;在将智能界定为“高效地处理确定性、不确定性及两者混合问题的能力”基础上,智能社会则要求契约原则、自由原则、平等原则;智能社会整体层面的智能性自然要求伦理关系的整体原则;最后,智能社会与动物种群的本质不同则在于个人及社会层面的超越理性计算的精神,这是智能社会中的博爱原则。 华中师范大学张卫认为,技术属于真实物理空间,而算法属于虚拟的赛博空间,二者在本质上都是一种转换和输出,因此技术伦理学的研究可以应用到算法伦理中去。算法中的道德物化主要关注积极主动地把道德规范嵌入其中,使算法在助推人们合理适当的决策和行为发挥更大作用,更好地实现其正面积极的伦理价值。在算法与伦理的关系问题上,有3种应对路径可供选择:一是对算法进行伦理的约束,使算法的设计与运行限制在伦理允许的范围之内,抑制其负面伦理价值的出现;二是积极主动地把道德规范嵌入其中,使算法在助推人们作出合理恰当的决策和行为时发挥更大的作用,更好地实现其积极的伦理价值;三是让算法成为完全的道德行动者,使它具有分辨善恶的伦理判断能力,并能自主地作出道德判断和道德决策。算法中的道德物化主要是指上述第二种路径。未来人类生化算法可能被外部算法全面超越,人类道德是否自主将是需要思考和面对的问题。 武汉科技大学管开明认为,自动驾驶汽车的算法伦理实质是人类伦理在自动驾驶领域的延伸,自动驾驶汽车的算法伦理处于人类的伦理道德范畴之中,对它的讨论不能超越人类的伦理范围。现实生活中驾驶环境错综复杂,人工驾驶所作出的道德决策亦难达成一致,更多的只能在事故后进行责任的厘清与追究。因此实现对自动驾驶汽车的算法进行伦理预设是不现实的。符合自动驾驶汽车的交通配套设施、交通体系的调整,完善相关法律法规与规范措施以利于情景归责,才是促进自动驾驶汽车发展的真正解决之道。 最新的道德机器实验研究证实不同的文化集群虽然有普遍的道德偏好,但也存在明显的价值观差异。这除了增加人们对人类价值观本身一致性的疑虑,也能够为道德相对主义提供辩护。湖南师范大学孙保学认为,承认和正视文化的多样性并不意味着对于人工智能伦理政策的制定必然走向相对主义。一方面,人工智能的伦理政策制定和评价要以人类共享的核心价值为标准,需要最大限度地求同存异以确立共同框架,填补政策真空,最佳的伦理政策模式要在理性探讨和对普遍道德偏好的经验研究的基础上达成共识,在协商中不断地修正政策的不恰当之处;另一方面,负责任的伦理行为要求尊重不同集群的合理价值诉求。尤其对于大数据算法层面的道德分歧的化解,既要剥离价值分歧中的事实分歧,更要充分地发挥伦理委员会在算法监管和实践裁决中的作用。 重庆邮电大学李杨认为,算法的核心要素是清晰性或准确性,准确而迅速地完成特定任务的算法往往被视为优秀的算法。这种以完成任务的效果作为评价标准的原则背后蕴含着工具理性的逻辑。然而效果上的最优并不一定具有道德合理性,算法运行结果受到了数据的采集和采用的巨大影响,而数据的采集与采用都不可避免地与算法使用者的利益相关。维护算法的道德合理性,或者可以通过嵌入道德规则设计道德算法来实现。然而,即便生成道德算法,但由于其依然以工具理性为逻辑基础,也不能避免道德困境的生成。仅依靠计算优势的算法并不能天然地具有道德合理性,或许具有感知能力的情感机器系统(某种意义上的通用人工智能)的实现能够提供解题思路。 西安交通大学白惠仁认为,在现有法律和事故归责体系中,自动驾驶系统引起交通事故,会牵涉更多责任主体并导致归责困难。相较于传统汽车的道德责任问题,自动驾驶技术改变了汽车与使用者的边界及二者的关系。汽车自身作为机器还无法跨越技术和概念框架的困难,不能作为道德责任的归责对象。基于道德运气,使用者决定使用一辆自动驾驶汽车,表明他知道用车要承担的风险,一旦发生事故,使用者至少应负有部分责任。 算法作为计算机科学的基础,其伦理问题直接关系到整个计算机科学领域的伦理问题,并由此辐射到现代社会的方方面面。复旦大学孟令宇分别从算法伦理的研究对象和研究内容两方面说明算法伦理究竟是何种伦理。从算法伦理的研究对象来看,算法伦理应当属于一种技术伦理而非职业伦理,这是因为算法本身是伦理负荷的。从算法伦理的研究内容来看,算法伦理应当是由一系列中层原则构成而非一套伦理理论。最后他将算法伦理定义为以算法的伦理负荷为研究对象的由一系列中层原则构成的伦理体系。 四、人工智能伦理人工智能在社会发展中发挥着越来越重要的作用,但是人工智能作为新兴技术也存在着潜在的道德风险。就如何应对人工智能伦理问题,规范与约束人工智能发展,孙伟平、闫坤如、毛新志和陈万球等提出了自己的观点。 人工智能发展需要遵从伦理道德和价值规范。人工智能体道德原则比较著名的有“阿西莫夫机器人三原则”和“阿希洛马人工智能原则”等。上海大学孙伟平在此基础上提出人工智能发展的五大道德原则:人本原则,科技活动必须要造福人类,人工智能体必须尊重人类、保障人的安全;公正原则,保证落后国家和地区人们不受歧视;公开透明原则,智能机器人必须可理解可检视,保证不会产生危害人类的动机;知情同意原则,人工智能技术应用到人类本身必须遵循这一原则;责任原则,如何判定机器人和智能驾驶系统的责任。 华南理工大学闫坤如认为,在人工智能发挥越来越重要作用的同时需要高度重视其引发的潜在道德风险。智能机器的道德主体地位问题、人工智能引发新的社会安全和公平正义问题及其他新的伦理问题都需要详细考察和谨慎决断。规范与约束人工智能发展,应从伦理规约、制度建设、文化培育等多维度着手才能更好规避人工智能风险,促使人工智能向更好的方向发展。 上海大学杨庆峰和伍梦秋认为,记忆理论能够澄清“强弱”人工智能的实质,记忆的分类也为人工智能发展提供了必要的理论基础。人们常将遗忘看作是记忆的负面现象或失效,现代研究表明人类自然认知系统的遗忘并不需要完全抹去先前的信息,但对于机器而言遗忘却是彻底的、灾难性的,这也是通用人工智能发展的关键障碍。但记忆并非完全是信息的巩固,遗忘是记忆的互补面,不是完全负面的现象,需要我们重新看待人工智能决策过程中记忆与遗忘的辩证关系。 人工智能的飞速发展带来的伦理冲突、价值挑战和道德冲击是前所未有的。湖南师范大学毛新志认为人工智能价值嵌入是解决难题的一剂良方。它的设定既需要考虑全人类的共同价值追求,又需要结合各国文化传统、价值理念和伦理规范等方面的情况,有差别地进行具体价值规范的嵌入。通过多方的参与、讨论与协商,确立一些广泛认可的价值原则和具体的伦理规范并嵌入到人工智能系统中。同时需要思考通过何种途径将这些伦理价值嵌入到人工智能系统。最后需要通过人工智能机器人的行为、做法和道德决策方面进行具体伦理评估和价值判断。 长沙理工大学陈万球认为,人工智能伦理问题可以归结为技术功利主义、新旧技术规范脱节和技术行为失范3个方面。人与技术的关系实质上是人与人之间的关系,人工智能的伦理问题是技术的异化问题。人工智能体的背后是人,恶不在于技术,而在于人。算法歧视是AI背负了人类决策者的种种偏见产生的结果。人工智能的伦理问题治理应当从观念、规范和行为入手,嵌入正确的技术价值观,对人工智能开发与应用进行合理引导。 面对人工智能技术的快速发展和人工智能创造物的冲击,知识产权制度尤其是版权制度理应有所回应。大连理工大学谷丽、韩雪和丁堃认为将人工智能创造物纳入版权客体范围具有一定的必要性和正当性,讨论人工智能创造物在版权保护、侵权等方面的制度设计问题具有重要的理论价值和实践意义,并提出应对人工智能对版权带来的潜在影响和挑战进行制度上的设计和回应,以期为我国版权制度创新提供思考和建议。 随着人工智能的迅猛发展,一些学者开始担忧在不久的将来,人工智能可能会对人类生存构成重大威胁。南开大学李帅认为,一方面可以通过构造一个驳斥人工智能威胁论的溯因推理结构,证明人工智能威胁论信念基于不可靠的归纳论证,因而在逻辑上难以成立。另一方面以哲学的视角,可以将人工智能威胁论视为一种信念。鉴于该信念达成之后的灾难性后果,可以借鉴其他高风险技术领域的成功经验,采取适当的防范策略,在合作和规范中发展人工智能,共同应对可能的突发情况和重大威胁,是预防人工智能背叛转折的有效法宝。 湖南省委党校张旺认为人工智能的道德伦理规约是比技术本身更为复杂、更趋深层次、更需要深入探讨的问题,应立足责任伦理视角探讨人工智能风险的规避原则和路径。他从人工智能技术研发和应用两个环节剖析了责任原则的嵌入与规约,在中外比较的基础上阐释了政府、企业界、学界等主体在风险治理中的权责定位,为有效规避人工智能技术的风险,推进伦理层面的国际合作共识,提升我国人工智能伦理话语权和主导权,提供可供参考的建议。 大连理工大学张媛媛认为,人工智能作为人类社会发展的工具和手段,其发展不应无边际地泛滥,不应冲击“以人为本”的基本原则,而应设有合理的弹性伦理边界,促进其沿着正确轨道前行。合理的弹性伦理边界需要充分考虑到人的智能与人工智能的相互协调,保证人的智能得以存续和发展,在此前提下提高人类社会生活对人工智能发展的适应能力,弹性调整人工智能的发展规模和速度,使人工智能成为人的智能的合理补充和完善。 海南政法职业学院王强强认为,人工智能在行政法应用和行政治理中已经崭露头角,人工智能广泛参与社会管理同样面临一些风险,比如侵犯自然人的隐私权、导致政府治理能力弱化等,因此需要提出适应人工智能科研和应用的法案,在行政法领域中对人工智能应用提出了一些进行规制的具体措施。 五、人工智能哲学人工智能近些年的迅猛发展,让人类感觉到了被取代的威胁,虽然人工智能还未发展成为强人工智能,但已引起人们的担忧。人工智能的本体论、认识论和科学哲学等问题常常是讨论人工智能伦理问题的必要前提,王前、颜青山、余乃忠对此提出了自己的看法。 大连理工大学王前认为,从中西思维方式比较研究的角度看,人工智能在本质上是“动脑”思考的人工化。但是当前人工智能引发了一系列前所未有的社会问题,需要及时解决,中国传统的“用心”思考模式呈现出新的重要价值。“用心”思考模式的整体性、有机性、直觉性特征,有助于弥补人工智能技术应用造成的思维碎片化、判断机械化、推理简单化的缺陷,发挥知情意相结合、真善美相结合、提高思维效率的优势,实现人工智能和人类智能的有机统一,使人工智能成为人类社会发展的有力工具,而不至于成为一种“异化”因素。 华东师范大学颜青山提出,通过更精确地重述“汉字屋”论证的条件,汉字屋中的塞尔将以不同于中国人的方式“学会”汉语语法,从而证明塞尔试图反驳强人工智能的论证是失败的,尽管其结论依然可以成立。心灵智能的奠基性特征恰好是基于语法或语形的实践理解,完全的实践理解将通过神经肌肉系统重塑大脑,并且具有部分可逆性。完全的实践理解需要周期性的训练维持,这一特征将导致通用人工智能的两难:如果通用人工智能是心灵智能,那么它不可能全面超越人类智能;如果通用人工智能全面超越人类智能,那么它不可能是心灵智能。既然超级智能不可能是人的智能,如果它出现了,我们可以将其仅仅看作手段。至于超级智能作为工具可能引起的其他伦理问题,可以参照其他工具的方式处理。 长沙理工大学余乃忠认为,人类自诞生以来,经历了人与自然对抗、人与人对抗和自我对抗的3类对抗。随着人工智能从弱人工智能逐步向强人工智能的迈进,自然人与人工智能的第4类对抗正全面展开。第4类对抗不同于前3类对抗,它预示文明的人类正处于危险之中,人类作为抽象整体的神圣性被玷污与摧毁。第4类对抗以人的对象世界与意义世界的对立与矛盾而显示其独特的个性。对抗构成了意义世界建构的主轴,第4类对抗预示意义世界的“天工开物”。与更高的自我交往、生从死中求、类存在的整体性和意义点的连续分布,开辟了智能时代人的意义世界的新形态。 六、结 语随着科技的发展,对智能时代背景下的数据伦理、算法伦理等伦理问题的探讨是一个开放性的议题,任何一种观点、任何一种理论都可能参与这一议题的讨论。孙伟平认为大数据和人工智能无论在中国还是在世界,都是一个前所未有的发展阶段。作为人文社科学者,我们应热忱地欢迎大数据和人工智能的到来,拥抱整个社会的智能化。面对大数据和人工智能发展过程中的一些问题,我们更不应退缩,而是应积极地对人工智能的发展做一个合理的思考。
Data Ethics and Algorithm Ethics in the Age of Artificial Intelligence ——Review of the 5th National Conference on Cyberethics and Data Ethics[size=1em]LI Lun1, LIU Mengdi2, HU Xiaomeng2, Wu Tianheng2 [size=1em]( 1.Faculty of Humanities and Social Sciences, Dalian University of Technology, Dalian 116023, China;2.Institute of Artificial Intelligence Moral Decision-Making, Hunan Normal University, Changsha 410081, China ) [size=1em]Abstract:The development of internet, big data and artificial intelligence draws from data and algorithm, and the world we live in is increasingly defined by data and algorithms. Data and algorithms cause many social problems, so data ethics and algorithm ethics have become the focus of academic attention. The theme of the 5th National Conference on Cyberethics and Data Ethics is data ethics, algorithm ethics and their legal regulations in the age of artificial intelligence. From the perspectives of data ethics, medical big data ethics, algorithm ethics, artificial intelligence ethics and artificial intelligence philosophy, scholars have sorted out the ethical issues brought about by the rapid development of internet, big data and artificial intelligence. Based on the latest research results in the fields of data ethics and algorithm ethics, scholars discuss the methods and paths for the healthy and reasonable development of internet, big data and artificial intelligence in China in the age of artificial intelligence. Finally, experts at the meeting hope that scholars of humanities and social sciences can actively embrace the age of artificial intelligence, actively deal with problems in the development of internet, big data and artificial intelligence, and think rationally about the development of artificial intelligence. [size=1em]Key words:data ethics; algorithm ethics; cyberethics
[size=1em]DOI:10.19525/j.issn1008-407x.2019.03.015 [size=1em]中图分类号:B82 [size=1em]文献标识码:A [size=1em]文章编号:1008-407X(2019)03-0104-06 [size=1em]收稿日期: 2018-12-20; 修回日期2019-01-04 [size=1em]基金项目: 国家社会科学基金重大项目:“大数据环境下信息价值开发的伦理约束机制研究”(17ZDA023);国家社会科学基金一般项目:“开源运动的开放共享伦理研究”(17BZX022) [size=1em]作者简介: 李伦(1965-),男,湖南隆回人,教授,主要从事科技伦理与科技哲学研究,E-mail:[url=mailto[email protected]][email protected][/url];刘梦迪(1995-),女,河南登封人,湖南师范大学人工智能道德决策研究所硕士研究生,研究方向为科技伦理、人工智能伦理;胡晓萌(1989-),男,河南信阳人,湖南师范大学人工智能道德决策研究所博士研究生,主要从事算法伦理、数据伦理与信息哲学研究;吴天恒(1994-),男,河南武陟人,湖南师范大学人工智能道德决策研究所硕士研究生,研究方向为科技伦理学、数据伦理研究。
[size=1em]原文链接:http://m.chaoxing.com/mqk/read_3 ... =1000&from=timeline
[size=1em]编辑:董莉
|