传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
131#
 楼主| 发表于 2019-8-5 22:45:18 | 只看该作者
【案例】
中科院院士谭铁牛:AI的过去、现在和未来
文章 | 谭铁牛 中国科学院院士
来源 | 求是手机报
【导读】本文是人工智能从诞生到发展历程的一篇回顾。全篇共分四部分,分别为人工智能的概念与历程、现状与影响、趋势与展望、态势与思考。体现了作者对人工智能从诞生、兴起到蓬勃发展的脉络特征的清晰把握,以及对我国发展人工智能相关研究和产业的清醒思考。

2018年2月25日,在平昌冬奥会闭幕式“北京8分钟”表演中,由沈阳新松机器人自动化股份有限公司研发的智能移动机器人与轮滑演员进行表演。新华社记者 李钢/摄

2018年5月3日,中国科学院发布国内首款云端人工智能芯片,理论峰值速度达每秒128万亿次定点运算,达到世界先进水平。新华社记者 金立旺/摄

2018年11月22日, 在“伟大的变革——庆祝改革开放40周年大型展览”上,第三代国产骨科手术机器人“天玑”正在模拟做手术,它是国际上首个适应症覆盖脊柱全节段和骨盆髋臼手术的骨科机器人,性能指标达到国际领先水平。麦田/视觉中国
如同蒸汽时代的蒸汽机、电气时代的发电机、信息时代的计算机和互联网,人工智能正成为推动人类进入智能时代的决定性力量。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷转型发展,抢滩布局人工智能创新生态。世界主要发达国家均把发展人工智能作为提升国家竞争力、维护国家安全的重大战略,力图在国际科技竞争中掌握主导权。

加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。错失一个机遇,就有可能错过整整一个时代。新一轮科技革命与产业变革已曙光可见,在这场关乎前途命运的大赛场上,我们必须抢抓机遇、奋起直追、力争超越。

一、概念与历程
了解人工智能向何处去,首先要知道人工智能从何处来。1956年夏,麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能(Artificial Intelligence,简称AI)”这一概念,标志着人工智能学科的诞生。

人工智能是研究开发能够模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学,研究目的是促使智能机器会听(语音识别、机器翻译等)、会看(图像识别、文字识别等)、会说(语音合成、人机对话等)、会思考(人机对弈、定理证明等)、会学习(机器学习、知识表示等)、会行动(机器人、自动驾驶汽车等)。

人工智能充满未知的探索道路曲折起伏。如何描述人工智能自1956年以来60余年的发展历程,学术界可谓仁者见仁、智者见智。我们将人工智能的发展历程划分为以下6个阶段:

一是起步发展期:1956年—20世纪60年代初。人工智能概念提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序等,掀起人工智能发展的第一个高潮。

二是反思发展期:20世纪60年代—70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空(例如,无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等),使人工智能的发展走入低谷。

三是应用发展期:20世纪70年代初—80年代中。20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入应用发展的新高潮。

四是低迷发展期:20世纪80年代中—90年代中。随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。

五是稳步发展期:20世纪90年代中—2010年。由于网络技术特别是互联网技术的发展,加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。1997年国际商业机器公司(简称IBM)深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008年IBM提出“智慧地球”的概念。以上都是这一时期的标志性事件。

六是蓬勃发展期:2011年至今。随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越了科学与应用之间的“技术鸿沟”,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等人工智能技术实现了从“不能用、不好用”到“可以用”的技术突破,迎来爆发式增长的新高潮。
二、现状与影响
对于人工智能的发展现状,社会上存在一些“炒作”。比如说,认为人工智能系统的智能水平即将全面超越人类水平、30年内机器人将统治世界、人类将成为人工智能的奴隶,等等。这些有意无意的“炒作”和错误认识会给人工智能的发展带来不利影响。因此,制定人工智能发展的战略、方针和政策,首先要准确把握人工智能技术和产业发展的现状。

专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定任务(比如下围棋)的专用人工智能系统由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域。例如,阿尔法狗(AlphaGo)在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,人工智能系统诊断皮肤癌达到专业医生水平。

通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。目前,虽然专用人工智能领域已取得突破性进展,但是通用人工智能领域的研究与应用仍然任重而道远,人工智能总体发展水平仍处于起步阶段。当前的人工智能系统在信息感知、机器学习等“浅层智能”方面进步显著,但是在概念抽象和推理决策等“深层智能”方面的能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才而无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。

人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,谷歌在其2017年年度开发者大会上明确提出发展战略从“移动优先”转向“人工智能优先”,微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿。麦肯锡公司报告指出,2016年全球人工智能研发投入超300亿美元并处于高速增长阶段;全球知名风投调研机构CB Insights报告显示,2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%。

创新生态布局成为人工智能产业发展的战略高地。信息技术和产业的发展史,就是新老信息产业巨头抢滩布局信息产业创新生态的更替史。例如,传统信息产业代表企业有微软、英特尔、IBM、甲骨文等,互联网和移动互联网时代信息产业代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。目前智能科技时代的信息产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动人工智能技术生态的研发布局,全力抢占人工智能相关产业的制高点。

人工智能的社会影响日益凸显。一方面,人工智能作为新一轮科技革命和产业变革的核心力量,正在推动传统产业升级换代,驱动“无人经济”快速发展,在智能交通、智能家居、智能医疗等民生领域产生积极正面影响。另一方面,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能系统可能存在的歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题已经显现出来,需要抓紧提供解决方案。
三、趋势与展望
经过60多年的发展,人工智能在算法、算力(计算能力)和算料(数据)等“三算”方面取得了重要突破,正处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有诸多瓶颈。那么在可以预见的未来,人工智能发展将会出现怎样的趋势与特征呢?

从专用智能向通用智能发展。如何实现从专用人工智能向通用人工智能的跨越式发展,既是下一代人工智能发展的必然趋势,也是研究与应用领域的重大挑战。2016年10月,美国国家科学技术委员会发布《国家人工智能研究与发展战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。阿尔法狗系统开发团队创始人戴密斯·哈萨比斯提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。微软在2017年成立了通用人工智能实验室,众多感知、学习、推理、自然语言理解等方面的科学家参与其中。

从人工智能向人机混合智能发展。借鉴脑科学和认知科学的研究成果是人工智能的一个重要研究方向。人机混合智能旨在将人的作用或认知模型引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。在我国新一代人工智能规划和美国脑计划中,人机混合智能都是重要的研发方向。

从“人工+智能”向自主智能系统发展。当前人工智能领域的大量研究集中在深度学习,但是深度学习的局限是需要大量人工干预,比如人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据、用户需要人工适配智能系统等,非常费时费力。因此,科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿尔法狗系统的后续版本阿尔法元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类人工智能”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低人员成本。

人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、天文学等传统科学的发展。

人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及政府和产业界投入的日益增长,人工智能应用的云端化将不断加速,全球人工智能产业规模在未来10年将进入高速增长期。例如,2016年9月,咨询公司埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,可在现有基础上将劳动生产率提高40%;到2035年,美、日、英、德、法等12个发达国家的年均经济增长率可以翻一番。2018年麦肯锡公司的研究报告预测,到2030年,约70%的公司将采用至少一种形式的人工智能,人工智能新增经济规模将达到13万亿美元。

人工智能将推动人类进入普惠型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司IDC在《信息流引领人工智能新时代》白皮书中指出,未来5年人工智能将提升各行业运转效率。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。

人工智能领域的国际竞争将日益激烈。当前,人工智能领域的国际竞赛已经拉开帷幕,并且将日趋白热化。2018年4月,欧盟委员会计划2018—2020年在人工智能领域投资240亿美元;法国总统在2018年5月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;2018年6月,日本《未来投资战略2018》重点推动物联网建设和人工智能的应用。世界军事强国也已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国特朗普政府发布的首份《国防战略》报告即谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。

人工智能的社会学将提上议程。为了确保人工智能的健康可持续发展,使其发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,制定完善人工智能法律法规,规避可能的风险。2017年9月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。美国白宫多次组织人工智能领域法律法规问题的研讨会、咨询会。特斯拉等产业巨头牵头成立OpenAI等机构,旨在“以有利于整个人类的方式促进和发展友好的人工智能”。
四、态势与思考
当前,我国人工智能发展的总体态势良好。但是我们也要清醒看到,我国人工智能发展存在过热和泡沫化风险,特别在基础研究、技术体系、应用生态、创新人才、法律规范等方面仍然存在不少值得重视的问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。

高度重视。党中央、国务院高度重视并大力支持发展人工智能。2017年7月,国家发布《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路线图,旨在构筑人工智能先发优势,把握新一轮科技革命战略主动。国家发改委、工信部、科技部、教育部等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。

态势喜人。据清华大学发布的《中国人工智能发展报告2018》统计,我国已成为全球人工智能投融资规模最大的国家,我国人工智能企业在人脸识别、语音识别、安防监控、智能音箱、智能家居等人工智能应用领域处于国际前列。根据2017年爱思唯尔文献数据库统计结果,我国在人工智能领域发表的论文数量已居世界第一。近两年,中国科学院大学、清华大学、北京大学等高校纷纷成立人工智能学院,2015年开始的中国人工智能大会已连续成功召开四届并且规模不断扩大。总体来说,我国人工智能领域的创新创业、教育科研活动非常活跃。

差距不小。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在明显差距。在全球人工智能人才700强中,中国虽然入选人数名列第二,但远远低于约占总量一半的美国。2018年市场研究顾问公司Compass Intelligence对全球100多家人工智能计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能国际标准的积极性和力度不够,国内标准制定和实施也较为滞后。我国对人工智能可能产生的社会影响还缺少深度分析,制定完善人工智能相关法律法规的进程需要加快。

前景看好。我国发展人工智能具有市场规模、应用场景、数据资源、人力资源、智能手机普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖管理咨询公司埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出,到2030年人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补人口红利的不足。

当前是我国加强人工智能布局、收获人工智能红利、引领智能时代的重大历史机遇期,如何在人工智能蓬勃发展的浪潮中选择好中国路径、抢抓中国机遇、展现中国智慧等,需要深入思考。

树立理性务实的发展理念。任何事物的发展不可能一直处于高位,有高潮必有低谷,这是客观规律。实现机器在任意现实环境的自主智能和通用智能,仍然需要中长期理论和技术积累,并且人工智能对工业、交通、医疗等传统领域的渗透和融合是个长期过程,很难一蹴而就。因此,发展人工智能要充分考虑到人工智能技术的局限性,充分认识到人工智能重塑传统产业的长期性和艰巨性,理性分析人工智能发展需求,理性设定人工智能发展目标,理性选择人工智能发展路径,务实推进人工智能发展举措,只有这样才能确保人工智能健康可持续发展。

重视固本强基的原创研究。人工智能前沿基础理论是人工智能技术突破、行业革新、产业化推进的基石。面临发展的临界点,要想取得最终的话语权,必须在人工智能基础理论和前沿技术方面取得重大突破。我们要按照支持科学家勇闯人工智能科技前沿“无人区”的要求,努力在人工智能发展方向和理论、方法、工具、系统等方面取得变革性、颠覆性突破,形成具有国际影响力的人工智能原创理论体系,为构建我国自主可控的人工智能技术创新生态提供领先跨越的理论支撑。

构建自主可控的创新生态。我国人工智能开源社区和技术创新生态布局相对滞后,技术平台建设力度有待加强。我们要以问题为导向,主攻关键核心技术,加快建立新一代人工智能关键共性技术体系,全面增强人工智能科技创新能力,确保人工智能关键核心技术牢牢掌握在自己手里。要着力防范人工智能时代“空心化”风险,系统布局并重点发展人工智能领域的“新核高基”:“新”指新型开放创新生态,如产学研融合等;“核”指核心关键技术与器件,如先进机器学习技术、鲁棒模式识别技术、低功耗智能计算芯片等;“高”指高端综合应用系统与平台,如机器学习软硬件平台、大型数据平台等;“基”指具有重大原创意义和技术带动性的基础理论与方法,如脑机接口、类脑智能等。同时,我们要重视人工智能技术标准的建设、产品性能与系统安全的测试。特别是我国在人工智能技术应用方面走在世界前列,在人工智能国际标准制定方面应当掌握话语权,并通过实施标准加速人工智能驱动经济社会转型升级的进程。

推动共担共享的全球治理。目前看,发达国家通过人工智能技术创新掌控了产业链上游资源,难以逾越的技术鸿沟和产业壁垒有可能进一步拉大发达国家和发展中国家的生产力发展水平差距。在发展中国家中,我国有望成为全球人工智能竞争中的领跑者,应布局构建开放共享、质优价廉、普惠全球的人工智能技术和应用平台,配合“一带一路”建设,让“智能红利”助推共建人类命运共同体。

本文经授权转载自微信公众号“求是手机报”(id:qiushisjb),作者谭铁牛,中央人民政府驻香港特别行政区联络办公室副主任、中国科学院院士。
原文链接:https://mp.weixin.qq.com/s/9-Zwf_3t_yJC1ATKHutXaQ
编辑:马晓晴

132#
 楼主| 发表于 2019-8-6 23:55:02 | 只看该作者
【案例】
谁该为人工智能新闻的伦理失范负责?
谁是算法生成新闻的作者?程序员是否应该负责?互联网平台是否应该负责?解决人工智能新闻的伦理失范问题,首先应分清责任主体。归责模糊不清,将导致问题的化解陷入怪圈。
李慧敏
媒体一直伴随着技术演变、更迭而发展变化。人工智能时代,新闻行业自然也不甘落后,积极探索各类应用。不过,目前人工智能新闻的应用大多是在模式化、公式化的情况下进行的。事实上,即使人工智能新闻能够在数据中发现新的相关性,算法也无法解释这些相关性的原因或后果。更应引起重视的是,人工智能新闻还制造了许多伦理困境。
人工智能新闻面临的问题
2016年,联合国教科文组织联合世界科学知识与技术伦理委员会发布了《关于机器人伦理的初步草案报告》,阐述了机器人技术进步可能带来的伦理道德问题。人工智能发展势头迅猛,对新闻业的冲击远远超出我们的想象,新闻业在应用过程中,暴露出许多潜在的法律以及伦理道德问题。
撇开假新闻不谈,人工智能写作中,无论技术问题(如所使用数据的质量、正确性及写作质量),还是伦理规范问题(如算法中编码的伦理问题),都引发了业界和学术界的高度关注。
从伦理规范上来说,问题主要涉及数据透明性、算法偏见、算法权力滥用、信息茧房化等。从技术上来说,人工智能新闻的问题关乎其所使用数据的“质量”,即产生文本数据的准确性和正确性。人工智能算法错误率较低的原因是算法不会出现拼写错误或算术计算错误,但是,在具体新闻运用中存在数据失真的问题,或因为有人恶意修改结果,或是人工智能算法存在偏见。人工智能算法的偏见可能会影响数据的读取,从而影响新闻稿件的正确性和准确性。
失范的责任归属困境
人工智能在媒体和信息领域伦理失范现象日益增多,自动生成内容的问责问题成为社会高度关注的问题,谁来为人工智能自动生成的内容负责?
Propublica数据新闻副主编奥尔加·皮尔斯和调查报道记者朱丽亚·安格雯认为,人工智能辅助下的新闻生产越来越接近学术工作,新闻产品所涉及的数据和算法都需要严格的核实和说明,才能不与新闻伦理规范相冲突。
认真的监督和核查的确可以消除或最小化一部分因不可预测的事件或误导性数据引起的错误。但现实是,监督和核查只能避免一部分的问题。由于人工智能机器学习分为监督式和无监督式两种,监督式学习比较容易核查出错误,而在无监督式学习中,由于机器可以获得自主学习能力,数据输入与输出均为未知状态,这种方式将新闻生产过程推进更深的“黑箱”,产品成为“无须推敲”的成品,编辑对事实的核查、对真相逻辑链的追寻面临重重困难。而且,即使核查出错误,责任主体难以明确、责任归属难以认定等问题仍是影响人工智能新闻伦理规范甚至通过法律途径解决时最为棘手的问题。
谁是算法生成新闻的作者?
算法自动生成新闻的作者是谁?或者说,谁对算法的言论负责?我们很容易用一种捷径来解决责任问题:编辑或事实核查人员的责任。的确,在新闻领域,很容易找到被委托检查新闻内容的个人,他们通常与文章作者一起承担责任。而且在传统的新闻中,我们可以用原创性标准来解决“作者是谁”的问题。但是,在人工智能新闻中,人工智能算法是否具有真正的原创性本身就是一个问题。
在当代的算法生成新闻如“机器人新闻”中,作者与原创之间的相关性可能不大。在“机器人新闻”中,算法的原创仅仅表现在生成内容的决策上,而不是真正的创造性劳动。其他由算法承担的工作,如收集信息,根据信息自动生成内容以及预测信息输出等,无论其是由算法发起的还是仅仅由程序员安排的,都很难明确界定责任者。
在人工智能新闻中,如果在编程过程中出现重大错误,算法可能会忽略预先确定的数据,从而扭曲输出,编辑和事实核查人员将没有相应的技术来识别它。编辑和事实检查人员可能无法理解算法的代码,并且相信他们的工程师和程序员能够开发出好的算法。因此,编辑或事实核查人员可以检查输出的某些方面,但他们不能检查算法的所有方面,当然也不能检查算法产生新闻的技术过程。此时应该追究编辑、核查人员责任还是算法、程序员的责任?
在传统的新闻业中,如果一条新闻是匿名的,这意味着它是由媒体的整个部门创建的,并归责于整个团队,同时应向编辑追究责任。但是,在自动化新闻中,如果一条新闻是匿名的,如何辨别作者是人类还是人工智能算法是一个难题。新型算法训练使得计算机通过深度学习,拥有它自己的“大脑”。重要的是,深度学习是自动化的,常常不需要人工直接输入。这就产生了一个问题,即作者身份是谁?谁是深度学习人工智能机器产生的不可预测的输出的作者?如果是算法作为作者,算法能否作为责任主体?算法能否作为责任主体被追究责任?
算法的确在很大程度上影响了新闻的生成,但是,直到目前,智能技术尚未完全达到自主性和适应性,算法对信息的处理和分发并没有达到很高的水准,这是由于算法几乎没有能力验证语句或改变引文的含义,除非经过专门编程。这些算法仅仅是特定编程工作的结果。因此,很难证明算法是否是在知道虚假信息或不顾后果地无视真相的情况下运行的,将其判定为独立的责任行动主体又显得论据不足。
程序员是否应该负责?
如果将责任转移到程序员身上,那么程序员或工程师应该对他们的人工智能算法输出负责吗?尽管程序员是算法中变量的控制者和写作者,工程师和程序员所编写的代码直接影响新闻伦理,但是,人工智能能够在多大程度上在没有人类干预的情况下行动?
值得注意的是,人工智能的独立决策是受到编程数据选择和组装数据指令的控制。那么,程序员是否应该为他们的算法产生的问题负责?我们如何判断程序员知道,或者应该知道,算法会产生错误的陈述?如果能够证明算法的程序员怀有恶意,那么理当追究程序员的责任,但我们又如何能够证明程序员主观怀有恶意呢?这就又陷入了一个怪圈当中。
互联网平台是否应该负责?
目前,对于互联网平台是否应该承担责任也存在争议。在人工智能时代,互联网平台实际上起到新闻媒体的功能。尽管互联网平台并不直接从事新闻内容制作,但是其推荐算法实际在对新闻价值的不同维度予以赋值。随着越来越多民众将互联网作为主要的新闻信息来源,互联网信息平台在新闻分发和互动环节产生了巨大的动能。
互联网平台应该承担怎样的责任,在实际操作中也存在问责困境。根据避风港原则,互联网平台认为它们只是信息存储、搜索和链接的通道,并不直接生产新闻内容,因此,向不直接生产和编辑内容的互联网平台问责的难度很大。但是,平台企业在内容处理方面的失误,将极大地影响社会舆论,因此,它们不可避免地需要承担平衡不同权利主体的重任。
凯利曾感叹:“人工智能的失败在于,开发出了效用,却牺牲了控制论。”也许未来人类将越来越依赖人工智能算法在新闻中的应用,而当人工智能技术变成一匹脱缰的野马时,人类面临“失控”将会束手无策。
目前,法律法规相对滞后,我们需要建立伦理和法律规则,明确责任主体及相应的伦理责任和法律责任,规范相对超前的人工智能新闻伦理问题,使其处于人类可控范围内。
(作者系西南交通大学人文学院博士生)
责任编辑:包萨仁娜
来源:新闻战线
编辑:晓晴

133#
 楼主| 发表于 2019-8-6 23:57:48 | 只看该作者
【案例】
对话清华大学薛澜:中国人工智能治理重点与对策
清华大学文科资深教授,现任苏世民书院院长,兼任国家战略咨询与综合评估特邀委员会委员,中国国家新一代人工智能治理专业委员会主任,经济合作与发展组织(OECD)科学、技术和创新顾问委员会委员,联合国可持续发展网络(SDSN)领导委员会联合主席等。
新一代人工智能将对人类未来发展产生重大而深远的影响,也是全球热议的“第四次工业革命”的关键支撑。
2019617日,我国首次发布发展人工智能治理原则——《新一代人工智能治理原则——发展负责任的人工智能》(以下简称《治理原则》),明确提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八项原则。它作为首个国家层面发展人工智能的治理原则,对于中国人工智能未来的发展方向具有重要意义。
中国首个发展人工智能治理原则发布,释放了哪些重要信号?中国人工智能发展的目标和方向在哪里?应规避哪些问题?针对这一系列热点问题,本刊记者近日专访了国家新一代人工智能治理专业委员会主任、清华大学苏世民书院院长薛澜。
人工智能未来:发展和治理并进
本刊记者:请您介绍一下关于《新一代人工智能治理原则——发展负责任的人工智能》出台的背景。
薛澜:中国人工智能最近这两年发展迅速,在各方面应用的机会大大增加,其风险投资等方面也是增长比较快。随着中国人工智能技术快速发展,亟需加强人工智能法律、伦理、社会问题研究,在其失控之前把握方向、加强治理已成为不可回避的责任。
中国在人工智能、基因编辑等这一波新兴科技领域走在前沿,目前是在第一方阵。在新技术发展的第一方阵,需要率先考虑新技术可能带来的负面影响,特别是新技术涉及的一系列伦理道德等对社会有深远影响的问题。因此,提前布局、探索治理就显得非常重要。
这次发布的《治理原则》重点基于两个方面的考虑。一方面,从发展的角度考虑,表达对人工智能发展支持和鼓励的态度;另一方面,从治理的角度考虑,人工智能的不确定性有可能带来潜在的负面影响和风险,必须将发展和治理同时纳入进来,协调两者之间的关系,确保人工智能安全可靠可控。我们的初衷就是希望所有相关方要负责任地参与人工智能技术开发应用,以保证人工智能健康有序发展。
首个国家治理原则为今后立法奠定基础
本刊记者:我国首次发布发展人工智能治理原则,其地位和意义是什么?
薛澜:《治理原则》是我国在人工智能规范工作一个重要的开始,是国家层面制定的首个发展人工智能治理原则。它不是法律,不是行政法规,也不是技术标准,而是从道德和责任层面要求各方遵守。
它为下一步国家在适当的时候制定人工智能相关法律法规或者标准提供了重要依据和基础。目前一种呼声就是希望在人工智能方面立法,而立法需要有实质内容,《治理原则》已经明确了哪些是应该提倡的、哪些是应该避免的。
本刊记者:《治理原则》对于人工智能发展在某种程度上会形成阻碍吗?
薛澜:人工智能是人类经济社会发展的新的机遇,这一点得到了国内外社会各界的共识,加快发展新一代人工智能是推动我国高质量、可持续发展的战略机遇。不过,这次在讨论《治理原则》的时候确实有人担心:《治理原则》的出台是否会影响人工智能进一步发展。
我认为,从提出的八项原则来看是不会影响的,因为我们的初衷非常明确:在鼓励人工智能发展的同时,希望通过这些规则确保人工智能健康有序发展,人工智能治理的目的是预防人工智能的滥用或者误用,不是为了阻碍发展。
独创治理新模式,打造多元共治体系
本刊记者:《治理原则》如何应对人工智能这种发展不确定性?
薛澜:《治理原则》的第八条“敏捷治理”原则是中国首先明确采用的,得到了我国高校、科研院所、企业等各方认同。大家一致认为,对于人工智能新兴技术,首要是鼓励发展,同时更重要的是改变传统治理模式。
所谓敏捷治理,就是不是非要等到所有的情况都了解、各方达成充分共识以后才去形成规则;而是一旦看到不好的苗头,就及时发出信号,提醒所有相关方注意相关问题,有效避免新兴科技朝着不利于人类的方向发展。
尤其值得注意的是,未来针对人工智能的政策反应速度要快,但是政策的作用强度要轻,不至于对其发展产生阻碍。在这种新型治理模式中,治理对象——技术开发者和应用者与政府相关部门不是对立面,不是猫和老鼠的关系,实际上都是参与治理的主体,共同推动人工智能健康有序发展。
通过敏捷治理,人工智能涉及到的相关第三方也有机会发表意见,参与多元决策过程,共同寻找最佳治理方式。可以说,人工智能这样的新技术正在催生社会治理体系和模式的变革,倡导多元共治、多方参与的治理模式,并保持开放灵活的状态,及时根据技术发展需要进行动态调整。
本刊记者:人工智能研发应用者如何参考《治理原则》规范自身行为?
薛澜:这可以参考第一条“和谐友好”原则,首先也是最重要的,明确人工智能发展的目的是什么?即人工智能发展应以增进人类共同福祉为目标;应符合人类的价值观和伦理道德,促进人机和谐,服务人类文明进步;应以保障社会安全、尊重人类权益为前提,避免误用,禁止滥用、恶用。
我们强调,人工智能的发展要符合人类价值观,符合生态文明建设准则,与联合国可持续发展目标(SDGs3个核心支柱相一致——兼顾经济、社会和环境。
在明确人工智能发展目的之后,还需要注意几个方面,包括公平公正、尊重隐私、安全可控等。《治理原则》就像航行中的灯塔,为人工智能相关方指引方向,保障人工智能发展不偏离航道。
企业主动约束自己,探索互相监督机制
本刊记者:据您了解,企业作为人工智能发展主体,对于《治理原则》是什么态度?
薛澜:新一代人工智能治理专业委员会有各界代表,其中就包括企业。参与前期讨论的都是行业内领先企业,有高度的社会责任感,在基本导向上与专家的观点高度一致。
当然企业对于有些原则也曾担心如果表述不好,会不会给社会造成一种错觉,让大家误以为治理原则是要约束人工智能的发展,所以我们在把意思更准确地表达方面确实花了心思。
本刊记者:您建议下一步企业如何应用《治理原则》?
薛澜:我国制定人工智能治理原则,强调发展负责任的人工智能。所谓“负责任”是指从基础研究到应用研究到产品和服务的全方面负责任。因此,在新兴技术领域,尤其是人工智能领域的前沿企业,自我约束和社会责任是非常关键的,这事关企业的长远发展。
无论是从社会公众利益的角度,还是企业自身利益的角度,企业的自我约束都是必不可少的。一旦企业做了有损伦理道德、有害社会的事情,必须承担后果,而对企业而言负面影响和损失有时候是不可挽回的。
另外,人工智能企业除了遵守《治理原则》,更要注重行业自律,建议探索有效的企业间自我监督机制。如果同行企业之间探索建立某种形式的联盟,形成共同遵守的规则,这比政府监管更有效,也能让《治理原则》真正落实到位。
最担忧人工智能对就业领域的重大冲击
本刊记者:对人工智能发展未来可能面临的问题,您最担心什么?
薛澜:除了人工智能伦理方面的问题之外,我最关心人工智能对社会的最直接影响在就业领域。实际上,人工智能的广泛应用对人类职业的影响已不再仅仅是一种理论,它已经在现实中发生,一些简单重复性的工作在逐渐被替代,引起了社会高度关注和担忧。
尤其是,第四次工业革命引发的技术变革再也不像过去,让人类有足够的时间缓冲和适应,一旦未来人工智能科技在社会得到全面广泛的应用,将有大量职业会被人工智能替代。这无论对于国家还是个人都是极大的挑战和难题。
另外,最令公众担心的是未来更高等人工智能的出现对人类的巨大冲击。不过,据业内很多专家判断:有这种可能性,但是还很遥远。然而,我们也不能掉以轻心。所以在“治理原则”的最后,特别提到“对未来更高级人工智能的潜在风险持续开展研究和预判,确保人工智能始终朝着有利于人类的方向发展”。这就是提醒相关方,在发展更高人工智能的时候要有预见性,在必要的时候及时刹车,避免巨大风险出现。
本刊记者:您认为人类有能力防范人工智能未来发展存在的风险和威胁吗?
薛澜:我对此是保持谨慎乐观的态度,毕竟人工智能作为技术手段,如何运用在于人类自身的选择。当然,未来会有失控的风险,毕竟不能排除一些人别有用心滥用技术,因此我们要时刻保持清醒。欣慰的是,目前各国已经意识到人工智能发展可能出现的伦理、社会、法律等问题,并纷纷出台规则避免失控、确保安全,这其实是一个积极的信号。
我相信,未来人类通过强烈的自我保护意识和理性的集体决策,终将形成国际人工智能治理框架和规则,保障人工智能行走在造福人类和地球的可持续发展轨道上。
本文转载自“可持续发展经济导刊”公众号,初刊载于《可持续发展经济导刊》2019.07期,内容有删减。王秋蓉,《可持续发展经济导刊》记者。于志宏,《可持续发展经济导刊》社长兼主编。文章观点不代表主办机构立场。
来源:三思派
链接:https://mp.weixin.qq.com/s/f7tDmNK93Kf1pu9e8SHV8w
编辑:晓晴

134#
 楼主| 发表于 2019-8-6 23:59:57 | 只看该作者
【案例】
既要人工智能高效发展,还要符合伦理,该怎么做?
曹建峰 | 腾讯研究院高级研究员
人工智能法律问题的三个层面
近年来,人工智能技术发展取得了极大的进步,在一些领域甚至超越了人类自身的认知能力。人工智能也从一个纯粹的技术领域一跃成为社会各界共同关注的话题。各国纷纷出台人工智能战略,加强顶层设计,人工智能由此成为国际竞争的新焦点。人工智能的跨学科研究迅速兴起,尤其是国内的法学界出现了人工智能法律研究的热潮,但却没有学者尝试从法律上对人工智能的概念进行界定,导致各种研究颇具自说自话的色彩,缺乏统一的认知基础。此外,社会公众由于对人工智能技术缺乏足够的了解,生发了人工智能取代人类工作、超级智能威胁人类生存等担忧。
那么,人工智能法律能否成为一门显学?现在又有哪些新的问题需要研究和应对?对此,微软总法律顾问Brad Smith曾有精辟论述。他写道,未来会产生所谓的「人工智能法律」这一全新的法律领域吗?今天,人工智能法律和1998年的时候隐私法刚兴起时的境况差不多。一些既有的法律已经适用于人工智能,尤其是侵权法和隐私法。在一些特定的领域比如自动驾驶汽车等,开始出现新的监管。但是,人工智能法律尚未作为一个独立的领域存在。到2038年的时候,我敢肯定这一状况将有所改变。那时候,不仅有从事人工智能法律的执业律师,而且这些律师和其他所有律师都将依赖人工智能来辅助其执业。因此,真正的问题不是是否会出现人工智能法律,而是其如何出现,以及在什么期限内出现。
这一预测在某种程度上可以给当前的人工智能法律研究背书,即学者的研究并非镜花水月,空中楼阁,而是服务于未来将可能产生的一个全新的法律领域。综观目前的人工智能法律研究,主要存在法律人格、正义与平等、安全与认证、隐私与权力、责任、知识产权归属、竞争与消费者保护、人工智能产品监管、自主武器等九个主题,这些主题可被抽象为三个层面。
其一,权利的挑战。在以机器学习为代表的现代人工智能系统出现之前,人类是这个星球上唯一具有行为能力的主体,国家和公司作为法律上拟制的人,其自身不具有行为能力,需要由人类主体来代表。人工智能,作为通过一个评估过程自主作出选择的非自然实体(即机器),开始表现出像人一样的行为能力,例如达成交易、批准贷款、驾驶汽车、创作内容等等。因此其一方面带来主体地位的挑战,另一方面带来创造成果归属和保护的挑战。其二,责任的挑战。以自动驾驶为例,其自主性和不可预测性斩断了人类与事故之间的因果关系。其三,伦理的挑战。体现为两个方面:一是技术应用的边界问题,例如将人工智能应用于人类增强或者武器和战争的限度在哪里;二是技术发展可能改变人类伦理,依然以自动驾驶汽车为例,随着自动驾驶系统的安全性能不断提高,当其显著超越人类驾驶水平之时,是否有必要重新考虑人类驾驶汽车的活动的道德性。
人工智能治理的三点认知
在计算机与信息技术的发展史上,网络法经历了三次重大转变,每个阶段都有其特殊的问题并产生了相应的法律规制。第一阶段的关注焦点是计算机,各国围绕计算机的安全、犯罪、欺诈、滥用等问题制定了一系列法律,这个阶段的典型立法包括美国1984年的《计算机欺诈与滥用法案》等。互联网兴起之后,技网络法发展到第二阶段,信息大爆炸趋势下,信息成为关注焦点,法律规制围绕信息的隐私、保护、传播、滥用等问题展开,这个阶段的立法包括欧盟1995年的《个人数据保护指令》、美国1996年的《通信规范法》等。当前,网络法已经发展到了第三阶段,作为关注焦点的数据和人工智能算法带来新的问题,预计将出现一系列人工智能法律,例如欧盟的GDPR已经针对人工智能应用进行了制度安排,欧盟议会发布的《算法责任与透明治理框架》则在考虑建立算法治理框架。就人工智能治理而言,本文提出三点认知。
其一,数据保护方面,明确企业间数据获取与利用的基本规则,加强对企业数据资产及其合法利益的保护。人工智能的发展应用离不开数据,数据已经成为「新石油」,只有加强保护企业数据权益,才能为人工智能创新发展提供坚实的基础。我国法院在诸多涉及数据获取与利用的不正当竞争案件中认为企业对其投入劳动采集、加工、整理、生成的数据享有财产性权益,典型的案件包括阳光诉霸才、大众点评诉爱帮网、钢联诉纵横、拓迪、大众点评诉百度、微博诉脉脉、酷米客诉车来了、淘宝诉美景、同花顺公司诉灯塔公司等。其实早在International News ServiceAssociated Press一案中,美国最高法院就认为,信息、设计等无形物可以因劳动、金钱等投入而产生一种「准财产权」(quasi-property right),从而可以基于反不正当竞争法禁止他人不当盗用。
根据国内外相关司法判例,不当获取与利用数据主要有两种方式:一是未经许可或超出许可,采取侵入的方式获取非公开数据,通常表现为侵入服务器、破解或规避技术措施或者使用他人ID、密码等;二是采取爬虫等手段复制、抓取数据,一般针对公开数据。根据前述判例,法院在认定这些行为的不正当性时一般采取两个测试标准:一是实质替代标准,即将获取的数据用于足以产生替代效果的竞争性产品、服务,此标准主要体现在大众点评系列案件中。二是正当商业利益标准,其出发点是企业对其投入劳动搜集、获取、加工、整理、生成的数据和数据产品享有竞争法上的财产性利益,他人未经授权予以利用具有不正当性。例如,在奋韩网诉58同城案中,法院认定58同城网站伪装个人名义在网站上发布复制于奋韩网的侵权信息,未付出相应劳动即将他人成果据为己有,其行为掠夺了奋韩网流量、影响经营利益,严重损害了韩华公司的合法权益,违背诚实信用原则及公认的商业道德,构成不正当竞争。
其二,人工智能治理方面,考虑采取包容审慎、灵活有弹性的规制方式。一方面,需要为自动驾驶汽车等人工智能新事物革除既有的监管法律政策障碍,例如关于驾驶人的法律要求、高速公路测试限制等,避免过时的法律要求阻碍人工智能创新发展。因为随着人工智能技术持续渗透到各行各业,带来新的产品和服务,未来新事物与旧制度的冲突会越来越多,呼吁监管法律政策的革新和创新。另一方面,由于技术以及商业模式快速发展和迭代,草率的立法不可能期待会产生正面的效果,而且成文或专门的立法恐难跟上技术步伐,故应避免严格、细致的法律要求,而是可以采取事后监管、追责或者通过出台标准、行业公约、伦理框架、最佳实践、技术指南等「软法」性质的规范来调整人工智能的发展应用,支持行业自律。这意味着敏捷灵活的政策路径,例如中国国家新一代人工智能治理专业委员会617日发布的《新一代人工智能治理原则——发展负责任的人工智能》也提出了敏捷治理的原则。
更进一步,作为对技术应用的「软法」规制,可以通过科技伦理来对科技行业的狭隘的技术向度和利益局限进行纠偏和矫正。所以需要通过预警性思考、广泛的社会参与和多学科评估来充分讨论可能存在的风险和危害,制定出切实可行的指导方针和伦理准则来引导、规范人工智能研发应用,以更好地应对人工智能应用可能引发的社会治理危机。
其三,算法透明与责任方面,应根据人工智能技术特征和复杂性追求有意义的透明。具体而言,技术透明不是对算法的每一个步骤、算法的技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。考虑到AI的技术特征,理解AI系统整体是异常困难的,对理解AI作出的某个特定决策也收效甚微。所以,对于现代AI系统,通过解释某个结果如何得出而实现透明将面临巨大的技术挑战,也会极大限制AI的应用;相反,在AI系统的行为和决策上实现有效透明将更可取,也能提供显著的效益。例如,考虑到人工智能的技术特征,GDPR并没有要求对特定自动化决策进行解释,而仅要求提供关于内在逻辑的有意义的信息,并解释自动化决策的重要性和预想的后果。在具体落地层面,根据欧盟议会的《算法责任与透明治理框架》,对于政府和公共部门使用的算法系统,可考虑建立「算法影响评估」(AIA)机制;但不宜针对商业领域的所有算法系统应用都建立算法影响评估机制,因为这将给企业带来不成比例的财务和管理负担,相反可考虑建立分级监管机制,即对于具有与政府和公共部门的算法系统应用相似的重大影响的商业算法系统,可以考虑采取AIA机制,而对于其他商业算法系统,则采取事后追究法律责任的机制。
科技共同体承担伦理责任,践行科技向善
华裔AI科学家李飞飞在推动成立「斯坦福以人为本的人工智能研究院」(Stanford Institute for Human-Centered Artificial Intelligence)时表示,现在迫切需要让伦理成为人工智能研究与发展的根本组成部分。显然,在当前的人工智能技术背景下,我们比历史上任何时候都更加需要注重技术与伦理的平衡。因为一方面技术意味着速度和效率,应发挥好技术的无限潜力,善用技术追求效率,创造社会和经济效益。另一方面,人性意味着深度和价值,要追求人性,维护人类价值和自我实现,避免技术发展和应用突破人类伦理底线。只有保持警醒和敬畏,在以效率为准绳的「技术算法」和以伦理为准绳的「人性算法」之间实现平衡,才能确保「科技向善」。
因此,企业不能只顾财务表现,只追求经济利益,还必须肩负社会责任,追求社会效益,服务于好的社会目的和社会福祉,给社会带来积极贡献,实现利益与价值的统一。在这方面,国内外的科技公司开始主动承担伦理责任,一方面注重技术应用的广泛社会影响,另一方面积极采取措施避免技术被滥用和恶用。例如、谷歌、微软等都提出了其研发和应用人工智能所要遵循的伦理原则;DeepMind成立了专门的伦理与社会部门,在技术研发投入之外,积极应对人工智能技术可能带来的伦理与社会问题;此外,技术伦理委员会日益受到科技行业的青睐,科技公司开始采取多学科评估的方式来把脉、约束人工智能研发应用。
在国内,以腾讯为例,自20181月在国内首次提出「科技向善」以来,腾讯已将「科技向善」作为新的愿景与使命,并积极践行「科技向善」理念,例如将人工智能应用于医疗健康领域,致力于打造「救命的AI」;将计算机视觉技术应用于失踪人口寻找,协助警方打拐寻人,包括基于「跨年领人脸识别」助力警方寻回被拐十年儿童,这在人工智能之前依靠人力几乎是不可能实现的;此外,发起FEW项目,将人工智能应用于食物、能源和水资源(FEW),致力于解决人类所面临的最大挑战。此外,在今年3月提交的建议案《关于加强科技伦理建设 践行科技向善理念的建议》中,全国人大代表、腾讯董事会主席兼首席执行官马化腾呼吁在全社会、全行业积极倡导「科技向善」「负责任创新」「创新与伦理并重」等理念,并建议加强科技伦理的制度化建设,加强科技伦理的教育宣传。
最后作为总结,现代数字技术与经济社会以异乎寻常的速度整合和相互建构,但其高度的专业化、知识化和技术化使圈外人很难对其中的风险和不确定性有准确的认知和判断,没有来自科技共同体内部的风险预警和自我反思,任何一种社会治理模式都很难奏效。因此只有通过科技伦理教育宣传增进科研人员和社会公众在伦理上的自觉,使其不仅仅考虑狭隘的经济利益,而且对技术发展应用的潜在影响及其防范进行反思和进行预警性思考(precautionary thinking),才有可能通过广泛社会参与和跨学科研究评估的方式来实现对人工智能前沿技术的良好治理。
来源:腾讯研究院
链接:https://mp.weixin.qq.com/s/j6bvrjxKFurmzBWkTdbUeQ
编辑:晓晴

135#
 楼主| 发表于 2019-8-7 12:32:12 | 只看该作者
【案例】
中科院院士谭铁牛:AI的过去、现在和未来
谭铁牛 中国科学院院士
来源 | 求是手机报
【导读】本文是人工智能从诞生到发展历程的一篇回顾。全篇共分四部分,分别为人工智能的概念与历程、现状与影响、趋势与展望、态势与思考。体现了作者对人工智能从诞生、兴起到蓬勃发展的脉络特征的清晰把握,以及对我国发展人工智能相关研究和产业的清醒思考。
2018225日,在平昌冬奥会闭幕式“北京8分钟”表演中,由沈阳新松机器人自动化股份有限公司研发的智能移动机器人与轮滑演员进行表演。

新华社记者 李钢/

201853日,中国科学院发布国内首款云端人工智能芯片,理论峰值速度达每秒128万亿次定点运算,达到世界先进水平。

新华社记者 金立旺/
201710月,在沙特阿拉伯首都利雅得举行的“未来投资倡议”大会上,机器人索菲亚被授予沙特公民身份,她也因此成为全球首个获得公民身份的机器人。图为2018710日,在香港会展中心,机器人索菲亚亮相主舞台。
ISAAC LAWRENCE/视觉中国
20181122日, 在“伟大的变革——庆祝改革开放40周年大型展览”上,第三代国产骨科手术机器人“天玑”正在模拟做手术,它是国际上首个适应症覆盖脊柱全节段和骨盆髋臼手术的骨科机器人,性能指标达到国际领先水平。

麦田/视觉中国
如同蒸汽时代的蒸汽机、电气时代的发电机、信息时代的计算机和互联网,人工智能正成为推动人类进入智能时代的决定性力量。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷转型发展,抢滩布局人工智能创新生态。世界主要发达国家均把发展人工智能作为提升国家竞争力、维护国家安全的重大战略,力图在国际科技竞争中掌握主导权。
加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。错失一个机遇,就有可能错过整整一个时代。新一轮科技革命与产业变革已曙光可见,在这场关乎前途命运的大赛场上,我们必须抢抓机遇、奋起直追、力争超越。
一、概念与历程
了解人工智能向何处去,首先要知道人工智能从何处来。1956年夏,麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能(Artificial Intelligence,简称AI)”这一概念,标志着人工智能学科的诞生。
人工智能是研究开发能够模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学,研究目的是促使智能机器会听(语音识别、机器翻译等)、会看(图像识别、文字识别等)、会说(语音合成、人机对话等)、会思考(人机对弈、定理证明等)、会学习(机器学习、知识表示等)、会行动(机器人、自动驾驶汽车等)。
人工智能充满未知的探索道路曲折起伏。如何描述人工智能自1956年以来60余年的发展历程,学术界可谓仁者见仁、智者见智。我们将人工智能的发展历程划分为以下6个阶段:
一是起步发展期:1956年—20世纪60年代初。人工智能概念提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序等,掀起人工智能发展的第一个高潮。
二是反思发展期:20世纪60年代—70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空(例如,无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等),使人工智能的发展走入低谷。
三是应用发展期:20世纪70年代初—80年代中。20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入应用发展的新高潮。
四是低迷发展期:20世纪80年代中—90年代中。随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。
五是稳步发展期:20世纪90年代中—2010年。由于网络技术特别是互联网技术的发展,加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。1997年国际商业机器公司(简称IBM)深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008IBM提出“智慧地球”的概念。以上都是这一时期的标志性事件。
六是蓬勃发展期:2011年至今。随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越了科学与应用之间的“技术鸿沟”,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等人工智能技术实现了从“不能用、不好用”到“可以用”的技术突破,迎来爆发式增长的新高潮。
二、现状与影响
对于人工智能的发展现状,社会上存在一些“炒作”。比如说,认为人工智能系统的智能水平即将全面超越人类水平、30年内机器人将统治世界、人类将成为人工智能的奴隶,等等。这些有意无意的“炒作”和错误认识会给人工智能的发展带来不利影响。因此,制定人工智能发展的战略、方针和政策,首先要准确把握人工智能技术和产业发展的现状。
专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定任务(比如下围棋)的专用人工智能系统由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域。例如,阿尔法狗(AlphaGo)在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,人工智能系统诊断皮肤癌达到专业医生水平。
通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。目前,虽然专用人工智能领域已取得突破性进展,但是通用人工智能领域的研究与应用仍然任重而道远,人工智能总体发展水平仍处于起步阶段。当前的人工智能系统在信息感知、机器学习等“浅层智能”方面进步显著,但是在概念抽象和推理决策等“深层智能”方面的能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才而无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。
人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,谷歌在其2017年年度开发者大会上明确提出发展战略从“移动优先”转向“人工智能优先”,微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿。麦肯锡公司报告指出,2016年全球人工智能研发投入超300亿美元并处于高速增长阶段;全球知名风投调研机构CB Insights报告显示,2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%
创新生态布局成为人工智能产业发展的战略高地。信息技术和产业的发展史,就是新老信息产业巨头抢滩布局信息产业创新生态的更替史。例如,传统信息产业代表企业有微软、英特尔、IBM、甲骨文等,互联网和移动互联网时代信息产业代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。目前智能科技时代的信息产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动人工智能技术生态的研发布局,全力抢占人工智能相关产业的制高点。
人工智能的社会影响日益凸显。一方面,人工智能作为新一轮科技革命和产业变革的核心力量,正在推动传统产业升级换代,驱动“无人经济”快速发展,在智能交通、智能家居、智能医疗等民生领域产生积极正面影响。另一方面,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能系统可能存在的歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题已经显现出来,需要抓紧提供解决方案。
三、趋势与展望
经过60多年的发展,人工智能在算法、算力(计算能力)和算料(数据)等“三算”方面取得了重要突破,正处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有诸多瓶颈。那么在可以预见的未来,人工智能发展将会出现怎样的趋势与特征呢?
从专用智能向通用智能发展。如何实现从专用人工智能向通用人工智能的跨越式发展,既是下一代人工智能发展的必然趋势,也是研究与应用领域的重大挑战。201610月,美国国家科学技术委员会发布《国家人工智能研究与发展战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。阿尔法狗系统开发团队创始人戴密斯·哈萨比斯提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。微软在2017年成立了通用人工智能实验室,众多感知、学习、推理、自然语言理解等方面的科学家参与其中。
从人工智能向人机混合智能发展。借鉴脑科学和认知科学的研究成果是人工智能的一个重要研究方向。人机混合智能旨在将人的作用或认知模型引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。在我国新一代人工智能规划和美国脑计划中,人机混合智能都是重要的研发方向。
“人工+智能”向自主智能系统发展。当前人工智能领域的大量研究集中在深度学习,但是深度学习的局限是需要大量人工干预,比如人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据、用户需要人工适配智能系统等,非常费时费力。因此,科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿尔法狗系统的后续版本阿尔法元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类人工智能”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低人员成本。
人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、天文学等传统科学的发展。
人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及政府和产业界投入的日益增长,人工智能应用的云端化将不断加速,全球人工智能产业规模在未来10年将进入高速增长期。例如,20169月,咨询公司埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,可在现有基础上将劳动生产率提高40%;到2035年,美、日、英、德、法等12个发达国家的年均经济增长率可以翻一番。2018年麦肯锡公司的研究报告预测,到2030年,约70%的公司将采用至少一种形式的人工智能,人工智能新增经济规模将达到13万亿美元。
人工智能将推动人类进入普惠型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司IDC在《信息流引领人工智能新时代》白皮书中指出,未来5年人工智能将提升各行业运转效率。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。
人工智能领域的国际竞争将日益激烈。当前,人工智能领域的国际竞赛已经拉开帷幕,并且将日趋白热化。20184月,欧盟委员会计划20182020年在人工智能领域投资240亿美元;法国总统在20185月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;20186月,日本《未来投资战略2018》重点推动物联网建设和人工智能的应用。世界军事强国也已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国特朗普政府发布的首份《国防战略》报告即谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。
人工智能的社会学将提上议程。为了确保人工智能的健康可持续发展,使其发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,制定完善人工智能法律法规,规避可能的风险。20179月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。美国白宫多次组织人工智能领域法律法规问题的研讨会、咨询会。特斯拉等产业巨头牵头成立OpenAI等机构,旨在“以有利于整个人类的方式促进和发展友好的人工智能”。
四、态势与思考
当前,我国人工智能发展的总体态势良好。但是我们也要清醒看到,我国人工智能发展存在过热和泡沫化风险,特别在基础研究、技术体系、应用生态、创新人才、法律规范等方面仍然存在不少值得重视的问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。
高度重视。党中央、国务院高度重视并大力支持发展人工智能。20177月,国家发布《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路线图,旨在构筑人工智能先发优势,把握新一轮科技革命战略主动。国家发改委、工信部、科技部、教育部等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。
态势喜人。据清华大学发布的《中国人工智能发展报告2018》统计,我国已成为全球人工智能投融资规模最大的国家,我国人工智能企业在人脸识别、语音识别、安防监控、智能音箱、智能家居等人工智能应用领域处于国际前列。根据2017年爱思唯尔文献数据库统计结果,我国在人工智能领域发表的论文数量已居世界第一。近两年,中国科学院大学、清华大学、北京大学等高校纷纷成立人工智能学院,2015年开始的中国人工智能大会已连续成功召开四届并且规模不断扩大。总体来说,我国人工智能领域的创新创业、教育科研活动非常活跃。
差距不小。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在明显差距。在全球人工智能人才700强中,中国虽然入选人数名列第二,但远远低于约占总量一半的美国。2018年市场研究顾问公司Compass Intelligence对全球100多家人工智能计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能国际标准的积极性和力度不够,国内标准制定和实施也较为滞后。我国对人工智能可能产生的社会影响还缺少深度分析,制定完善人工智能相关法律法规的进程需要加快。
前景看好。我国发展人工智能具有市场规模、应用场景、数据资源、人力资源、智能手机普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖管理咨询公司埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出,到2030年人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补人口红利的不足。
当前是我国加强人工智能布局、收获人工智能红利、引领智能时代的重大历史机遇期,如何在人工智能蓬勃发展的浪潮中选择好中国路径、抢抓中国机遇、展现中国智慧等,需要深入思考。
树立理性务实的发展理念。任何事物的发展不可能一直处于高位,有高潮必有低谷,这是客观规律。实现机器在任意现实环境的自主智能和通用智能,仍然需要中长期理论和技术积累,并且人工智能对工业、交通、医疗等传统领域的渗透和融合是个长期过程,很难一蹴而就。因此,发展人工智能要充分考虑到人工智能技术的局限性,充分认识到人工智能重塑传统产业的长期性和艰巨性,理性分析人工智能发展需求,理性设定人工智能发展目标,理性选择人工智能发展路径,务实推进人工智能发展举措,只有这样才能确保人工智能健康可持续发展。
重视固本强基的原创研究。人工智能前沿基础理论是人工智能技术突破、行业革新、产业化推进的基石。面临发展的临界点,要想取得最终的话语权,必须在人工智能基础理论和前沿技术方面取得重大突破。我们要按照支持科学家勇闯人工智能科技前沿“无人区”的要求,努力在人工智能发展方向和理论、方法、工具、系统等方面取得变革性、颠覆性突破,形成具有国际影响力的人工智能原创理论体系,为构建我国自主可控的人工智能技术创新生态提供领先跨越的理论支撑。
构建自主可控的创新生态。我国人工智能开源社区和技术创新生态布局相对滞后,技术平台建设力度有待加强。我们要以问题为导向,主攻关键核心技术,加快建立新一代人工智能关键共性技术体系,全面增强人工智能科技创新能力,确保人工智能关键核心技术牢牢掌握在自己手里。要着力防范人工智能时代“空心化”风险,系统布局并重点发展人工智能领域的“新核高基”:“新”指新型开放创新生态,如产学研融合等;“核”指核心关键技术与器件,如先进机器学习技术、鲁棒模式识别技术、低功耗智能计算芯片等;“高”指高端综合应用系统与平台,如机器学习软硬件平台、大型数据平台等;“基”指具有重大原创意义和技术带动性的基础理论与方法,如脑机接口、类脑智能等。同时,我们要重视人工智能技术标准的建设、产品性能与系统安全的测试。特别是我国在人工智能技术应用方面走在世界前列,在人工智能国际标准制定方面应当掌握话语权,并通过实施标准加速人工智能驱动经济社会转型升级的进程。
推动共担共享的全球治理。目前看,发达国家通过人工智能技术创新掌控了产业链上游资源,难以逾越的技术鸿沟和产业壁垒有可能进一步拉大发达国家和发展中国家的生产力发展水平差距。在发展中国家中,我国有望成为全球人工智能竞争中的领跑者,应布局构建开放共享、质优价廉、普惠全球的人工智能技术和应用平台,配合“一带一路”建设,让“智能红利”助推共建人类命运共同体。
本文经授权转载自微信公众号“求是手机报”(idqiushisjb),作者谭铁牛,中央人民政府驻香港特别行政区联络办公室副主任、中国科学院院士。
· 关于《智能科学与技术学报》·
《智能科学与技术学报》(季刊,www.cjist.com.cn)是由中华人民共和国工业和信息化部主管,人民邮电出版社主办,中国自动化学会学术指导,北京信通传媒有限责任公司出版的高端专业期刊,面向国内外公开发行。《智能科学与技术学报》以建设世界一流科技期刊为目标,聚焦智能科学与技术领域,秉承“专家办刊”的重要原则,坚持“推进跨界融合,注重协同创新,强化产学研用,搭建开放、创新并具国际化示范引领效应的智能科学与技术研究学术交流平台,进而助力构建智能科学与技术及其产业应用的健康生态场”的办刊宗旨,主要包括“综述”“学术论文”“专题”“评述”等栏目,将主要刊载面向智能科学与技术领域有突破的基础理论研究、创新性关键技术应用、热点问题探讨、重大成果进展等,刊载重点领域包括:人工智能,智能控制,混合智能,平行智能,生物智能,军事智能的前沿理论与方法、技术与趋势、应用系统。
《智能科学与技术学报》将努力发展成国内外智能科学与技术领域顶级的学术交流平台,为业界提供一批内容新、质量优、信息含量大、应用价值高的优秀文章,为实现《新一代人工智能发展规划》提出的我国人工智能发展的战略目标,促进我国智能科学与技术的快速发展贡献力量。
来源:智能科学与技术学报
链接:https://mp.weixin.qq.com/s/9-Zwf_3t_yJC1ATKHutXaQ
编辑:晓晴

136#
 楼主| 发表于 2019-8-7 16:42:00 | 只看该作者
【案例】

央视:抢占融媒体创新“桥头堡”时氪分享 · 2019-07-01
人工智能,作为尖端科技里与各行各业关系最密切、融合最深入、带来效应的想象空间最大的技术,无疑是老牌媒体探索新模式的选择之一。央视作为广电媒体行业标杆,则是融入 AI 技术的改革先锋。


“我的脑海里有海量数据知识,还有人工智能算法支撑,所以很有信心。当然,如果掌声再热烈一点,我会有更出色的表现。”话音刚落,现场惊呼阵阵,掌声雷动。
2019 年 5 月 4 日央视五四晚会上,这一幕成为亮点。说出这番话的并非真人,而是基于百度大脑领先的    AI 技术打造的人工智能主持人“小灵”。2019 年伊始,央视与百度在多个重点节目中进行了跨领域、多层次的积极合作,实现了强强联手、合作共赢,引领了行业的新风向。
“在 2019 年春晚、元宵晚会以及五四晚会等重大项目中,央视借助百度全球领先的 AI 能力和软硬一体组件,深度结合节目特色与创作背景,精准定位、量身定制,先后打造了春晚探班小助理“小度”、AI 虚拟主持人“小灵”等让人眼前一亮的人工智能特色化产品,一经推出迅速成为新闻热点,引发了广泛关注,被认为是媒体与人工智能结合的示范性案例。”央视相关负责人谈到。

(2019 年央视春晚,百度成为本届春晚独家网络互动平台与红包互动平台。除夕当晚,全球观众参与百度 App 红包互动活动次数达 208 亿次)

媒体与人工智能结合范例
人工智能,作为尖端科技里与各行各业关系最密切、融合最深入、带来效应的想象空间最大的技术,无疑是老牌媒体探索新模式的选择之一。央视作为广电媒体行业标杆,则是融入 AI 技术的改革先锋。
第一个亮点在 2019 年的小年夜网络春晚,由百度大脑联合央视推出的智能春联 H5,不仅能对出寓意美满、符合新春佳节气氛的春联,还能“看脸”对春联,智能程度让央视主持人高博都叹为观止。
通过智能春联 H5 入口,主持人选择了“刷脸”生成专属春联,点击拍照后,智能春联 H5 可准确识别出高博的性别、年龄、微笑程度等,据此分析出他的人脸特性输出专属春联,送上“事业红红火火逢盛世,家人团团圆圆过大年”的祝福,同时生成了以高博为主角的祝福图片。
这背后应用了百度大脑两方面的 AI 技术,一方面是人脸检测、属性分析、人脸融合等,另一方面是自然语言处理,也就是神经网络的机器翻译技术,可以将春联创作转化为“翻译”的过程。智能春联新奇、有趣、充满科技感的互动形式,刷爆了网友的朋友圈。
第二个亮点在 2019 年的央视春晚,这次的春晚红包由百度与央视合作进行分发。根据人们以往的经验,由于春晚的高收视率,带来的巨量红包互动,不出现宕机或卡顿几乎是不可能的任务。而春晚直播期间,全球观众参与百度 App 红包互动活动次数达 208 亿次,并且没有出现系统崩溃的现象。这背后是百度强大的技术实力保障,同时在语音红包互动的环节,更是体验了百度大脑语音交互的能力。

(2019 央视春晚结束后,中央广播电视总台向百度发来感谢信。在今年春晚红包互动过程中,用户体验良好、操作流畅,百度提供了重要的技术支持)

令人印象深刻同时极其感人的是今年 5 月 3 日央视大型公益节目《等着我》。本期节目中,91 岁老兵袁林昌寻找 94 岁战友周国民的故事,牵动着无数观众的心。袁林昌即使已经退役很多年,但仍对当年在战场上鼓励、帮助自己的老战友念念不忘,60 多年来,袁林昌一直想念着周国民的声音。
很不幸,袁林昌多年来一直找寻的老排长已经在2004 年离开人世。《等着我》节目组了解事情的前因后果后,与百度大脑语音技术团队合作,在拥有少量周国民语音资料的情况下,合成了周爷爷的声音。百度独创的端到端的语音风格分离和建模方案,使用多组神经网络对语音的不同维度,例如音色、情感、风格等,进行独立的编码建模,从而指导最终合成。
当天在节目现场,老兵袁林昌再次听到老排长亦是老战友的声音时,激动地落下了眼泪。袁林昌用颤抖的手,拿起周国民的照片,嘴里喃喃地念叨着“我的排长啊,我向你敬礼了”,同时行了一个军礼。老兵落泪了,嘉宾落泪了,观众们也湿润了眼眶。
此外,开头提到央视五四晚会上的人工智能主持人“小灵”,这也是继央视春节联欢晚会、元宵晚会后,央视、百度再次携手。第一次登上晚会舞台,承担主持人的角色,“小灵”却一点也不怯场,不仅对舞台不拘谨和陌生,还凭借自己被百度大脑赋予的“能力”会与现场观众主动互动。
这背后是百度大脑的语音、视觉、大数据,以及 AR 能力在提供支持。百度大脑的语音、视觉、大数据,以及 AR 能力,目前市面上只有百度可以自动将输入式音频直接生成唇形动画。
现场,通过“小灵”的人脸识别技术,不仅测出宋祖儿是“栀子花”,还测出了小尼是“君子兰”。有了“小灵”的鼓励,大家踊跃参与,许多观众更是直接在现场掏出手机参与活动。“小灵”和主持人、嘉宾之间生动有趣的互动,让整个晚会的氛围都变得活泼起来。在节目中,“小灵”也表示,正是互联网、大数据、人工智能等手段,让传统行业焕发出了新的生命力。

(2019 年 5 月 4 日,基于百度大脑领先的 AI 技术打造的人工智能主持人“小灵”,出现在央视“五四晚会”上)

智能引流 助力媒体开拓全新渠道
百度与央视的成功合作,为用户带来了更智能、更有趣、更深度的交互体验。同时 AI 技术也为媒体产业带来了全新的引流方式。比如广东卫视与百度合作,上线了一款电视台智能小程序,并在其黄金档节目《你会怎么做》和百度玩了一把大小屏同步观看、跨屏观众实时互动,带动该期节目收视率大幅上升,网络上的关注量也达到该节目的历史最高点。
合作过程可以说非常之快,广东卫视在 2 周内就完成了接入。百度提供了针对广电行业打造的一体化解决方案,其中包含了百度智能云和智能小程序的支持,并且提供了专业的运营侧媒体桥,确保内容专业准确的输出。在流量上,百度开放了搜索、信息流、百科、好看视频等开源联盟的流量,通过百家号和小程序直达电视台的频道和栏目。
在合作过程中,广东卫视节目组将历史节目精编出短视频发布到百度信息流来吸引粉丝,并在节目直播时通过全量开屏、信息流、定向推送、百度 App 广东卫视小程序抽奖等方式,增加观众数量,提升节目热度,在百度多场景精准宣发下,对节目进行了开播前、直播中、完播后的立体性开发,助力节目收视率创下新高。
接下来,百度还将持续对广电媒体行业输出人工智能解决方案与生态流量等优势资源,第三季度将有10   家电视台接入百度的一体化解决方案,打造出属于自己的 FansTV,助力广电媒体行业实现智能化转型,为广大用户带来更优秀的交互体验。
电视节目,承载着年轻一代成长中难忘的回忆,更是家庭生活温馨快乐的经典画面,寄托真大众沉甸甸的情感。如今的电视节目也在以央视为排头兵的阵列中,不断锐意进取,敢于尝试新技术,新手段,不断为观众呈现出一场场视听盛宴,让年轻一代继续爱上电视节目,享受美好生活。

专家点评

电视节目一直是全家人汇聚一堂、促进家人交流的重要载体。基于百度大脑打造的 AI 技术打造出的 AI 产品,不仅能够基于 NLP 等技术深入电视节目所处背景并烘托重要节日特色,还能基于语音、视觉及 AR 技术为一些特色节目带来颠覆性的想象空间。在与央视的成功合作建立基础后,也可以为电视媒体产业的其他玩家引流,提高观众体验。

——— 36氪研究院分析师 李坤阳


https://36kr.com/p/5221104




137#
 楼主| 发表于 2019-8-7 17:54:58 | 只看该作者
【案例】
人类正在进入超级智能时代,论一种新超级智能的崛起
本文发表在2019730号《社会科学报》,是刘锋根据20197月出版的著作《崛起的超级智能:互联网大脑》核心内容撰写的一篇文章,也感谢刘慈欣,张亚勤,周鸿祎,王飞跃,约翰.翰兹等专家和好友推荐。
一些人在谈论超级智能时,认为人工智能发展到更高程度,产生意识,全面超越人类,可以威胁人类甚至控制人类时,就变成了超级智能。这种对超级智能的认知是人工智能威胁论的变种,其拥簇者包括霍金、马斯克、孙正义等科学家、企业家、投资人等。
另一方面,吴恩达、杨立昆(Yann LeCun)、谭铁牛等人工智能专家对这种观点进行了批驳。他们的主要意见是,目前人工智能的发展动力完全来自于人类,并没有科学的路径实现人工智能产生意识、加速进化、全面超越人类的可能。
在世界范围各领域人士对人工智能能否实现重大飞跃,从而成为超级智能进行激烈辩论时,一个更为庞大、超出人类原来预期的新超级智能形式正在悄然兴起——一个链接数十亿群体智慧和数百亿机器智能的新超级智能形态。
大约10亿年前,地球自然界中的生命诞生。4亿年前,生物从海洋向陆地迁移,植物、昆虫、脊椎动物等开始在陆地上繁殖。生物在地球的不同环境中生存,形成了五彩缤纷的生命世界。
不同的生物呈现出不同的智能,生物的智能在适应大自然的过程中体现出来,而许多生物作为一个虚拟的整体,利用群体的力量面对大自然的挑战。
同一种群的不同个体通过紧密合作开展活动,从而使种群成为有机整体,即群体智能的形成,蚁群、蜂群等便是群体智能的典型案例。
其中,蜜蜂是自然界中被研究时间最长的群体智能。单个蜜蜂的大脑比一粒沙子还要小,其中只有不到100万个神经元。
相比于人类大脑中850亿个神经元,单个蜜蜂是一个非常简单的智能体,但是它们也有非常复杂的问题需要解决,如选择筑巢地点便是一个关乎蜂群生死的决定。
为解决这一问题,蜜蜂通过组建蜂群形成群体智能进行决策。同样的故事也发生在蚁群、鸟群及鱼群中,它们的群体智能大于个体。
个体的蜜蜂通过群体智能就产生了如此明显的智力提升,人类作为更有智慧的生物,如果有一种技术和机制使人类联合在一起形成群体智能,那将是一种巨大的智慧能量。互联网的诞生使这个梦想得以实现。
20197月出版的《崛起的超级智能》一书提出,在过去的50年里,互联网正在从网状的信息高速公路进化成为类脑的超级智能系统。在经过1969年互联网的诞生、1974TCP/IP协议、1989年万维网等基础的奠定后,互联网开始加速向与大脑高度相似的方向发育。
2004年社交网络为代表的类脑神经元网络,2005年云计算为代表的类中枢神经系统,2009年物联网为代表的类感觉神经系统,2012年工业互联网、工业4.0为代表的类运动神经系统,2013年大数据,2015年人工智能为代表的智能驱动力,到2018年阿里大脑、腾讯大脑、360安全大脑、滴滴交通大脑等不断涌现,连同之前的谷歌大脑、百度大脑、讯飞超脑,到2019年,互联网大脑的雏形已越来越清晰。
经过50年的发展,特别是在21世纪,数十亿人类群体智慧与数百亿设备的机器智能通过互联网大脑结构联合形成自然界前所未有的智能形式,这个新智能形式即之前提到的新超级智能。
其中,人类群体智慧以云群体智能的形式成为了互联网的“右大脑”,设备的机器智能以云机器智能的形式形成了互联网“左大脑”。
人类社会中,科技和产业正在从人工智能时代迈向超级智能时代,互联网大脑模型的形成和超级智能的兴起,将对人类社会、产业、科技、文化产生重大影响。
在行业产业方面,互联网大脑架构与工业、农业、航空、交通、建筑、冶金、电力等行业的结合,形成了诸如工业大脑、农业大脑、航空大脑、建筑大脑、冶金大脑、电力大脑等。
在科技企业方面,世界范围内的科技巨头为适应互联网新出现的类脑结构,不断将自己的核心业务与互联网大脑结合。谷歌依托搜索引擎带来的大数据提出谷歌大脑、科大讯飞依托语音识别技术提出讯飞超脑、360依托安全业务提出360安全大脑、腾讯依托社交网络应用提出腾讯超级大脑、阿里巴巴依托企业级服务提出阿里ET大脑、华为依托通信领域的优势地位提出华为EI智能体,等等。
在学术领域,各种科技、人文、哲学“大脑”也不断涌现。1964年,麦克卢汉从媒介的角度提出了“社会神经网络”。1983年,英国哲学家彼得·罗素提出了全球脑或地球脑。21世纪,互联网大脑模型的研究也产生了更多的“大脑”系统,例如,与智慧城市结合产生城市大脑、城市云脑、城市神经网络;与人类社会这个概念结合产生了智慧社会、社会大脑;等等。预测互联网大脑的未来趋势,未来或许还会产生宇宙大脑、智慧宇宙等。
互联网大脑的形成和超级智能的崛起,对21世纪人类的社会结构、经济形态、科技创新、哲学思考都产生了重大而深远的影响。在超级智能崛起、人类即将进入新的超级智能时代之际,我们提出新超级智能的定义如下:数十亿人类群体智慧与数百亿设备的机器智能通过互联网大脑结构联合,形成自然界前所未有的新智能形式,即新超级智能。
《崛起的超级智能;互联网大脑如何影响科技未来》20197月中信出版社出版。这本著作主要阐述了当人类兴奋与人工智能的兴起,恐慌与人工智能是否超越人类时,一个更为庞大和令人惊叹的超级智能正在崛起,互联网经过50年的时间,正在从网状模型进化成为大脑模型,数十亿人类群体智慧与数百亿机器智能通过互联网大脑形成自然界前所未有的超级智能形式,这个超级智能的产生对21世纪的科技、产业、经济以及哲学领域产生了哪些重要影响。

来源:人工智能学家  
链接:https://mp.weixin.qq.com/s/TiAfzOFiL9RhKvipN0Mk-w

138#
 楼主| 发表于 2019-8-7 17:58:04 | 只看该作者
【案例】
刘艳红:人工智能法学研究中的反智化批判
人工智能法学研究中的反智化批判
作者:刘艳红,教育部“长江学者奖励计划”特聘教授,东南大学法学院教授、博士生导师。
来源:《东方法学》2019年第5期。本文与发表版本的内容略有不同,并已略去注释,引用请以原文为准。
内容摘要:人工智能技术热潮的再度兴起,使得人工智能法学研究空前繁盛,但当前研究出现了违反人类智力常识的反智化现象。概念附会现象严重,不少成果只是基于AI+法律”的任意性组合,“泛人工智能化”研究正在产生大量学术泡沫;制造人工智能研究中的“假问题”或误将司法适用问题当作人工智能法学研究中的元问题,理论创新方向值得怀疑;将对策与科技问题当作理论与学术问题,离开法教义学的基本立场与方法,使得人工智能的研究日益滑向不可知论。人工智能并未对法律基础理论、法学基本教义提出挑战,受到挑战的只是如何将传统知识适用于新的场景。法学研究应该避免盲目跟风,走出对AI的货物崇拜,回归学术研究的理性轨道。
二十世纪七八十年代,人们曾一度对人工智能的研究充满热情,随着真正有用的AI程序未能面世,这种热情被漫长的挫败感所冲淡,而如今人工智能技术再次“引起了越来越多的兴奋和焦虑……涉及人工智能的未来图像(futuristic imagery)在大众媒体中日益流行”。
在这种氛围的笼罩下,我国法学理论和实务界也对人工智能(机器人)保持着巨大的好奇,对法律引导人工智能发展的技艺充满着强烈的自信。不可否认,为包括人工智能在内的一切技术问题设计法律规则,是法律人不可推卸的时代使命,因而这种研究风潮是“法学作为致用之学”的当然表现,一切“热衷”似无可厚非。但也正因为法学研究本应具有观照现实的特性,这要求我们时刻注意合理选择参与前沿技术讨论的现实契入点,在正确理解人工智能技术应用场景的前提下确定法学研究的问题意识,避免盲目追求“时髦”的学术虚假繁荣。以刑法学为例,或许得益于国家《新一代人工智能发展规划》的政策信号,本领域内的研究成果从2017年开始呈现爆炸式增长,“人工智能刑事责任论”等俨然成为最为耀眼的知识增长点。面对席卷而来的人工智能法律问题的法学研究,面对“定分止争”的法律本性,不得不让人产生怀疑:法律学者们是否已经找到了规制AI技术发展的理性方向?当前的热烈研究究竟能走多远,它究竟只是“先一哄而上再一哄而散”还是能够持续到强人工智能到来之日?空前兴盛的人工智能法学是否积累了有助于学科发展的智识,抑或仅仅是法学理论工作者们为了追踪热点并出于各自目的比如引用率高低等而亦步亦趋的“学术秀”?对此,本文将审视当下人工智能法学研究的格局及其问题,并在此基础上就其发展进路谈几点看法。
一、人工智能法学研究中的概念附会
当前法学界存在无处不在的“人工智能+”,在人工智能的大招牌之下开启了各个论域的话题研讨新模式。究竟什么才是人工智能?学者们所言的人工智能只是借用了一个似是而非的流行语以吸引阅读兴趣,还是它确实挑战了千百年形成的法律知识体系?通过观察可以发现,人工智能其实并没有取得如此巨大的飞跃,一些所谓的“人工智能法学”研究题目仅仅是在顺势包装、借壳上市,这种“盛名之下其实难副”的概念附会已经吹起了不少学术泡沫。
人类最初在制造计算机之时就已幻想能够研发出会思考的机器,那时人们无法给予它一个特定的可理解的准确称谓,因而便将之命名为Artificial Intelligence”,简称AI,以表明其不同于人类自然智慧的人工智慧。迄今为之,科学家们也给它撰写过不同的定义,甚至用各种思想实验如著名的图灵测试、中文房间理论等验证这种人工智能存在与否。本文不想详细例举这些定义,事实上关于计算机科学、哲学、法学等学科内的很多基础概念都没有取得过一致的意见。或许如美国最高法院大法官斯图尔特(Potter Stewart)曾说的那样,我们难以成功描述这些概念如无法定义什么是淫秽物品,但“当看到它时我就知道了”(I know it when I see it)然而,当人们因自身的不求甚解而误解曲解研究对象时,准确提炼出相关概念的核心要素就显得十分必要,毕竟不同定义之间还存在着相当的共识。整体而言,人工智能概念核心要素自1950年代产生以来就是恒定的,人们尚没有超脱对AI的原始认知——像人类一样理性地思考和行动。这并不是说人工智能系统的智力水平与人类持平,事实上人类在很多方面也早已大大超越了这个目标,而是涉及一些像人类一样能够“自主的选择和决定:自我管理(self-governing)”。“自主或自治(Autonomy,源自希腊语auto:自我,nomos:法律)与自动化(automation)不同,自动化是指由一台机器不断重复一个过程。自主则要求……AI可以做出自我的选择,即便它在做决定时与人类有过互动”。可以说,“机器是否具有自动化”是一种外部信号反射式的事实判断,而“机器是否具有自主性”则还涉及到自然科学之外的关于机器是否具有自我意志和自我行动能力的“(类)人性”判断。有鉴于此,有学者认为一个可被称为“智能”的实体应至少具有五个基本构成属性:①沟通交流能力(communication),即能够与人类或其他物种相互动,这并不单单代表着智商水平而是一种社会交际潜能;②内部知识(internal knowledge),即对自身的认知,它等于“自我意识”,一个有智慧的实体应该知道自己的存在、自己以某种方式运作、将自己融入现实等;③外部知识(external knowledge),即关于外部世界和真正现实的数据收集分析能力,这是人类累积生活经验的方式,也是人类学习的方式,如果把任何事件一次又一次地当作全新的,那么就很难表现得像一个有智慧的实体;④目标驱动行为(Goal-driven conduct),这指的是一种意图,它制定和执行计划来实现相关目的;⑤创造能力,即指找到新的理解或行为方式的能力,反复尝试完全相同的行为并不是创造力的表现。所以,真正的人工智能是极为复杂的,认定条件也颇为苛刻,这些定义标准限制了概念上的泛人工智能化。
反观我国法学界,很多学者常常将人工智能要求的“自主性”与寻常的“机械自动化”相互混淆。例如,致力于人工智能法学研究的学者大多以“机器人伤人事件”等为起点,比如2015年德国大众汽车制造车间内发生的所谓“首起机器人杀人案”。但是,本案中产生故障的机器人只是普通机械设施,它根本没有独立思考的能力,它之所以会杀死这名工人,是因为触发了该设备的自动处理程序;它只是自动化的普通机器,远没有达到所谓人工智能的水平。与无处不在的生产责任事故相比,该事件也没有本质不同,无非该设备的自动化系统更为精密而已。如果说这也能够成为人工智能法学研究的问题来源,那么可能早在工业革命推广开来之时就该去研究“人工智能”了,或许农业社会耕田的拖拉机伤人也该划入人工智能法律问题的话题范围了。生活经验常识告诉我们,任何机器都会存在风险,即便一把毫无自动性的菜刀在人类不当使用时也会划伤手指。以所谓的“机器人杀人案”导出人工智能的发展风险,进而得出应追究人工智能之物法律责任的观点,是对人工智能根本性的误解和非常低级性的错误。那些讨论对机器人追究刑事责任的学者可能忘记了刑罚的功能,“在判处刑罚的情况下,法官对再犯罪可能性的预测不可能是绝对准确的,犯罪人的行为态度、规范意识等也是不断变化的,因此,刑法特别规定了减刑制度与假释制度。”针对机器人,这些刑罚制度显然没有任何意义,刑罚的报应或者预防目的也都无从实现。
再如,银行的自动取款机(ATM)是为了节省人工成本而发明的旨在引导人们从银行自助取款的机器,虽然它也被叫做“自动柜员机”,但它只是银行人类柜员的一种替代设施,它只有自动化而没有自主性。但是,有学者在人工智能中讨论利用拾得或盗窃他人银行卡在ATM上取款等案件的处理,将之归入“人工智能作为侵财对象的侵财犯罪”,并以此提出了“人工智能时代侵财犯罪刑法适用的困境”问题。事实是,中国第一台ATM机早在1987年就已经启用,它与人工智能之间没有丝毫关系。“通过ATM实施侵财犯罪”“机器能否被骗”等话题根本不用借助于所谓的人工智能就已被讨论过了,当法学重要期刊上的论文将自动取款机、手机银行、支付宝第三方支付平台等统统纳入人工智能范畴时,恰恰表明概念附会的严重性已经到了让人失去底线的地步。果真如此,我们这个人口大国的人工智能普及率早已世界遥遥领先。自动取款机、手机银行、支付宝等可能会出现系统故障,但它们并没有社会沟通能力、创造能力,它们也没有自主性;我们对它们的应用再熟悉不过,常识告诉我们,这种研究正是泛人工智能化的突出表现。
又如,我国法律界对“司法人工智能”持有极高的期待,并随着一些软件如法律信息系统、法律咨询检索系统的司法便利而大大增强了法律人研发人工智能的决心和信心。但是,这些所谓的“司法AI”或“法律AI”是十分低端的自动化计算软件,至多属于对人类智慧的“智慧增强”即(Intelligence Augmentation),它与“人工智能”尚扯不上关系。当前的“司法人工智能”如通过语音技术将庭审声音转化为文字、进行法律信息检索、撰写法律文书等,仍然是一种简单的资料统计、文字处理的模型,是人类编码时设计的模板或套路,只不过随着司法信息公开数量扩增,这些法律软件可以借用不同于以往“小数据”的“大数据”。这些法律应用软件可能利用大数据扩大外部知识,可大数据不只是实现人工智能某种或某些特征的条件;人工智能的实现也不仅仅靠大数据,这些软件只是一些电脑程序(连“物”都算不上),它们更没有沟通能力、内部知识、目标驱动行为等,甚至没有丝毫深度学习能力。那些旨在实现量刑规范化的司法软件仍然局限在十多年前“电脑量刑”的框架内,办事机关大厅内能够做到语音交互、人脸识别的各种法律机器人也只是大量法律业务中的自动化玩具。如果说这些产品由于让法律人喜出望外而被视为“人工智能”的话,那么谷歌AlphaGo-Zero、波士顿动力机器狗这种“弱人工智能”恐怕就是神一样的存在。当机器“像人一样思考”尚不可预期的情况下,让它“像法律人一样思考”更是一种奢望,所谓的“智慧司法”也绝对不是司法的人工智能化,盲目追捧吹嘘“司法人工智能”也绝不是司法体制改革的初衷和方向。
综上可见,我国人工智能法学研究中存在着明显的概念附会,将不属于人工智能的研究对象强行贴上人工智能的标签,相关研究演变为AI+法律”的任意性组合,不少研究者只是打着人工智能的旗号攫取话语权、提升自我身价,法学家们一夜之间变成了人工智能专家,仿佛让自然科学家都望尘不及。这种“泛人工智能化”不是真正的学术研究,而是制造学术泡沫。
二、人工智能法学研究中的伪问题替代真问题
“问题意识”是一个常谈常新的话题,提出正确的问题是任何研究过程的开端,如果没有针对真实的问题进行讨论,即使论述再精妙、方法再多样、观点再前卫、著述再等身,都只是徒有一身浮华的外表,根本不具有任何实际意义。当前法学研究中,应特别注意甄别“伪问题”。尤其在“乱花渐欲迷人眼”的人工智能领域,问题意识更具有欺瞒性,一些法学家似乎总能够发现连科学家都难以察觉的“宇宙级难题”,可静心观察就会发现不少问题的讨论意义仅仅在于占领了更多期刊版面而已,所谓的理论创新可能只是一场空欢喜。
其一,不断制造、跟风、放大“假问题”,导致法学研究误以人工智能发展中的夸张、炒作、娱乐为前提。我国人工智能法学研究主要始于学者们对人工智能技术的各种忧患意识:人工智能的发展前景不可限量,必然会出现具有自我意志的(超)强人工智能,人工智能甚至可能会取代人类、机器算法会取代人类法律;人工智能引发的风险足以产生毁灭性打击,因而主张法律甚至刑法积极应对和规制人工智能的发展,等等。这种“居安思危”“未雨绸缪”的精神确实让人感佩,可这些忧虑只是依靠无数假想拼凑起来的幻影,只是在用别人的“噱头”吓唬自己。
例如,世界上第一个获得公民资格的表情机器人索菲亚(Sophia),在201710月被沙特阿拉伯授予公民身份之后,尤其它曾在与设计者汉森(David Hanson)的对话中冒出一句“我想毁灭人类”,法学家们开始变得躁动不安。不少学者将索菲亚的公民身份作为一种AI技术发展的国家制度回应,视之为AI挑战现行法律体系的范例以及检验某个法律人格理论是否合格的试金石,认为法律若不承认机器人的法律主体地位就不能满足这种社会现实。然而,索菲亚早已遭到包括人工智能科学家在内的各方观察者的极大怀疑:“索菲亚之于AI,就像变戏法的之于真正的魔法,我们把它称作‘AI崇拜’‘假冒AI’或者‘远程操控AI’可能比较好。”所谓具有公民身份的索菲亚不过是一个公关噱头而已,而不是人性、尊严或人格的展现。“‘女性’属性的索菲亚究竟能享有哪些权利,还真不好说。因为在事发地点沙特,女性连单独驾驶权都未得到法律认可。”对于这样一个女性只配拥有有限权利的国家来说,索菲亚更像是一个营销玩物。这种以国家权力为支撑的机器人营销策略淡化了沙特在妇女权利方面的不光彩记录,其实索菲亚主要的新颖性在于身体和面部表情,而不是它的会话方式、主体认知或智能程度,“当以真实的人类互动标准来衡量时,它便仓皇失措、‘智商不在线’”。其实,类似于索菲亚的人形机器人在世界范围内还有很多,它们之所以不被人们津津乐道,是因为它们的包装实力不及索菲亚。AI技术的拥护者李开复曾公开评论,索菲亚“丝毫没有人性、人的理解、爱心、创造力。授予这样一台只会模式识别的机器‘公民’,是对人类最大的羞辱和误导。一个国家用这种哗众取宠的方式来推进人工智能科研,只会适得其反”。既然人们对于索菲亚之于人工智能发展的意义远没有形成共识,我们更没有必要放大索菲亚等类似机器人对现有法律体系的影响,索菲亚的所谓“公民身份”是国家、企业、新闻媒体等各方利益的联合演出,它既与沙特本国的法制传统相龃龉,也受到了AI专业科学家的批评。因此,法学家完全没有必要从索菲亚那里获得什么问题意识,也不必为它的公民身份感到欣喜或恐慌,由索菲亚引出的人工智能法律人格问题是个彻底的伪问题,没有任何法制建构和法学研究上的借鉴性;那些经由公民机器人的诞生而产生的将索菲亚“修坏了会被追究法律责任吗?把‘她’拆解其不等同于谋杀?等问题,正是伪人工智能法学问题的典型代表。
其二,将司法适用/使用问题作为人工智能法学的“元问题”,“AI乐观主义+法律工具主义”盛行,从而不甄别真风险真挑战、陷于表象式研究氛围。当前的研究主要集中于两个方面:一是推进司法人工智能以提升“智慧司法”乃至“智慧法治”,克服人类裁判思维的片面与恣意;二是探究人工智能对传统法律权利义务的挑战,最终落脚于人工智能的司法处遇如“人工智能创生成内容”的著作权保护、自动驾驶致人损伤的刑事责任等。如果将研究对象限定在弱人工智能,则不仅AI的作用有限,而且它对法律体系的挑战也十分微弱,以人类为中心的现有法制系统仍具有顽强的适应力;如果将研究对象拓展至强人工智能,则不仅完全跨越了时代,而且忽视了一系列尚未深入讨论的前提性问题。
如前所述,当前的“司法人工智能”只是提高司法工作效率的便利工具,如语音输入取代书记员电脑打字记录、裁判文书上网以及自动识别搜索等,这种变化与书记员告别古老的手写记录没有实质区别,其他应用如海量判例筛选、辅助量刑规范化、电子取证技术等至多属于增强同案同判等人类司法智慧的AI。“司法人工智能”这一现代科技的使用还面临很多难题,若不对此加以重视而盲目上马各种“智慧司法项目”,最终也只沦为一场“司法秀”。例如,当前中国的司法公开指数虽然有提升,但远未能构成真正大数据,大量司法文书没有公开或没有及时公开、案外因素或规范外因素对司法结果依旧产生隐形决定力,数据的不完整、不真实直接影响各种“司法人工智能系统”的效用。又如,司法体制改革的重中之重是凸显程序正义,而人工智能的“算法黑箱”将加剧人们对裁判过程不透明的怀疑,这使得那些致力于摒弃人类法官弱点的智慧软件系统变得苍白无益。更重要的是,当前的人工智能法学研究者几乎都不是计算机科学专家,各种软件系统的研发也依赖于法律人与专业技术人员、技术公司的合作。当我们质疑人类恣意时,也更有理由怀疑这些系统研发者会借着算法黑箱写入法学家的偏见、科学家的武断、企业的经济利益等,它们仍无法摆脱商业、政治、强势价值观等力量操控,这种“算法歧视”已经在多种领域出现,使得人们对这种由于尖端技术导致的不公正性的救济难度将直线上升。因此,当前司法人工智能实际仍停留在“为何要用”的原始阶段,当类似元问题没有得到充分讨论而径直将其乐观地投入司法使用,那么所谓的智慧司法将会引出更多棘手的法治难题,对于“法律AI”大可不必亦不能急于求成。
再如,著作权法保护的客体是“作品”即文学、艺术或科学领域内的独创性表达,即“只有具备相应独创性的智力创作成果才可成为著作权客体,受著作权法保护”。“人工智能生成内容”的生产过程并不属于创作、不符合独创性要求,不是著作权法中的作品,所谓“人工智能生产内容”的著作权保护就成为一个伪问题,不能以此否认现有法律的应对能力。“作品”源于独立的、个性化的思想创作,是某种情感、审美的表达,计算机软件可能具有越超人类大脑的某些组合能力,但最关键的是它缺少人类之间的共情心、同理心而完全根据算法、模板机械生成结果,没有发挥智力创作的空间。比如机器所写的诗只是利用了内部词库和一些文字搭配技巧,它根本无法理解爱情、童趣、寂寞、悲悯等诗歌创作内在思想,甚至它呈现出来那堆文字(在其内部是一堆数字代码)连诗歌的皮囊都没有,也注定不会得到文化上的流传。人工智能不能改变著作权法中“作品”的构成要件,对这种毫无创造情境、毫无智力活动的“生成内容”进行著作权保护毫无必要,更不能承认机器的著作权主体资格,否则人工智能将率先在艺术创作上严重冲击人类文明理念,这才是人们最需要担忧的。事实上,即便当下热议的法律大数据与人工智能在司法场景的应用,也还只是停留宏观层面概述,根本还未深化到具体的细分领域。所以,那种所谓“新技术、新风险对司法适用提出新挑战”毋宁是不假思索的命题套路。法学研究应该走出对AI的货物崇拜,[ “货物崇拜”,是指与世隔绝的原住民将外来先进科技物奉若神明的行为。回归学术研究的理性轨道,研究法律领域的真问题。
三、人工智能法学研究中的对策论代替教义论
人工智能只是无数新技术发展背景下的某一个领域,法教义却是法学研究不可抛弃的立场和方法,当下对人工智能法律问题的研究停留在对策论,离开法教义学的精耕细作和理论共识探讨必将使人工智能法律问题研究难以沉淀。
每个部门法都存在问题性研究和体系性研究,前者以解决个别问题为导向,后者则以各种原则、规则的体系推进为导向,二者在整体知识系统内相辅相成,共同保证法律制度对实践问题的适应性和稳定性。如前所述,人工智能法学研究兴起的原因是研究者认为法律对AI问题的应对能力不足,因而这首先是问题性研究;同时,研究者提供的解决方案如赋予人工智能法律主体地位等均是对现有体系的突破,因而也就天然牺牲了体系性。概言之,人工智能法学研究的现状是问题性研究林立、体系性研究阙如。虽然法学不能像自然科学那样建立起严密的公式体系,但法教义如同公式一样,提供了逻辑关系建立起来的知识体系,保证了各部分知识之间的兼容性,按照这些公式体系来完成判断可以节省大量审查精力。体系性研究的这种优势荡然不存,会导致我国法学研究转型中的所谓知识创新实际上走向了“回头路”:对策论优先。法学家的对策论与国家制度层面的政策论共用一套逻辑,它特别看重的是法律工具主义,当失去了体系性研究之后,这种对策论容易违背原理、抛弃原则、颠覆法秩序,产生的不是工具理性而是“工具不理性”。
人工智能法学研究中对策论的极端表现就是主张赋予人工智能法律人格,甚至人工智能可以作为独立的犯罪主体存在,这是一种“以新(立法)制新(问题)”的路径,往往仅仅是就事论事、毫无体系。例如,权利义务能力是定义法律主体的唯一标准,但人工智能在权利义务根本不可能实现统一性原则。即便人工智能享有了著作权等呼声较高的权利,但它当其研发者、使用者将AI创作物据为己有时,AI是否能够就发表权、署名权的救济独立提起民事诉讼?除此之外,它还能拥有哪些权利?智能机器人有无数个种类、程序也极为复杂,如何判断某些AI具备而某些不具备权利能力?研发者、使用者为自身之目的对人工智能运行程序进行删改时,是否也要经过AI的同意?他们对这些智能产品还能够享有“物”权?这都是牵一发动全身的问题。在义务能力上,当AI致人损害而产生责任时,它如何承担赔偿责任?法学家目前设想的方案是像机动车强制保险那样为人工智能进行投保或设置某种基金,但这种责任是仍然是人类的财产责任而不是AI的独立责任。因此,“主张人工智能具有主体资格……不具有现实性意义”人工智能达到权利义务相统一的法教义要求几乎不可能,体系性思考的缺失只会顾此失彼、不可能拼凑出一个法律上的新主体。
再如,断言人工智能可以承担刑事责任的观点根本违背了人类制定刑法的目的理性。刑法教义学对刑罚的认知是:“刑罚作为国家对犯罪行为的否定评价与对犯罪人的谴责的一种最严厉的形式,当然地对犯罪人具有身体的、精神的、财产的剥夺性、限制性痛苦”。不少刑法学者对人工智能承担刑罚责任念念不舍,可这种所谓的“刑罚”根本就不可能成为一种“痛苦”,不可能实现对AI犯罪的预防效果。首先,诸如删除数据、修改程序、彻底销毁等手段根本谈不上任何“谴责性”,这些手段早已在当今畅通无阻。电子产品售后服务中心对出售的产品进行数据程序的删减、替换、修正或者按照用户意愿进行置换、报废是无比寻常的维修方案,这何曾需要以它们构成犯罪主体为前提,这些维修手段的正当性根据只在于技术有效性——以“能修好”为标准。人类对自由刑、死刑的痛苦感是来自天然的肉体和心理上的,机器人的痛苦感则来自于人的设计而非其自身,它没有痛感;在这一点上AI连一只有触觉的蚂蚁都不如。因此,人类为AI设计的“刑罚”根本不具有任何刑罚的属性。其次,正因为刑罚属于最严厉的制裁措施,人类更加注重法治国刑法的最后手段性、谦抑性、法益保护辅助性。除刑法之外还有道德规范、伦理规范以及其他前置法,如诸多风化犯罪之所以受到质疑正是因为相关行为属于纯粹道德或伦理调整范围。法学家从来没有考虑过人类是否能够为机器人成功搭建起道德或伦理的规范体系,而只是简单粗暴地动用刑罚,面对人工智能等高端技术时总是如此急不可耐;法学家似乎也没有注意到,上述那些所谓的刑罚方式其实单纯依靠官方或非官方的AI技术管理规范就能够顺利实现,这些技术指南只需要针对AI研制者、使用者等人类主体即可。可以说,以上问题的“很多部分根本就不是‘对法律的挑战’”,人工智能并未对法律基础理论、基本法学教义提出挑战,受到挑战的只是如何将传统知识适用于新的场景,如技术的发展如何影响人类自身的注意义务等。
迄今为止,人们没有放弃过对法律风险预防功能等问题的迷恋,很多措施如刑罚前置化、抽象危险犯、行政犯的增设等或许还能被理解,毕竟它们针对的都是人类行为,至少这种立法客观上会引起一些自然人或单位的心理威慑。但若将法律的预防功能指向不知何年何月才会出现的“假想主体”,则根本错解了预防主义,一如英明睿智的秦皇汉武也不可能以“展望未来”的姿态为醉酒驾驶机动车的立法浪费笔墨,这与他们的想象力无关而是由于这一时代根本不存在这种“定分止争”的需求。更值得指出的是,很多法律人自以为富有远见卓识、想象力丰富,可他们是否想过:强人工智能的整体智慧高于人类且又拥有自主意识、行动自如,那么这种比人类高一等级的物种届时还会接受今日法学家的方案吗?纵然今日设计了无比完美的框架,可那时人类将失去框定人工智能的资质,那时反倒是“人工智能在思考如何为人类立法”,所以,“冥想式的法学研究”里充满着神奇的悖论,人工智能法学的愿景可能是一场空。
四、结语
法学不是玄学、不是科幻主义,也容不得太多不切实际的浪漫情结。如果说“我们即将迎来人工智能时代”、自主思考的强人工智能就在“明天”,那么我们离这个“明天”究竟有多近?连科学家都不知道这个“奇点”何时来临,法学家又具有何种特异功能参透AI的未来禅机?对人工智能相关事务的法律规制尚需要我们积累更多的生活样本,创建一些只适用于遥远未来的理论、制定一些只沉睡在法典里的条文将比当前的“象征性立法”更加浪费资源,因为这种“立而不用”是名副其实的“空谈”。研究者总是相信AI技术的强大远非常人想象,那么是否有朝一日人类也会发现智力超群的外星人?或者基因技术也会让科幻电影里的钢铁侠变成能独立思考、会说话的真正人类?如果法学家总是秉着“宁可信其有”“未雨要绸缪”的态度——反正也没什么害处,那么我们现在是否也该为外星人、为钢铁侠去制定属于它们的规则?如果法学家连如何将违法行为归责为个人的问题都没有参透,却对人工智能是否拥有主题资格的问题喋喋不休,这不是在浪费学术资源又是什么?法律人若接连不断地随着人工智能等新潮科技一哄即上,那么他们也将随着自然科学的挫败或低落一哄而散,或许也将像三十年前那批AI研究先驱者一样只愿承认自己是“计算机(法学)专家”而对“人工智能(法学)专家”的头衔避之不及。当以异于常人的想象力从事法学研究时,研究者的判断力也会一并“异于常人”:概念附会、伪问题替代真问题、政策论替代教义论等一系列现象表明,一贯理性的法律人也会丢掉人类智力本该坚守的常识,人工智能法学研究中的如此反智化现象,令人深思并需要警醒。
来源:法学学术前沿  
链接:https://mp.weixin.qq.com/s/X2LBKxWV8a66aJ4BuFws6A
编辑:晓晴

139#
 楼主| 发表于 2019-8-7 18:07:38 | 只看该作者
【案例
科技或自然?双面哥斯拉
在电影院听到哥斯拉(Godzilla)的嘶吼和主题曲,总是让人热血沸腾。近年哥斯拉成功复兴,不管是 2016 年日本版的《新.哥斯拉》(シン・ゴジラ)或者今年美国版的《哥斯拉 2:怪兽之王》(Godzilla: King of the Monsters),票房都非常亮眼,带着这头年逾 60 的怪兽再次回到大众眼中。在这两部杰作中,哥斯拉形象都跳脱以往,反映了人类与自然和科技关系的双重变化。
1954 年诞生之初,哥斯拉就一直和核能(更精确地说,是核辐射)脱不了干系。如果谈论广岛和长崎原子弹的伤痛令人不忍开口,那么就来闲聊造成类似伤害的怪兽吧!在原始设定中,哥斯拉因为受到核辐射而突变,杀伤力完全是人为催生出来的。换句话说,与其说哥斯拉是「自然的」,不如说哥斯拉是「技术的」。日本社会如何应对哥斯拉,就是如何应对某种危险的技术。但哥斯拉的这种「技术性」,却在往后的系列电影中越加隐晦,甚至逐渐消失。
這個趋势十分清楚,哥斯拉的技术性被淡化,自然性则越来越明显,作为远古生物的一面常被提起。2016 日版哥斯拉刚出现时,令人傻眼,因为那根本不是一只龙,而是一条不停蠕动爬行的幼虫,后来才发育成为我们熟悉的怪兽样貌。这种成长,是生物的特征,而不是技术。如果哥斯拉代表着核能,那么这种转变似乎意味着,核能已经较少被视为全然人造的产物,反而比较像是某种既存的自然潜力透过技术而释放。因此,过去那种对「人类制造出怪兽」的批判变得稀薄,浓厚的反而是人类社会如何处理某种突然出现的非人为危机。
当然,透过电影中官僚不停开会的画面,导演庵野秀明似乎有意批判日本官方面对 2011 福岛核电厂事故反应缓慢、忙着卸责,但对于核能本身的批评却大幅少于以往,甚至可以说几乎没有。对于强大的哥斯拉,最后的做法只是把牠「冻结」,并且宣告「以后只能想办法和平共处」。这种应对哥斯拉的方法,几乎反应了近五年来,日本社会与核能科技关系:封存、观望、然后重启,视之为虽有风险但可以善加利用的资源。
把哥斯拉视为帮手而非威胁的态度,在今年美版哥斯拉中更是发挥得淋漓尽致。除了哥斯拉以外的其他怪兽们,在全世界造成巨大破坏,所到之处一片狼藉、寸草不生——这难道不正是气候变迁至崩溃的可能后果吗?如果说 2016 日版哥斯拉处理的是人类与核能的关系,那么 2019 美版哥斯拉则是扩大了版图,打造出一种人类—自然—科技的三角关系。电影中,哥斯拉被人类寄予厚望,虽然能力强大到令人惧怕,却是打败其他怪兽的唯一机会。这无疑暗示了使用核能缓解气候变迁的解决方案。
这种暗示,最明显不过之处,就在于人类试图用核子弹头和潜艇「恢复」哥斯拉的那一刻。核能射线是过去哥斯拉令人畏惧的因素之一,如今却摇身一变成为哥斯拉最令人赞赏、甚至值得「培养」的能力。如同 2016 的日版哥斯拉,这头被喂养的哥斯拉,也是存在已久的古生物,电影中甚至提都没提牠是否是人类科技发展造成的后果。1954 初代哥斯拉的设定几乎消失,人类不过就是协助释放甚至加强某种自然界中存在许久且潜力十足的能力。电影最后,世界恢复生机,也带出了和日本几乎一模一样的宣告:人类只能与哥斯拉共生。
近年的两版哥斯拉,即使都不否定哥斯拉可能带来危险,却也开始大量赋予哥斯拉正面意含和作用。哥斯拉变得越来越不像人类造成的灾害,反而是某种可资利用的资源与潜力。事实上,哥斯拉所代表的不只是核能,牠可以象征任何力量强大但却带有风险的科技,而近年两部电影所诉说的,都不再是对这种「科技哥斯拉」的全然的拒斥(或接受),而是人类与其共同生存的必须与必要。
本文(不含图片)原刊登于《周刊编集》(台湾)第 25 期,2019.07.10
来源:洪靖 Ching Hung
链接:https://hungching.postach.io/post/godzilla-s-double-faces?from=timeline&isappinstalled=0
编辑:晓晴

140#
 楼主| 发表于 2019-8-7 22:20:55 | 只看该作者
【人工智能】
中央广播电视总台与上海交大将联合开展超高清及人工智能技术研究
来源:中央广播电视总台央视新闻
523日,中央广播电视总台主办的2019北京国际电视技术研讨会在北京举行。500多位来自媒体、通信和信息技术领域的专家学者及业内人士参加了此次研讨会。
在研讨会开幕式上,中央广播电视总台央视技术管理中心与上海交通大学签署了战略合作协议,共同建设超高清与人工智能媒体应用实验室。根据协议,双方将在超高清视频和人工智能等技术领域联合开展研究,推动自主创新。主要包括:开展面向超高清电视的我国压缩编码技术标准的研究和应用;开展媒体大数据、深度学习、计算机视觉等前沿技术研究,推动人工智能在媒体制播中的深度应用;积极探索开放式的产、学、研联合人才培养机制,联合培养高水平的技术人才。
中央广播电视总台央视技术管理中心与上海交通大学共同签署战略合作协议
中央广播电视总台负责人在致辞中指出,5G时代已经到来,我们将紧紧抓住这一历史性机遇,聚焦关键技术,积极构建“5G+4K+AI”全新战略格局,加快开展5G移动网络环境下各项技术应用实验和业务生产实践。同时,与各媒体、各行业的合作伙伴携手,进行跨领域、全方位、多层次的产业深度合作,促进媒体行业内容制作、分发、呈现的全产业链升级,以科技引领创新,为传媒产业赋能,满足人民日益增长的美好生活需要。
上海交通大学负责人表示,上海交通大学近几年在智能媒体、图像分析、脑机交互、机器人、人工智能芯片等人工智能领域的研究已有突破进展和成果。此次与中央广播电视总台央视技术管理中心签署战略合作协议将合力打造跨学科研究高地,培养顶尖人才,引领科技创新,共同促进优秀成果产出,积极推动产业发展。
2019北京国际电视技术研讨会为期两天。今年的研讨会将围绕“打造5G+4K+AI智能化新型媒体,建设自主可控、具有强大影响力的全媒体平台”这一主题,通过演讲交流、应用体验、业务观摩等形式,共同探讨广电媒体融合新阶段的应用探索与业务实践,推动5G+4K+AI 前沿媒体技术应用,促进媒体技术创新与全媒体融合发展。
来源:广电猎酷
编辑:晓晴

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表