传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
341#
 楼主| 发表于 2019-12-7 23:48:43 | 只看该作者
【案例】
变革中的新闻业及其未来——牛津大学路透新闻研究所所长尼尔森教授访谈
本文通过专访牛津大学路透新闻研究所所长拉斯马斯•尼尔森博士(Dr. Rasmus Nielsen),交流关于当前和未来媒体数字化、全球化发展趋势的看法。访谈呈现的主要观点包括:未来新闻媒体可能会存在多种商业模式,不同的商业模式会因为国家差异而各不相同;数字化转型中的主流媒体会面临公共性变化的挑战,公共对话的空间可能会越来越分散、碎片化、去中心化;地方新闻在公共生活中仍应该扮演重要角色,而平台媒体的价值在于保持观点的开放性,实现声音的多元表达;新闻业研究需要关注变革,持续回应新闻与社会的关系,并尝试运用更多跨学科视角和吸引不同学科的学者投身进来。
拉斯马斯•尼尔森博士(Dr. Rasmus Nielsen)是牛津大学路透新闻研究所所长、牛津大学政治传播学教授。他曾任SSCI Q1区期刊《国际新闻与政治》(International Journal of Press/Politics)主编,在新闻、美国政治、社会运动、国际比较研究方面成果丰硕。近年来,他的研究兴趣主要在新闻业转型、政治传播,以及数字化媒体技术在两者中的作用。他所领导的牛津大学路透新闻研究所从2012年起每年出版《数字新闻报告》(Digital News Report),调研范围覆盖全球近30多个国家的媒体及管理者、从业者和普通公众,成为国际学界和业界掌握数字化技术与媒体发展前沿趋势的重要参考。
201811月,尼尔森博士在中山大学传播与设计学院访问期间,就技术、新闻、市场、国家、公共利益,以及未来媒体发展的数字化和全球化趋势等问题接受了张志安、王海燕的专访。
一、未来新闻业的商业模式
:新闻业正发生巨变,传统媒体面临来自互联网的诸多挑战,原有的商业模式不再有效,必须通过各种不同的方法以求获得经济支撑。你认为是否存在一个世界各国媒体都适用的商业模式?
:未来的新闻业可能会有许多不同的商业模式。目前来看,商业模式主要有五种:首先是以读者为中心获得收入,比如付费墙、会员制,可能辅之以广告、电子商务、商业活动等。其次是以广告为中心的商业模式,通过向广告商售卖受众的注意力以获得收入。第三,一些组织可能会放弃从新闻本身获得利润,而是通过提供与新闻相关的服务来盈利,例如作为市场顾问、市场分析师、公关公司和设计公司等,新闻只是他们展现做这些事的能力的平台。第四,我们可能会看到一些非盈利性的新闻组织,其收入来源于个人捐助、基金会或大型的慈善事业。第五,我们也会看到政府或者公共财政资助的模式。
这些模式会因国而异。例如,在印度一份报纸仅需5卢比(约人民币0.5元),而要让大多数印度人养成为数字新闻付费的习惯也要经历漫长的时间,所以,完全基于读者收入的商业模式在这样的国家将会非常困难。再如,基于广告的商业模式在某些国家和情境中可能仍然奏效,但随着竞争的激烈,在一些小国和不富裕的国家将愈加艰难,比如在东欧一些环波罗的海国家或者保加利亚、罗马尼亚这样的中低收入国家。
政府补贴同样是一个棘手的问题。各国政府提供补贴的意愿有差异,而记者接受政府补贴的意愿也各不相同。在欧洲,一些国家的记者希望政府提供补贴,越多越好;另一些国家的记者则认为,补贴本质上是政府干预新闻业的一种方式。在法国和意大利,记者们对政府补贴模式提出批评。他们认为,补贴惠及的只是少数亲近政治权威的媒体机构,而不是所有媒体,这并不能促进新闻业创新,而是制造不公平,让强者更强。但在北欧,过去政府通过支持纸媒的发行提供补贴,现在他们开始资助专业新闻的生产,这种模式得到社会的广泛支持。
:虽然每个国家、每家媒体的情况各不一样,发展出来的商业模式不尽相同,但综观国际上一些发展得比较好的媒体,其运营上有无共通之处?
:在一些具有可持续发展性的媒体中,我们的确可以发现一些共同点。
首先,不管是做哪一类新闻的媒体,也不管它是数字化时代到来之前就存在的传统组织还是原生的数字化组织,首先它必须与众不同。在竞争激烈的环境中,如果你不能提供与其他竞争者具有明显区分度的产品,你就将在内容和经营上都面临困难。
第二,要精简高效,必须比过去的大新闻机构更瘦身、成本更精,这样才能更加高效地赢得广告商和读者的注意力。
第三,收入多元,因为如果过分单一的话,特别是如果只依赖于广告,就容易在环境变化中受到打击。
第四,受众意识,要对受众更加敏感,过去那种认为受众会主动寻找新闻的思维模式在注意力竞争愈发激烈的今天已不再适用,新闻机构必须主动寻找受众,而不是期望受众过来找你。当然,这并不意味着新闻组织要竭尽所能开发一个平台并使其产品出现在每一台移动设备中,或是穷尽所有的传播途径,而是要从能够触及的受众开始,深入地去理解他们想要看什么样的新闻,以什么样的方式,而你如何能够使他们在众多选择中始终追随你。
最后是适应力。在并不久远的过去,新闻业是一个非常稳定的、结构化的行业,尽管内容每日不同,但报道、生产和传播的流程总是相同的,但如果你对今天的变化不敏感,缺少适应新环境的能力,那么你在过去的模式上越熟练,就意味着你在新的环境中越难改变。
二、媒体公共功能的挑战
:商业模式的变化会如何影响媒体的社会角色?尤其是无论中国还是西方国家,传统媒体正在从政府那里获得越来越多的资金,这对媒体的公共角色和功能是否构成挑战?
:从根本上讲,所有媒体和记者都面临平衡各方力量的问题。他们有自己的职业抱负、价值观,以及想做的事情,在大多数国家,这些可能都与“public”(公众或公共)这个词有关。但事实上,每一个媒体面对的切实受众通常只是公众的一部分,只是公众的一个子集,而不是整体的、广泛意义的公众。而公众的利益(public's interest)与“公共利益”(public interest)并不总是相同的,所以,有时受众想要媒体做的事情也许并不符合公共利益。
同时,媒体又不得不考虑为其提供经济支撑的机构或个体。我认为,媒体在未来会扮演何种社会角色与这三者关系的变动有关。这既包括记者如何看待他们的使命、愿景和价值观,也包括受众,特别是那些投入切实注意力和付费的受众,希望从媒体得到什么,还包括广告商、公司、政府等资助新闻业的行动者希望媒体做什么。新闻业有一句经典的话,叫“跟随金钱”(follow the money)。记者们虽然有自己的价值观和职业抱负,但归根结底他们是为那些支付账单的人工作的,如果这些人的利益与其他人的利益产生冲突,你就得解决它对付它,在所有现存的商业模式中,都可以看到这一点。
在我最熟悉的西方国家,我们现在看到一种极化的现象:一方面,一些媒体非常注重他们的广告客户需要什么样的新闻,并据此展开工作,多数情况下目标在于生产点击量,而非履行记者的职责;另一方面,也有一些媒体致力于为其付费的读者服务,这通常意味着他们会精耕内容、提供高质量的新闻。
当然,在这之外还有政府和其他资助者的问题,他们的存在对媒体自治和独立新闻业产生的影响不能忽视,如果钱都是从政府而来的话,媒体即使再宣称自己是为公共利益服务,实际上最终都只是政府的喉舌。而如果公众知道这一点的话,会对媒体提供的内容持更加批判的态度,甚至会掉头而去,转向其他替代性信源。
:旧的商业模式的崩溃和总体经济形势的变化,改变了新闻业中不同行动者之间的权力格局,政治力量、经济力量、新闻专业力量之间的对比发生变化,你如何看待当前媒体发展对既有权力结构的影响?
:在西方国家,的确有很多媒体的影响力在下降。我认为其中一个原因是公共对话的空间越来越分散、碎片化、去中心化,越来越多的不同的声音参与其中,这给了许多政客机会,可以比以往更方便地与公众进行直接沟通(比如通过社交媒体),一些商业机构也可以绕过传统的守门人,通过这种方式树立起良好的媒体形象,这都使得新闻媒体整体的重要性在降低。但即便如此,仍有一些新闻媒体扮演着重要的角色,甚至比过去更为重要。
例如,三十年前《纽约时报》仅有很小的一个读者群,它过半的读者来自曼哈顿,仅能影响一小部分美国精英的讨论。但在今天,《纽约时报》被美国全国的精英所阅读,可以在全国范围内对更多的讨论施加更为直接的影响。这也许并非因为每个人都会购买并阅读《纽约时报》,而是因为《纽约时报》关注的事件,在网络上往往会被各种传播渠道接力转发,最终成为公众讨论的一部分。同时,这些讨论不仅发生在美国各地,同时也愈发国际化,引起全世界的注意。
但另外一方面不得不说,一些顶层政治家们的影响力也变得越来越大。在美国,近期两任总统奥巴马和特朗普都在互联网上,尤其是社交媒体上树立了非常活跃的形象,他们显然有能力绕过新闻媒体去设置公众议程,去直接接触自己的核心选民,具有极大的影响力。但实际上,大多数政客并不是奥巴马或者特朗普,在美国,大多数政客在社交媒体上几乎没有粉丝,因而也就没有直接与选民或者公众沟通的渠道。
在某些方面,他们面临着比上世纪90年代之前更为糟糕的局面,当时还有地方报纸、地方电视台或电台会极其关注当地的国会议员和参议员,现在这些地方媒体衰落了,民众在社交媒体上只会关注特朗普或者奥巴马,这导致大多数中低层政客的影响力的弱化。同时,我想补充的是,西方媒体中的政治新闻往往是政治家新闻(politicians' journalism)而非政治新闻(polityjournalism),新闻的关注点通常是这些参加选举的政治家们做什么、说什么和讨论什么。
三、地方媒体普遍遭遇挑战
:你提到的美国地方报纸正在快速消失的问题,在中国也有类似情况,一些全国性媒体仍在成长,而且在微博、微信等社交平台拥有数千万粉丝的关注,但一些地方性媒体却处境艰难。这是否是一种全球性的现象?
:我认为这绝对是一种全球性的趋势。我对未来新闻业的许多方面都很乐观,但你刚刚提到的有关地方媒体的问题,是我对于未来新闻业最为担忧的事情之一。发生在地方的新闻对人们来说非常重要,这些事情与人们有切身关系,往往超过了全国性或国际性问题。
我认为,历史性地看,地方新闻是三种因素的产物,第一,从新闻的角度来看,地方发生的很多新闻有很重要的报道价值;第二,人们实际上是在各自不同的当地过着自己的日常生活,比如,对于广州人来讲,他们居住在中国,但他们的日常生活是在广州这个具体的地方发生的,因此,他们最终关心的是发生在广州这个地区的事情;第三,广告商的商品是要在地方销售的,很多产品是与地方锚定的,如特定的汽车、房屋等。
恰是在第三种因素下,前两种因素才得以存在,因为正是由于地方媒体与广告商之间的联系,才能获得广告收入以支撑记者对当地社区进行报道。但是现在,前两种因素并未发生改变,而第三种因素已不复存在。这是因为在新的传播技术的冲击下,广告商开始转向全国性或国际性的媒体平台,再依据地理位置提供本地化定位的广告,而地方性媒体由于广播信号和印刷报纸分发的限制,日益丧失了来自于广告商的资金。
同时,坦率地讲,记者和受众对于事件重要性的评估并不总是一致的,地方性媒体对全国性媒体报道的事件越来越感兴趣,他们开始写同样的新闻而放弃捕捉当地社区的真实细节,尽管那并不是他们的受众主要关心的内容。例如,在伦敦这样一个大城市,郊区民众的生活和伦敦市中心的生活是截然不同的,但是当地报纸上刊登的新闻绝大部分都是关于伦敦市中心的内容,对于生活在郊区的人来说,他们会想:“这些事情与我有什么关系呢?这不是我的生活,不是我常去的地方,也不是我经历过的事件。
记者和媒体从来不报道我们社区的学校,只会报道那些有名的公学,也从不会报道我们镇上的马戏团,而只报道市中心一些有趣的地方,这个报纸跟我有什么关系呢?”因此,有时就会出现这样一个问题,即地方报纸提供的并不是你所想象的地方新闻,而是成了其他东西。
:在中国,最近出现了有许多直接由地方政府通过社交媒体平台运营的新型媒体,并发挥着重要的作用。它们多数是基于社交媒体平台,地方政府可以通过自己的渠道向当地民众发布信息,而不再依赖传统媒体。这种形式可以让当地居民,特别是年轻人,更加便捷地获取有用的当地信息。
●:是的,地方新闻在人们的生活中扮演着不同的角色。它们不仅仅是关于具有公众重要性的事件的独立报道,而且大部分是发生在社区之中的平凡生活,如道路工程、火车将要停运、节日、村庄集市,以及昨晚是否有人被捕等。现在,一些机构会积极通过其他渠道推广这类信息,媒体并不能垄断这些信息,并将它们打包提供给读者。
我最近访问了一家英国城市报纸,他们的编辑团队中许多记者被当地警察局雇佣去通讯办公室工作,投入到推特运营中。这家报纸的推特有16.7万的关注量,当地的警察局则有16.6万的关注量。现在,警方经常会以非常幽默的方式推送本地信息,许多民众认为这些信息非常实用且有趣。但这家报社的编辑也指出,如果发生了警察暴行、警局腐败、冤案等,警方就不会报道这些了,所以这种新闻模式会出现一个重要的缺失领域,这是由它的资金来源模式决定的。
四、平台媒体的价值在于促进多样化
▲:中国有很多年轻人越来越倾向于从社交媒体获取新闻,而不是传统的主流媒体,他们看起来也并不关心主流媒体的存在。这种现象是否也出现在了欧洲?
●:路透研究所没有专门研究过这个问题,但前几年皮尤中心在美国调查时,问过一个类似的问题:“如果你家当地的报纸明天倒闭,你是否会怀念它?”许多人说“不”,其中很多是年轻人。这有点令人不安,如果人们真的是这么认为的,新闻业就必须正视这个现实。
新闻业经常给人们提供令人不安的事实,而现在,它自己也需要面对一些令人不安的事实。如果人们真的到了对新闻业漠不关心的程度,那就太糟糕了。这种现象可能在并未与媒体终身相伴的年轻人中更为明显,但实际上一些年长的人也这样认为。我们做过一个研究,问那些自称为传统媒体的忠实受众的人(比如宣称在上个月曾购买过专业新闻产品的人),结果发现,在英国7%的人对新闻业的价值不屑一顾,这是一个非常庞大的群体。
他们会说:“你看,我自己的生活已经够复杂了,我不需要每天再有人告诉我,在过去的24小时内哪里发生了哪些不好的事情,灾难、地震、恐怖分子、股市下跌、贸易战、特朗普之类的,这对我有什么帮助?”当然,他们对于新闻价值的看法我们不能认同,但是对于当下的新闻从业者而言,当面对受众时,理解他们的这些想法要比忽略他们更有益。
▲:对于传统媒体和新型社交媒体,中国有的学者认为传统媒体的专业价值对于公众来说依然重要,因为它们提供了独立、客观和专业的新闻;也有学者认为我们需要重新定义新闻和新闻业。
●:我认为这不应该是一个单项选择题,应当将两者结合,而不是对立起来。新闻业中的一些核心价值是长期存在的,并且会继续处于绝对的核心位置。例如,新闻的首要使命是接近真相,新闻是为公共利益服务的,这都是永恒的使命。
同时,新闻业也有一些实践方式需要改变和演进。传统新闻业就是我写你读、我广播你收听、我发布你关注。而现在这个时代,新闻业必须更具对话性、参与性、实用性,更能与其服务的社区产生共鸣。媒体的技术使用、包含的社会价值,以及传播的形式,都要能更好地促进参与和交流。
新闻要与社会形成一种相互回应的关系,而不能总是期望社会对其抱以关注,而自己永远不关注世界。诚然,改变并不意味着抛弃传统,但在某些情境下,新闻业必须有所取舍,比如,如何平衡进行报道的时间和与受众对话的时间,等等。对于传统主义者,我只想说,世界正在改变,如果新闻业拒绝改变,那么在未来,属于它的一席之地在哪里?
▲:无论中国还是西方,社交媒体平台已成为年轻人越来越重要的获取新闻的渠道,许多人甚至认为,这些平台媒体就是主流媒体。你认为这些互联网巨头是否可以延续新闻业的核心价值?
●:我对中国的情况不太了解,但我可以谈一下西方的情况。平台媒体已成为民众日常表达的重要途径,民众也认为他们需要平台媒体提供的产品和服务。现在传统纸媒面临着巨大的挑战和真实的风险;平台媒体的主要价值观与传统新闻业虽有不同,但也并不是对立的,如果平台媒体像传统新闻媒体一样想问题,要一个一个地把关,根据具体情况作出个别的编辑决策,那对新闻业来说可能是一件坏事,因为这样的话它很快就要开始对内容的发布施加更多的限制。
因此,认为谷歌、脸书等需要编辑的想法令我感到可怕,这实质上是要求这些平台做出更多关于排除某些内容的决定。而我认为,这些平台最可贵的地方正是它让公众话语得到了更好的表达,正如“平台”(platform)这个词语本身所暗示的一样,“开放”(open)是它最大的特点,它可以承载各种不同的观点,让用户自己决定去关注谁、为什么要关注。
平台媒体的核心价值应该是在获取流量和使用户能够根据自己看到的信息做出明智决策之间取得平衡。因此,透明性就格外重要,这关系到公众能否明智地判断呈现在他们面前的新闻、叙事或数据到底是从何而来、有何目的、背后推手是谁、是否可信等。所以,平台媒体不关心信息内容本身的善恶,平台媒体就是要实现声音多元,促进意识形态的多样性,而不是排除声音。
对新闻业而言,一个非常糟糕的状况是,这些平台被当做是新闻机构而受到监管,需要对其服务和产品承担法律责任,这样的话会导致它们对内容做出非常谨慎和保守的决策。例如,它们可能会因为担心陷入诽谤诉讼,从而绞尽脑汁地阻止某些内容在平台发布;可能更愿意与几家主要的大新闻机构达成私下协议,只发布他们的内容,而排除社会上其他的声音。我认为这样的话社会并不能从中受益,所以对平台媒体的监管要非常谨慎。
五、科技全球化与中国的影响力
▲:十几年前是发达国家向发展中国家输出技术和模式,中国许多互联网企业就是借鉴了西方公司的商业模式,例如微博借鉴推特,开心网、人人网借鉴脸书等。而现在,中国一些公司也开始发展自己的商业模式,例如微信的英文版Wechat、抖音的英文版Tiktok等,已经从中国输出到了世界。对这种变化你有什么评价?
●:我认为这主要有两个原因。一个是技术,技术关涉地理界限;其次是政治,政治关乎国家界限。在全球化进程中,随着贸易管制的放松,政治障碍往往会减少,特别是在数字化领域,长期以来处于政策真空的状态,而技术又使得地理局限不再是问题,这意味着在互联网的发展过程中,政治的边界和地理的边界往往都是消失的,立足于某个国家的公司成为一种全球性的力量不是一件不可想象的事情。
中国的互联网公司进行全球竞争的优势之一是移动媒体发展非常快,它们率先看到手机作为数字媒体发展的主要设备的机会,而不是不能移动的台式电脑等互联网设备。从这个意义上讲,美国的一些科技公司本质上还是传统媒体,因为它们成长于台式机、使用宽带接入互联网的媒体环境中,现在它们不得不重塑自我,适应移动设备。
对于很多中国公司而言,移动技术从一开始就是核心。一个明显的例子是,移动支付系统在中国的兴起,我认为这种电子商务的运作方式比大多数西方国家都要发达得多,我们每个人面前的这个设备(手机)就好像我们整个生命的遥控器。而脸书、谷歌和亚马逊等公司对这一点的认识则有一些缓慢。我认为中国的科技公司最大的劣势是语言和文化障碍,世界上的大部分地区仍然是西式的文化取向,这意味着,尽管中国科技公司拥有先进的技术,但许多人的第一反应不会是使用它们的服务。
我们正走向一个极化发展的时代,有的事物越来越集中,而有的事物则越来越分散,处在中间地带的,必须努力地寻找自己的落脚点。从这个意义上来说,我认为从长远来看,毫无疑问,中国在世界上的地位在各方面都变得将越来越重要,也包括媒体。我相信,这种趋势将会持续下去,包括新闻与技术。我们路透研究所有来自于世界各地的记者,从那些来自非洲的记者口中,我们可以清晰地了解到中国的新华社和中央电视台在非洲所发挥的作用。这种作用是前所未有的,毫无疑问,还会持续数年。
▲:在全球化的趋势下,大公司垄断全世界的市场,尤其是以美国为首的西方科技公司可能覆盖到世界上的每一个角落,有人谈到了去西方化的必要,你对这种情况是否感到担忧?
●:这不是一件令我担忧的事情。人们可以接触到来自世界大部分地区的多样化媒体,在很大程度上是一件好事。人们可以从接触美国媒体中获利,但并不意味着他们只能访问美国媒体。增加可接触到的媒体的数量,是非常有价值的。
我还想说的是,人们很容易存在“担忧”的想法。我认为我们需要提醒自己,我们生活在一个多么美好的时代,拥有许多令人振奋的事物。在没有政治障碍和其他人为限制的情况下,人们可以获得海量信息,以及很多在并不久远的过去完全无法获得的信息。
我很荣幸在青年时期成长在富裕且自由的丹麦,但当时如果想读一份来自邻国德国的报纸,我必须乘坐一小时的火车到哥本哈根的中央火车站,因为那里是唯一可以买到外国报纸的地方。在20世纪90年代卫星和有线电视到达以前,我也无法收看来自其他国家的电视,因为这在技术上是不可能的。
对于像我这样的人来说,想要阅读《南华早报》或《环球时报》的想法,则更为荒谬,更不要说那些社会地位不如我,或是来自印度等贫困国家和地区的人了。而现在新媒体技术提供了很多可能性,我们实际上可以利用这些机会,尽管有时我们会看到诸如媒体的衰落、政府对人民说谎等事情,但人们可以自己努力绕开信息的限制,从全球媒体寻找其他的信息。
六、新闻业研究和学术界的未来
▲:当前致力于提供新闻的记者和媒体组织应该做哪些事情?
●:这是一个关键的问题。
首先,我认为不同的国家、不同的媒体组织和不同的记者都要找到自己的路线。正如我们之前谈到的,并没有一个标准的模式。
第二,即使存在一种模式或一系列标准模式,我也不认为大家都可以复制它。也就是说,我们可以思考一个有助于记者迈向未来的路径。在这个路径中,我们应意识到是有一些新闻专业的永恒价值的,即追求真相和报道真相,以及与其所在的社会和历史进程紧密相关。世界在变化,如果新闻业想继续与之相关、获得可持续的发展,也必须做出改变。
在这个过程中,记者和媒体要不断地试验,看看我们出于自身使命需要一直在做的事情,或者由于长期惯习养成的一贯作法,在今天能否适应新的时代,是否需要更新,如何更新。在我们路透研究所,大家经常说一句话,“我们致力于探索新闻业的未来”,我认为,这在当下特别重要。记者们应该面对这样一个事实,即我们不能继续做昨天所做的事情,因为世界已经改变,按照昨天的方式已不再能产生相同的结果,我们需要思考未来,思考变革。
在路透研究所,我们致力于促进全世界记者之间的对话,并努力向彼此学习。新闻业要变革,并非因为记者变了,而是其他人和条件变了。我认为学界对此应该有一些支持性的作用,应为解决问题提供最优质的独立调查。新闻业到底在发生什么?明天会怎样?记者应该了解什么?因为正是他们将新闻业推向明天。更为重要的是,我们坚持认为记者应该成为其主导者,如果记者不能,其他人就会成为主导,这是我们不想看到的。
▲:我们常说,新闻学者应当具有更多的社会学想象,而不仅聚焦于新闻常规、边界工作、传统媒体内的组织创新等传统议题,他们应该更多地考虑媒体与社会的关系、媒体与权力的关系,以及新闻业在公共传播中的功能等议题。你对此有何建议?
●:学者们对于自己的研究方向可以有不同的决定,研究的专业化和清楚地定义研究问题是十分重要的,但我认为,如果某个领域仅仅聚焦在内部的一小部分问题上,那么就会丧失与所研究的对象、其他领域,以及更广泛的社会的联系,这是十分危险的。所以,路透研究所一直倡导与外界学者和业界共同探讨某些课题。新闻业对这个世界感兴趣,那么新闻学者也应该对这个世界感兴趣。
首先,对研究对象而言,我的兴趣与他们的兴趣一样吗?不是的,学者有学者的关怀;我们为他们工作吗?不是的,我们不是咨询顾问。但其中存在相互促进的健康关系,则是重要的。
其次,不要只关注其他新闻学者提出的问题,还要关注诸如社会学家、经济学家、计算机科学家在想什么问题。新闻业不是孤立存在的,所以可以试着将其定位为一个与其他所有生成人类知识的领域相连的分析对象。
最后,试着将我们研究的问题与我们的时代相连,不仅要从其他新闻学者、我们的研究对象那里获得研究问题,还要从社会获得研究问题。如果有人在街上停下问你在做什么工作,你应该能给出一个有意义的答案,我们需要有意识地确保我们所做的事情,是与他人有相关性的,无论这些人是记者、学者还是广大的民众。
▲:我们了解到牛津大学并没有设立独立的新闻传播学院。这实际上涉及一个经典的议题,即新闻学研究是否是一个独立的学科,还是仅是一个特定的研究领域?
●:如何设立教学和研究机构,每所大学都有自已的考量,并且我认为设立新闻学院是十分重要的。尽管牛津大学没有一所新闻学院,但新闻是世界上非常重要的东西,这一点在牛津大学得到了广泛的共识。
问题的关键是,我们如何确保人们接受良好的训练,然后从事这项重要的工作;我们如何确保那些没有经过新闻学院训练的人,也能理解这项重要的事业;我们如何确保所有的科学领域,都可以被运用到理解这件重要的事情上来。
我不认为新闻是一个独立的学科或领域,世界上存在某种重要的东西叫做新闻,我们要将不同学科的人聚集到新闻学研究中来,包括媒体和传播学研究、政治学、社会学、计算机科学、经济学等,以不同的方式促进我们的目标。
原文链接:https://www.lanjinger.com/news/detail?id=126255
编辑:陈茗

342#
 楼主| 发表于 2019-12-9 15:20:34 | 只看该作者
【案例】
发展科技伦理:从原则到行动

中国伦理在线讯:2019年12月09日《光明日报》 刊发了中国人民大学伦理学与道德建设研究中心副主任张霄副教授的《发展科技伦理:从原则到行动》。
中央全面深化改革委员会第九次会议不久前审议通过了《国家科技伦理委员会组建方案》(以下简称《方案》)。会议指出,科技伦理是科技活动必须遵守的价值准则。组建国家科技伦理委员会,目的就是加强统筹规范和指导协调,推动构建覆盖全面、导向明确、规范有序、协调一致的科技伦理治理体系。要抓紧完善制度规范,健全治理机制,强化伦理监管,细化相关法律法规和伦理审查规则,规范各类科学研究活动。根据会议精神,发展科技伦理,不仅要明确科技活动必须遵守的价值准则,更要把这些准则落实在行动中,通过各种制度、机制、监管和审查,构建切实有效的“科技伦理治理体系”。
规范科技活动的伦理原则
发展科技伦理,就是把价值、原则、规范带入科技活动,从而在各个环节、各个层面提升科技活动的伦理质量,使科学技术更好地造福人类社会。要做到这一点,需要在以下两个方面着力:一方面,不断消解科技活动可能带来的负面后果。特别是对那些技术发展不成熟、应用后果不明朗的前沿新兴科技,要通过建立评估体系和预警机制进行风险管控。不能仅仅通过经济指标来衡量科技活动的社会效益,尤其警惕“资本逻辑”对科技活动的控制,坚决制止把人类社会当作技术实验场景的极端做法。另一方面,再次明确科技活动的属人本性。要做到这一点,就不能偏执于“科技中立”的价值观念,认为科技虽然也是人的活动,但终究隐含着超越人类的独立发展主题。可问题是,如果我们把科技理解为自然向人类的打开方式,那么很显然,这些方式不仅可以有选择,而且应当是属人的选择。
尽管科技伦理问题在当代的重要性已不言而喻,但在现实生活中,普通民众对这个问题还很陌生,远没有形成对应的概念。据此,不少批评者深表忧虑。在他们看来,高科技多掌握在技术专家、商业领袖、政府管理者等社会精英手中。如果这些人在从事科技活动的时候不考虑伦理问题,那么普通民众就更难意识到专业的科技伦理问题。科技不伦理所带来的恶性后果将不可避免地使民众陷入恐慌。不过,值得庆幸的是,在那些频繁接触和运用前沿新兴科技的人们中间,开始涌现出越来越多关注科技伦理的人。他们不仅研究科技伦理问题,也热衷于科技伦理实践,并身体力行地推动科技伦理的发展。这些先行者的研究成果和实践经验大致可以被归结为如下一些伦理原则:
后果应风控。我们常说科学技术是一把双刃剑。这意味着,科技力量越是强大,它可能带来的风险也就越大。可想而知,如果我们对某项科学研究和技术应用所产生的后果不得而知,且没有相应的补救措施消解不良后果,那么,我们就会使自己陷入进退两难、无所适从的境地。2018年的基因编辑婴儿事件就是一例。由于存在脱靶效应,新生儿的基因异于常人。因此,这台基因编辑手术对这两个孩子的生理、心理以及未来生活所造成的影响不仅无法预测,而且后果不可逆。所以,对于那些后果未知且可能造成不可逆结果的前沿新兴科技应用,应当建立风险管控机制,必要时可明令禁止。
信息应公开。这条准则对那些经常和数据打交道的企业来说尤其重要。在智能大数据时代,为了开发更加“懂得”消费者的产品,越来越多的企业开始以数据管理的模式建立用户系统。但是,企业在储存、分析和使用消费者私人数据的同时,也存在着大量违规处理数据和利用数据操控用户的隐蔽做法。2018年,美国著名的社交网络企业脸书(Facebook)就因把未经用户授权的私人数据提供给第三方使用而受到美国司法部门的立案调查。因此,企业必须确保消费者在使用产品或接受服务时知道自己需要同意什么。企业应当向公众发布更多的产品信息和技术信息,让更多的消费者通过更加透明的方式参与到企业的产品设计决策中去。
知识可解释。在日常生活中,普通民众是通过各种商品和服务间接接触各类科技的。但在他们享用科技产品带来的生活便利的同时,往往对产品背后的技术条件及其工作方式不明就里,因而也就无法对产品使用后果做出自己的判断。如今,当我们用网络进行购物或社交时,得到的绝大部分信息都是被算法推荐的。通过相应的算法设计,各种购物和社交软件甚至能左右我们去哪里、遇见谁、买什么,使我们在不知不觉之中被算法牵着鼻子走。因此,我们需要企业提供易于理解并说明清晰的产品知识和技术信息。只要有足够透明且解释清晰的知识,普通民众在科技伦理问题上自己就能作出决定。
行为可问责。科技活动可能造成的后果需要被纳入一个清晰的问责体系之中。如果这个问责体系不能建立,我们就既不能对科技活动进行反向的伦理规制,也无法妥善处理科技活动产生的各种后果。2018年3月,在美国一辆无人驾驶汽车肇事伤人之后,至少有四家责任主体陷入了诉讼纠纷。究竟如何认定传感器制造商、驾驶软件设计商、算法开发商和汽车所有人之间的责任关系?对这一问题的讨论甚至登上了世界权威的学术期刊之一《科学》。实际上,随着大量新兴科技通过产品不断进入社会,类似这样的问责困境今后还会频频出现。如果事先不能建立问责体系,我们实际上是无法善后的。
减少不平等。在理想条件下,没有人会反对科技的作用之一在于平等地造福社会上更多的人。但在现实中,这个理想常常受到各种挑战。我们是否应当设计更加公平的制度,使更多的科技资源流向最需要的人?但由谁来承担分配这些科技资源的费用呢?新一轮人工智能的发展可能会造成大面积的结构性失业。我们需要考虑那些失业人员的工作问题吗?还是有条件地限制人工智能的应用场景?我们可以发展功能型基因编辑技术吗?但那些没有条件购买这项技术产品的人会在出生时就“输在起跑线上”,造成人与人之间“先天的”不平等。显然,如果没有相应的价值准则回应这些问题,任由科技应用野蛮生长,最终必然导致更大范围、更深程度上的社会不平等。
建立可行的“科技伦理治理体系”
后果应风控、信息应公开、知识可解释、行为可问责、减少不平等,这些都是科技活动应当遵守的价值准则,或称科技伦理原则。当然,科技伦理原则显然不止这些。不仅如此,在特殊的科技领域,这些原则还各有其特定内涵并需要根据价值重要性进行排序。更为关键的是,只有当这些原则转化为具体的科技伦理规范,才可能切实有效地发挥作用。这需要科学家、发明家、伦理学家、企业家、监管机构、第三方组织开展专项的跨学科研究,合作建立科技伦理治理体系,同时把普通公众纳入更加广泛的科技伦理决策系统。在这个面向行动的过程中,需要认真对待以下三方面问题:
协同经济伦理发展科技伦理。在现代社会,科技造福人类的方式在很大程度上是由经济活动来安排的。因此,建立科技伦理治理体系就需要统筹考虑经济活动及其伦理问题。实际上,许多当代科技伦理问题,也是经济伦理问题。有些科技伦理问题,其实从根本上说反倒是经济伦理问题。我们实际上需要开发的是一种统筹“科技—经济—伦理”的治理体系。这种治理体系需要融合三个领域的价值结构,并根据侧重不同的层次和环节吸取各自的分析框架。例如在后果分析和责任评价这两个维度上,现代经济伦理学理论中的利益相关者理论和企业社会责任理论,都是比较成熟的、可以用来讨论科技伦理问题的分析框架。
定向开发专业的科技伦理治理技术。面对更为实证化、标准化、技术化的科技活动,伦理学需要把抽象的价值、原则、论证推理方式转化为更加可度量、可评价、可操作的伦理治理技术。这项技术的本质是在伦理与科技之间建立一种有弹性的平衡机制,就像一根可松紧的橡皮筋。一方面,对于那些发展比较成熟、应用前景及其后果比较明朗的科学技术,可逐级放宽伦理规制。相反,对于那些应用条件不成熟、应用后果未知的科学技术,应当逐级收紧伦理规制。这种分级管理的方式,需要伦理学更加深入地研究科技活动的各个环节,为各层级上的科技决策提供伦理参照系。不仅如此,这项技术还可转化为科技伦理发展指数,引导资本投向更值得信赖的科技应用。
把科技伦理研究和职业伦理培训结合起来。职业伦理培训必然是科技伦理治理体系中极端重要的一个环节。要发展科技伦理,首先需要解决人的观念问题。价值观念的养成有两个途径:一个源于道德知识,一个源于道德经验。在前者,各种价值准则的证成方式及其推理过程可以教会人们如何运用概念分析和判断伦理问题。在后者,各种科技伦理实践活动可以培养人的伦理敏感性。所谓伦理敏感性就是能迅速地识别科技活动中可能存在的伦理问题。要做好这两点“人的工作”,最好的方式就是开展专门的职业伦理培训。与此同时,要把职业伦理培训和各个层级、各个环节上的科技活动结合起来,有机地嵌入到伦理治理体系中,真正做到有的放矢、行之有效。
《方案》是在全面深化改革的大背景下提出的,落脚点是建立科技伦理治理体系。它从这个角度创造性地发展了“依法治国和以德治国相结合”的新思路和新策略,为我国新时代公民道德建设提供了新的方向和新的路径。





编辑:董莉


343#
 楼主| 发表于 2019-12-9 23:31:08 | 只看该作者
【案例】



编辑:董莉

344#
 楼主| 发表于 2019-12-9 23:38:18 | 只看该作者
【案例】
廖备水: 人工智能逻辑的发展与展望

内容介绍:

在人工智能发展的过程中,逻辑学发挥着基础性的作用。本次报告将从处理不完全、不确定和不一致信息的角度梳理人工智能逻辑的发展现状以及各种不同逻辑的特点。一方面,传统非单调逻辑通过扩展一阶逻辑,为建模不完全和不一致信息条件下的推理提供了有效途径,但这些逻辑理论在通用性、可计算性、动态性和多主体交互性等方面存在不足。另一方面,论辩逻辑以传统非单调逻辑为基础,通过抽象化的冲突处理机制,可在一定程度上弥补传统非单调逻辑的不足。此外,报告还将结合当前人工智能的研究热点,分析论辩逻辑的一些研究动向。

欢迎感兴趣的同学和老师们参加!

时间:待定,待时间确定将另行通知

地点:新斋 324

主讲人:

Beishui Liao  廖备水

浙江大学哲学系教授,长江学者特聘教授,浙江大学人文学院、计算机学院博士生导师。现任浙江大学逻辑与认知研究所副所长,卢森堡大学客座教授,牛津大学、剑桥大学访问学者,浙江大学"大数据+推理与决策"创新团队首席专家,浙江大学“双脑计划”-“逻辑、认知与人工智能”交叉创新团队负责人,浙江大学-剑桥大学“人工智能、机器人与推理基础理论与方法研究”项目负责人,国际计算逻辑联合会亚洲事务代表,国际道义逻辑和规范系统学会指导委员会委员,IEEE P7000工作组成员,国际期刊Argument & Computation和 Journal of Applied Logics - IfCoLog Journal of Logics and their Applications 编委,PRIMA2019程序委员会主席,IJCAI、AAAI、AAMAS、KR、COMMA、LORI等重要国际会议程序委员会委员。
已出版专著3本、译著1本、国际会议论文集3本,在Artificial Intelligence、Journal of Logic and Computation、IJCAI、KR、COMMA、LORI等逻辑学和人工智能方向学术刊物及国际会议上发表多篇论文;其中,英文专著《Efficient Computation of Argumentation Semantics 》获“浙江省第十八届哲学社会科学优秀成果奖一等奖”。




编辑:董莉

345#
 楼主| 发表于 2019-12-10 22:10:21 | 只看该作者
【案例】
《传媒观察》第9期顾理平教授论文被《新华文摘》全文转载

本刊2019年第9期头条,南京师范大学新闻与传播学院教授、博士生导师顾理平论文《人工智能时代传媒业的面向与进路》被《新华文摘》2019年第23期全文转载,并以封面目录形式予以重点推荐。
  

【摘要】人工智能时代的到来给传媒业的新闻内容生产、传媒接收场景和新闻传播方式带来了深刻的变革,也带来了传媒伦理和法律的诸多困惑。传媒业在以积极主动的姿态拥抱人工智能技术的同时,必须通过推动技术治理、内部治理和外部治理的综合治理方式,推动行业的快速有序发展。
传媒业的发展一直和传媒技术的进步如影相随。每一项传媒技术的巨大进步,一定会推进传媒业的深刻变革。“作为现代科学发展结晶的人工智能被应用到传媒领域,对传媒的内容生产和传播效力都产生革命性的变革。”人工智能作为与传媒技术密切相关的高科技,其对传媒业的影响不仅体现在包括新闻生产方式、传播平台、传播方式、传播效果等外在可见形态的深刻影响,更体现在新闻价值观、媒介伦理、媒介法规等内在不可见形态的深刻影响。传媒业不仅要热情拥抱人工智能新技术对行业的巨大推进作用,也要理性分析这种智能技术可能的副产品,从而为传播业的健康快速发展寻找到更为理想的演进路径。
一、人工智能技术的进步对传媒业的深刻影响
1936年,英国数学家、逻辑学家何兰·麦席森·图灵(Alan Mathison  Turing)提出了一种抽象的计算模型——图灵机(Turing Machine),第一次在纯数学符号和现实世界之间建立了联系,随后发表的论文《计算机器与智能》提出了人工智能领域著名的图灵测试,为后来人工智能科学提供了开创性的构想。1956年,美国达特茅斯会议成功召开,会议主要确立了人工智能的学科名称以及较为准确的定义:它是计算机科学的一个分支,是融合计算机科学、控制论、信息论、脑神经科学、心理学、语言学等多学科的理论、方法和技术。此后,人工智能虽然波折不断,问题和批评也接踵而至,但随着相关技术的快速进步,尤其是大数据时代的崛起,终于迎来了其黄金发展期。可以说,人工智能是互联网技术下崛起的一个重要领域,其重要的驱动力来自互联网技术的不断完善以及因此而随处可得的大数据。随着语音识别、图像识别、视觉识别等技术的不断进步,人工智能发展开始进入发展的快车道。
“通过与物联网、机器人等技术的组合,人工智能能够构造出整个信息物理世界”。基于人工智能技术发展蕴含的巨大潜能,各国纷纷将人工智能作为国家未来发展的重要战略。德国在2012年推行了以“智能工厂”为重心的“工业4.0计划”;美国白宫科技政策办公室自2015年以来,连续发布《为人工智能的未来做好准备》、《国家人工智能研究和发展战略计划》和《人工智能、自动化与经济报告》等重量级报告,同时成立了机器学习与人工智能分委会(MLAI),专门协调美国人工智能的研究与发展;法国经济部与教研部发布《人工智能战略》,旨在把人工智能纳入原有创新战略与举措中,谋划未来发展。2017年,中国国务院印发了《新一代人工智能发展规划》,明确通过三步走的战略目标,争取到2030年,使中国人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。人工智能自此正式上升为国家战略。
人工智能给传媒业带来的首先是新闻内容生产的变革。人工智能主要通过机器学习来生产新闻,这是一种前所未有的新闻生产方式。“机器学习可以被分为多种类别。比如‘监督式学习’是以一组事先贴标的示例表示的算法,这种算法可以确认数据和贴标结果之间的关联或类别。在‘无监督式学习’中,则无法使用事先贴标的示例集,而是使用无贴标或无分类的数据。”无论采用何种方式,智能机器都可以在极短的时间里,学习到新闻生产足够的技能。其实,机器人写新闻并不是新鲜事,早在2006年,美国汤姆森公司就利用计算机完成了金融方面的新闻写作。但在相当长的时间里,这种写作主要处于实验阶段。直到2017年8月8日四川九寨沟发生地震后,机器人在25秒的极短时间里,完成了一篇540字的配图新闻,人们才开始高度重视机器人写新闻现象——新闻生产的重大变革正在来临。当然在许多人的认知里,机器人的新闻生产主要还是以金融、体育等以客观数据为主要表达内容的新闻,更多需要创造性的新闻生产还无能为力。但是,也有专家对此有不同看法:“未来,人类创造力的产物将是思想,也就是创意构思。我们的创意将比机器智能更好吗?机器智能将尝试掌握人类擅长的每个领域,包括思想。”人类的创意和思想是建立在既有知识认知基础上的一种升华,那为什么就可以肯定地说储存了海量既有知识的智能机器就一定不如人有创意和思想呢?但是,如果真的连创意和思想也可以被智能机器取代,对新闻生产的影响将难以估量。当然,人工智能在新闻生产领域的作为是渐进式的,在可预见的未来,“智能化技术与人的力量的结合,可以在某些方向上提高新闻的深度,也可以提高预测性新闻的准确性,还能对海量资讯中蕴藏的知识进行智能化提炼与累积。”这无疑令人欣喜。
人工智能对传媒业带来的第二个变革是传媒接收场景的变化。传媒业生产的新闻产品主要通过受众的视听感知。传统媒体时代的接收场景以阅读、收视收听为主要方式,载体则主要以报刊、电视机和收音机为主。进入新媒体时代,接收场景的变化则在原有场景的基础上增加了更加方便快捷的互动,交互体验产生了全新的接收体验,但是,这种交互体验总体的方式还比较单一。基于语音识别和视觉别识基础上的人工智能技术交互体验则发生了重大变化。其中,AR技术和VR技术的发展将会对传媒业产生重大影响。AR(Augmented  Reatily)技术是一种增强现实技术,即通过智能技术,将虚拟的信息应用到真实世界,使真实环境和虚拟环境叠加在一起。VR(Virtual  Reality)技术则是一种虚拟现实技术,主要通过计算机模拟、感知和传感设备等,生成实时动态的三维立体逼真影像。简单地说,即把观看者的意识代入到一个虚拟的世界中,这两种智能技术对传媒业都产生着十分重要的影响作用。“相比图片、视频载体,VR技术所提供的沉浸式体验往往会给受众带来全新的感知,从而达到意想不到的传播效果”。“过去任何一种事物表达方式都是空间聚合型的,从空间的角度来聚合事实。而VR表达是一种时间上的进程式表达,它可以用时间线来呈现内容。VR使人看待事物的角度有了时间和空间两种不同的维度,这就使人对现实的把握更全面、多样。”AR技术则将虚拟信息与真实世界巧妙地叠加融合起来,从而实现超越现实的多重感官体验。值得注意的是,这样的一种场景将与5G技术的发展协同推进。2019年被称为“5G商用元年”。新媒体初始阶段引以为傲的互动,变成了直接的参与,这种复杂的交互体验在以前是不可想像的。“未来的传播格局中,各种媒介越来越多地将自身建立在与用户的关系中,人与媒介的一体化,也将促进人人平台、人物平台的有效融通,对既有的信息生产格局和传播秩序带来革命性的影响,并以此重构社会关系。”
人工智能给传媒业带来的第三个变革是新闻传播方式的革新。这种革新一方面表现为媒体融合的意义不断彰显。媒体融合是一个长期的过程,通过传媒各要素的互相融合,不断推进媒体化进程,就如习近平总书记在中央政治局第十二次集体学习时指出的:“全媒体不断发展,出现了全程媒体、全息媒体、全员媒体、全效媒体,信息无处不在、无所不及、无人不用。”媒体融合通过媒体功效、媒体平台、媒体渠道、组织结构的整合,使资源共享、渠道互通,生产出多元产品供不同平台的受众共享,实现有限产品资源传播效果的最大化。在媒体融合发展的过程中,大数据挖掘技术的快速发展使海量无序的数据得到了有效的整合,以数据新闻为代表的新闻产品和可视化表达方式使新闻产品的传播力得到了进一步发挥,而人工智能技术的不断普及则进一步助推着媒体融合的进程。“‘智能化’语境中内容生产模式的变化,还与渠道的平台化扩张有关。平台虽然自身不生产内容产品,却鼓励内容创作者入驻。为了筑巢引凤,平台纷纷利用自身技术优势,为内容创作者开发并提供内容发布、用户监测、数据挖掘等方面的技术工具,以确保内容生产者专注于优质内容生产。”这种革新的另一方面则表现为算法新闻在新闻传播过程中的普遍应用。算法新闻(algorithm journalism)一般是指算法介入到新闻写作和推送等的过程而产生的新闻。算法新闻是以大数据、人工智能为代表的新传播技术在新闻传播过程中具体应用的产物。“机器人写新闻”和“算法推荐”是算法新闻最为人熟知的方式,但其应用范围和传播方式远不止这样两种,“智能技术的应用从智能技术的思考维度向行为维度扩展,包括观点挖掘与机器学习、社交网络分析与挖掘、路径发现与规划方法等技术。这些智能技术在思考维度上主要致力于寻找潜在的受众对象,进而完成对应受众群体的用户画像和群集组合分析,并在此基础上通过行为维度的社交网络分析、路径分析和规划,进行信息的高效分发,最终目的是提高信息内容和受众需求的一致性。”算法在新闻传播过程中的作用首先表现为数据的挖掘与整合。在受众至上、流量为王的时代,受众的欣赏趣味、接受爱好等是媒体最为关注的要素。在传统媒体时代,这些往往需要经过复杂的受众调查才能得到相对准确的结论。随着算法对新闻传播过程的介入,通过大数据技术,可以精准全面地挖掘受众兴趣并通过多种要素的整合,对受众精准画像。这是因为大数据可以根据每一个受众的新闻点击情况、停留时间、收藏内容展开“算法神技”,获得准确结论,并且这种数据挖掘还不是传统媒体时代受众调查的抽样调查,而是全样本分析。“大数据是指不用随机分析法这样的捷径,而采用所有数据的方法。”它注重分析所有样本间的相关关系而不执着于分析因果关系。“在无法确定因果关系时,数据为我们提供了解决问题的新方法,数据中所包含的信息可以帮助我们消除不确定性,而数据之间的相关性在某种程度上可以取代原来的因果关系,帮助我们得到我们想知道的答案,这便是大数据思维的核心。”随后,智能机器可以根据数据挖掘形成的结论(画像),对用户进行精准推送。
二、人工智能技术的推进与传媒业面临的现实困境
第一,传媒业面临的伦理困境。人工智能的应用通常被理解为客观的、可信赖的和有效率的,所以其在传媒业的推广虽然也伴随着一些争议,但总体而言是快速而普遍的。随着人工智能技术应用的逐渐普遍,一些伦理问题也开始变得严峻起来。一方面,人工智能在推广过程中经常是以盈利为目的,资本推动色彩比较明显,在传媒业中的推广也不例外,这就与传媒业的价值标准和伦理追求发生冲突——传媒业追求以客观中立的专业手段履行社会使命、实现社会价值。技术能够赋权、赋能,人工智能大规模普遍使用所形成的权力运行模式会对传统的权力运行模式形成冲击。例如把关人的设置是传统媒体权力运行中的重要环节,而人工智能的算法推荐却对把关人功能产生颠覆性影响。
人工智能时代新闻伦理的主要困惑是主体性困惑。新闻业是一个极具道德敏感性的行业。从新闻史的角度观察,新闻业的发展及其规则的确立是以社会目标的实现为指向的,新闻伦理作为一种应用伦理的形式,贯穿于媒体的日常工作和专业实践之中。传统新闻伦理的判断能力是一种独特的人文素养,它源自于公众的委托,成型于长期的专业理念的熏陶。但是,在人工智能时代,新闻从业者个人的重要性在逐渐减弱,机器自主判断的重要性在不断上升。机器专注于生产的效率性,并不能形成关于客观、中立、公正以及新闻品质、社会责任的自主判断,所以将造成新闻伦理的主体性缺失以及主流价值观念的偏离。如前所述,前人工智能时代,既有的传媒业已经形成了相对成熟的传媒伦理生态。社会主流的伦理准则、道德观念等通过多种方式,已逐渐内化为传媒人自觉的道德追求并在传媒实践中得以体现。人工智能时代,由于机器对传播过程的深度介入,诸多问题就不可避免地出现。人工智能的引入一定程度上解决了新闻信息的处理和分发问题,但也同时出现了一些难以克服的弊端,比如个性化推送中的低俗化倾向和公共性信息的不彰,社交媒体中的虚假新闻现象,个人隐私与数据监控问题,信息茧房、过滤泡沫效应,搜索引擎中的竞价排名与虚假广告,算法偏见和歧视,人工智能对现有新闻职位结构的冲击、对职业记者的排斥等等。“当记者把工作都交给机器做的同时,他们获得了创作的自由,也失去了读者对于新闻劳动产品的尊重。科技公司可以将他们的未来押在人工智能或任何一个复杂的技术上,但是整个新闻业却可能面临着用户和读者的不信任。”这些问题得不到解决,智能化的传媒业将难以持续性地健康发展。在许多时候,人们会理想化地认为技术会规避掉可能出现的新闻伦理问题,技术中立可以防止诸多不公平现象,但是技术本身并非是全然中立的,技术与社会生态的互动常常使得技术的发展呈现出环境的、社会的和人类的难以预测的后果,人工智能在新闻领域的发展亦是如此。在媒体产业发展与智能科技相互共鸣的进程中,背后掌控全局的其实是商业资本的意愿和力量,只是这一次资本将自己隐身于更具前沿和精英色彩的科技手段之后。人工智能的采用的确是带来了新闻生产力的提高,但从政治经济学角度分析,商业通过人工智能的布局将饱含公共利益和人文色彩的新闻信息变成了俘获受众眼球的工具,并且更进一步受众变成了更精准可测的抽象数据。通过对数据的垄断和控制,一些大型互联网科技企业实现了对生活世界、社会空间的殖民。
第二,传媒业面临的法律困境。人工智能技术是建立在大数据技术基础之上的一项智能技术,在大数据时代,“数字化生存”是现代公民一种基本的生存方式——人们的言行已经被普遍数字化。而在这些被数字化的数据中,无疑留存有大量的公民的权利内容,人工智能技术在采集、储存和使用这些数据的过程中,有可能涉及对公民隐私权、名誉权、著作权甚至财产权的侵犯。例如,算法推荐新闻需要根据既往受众的接收兴趣向其推荐新闻,但受众的接收兴趣包含有公民丰富的隐私信息,稍有不慎,可能会导致对公民隐私权的侵犯。传媒技术的进步应该为公民权利的保护提供更加有效的技术手段和能力而不应该相反。
具体而言,人工智能技术的进步主要会导致这样一些法律困境。(1)人工智能发展与法律制度之间的矛盾:法律最为核心的功能,乃是维护社会规范性期望的稳定,给全体社会成员提供一种确定性预期。而人工智能的逻辑则与之不同,它会通过各种大数据、身份虚拟账户、评分系统、智能算法的技术形成新的法律主体特征;同时,互联网作为新的信息传播空间和法律空间,具有自由化、虚拟化、超主权化的全新特征。这些新问题使得法律规范的稳定性难以与人工智能的发展性相匹配,自然在两者之间产生了矛盾。(2)人工智能作为新闻传播法律主体的认定:人工智能作为一种新的社会现象,其作为法律主体的地位难以衡量。尤其是机器人写作生成的新闻作品,机器人或机器人所有者是否能享有相应的著作权?回应这一问题必须回到法律主体理论设立的初衷,厘清其理论发展历史进程,深入分析人工智能出现以后对构成法律主体要素的权利主体、义务主体、责任主体带来的冲击。跳出法律主体的类型化思维,用全方位的方法论思考人与人工智能之间的关系,并通过立法予以确认。(3)人工智能在新闻传播活动中的侵权责任认定:在人工智能的新闻实践中,涉及到隐私权、名誉权、肖像权、著作权以及数据歧视等多种侵权的可能性。在这些情况下,人工智能应该是可以被问责的。具体而言,要解决过错问题,避免公众困惑,人工智能系统必须在程序层面上具有可责性,证明其为什么、以何种特定方式运作。法律应当说明人工智能系统开发、部署和应用过程中的职责、过错、责任、可问责性等问题,便于制造商和使用者可以知晓其权利和义务。现实面临的困惑是,所有的这些构想,尚未有明确的实体法律与之对应,换句话说,所有的这些构想尚有待未来法律法规的制定。
三、人工智能与传媒业的未来美好场景
以人工智能为代表的传媒技术的进步,给传媒业的发展开拓了广阔的空间,提供了无限的可能性,但其技术本身的诸多未知也可能会导致挑战甚至风险产生,所以,其推进过程必须接受国家政策法规的规制和社会主流伦理原则的评价和检验,并根据需要作出调适和转化。归根结底,人工智能应该为人类信息的传播和社会长期稳定发展带来福祉。因此,在人工智能时代,面对伦理和法律的诸多困境,传媒业的发展必须与技术治理、内部治理、外部治理伴随推进,从而形成美好的传播场景。
传媒业以积极主动的姿态拥抱人工智能的同时,必须积极推动技术治理。人工智能技术在传媒业的快速普遍推广,带给了传媒业革命性的变革,也不断强化着新媒体的繁荣景象。这种繁荣景象不仅给传媒业本身带来了巨大的发展机遇,更给几乎所有的社会成员方便自由介入传播过程的机遇。但是,并不是所有的媒体和社会成员都对这种突然降临的机遇作好了准备。就媒体而言,大规模运作的复杂算法在技术上并不透明,其资本推动导致的商业秘密性也使其难以仔细检查核实,这就导致公众实施监督,法律施加权威缺乏明确性。就全体社会成员而言,新媒体和人工智能导致的猝然降临的机会,在把关人失位的背景下,容易滋生各种不良的传播行为,从而导致伦理和法律问题多发。技术导致的行为,多元技术手段的治理措施显然更具有针对性。算法推荐新闻导致的信息茧房、群体极化问题,需要通过相应的技术手段来解决。“在新闻生产过程中扮演越来越重要角色的算法,往往被认为是机密而被隐藏起来。”“新闻媒体中的算法透明度,是公开算法机制相关信息的尝试。算法信息的披露,有利于公众知晓算法可能存在的价值导向。”应该通过技术手段加强不同信息的平衡推送,防止接收偏向出现。数据挖掘导致的大规模隐私信息泄露,应该通过多元加密技术和更加严格规范的隐私政策,来确保公民的隐私权。
   传媒业在大规模引入智能机器进入传播全过程的同时,还要发挥好人的能动作用,积极加强传媒业内部治理。人工智能的应用和推广确实给传媒业带来了全新气象,但新闻价值失衡、舆论异化等现象普遍存在。媒体从业人员在智能机器面前似乎有被边缘化倾向。但是,以人为本在人工智能时代依然应该被反复强调,这里的以人为本不仅是强调对人的尊重,更强调对人主观能动性的重视。人工智能作为一种技术当然是以人为主导的,因此,智能机器工程师、编码师的伦理提升必须高度重视,广而言之,在资本推动的新媒体发展中,资本主导者和媒体负责人的社会责任意识必须作为关键被重视。传播路径的规范化、新闻行业的集体自律和资本的社会责任是传媒业内部治理的关键所在。
倡导法律规制和伦理引导的全面有效的外部治理。新媒体的快速发展和人工智能技术的应用推动了传媒业的发展,在人工智能引发的公民权利受损、公正报道受限、公共利益漠视的现象时有所见,因此而导致的价值冲突、伦理冲击、法律权威挑战问题令人关注。公共传播时代,全体社会成员都有了话语表达的机会,但每个成员的媒介素养和个人素质各不相同,人工智能技术的应用容易导致某种情绪被快速放大。因此,强调全社会的外部治理,通过法律规制和伦理引导十分关键,外部治理需要通过确立底线意识和倡导理想境界,实现外部治理目标。所谓底线意识,即人工智能时代,法律依然是人们一切行为的基本出发点,换句话说,法律是一切传播场景和传播行为总的游戏规则,它通过向人们传达一种明确的预期,帮助人们采取作为或不作为的正确选择。社会治理者虽然为应对数字化时代的到来,在法规的修订和重新制定方面作出了卓有成效的努力,但人工智能时代的到来必然会引发新的权利义务冲突。我们必须回应社会的这种现实关切,为寻找权利义务新的最佳平衡点尽早展开研究并获得科学的结论,从而为良好的社会治理提供有效的法规对策。所谓理想境界,即人工智能时代,无论是现实社会还是虚拟世界,我们需要去寻找建立和谐人际关系和理想社会场景的有效路径。大数据的深度挖掘,人工智能的广泛应用和算法的普遍推广,使新闻传播变成了所有人的生活方式,并从外在的生活行为和内在的价值取向层面产生着深刻影响。我们当然在全方位直观地体会着这种科技进步带给社会和个人的巨大推动作用,但是,阶层的冲突撕裂、价值观的矛盾冲突,或者,我们开始关注但尚未寻找到治理之策的信息茧房、群体极化、网络非理性非道德等行为依然在消解着这个社会的美好。基于这样一种宏观的社会背景,我们应该从具体微观的问题入手,回望历史,体察现实,努力寻找更加美好的未来世界。
人工智能时代的来到和5G商用元年的开启给传媒业开辟了一片广阔的天地,提供无限的发展可能。但是,与传媒技术快速进步相伴随的诸多不可预知性也让传媒变革面临伦理和法律的诸多不确定性。对此,以传媒业从业者为主的全体社会成员对此都必须有所预期并采取行动。(南京师范大学新闻与传播学院邹举副教授对本文形成也有贡献)
(载本刊201909月号,原标题为:人工智能时代传媒业的面向与进路)
【作者简介】顾理平,中国新闻史学会媒介法规与伦理研究委员会会长,南京师范大学新闻与传播学院教授,博士生导师


原文链接:https://mp.weixin.qq.com/s/KOEfBkNk8gHJHEA_NBYqrg



编辑:董莉

346#
 楼主| 发表于 2019-12-11 22:05:47 | 只看该作者
【案例】
邬贺铨院士:人工智能被推到了“近乎可怕”的高度,事实上仍处在很初级阶段

今天,财记君给大家推荐的是由人民大学出版社出版的新书《人工智能全球格局》。关于人工智能,这是一本非读不可的书,由国务院发展研究中心国际技术经济研究所、中国电子学会、智慧芽共同撰写,从源头上思考人工智能的本质和发展历程,全面解读各国政府、科技巨头的人工智能布局,理性思考、审慎看待我国的人工智能科技和产业实力,讲述了以科技创新领跑世界的中国故事,得到了中国工程院倪光南、邬贺铨两位院士的共同推荐以及百度CTO王海峰博士的盛赞。  本文系邬贺铨院士为《人工智能全球格局》一书所写的序言,经授权首发。  文末留言,财记君将从中选取8名读者送出这本纸质书,赠书由中国人民大学出版社提供。文|邬贺铨,中国工程院院士01
2016年以来,谷歌人工智能程序AlphaGo在围棋人机大战中先后战胜李世石和柯洁,沉寂了60年的人工智能一下子成为社会关注的焦点。人工智能技术成为当今科技热点,人工智能科技公司成为风险资本追逐的对象,包括中国在内的科技大国纷纷制定人工智能发展战略,可以说人类进入了人工智能的新时代。
而这一新时代的到来,离不开芯片、存储器、光纤、移动通信、超算和大数据等底层技术的突破。以过去十年的时间为基准,光纤通信容量提升了100倍,移动通信速率提升了1 000倍,超算能力提升了1 000倍,数据量提升了32倍。信息采集、传输和存储效率的提升,以及计算能力的迅猛发展,奠定了人工智能时代的基础。
以此为基础,深度学习算法实现突破,则是揭开人工智能新时代序幕的转折点。2006年,杰弗里·辛顿提出的深度置信网络,解决了深层神经网络的训练问题,一举开创人工智能发展的新局面。
02
在大数据、算力和算法三驾马车的拉动下,人工智能技术快速进步并已经在许多方面超越了人类。
在语音识别上,微软的语音交互识别系统错误率低至5.1%,百度的汉语识别系统准确率高达97%,都优于专业速记员;
在人脸识别上,中国依图科技在千万分之一误报下的识别准确率接近99%,连续多年获得美国国家标准技术局举办的人脸识别算法测试的冠军。
除此之外,人工智能可以做的事情还有很多,甚至可以颠覆科学技术的研究过程。
例如,谷歌DeepMind利用深度学习开发Alpha Fold程序,能够根据基因序列预测蛋白质的3D结构,有望治疗包括癌症在内的众多疾病。再如,美国斯坦福大学的科学家创建了一个人工智能程序,这个人工智能程序只用几小时就完成了元素周期表的重建。
2018年以来,人工智能发展进入快车道,很快就渗透到医疗、交通、金融、农业、工业等各个领域。就像18世纪的蒸汽机、19世纪的电力和20世纪的信息技术一样,人工智能具有足够大的技术辐射效应,能够为全球经济发展提供新的强劲引擎。
关于人工智能对经济效益的贡献,普华永道曾经做过预测,2017年到2030年人工智能对经济增长的贡献将超过全部GDP的55%,其中中国占全球将近一半,2030年人工智能会带来7万亿美元的GDP,占总GDP的26.1%,不可谓不大。
更重要的是,正如《人工智能全球格局:未来趋势与中国位势》一书所言,人工智能还会带来科学研究范式的革命,帮助人类破译生物、天文、物理等领域的奥秘,人工智能的想象空间巨大。
03
在很多人看来,人工智能技术似乎已经无所不能,更有一些观点认为人工智能会导致人类大批失业,甚至在不远的未来人工智能将会统治人类。
社会舆论的力量,已经将人工智能推到了“近乎可怕”的高度。但事实上,人工智能发展仍然处在很初级的阶段,需要解决的问题还有很多。
图灵奖得主朱迪亚·珀尔讲过,深度学习只是一种非常通用和强大的曲线拟合技术;诺贝尔经济学奖获得者托马斯·萨金特讲过,人工智能其实就是统计学,只不过用了一个华丽的辞藻。
与大脑相比,人工智能还存在“算法黑箱”、数据需求量大、抗噪性差、能耗高等许多不足,离真正全面应用还很远。
毫无疑问,人工智能已经成为世界各国竞争角逐的焦点,人工智能的发展水平是国家核心竞争力的重要体现。
《人工智能全球格局:未来趋势与中国位势》全面深入地描述了各国政府、科技巨头、风投机构和初创企业在人工智能领域的布局,也展现出了各机构、企业和个体对把握人工智能这一颠覆性技术、顺应智能时代潮流的决心。但就像前几次工业革命一样,人工智能的发展并不会一蹴而就,需要经过几代人的努力才会“遍地开花”。
在人工智能发展的热潮中,我们必须冷静、客观、审慎地看待它,更加认真地审视中国在人工智能产业中的实力。不妨扪心自问:人工智能相比传统模型的优势到底是什么?人工智能产业的核心技术有哪些?中国企业在人工智能基础算法上的投入和产出如何?回答不好这些问题,中国人工智能产业发展之路仍将困难重重,甚至在未来有可能丧失竞争优势。
《人工智能全球格局:未来趋势与中国位势》为我们提供了客观看待人工智能、认真审视自我的机会。
本书是站在热潮上的冷思考,以历史眼光和全球视野看待人工智能的过去与未来;
从大国博弈与企业争雄两个层面解读各国的人工智能战略以及企业在专利、人才等方面的布局;
从数据、算力、算法三方面展望人工智能技术的发展,从数据、技术、资本、智力和制度五个维度分析中国在人工智能技术与应用领域的优势及努力方向。


原文链接:https://mp.weixin.qq.com/s/xFhYgsajPBwfE9YljKghiw


编辑:董莉

347#
 楼主| 发表于 2019-12-12 21:35:18 | 只看该作者
【案例】
“湖心岛”隐喻:人工智能时代的算法伦理入侵

作者简介
柳亦博,行政学博士、博士后,山东师范大学公共管理学院讲师,从事行政哲学、国家治理研究。
人类正在将包括自身在内的一切事物数字化并纳入互联网,这是一个海量信息的生产过程,也是一个公共决策逐渐由人工智能(AI)接手的过程。今天,算法已经实现了自我生产,这使得AI能够广泛介入政治、商业、金融、医疗、交通、文化等多个领域并展现出超越性的预测精度和发展潜力。在可预见的未来,AI将从目前的狭义空间突破,“智能爆炸”[所谓“智能爆炸”是英国数学家欧文·古德在1965年提出的理论,他指的是机器无需人类的干预,自行设计和优化下一代智能机器。现在,这一过程可以通过探索-利用困境并能够提高自身适应度的“演化算法”来实现。(Intelligence explosion)将推动着人类迈入通用智能时代。这种进步要归功于算法赋予机器的学习能力,机器学习能够通过自我训练来主动优化算法,从而更高效的归类和抓取数据并形成一系列用以指导决策的价值排序。我们称这套人造智慧体所使用的自生价值排序规则为“算法伦理”,它是AI基于大数据的自我学习和优化的结果。“算法伦理”不是一般意义上的“机器伦理”,后者是被人设计出来预置在机器中的符合人类普遍伦理原则的程序(如自动取款机在用户多次错输密码后会暂时冻结银行卡)或装置(如手枪扳机上的保险),旨在预防和解决特定的道德困境;算法伦理则是机器学习自主形成的规则,它基于却未必服膺于人类伦理。仅从AI给出的最终建议来看,多数人无法理解它的决策理由,甚至连算法工程师也极有可能无法洞悉演化算法(evolutionary algorithm)和迁移学习(transfer learning)的“黑箱”,对算法伦理作出清晰地解释。然而,即便算法伦理令人费解,但并不妨碍现实中越来越多的人皈依它。因为,遵从传统道德时常意味着个体福祉的损失,但听从算法伦理的安排却将帮助个体获得看似更长期、更稳定的收益。如果我们将人类世界视为一个孤悬的“湖心岛”,迄今为止岛上孕育的所有伦理已经形成了一个完整的生态链,那么算法伦理极有可能成为一个切断生态链的外来生物。这个“入侵者”是如此危险而强大,以至于它将从本体论和认识论的双重意义上改变人看待自身存在的方式。政府应如何面对这样的未来图景,正是本文的核心关切。
一、湖心岛上的“入侵者”
如果人们在决策时,个人福祉并不是唯一需要考量的要素,那么“湖心岛”上现存的伦理能否抵御算法伦理的入侵呢?要回答这个问题,首先我们需要省思一下人类伦理的特征,以及让机器作出伦理决策的条件。人类的伦理世界存在一种“钟摆现象”,即一种伦理观会受到另一种几乎同样强力但相反的伦理观制约(如相对主义与绝对主义、效用论与义务论、德性论与契约论、决定论与自由意志论、利己主义与利他主义),它们在不同的时空趋避进退、起起伏伏,找寻对手弱点的同时修补自身缺陷,总体上呈现出一种纠缠-均衡的演进状态。尽管一直以来没有任何一方能够彻底击倒宿敌,但是它们各自的理论内核却因此变得更加稳定,一同构筑了现代伦理学多元价值的基石。不过,这个持续的纠缠-均衡态极有可能被打破,因为算法伦理戴着一副价值中立的“公正面具”,在大数据的帮助下,AI的预测精度越来越高,决策建议越来越私人化,其社会整体层面的“功利主义”(utilitarianism)伦理观(福祉加总的最大化)和个体层面的“精准歧视”(针对某个人而非某一群体的歧视)越来越隐蔽,但它带来的个人福祉提升(如节省大量的搜寻成本)却实实在在的显现了出来。

人们寄希望于“直觉主义伦理”可以守住人类伦理最后的阵地。因为,若道德是可以推理出来的,那么道德机器是可能的且它能够比人更快速地进行决策,同时它也隐含着这样一种陈旧的、磨损了的伦理观——道德是命令的结果,它是“被发明的”而不是“被发现的”。若道德不是推理出来的而是“自明的”,它只能靠人的直觉加以认识,那么在现行的智能发展方向上,机器无法自主进行道德决策。人们笃信机器不可能产生自由意志,即无法拥有理性反思能力的自主性和创造性的自我意识,所以机器不会具有直觉,也无法自主进行道德选择。即便AI能够作出符合伦理的决策,也是由于工程师预先写入了伦理规则或者机器以人的道德行为为范本进行的模仿。在理性高歌猛进了三个世纪后的今天,依靠“直觉”似乎听起来有些与现代性脱节。但事实上,直觉一直以来都是分析哲学的一大研究主题,在面对复杂紧迫的伦理两难问题时诉诸直觉是人类惯用的决策原则。当然,直觉也会陷入混乱,有时两种相反的选择在直觉上都是正确的,尤其是在“义务”与“自利”发生严重冲突而我们又不得不进行取舍的时候——这个问题在规范伦理学奠基人之一西季威克看来是“伦理学中最深刻的问题”。若我们必须在“自己的义务”与“更有利于自己”二者之间做出选择,那这个选择意味着人们认为“放弃其中一种行动在道德上更加不当”,它蕴含着我们最有理由以何种方式来行动,以及我是否期待生活在这样一个人人都如是行动的世界中的道德判断。但是不论如何选择,它都必须包含着人类的严肃思考,而不能以机器的计算来代替人的思考,即便机器的选择符合人类伦理,也不能以此成就“惰怠”与“不思”。

将“直觉”视为人超越机器的最后底牌意味着我们承认这样一个事实:存在着话语无法明确指涉的客观价值,即我们也许无法用语言表达出某件事错误的明确理由,但依然能感觉到这样做不对。然而,随着生命科学对人脑的理解不断深入,我们逐渐发现直觉主义伦理其实可以被视为一种由神经网络和各种激素促发的“生物算法”。直觉不是天然的存在于我们内心的道德律令,它并非什么自在的自明之物,而是一种由进化和繁衍压力镌刻在基因中的本能。既然是本能,也就无善恶之分。而且,直觉主义与语言的不洽给它带来了很强的自反性:一般来说,直觉作为人类无法言说的经验,因其难以用语言清晰指称才被人类描述为某种下意识。但是人类清晰的自我意识就发生在语言之中,只有语言是万能和通用的映射所有行为的形式,因而语言像货币一样是一般等价物,语言的界限就等于思想的界限。如果在直觉领域语言是苍白无力的,那么思想也无所依凭,又如何能以直觉主义伦理去抵御算法伦理呢?

作为计算机伦理学奠基人之一,穆尔对人工智能体能够成为一种伦理智能体(AMAs)持乐观的态度。穆尔将伦理智能体划分为四类:最底层的是“伦理效果”智能体,所有可以从其伦理效果上进行评估的机器都属于此,比如在卡塔尔用机器人代替人类小孩扮演比较危险的骆驼骑师角色;下一层是“隐含式伦理”智能体,这类机器的设计者在设计过程中倾尽人类智慧致力于提高其安全性和可靠性,避免负面的伦理影响;第三层是“显现式伦理”智能体,这类机器通过将伦理范畴作为内置程序进行伦理问题的推理,依靠用来代表责任和义务的“道义逻辑”或其他技术来实现;最高的一层是“完备伦理”智能体,它们可以做出清晰的道德判断,在一般情况下完全能够自主决策。不过从本体论角度来看,“伦理效果”和“隐含式伦理”都是可以通过人类的设计或预置某些规则来实现的,“显现式伦理”则是机器通过学习海量的文本,借助诸如“若-则”(if-then)规则进行道德推理来实现的,而“完备伦理”其实并不是由这三者中的任何一种进化或扩展而来的,它完全是人工道德体在另一条道路上发展的结果,而非计算科学的产物。对此穆尔也承认,虽然制造显现式伦理智能体存在艰难的挑战,但这应该成为机器伦理学这一新兴领域的目标。我们所指称的人工智能体与人工道德体,其实完全是两种智能范式发展下的产物,前者已经初步成形,而后者在现有技术路径下几乎无望问世。但是,如何让人工智能体具备“道德的要件”始终是科学必须予以回应的问题。若道德不是靠推理形成的,那么一个具备伦理能力的AI需要侦测并理解某一行为可能的伤害或对责任的疏失,并能够采取措施避免(至少是减低)那些伤害。一个自主系统要使伤害最小化,必须“知道”其行为可能的有害后果,并且必须根据其“知识”去选择行动,即使“知道”、“知识”这些术语只是在隐喻意义上用于机器。过去我们认为,没有自由意识的机器无法真正“知道”什么,不过,即便机器不知道某项决策的后果,它也可以借助对大量人类近似决策的学习来给出行动建议。最近,算法工程师们在使用神经网络方法理解人类文本中的词性标注、命名实体识别、句法分析和共指消解等方面取得了令人瞩目的突破,机器的阅读正在由逐句拆分走向通篇阅读。也就是说,计算机科学帮助AI在解决自然语言理解问题上一步步接近答案,并且,机器与人不同之处就在于它不会从文本中发展出两种相左的伦理彼此制衡。与此同时,生命科学却在不断解构人类的意识本质,让人类以所谓“自由意志”凌驾于万物之上的合法性变得越来越孱弱,渐渐无法盖住算法伦理日益高亢的声量。

一旦算法伦理在人类世界降临,将与一种外来生物入侵到相对隔离的生态环境中非常相近,在这个没有天敌的人类文明孤岛上,算法伦理将呈指数级增长。指数级增长的特征在于增长前期是一个相对缓慢的、具有迷惑性上升阶段,仿佛这种增长非常温和,不会造成什么威胁。但是,指数级增长同时也意味着在突破某一个阈值之后将出现爆发性增长,往往让人猝不及防。所以,在湖心岛上发生的可能是如下情景:人工智能基于计算逻辑和功利主义生成一种算法伦理,这种伦理可能在过去很长一段时期内都未能占领多少领域,在社会中只是一个被少数群体奉行的“高效但自私”的边缘伦理观。然而,一旦算法伦理的增长到达了某个节点,就会以势不可挡的态势在极短的时间内成为社会的主流伦理,成为使“伦理钟摆”戛然停下的一个楔子。众所周知,效率仅是社会应当追求的众多价值中的一种。公共管理中有一个持续了长达半个世纪的“沃尔多与西蒙之争”,其争议的一个焦点就是行政效率是不是价值中立的问题。沃尔多认为效率并不是行政的最重要的一个价值,政府的行动并不是仅在效率这一个维度上展开的,维持一种合意的公共伦理是它执政的合法性支柱之一。那么,在人工智能参与甚至很大程度上主导公共决策的时代,公共行政必须超越效率维度,给予算法一种价值框架的约束,使算法伦理与人类伦理能够至少站立在同一块基石上,无论这个基石是“正义”、“自由”、“平等”或其他的底线价值。对此,贝尔贝里希给出的答案是通过模拟学习人类道德范例,将人工智能的算法伦理与传统人类道德(如亚里士多德式伦理)结合起来,从而解决人工智能的价值校准难题(value alignment problem)。换言之,他的主张是让“湖心岛”上的其他生物尝试着与算法伦理这个外来物种交配,看看是否存在打破生殖隔离的可能。贝尔贝里希提出这种方案的逻辑基础在于算法不像人类一样有着对自我完善的无尽渴望,但是我们知道最初的算法是由工程师完成的,随后的机器学习范例也均是来自人类的道德文本,没有任何理由相信算法不具备自我改良的动机。

二、正义即最大期望?
人类文明的连续性有赖于对两种传统的继承:对文本的继承和对逻辑的继承。具体来说,继承文本能够帮助人们使用同一套概念体系进行对话,不至于出现鸡同鸭讲的窘境或者反复在原地打转;继承逻辑则有助于人们简化世界的复杂性,有效地规避风险。然而,在信息社会,我们对上面两个传统的继承遇到了某些挑战:因为机器学习的对象是人类的文本,所以算法继承了人类的概念系统,同时它抛弃了人类的逻辑体系,并由此反过来影响甚至颠覆了人类的传统,导致我们长期以来形成的行动逻辑(以及伦理)正在逐渐消隐。取而代之的则是一种基于算法的逻辑与伦理。从本质上看,算法是依靠统计学进行自我表达的,它的逻辑是功利主义,为了实现提高多数人的福祉,少数人被认为是可牺牲的。我们说AI的出现又激活了政治哲学、伦理学与行政学中许多沉寂半个世纪以上的理论,正是因为算法伦理对人类自由的一种无形控制导致了社会中人的“身份”与“义务”的不对称性,像一块巨石投入静谧的湖水中。从目前的发展趋势来看,算法伦理侵入公共生活并成为主流伦理将成为一个无可避免的事实,我们要避免AI用一种隐蔽的形式去促逼甚至奴役人类这种最糟糕的情况发生,人们首先想到的就是植入元伦理规则来规约算法。

但是,诸如阿西莫夫第一定律(要求机器不能杀戮或伤害人类)这种元规则能够及时矫正AI作出的有违伦理的决策吗?从理论和实践上两方面看,答案都是否定的。在理论层面,只要赋予了机器学习的能力,就意味着AI能够根据环境反馈对规则(包括元规则)进行持续调整,那么修改规则和插入零号定律都是可能的。所以,借助机器学习改进AI决策质量的代价就是它变得越来越难以控制。从实践来看,利用所谓预防原则,是不可能事先制止反伦理决策出现的,因为“红皇后假说”(The Red Queen hypothesis)的存在将导致使用伦理规则约束AI的国家陷入被淘汰的境地。只要一国率先进行了伦理松绑,以求研发自动开火的无人机,那么其他国家也不会拒绝这项技术,所有人都明白一个带着伦理锁链的AI绝无可能战胜一个身无束缚随时自主开火的AI。人类的战争伦理以保存生命为第一义,战争的终极目的在于止杀,但对于自动开火的机器而言,在达成目标之前不会止杀,即便在面对难以界定的试图投降的敌人时、有可能造成平民伤亡的附带损害时、开火会误伤友军时也会毫不犹豫地行动。

人类是一种具备行为惯性的动物,人脑的思维模式在面对高度复杂且时间紧迫的问题时倾向于使用的一种简化问题的思考方式。这种方式不因对象掌握知识量的多寡而改变,因为它是人类大脑共有的认知方法。比如,在急诊室里,受过良好教育的医生们在面对生死攸关的紧急情况时,由于可能出现多脏器同时衰竭的情况,没有任何一位主治医生可以完全掌握这么复杂的知识,所以医护人员们干脆听从人工智能的建议,现代很多医生已经习惯于不仅仅参考,而是直接在重症监护病房中采用诸如APACHE这类人工智能给出的治疗方案。一旦算法伦理成为了社会主流价值观,人将会变成什么?人停下了认识自身,交给了算法去认识我们,那么如果算法将人引向恶的彼岸,究竟由谁来承担这个错误的后果?无疑,被算法摆置的人是失去了自由的人,此时责任与伦理这个对称的结构也即被打破,也许我们找不到为恶行负责的主体,但是恶的成本却实实在在地加诸到社会身上,不会因为找不到惩戒对象而减轻分毫。

事实上,相对于算法伦理而言,仅对算法本身进行设计和修改是简单的,因为算法伦理具有更强的惰性,一旦形成就很难通过调整参数等方式去轻易修正。而且,算法伦理的兴盛将塑造一个机械性的、冰冷的社会,让生活在其中的人渐渐变成“非人”。我们可以通过下面的思想实验加以说明:煤矿发生了坍塌导致100名矿工被困,更糟糕的是,有毒气体正在坑道内迅速蔓延。在地表的营救小队通过无线电与被困人员取得了联系,已知所有工人都在一个井道中,矿井内有两个仍可工作的闸门,但是我们不知道矿工们究竟在两个井道中的哪一个。如果关闭闸门1,那么井道A将不会被毒气侵入,不久后全员可获救;同样的,若关闭闸门2则井道B不会被毒气侵入,不久后也可全员获救;如果同时关闭两道闸门,虽然毒气不会侵入,但在没有食物与水源的情况下,多数矿工将支撑不到救援人员挖通井道,90人会死于饥渴。基于现有的资料来看,矿工们在井道A和井道B的概率是一样的,无论关闭闸门1还是闸门2,都有一半机会救下所有人(即两种选择救下生命的期望值都是0.5),而同时关掉两扇闸门则意味着宣布了90名工人的死刑(即救下生命的期望值为0.1)。对于人类决策者而言,同时关闭两道闸门是首先被排除的,剩下的则是一次需要运气的对赌。从一种康德式(Kantian)的伦理观来看,即便赌错也不应多加苛责,因为行动的可责备性不取决于运气。面对同样的情境,AI会给出不同的方案,它的决策目标在于救援行动能够救下最大期望值的生命,那么它会立刻关闭两道闸门,然后让100名工人吃掉先死掉的工友尸体,支撑到救援人员到来,这样大约可以救下80人。AI通过建议矿工们同类相食,获得了拯救生命期望值最大的选择。

AI的决策遵守的是一种可被定义为“期望主义”的规则,即当某个选择的正当性取决于这个选择的效果或可能效果的善性时,那么应当做或努力做的事情是结果在期望上最好的那个。我们称某个行动是“在期望上最好的”(expectably-best),所指的并不是我们期望这个行动产生最好的结果,而是要综合考虑不同行动之结果的善性如何,以及我们在既定信念和现有证据下,这些行动具有这些效果的概率。然而,AI的决策总是倾向于仅仅“期望值最大”的那个选项。那么,这样选择有何不当吗?在这个思想实验中要证伪“正义即最大期望”从而说明人工智能的决策是不符合基本伦理的,就必须要回答“为什么AI作出的决策期望值最高但依旧是最可责备的”?我们依旧沿用帕菲特的道德分析框架,将道德上的可责备性划分为“事实相对”、“信念相对”和“证据相对”三个层面,只有在这三个意义上都不具有可责备性才能称某一行动为道德的。例如,用“针扎布偶”的方式诅咒别人是不道德的,因为虽然这样做并无实际伤害,但它在“信念相对”的层面上可责备;又如,护士做“心肺复苏”时不慎压断病患肋骨致其死亡是不道德的,虽然护士的初衷是为了救人且通常这样救治病患符合常规操作流程,但在“事实相对”的意义上这一行为可责备;再如,南方科技郝建奎的基因编辑是不道德的,因为他明知有更成熟、更安全的方式却不使用,为了个人名声而罔顾潜在的巨大基因风险,因此这一行为在“证据相对”和“信念相对”上都是可责备的。根据帕菲特的道德可责备性分析框架,可知救援队关闭闸门1或闸门2在“信念相对”的意义上不可责备,因为人们这样做的初衷是拯救所有矿工,在“证据相对”与“事实相对”的意义上也不可责备,因为证据显示关闭闸门后救人或害人的概率对等,而行动的可责备性不能(完全)取决于运气,因而关闭闸门1或闸门2在很大程度上不具道德可责备性。但是,如果救援队同时关闭两扇闸门,则意味着在“事实相对”和“证据相对”的意义上充分可责备,且在“信念相对”的意义上也具有很大的可责备性,因为这种决策在最初就已经决定了至少牺牲十分之九的矿工。所以,对于人类救援队而言,同时关闭闸门1和2是最具可责备性的行为。到此为止,我们的道德分析还是满足“正义即最大期望”原则,但是一切在AI进场后就改变了。

AI提供了一个救人期望值最大的方案,同时关闭闸门1和2,然后让矿工依靠吃掉同伴尸体来维生。首先,在“证据相对”的意义上,AI给出的救援方案并不具备可责备性,毕竟这样做虽然没有机会在“拯救全部矿工”的意义上做正当的事,但显然这是期望最大的应做之事,而且这个方案所能拯救的生命期望值(0.8)远超排名第二的方案(0.5)。然而,救援行动的目标不只在于拯救的生命数目,还在于这次行动向整个社会所传递出的价值观念,因此关于矿工们该如何选择牺牲者、那些依靠同类相食的方式存活下来的生命在何种意义上还能被称之为“人”,以及究竟是“拯救10个人”还是“拯救80个冷血动物”之间如何选择,这些都是与拯救更多生命同等重要的问题。基于此,AI的救援方案在“事实相对”的意义上无疑是道德可责备的。最后,在“信念相对”的意义上,在救援方案中预置了“同类相食”的必需环节,而不是当矿工们在走投无路的绝境中迫不得已而想出的求生之道。在伦理上,这无疑比“洞穴奇案”中四名被困的探险者们杀死罗杰·威特莫尔并吃掉其尸身以求生的行为更加不当。它向所有人清晰的传递了一种机械的、功利主义的计算伦理,为了多数人可以牺牲少数人,为了实现救援行动最终结果的期望值最大化,人跟其他可调用的资源一样是工具,最终拯救生命的数字才是目的。诚如伊格尔顿所言:“在某些情形下,人不可能全身而退。只要情况足够极端,每一种道德原则都将在接缝处解体”。对于人类而言,也许极端的情境会使所有的伦理规则都面临崩解,但算法伦理则无此虞,算法稳定地追求着“最大期望”。在向社会传递道德价值的意义上,人类普遍能够接受“并不是只有结果才是值得追求的”这一观点,因为有些行动本身即便未能达成好的结果也依然具有教化社会的道德价值,但算法关注的是结果而非过程,这也是学者们担忧AI技术将带来伦理危机的三大原因(主体性、自我同一性、功利主义)之一。

[backcolor=rgba(14, 203, 212, 0.992157)]三、扎紧保护围栏
哲学家李泽厚将道德定义为人类在具体时代背景下为了维持人类群体的存在而制定的共同行为方式或标准,进而他将道德区分为“宗教性道德”和“社会性道德”,前者源于后者但比后者更加严苛,常常以“天理、良心、上帝、理性”等符号显现。即是说,道德产生于历史层累而成的具体时代环境下,服务于社会集体而非个体利益,甚至有时会要求牺牲个人利益。尼采因此反对将伦理神圣化,在他看来,耻于自己的不道德只是人类漫长伦理阶梯的一级,而在阶梯的顶端人们将耻于自己的道德。一旦传统伦理被请下神坛,人们在情感上依旧需要其他事物来补缺,算法所生成的适应数字化时代的新伦理,无疑在人类文明的“湖心岛”上具有无与伦比的竞争优势。也许用不了多久,算法伦理就将加入到宗教性道德符号之中,成为一种维系社会人际关系的原则和准绳,AI向个人推送的信息也将渐渐由一种“建议”转变为一种“命令”。因为,隐藏在算法伦理中的斯坎伦式契约论(即每个人应当遵循无人能够合情理地予以拒绝的那些原则)以及规则功利主义(即根据规则本身带来的结果的善恶评判每个人)会要求所有人在相同情境中作出相同的行为。而与程序规则清晰、决策相对稳定的AI相比,人类决策系统的鲁棒性在整体上一直表现糟糕。生物算法之所以充满了不确定性,就是因为它时常会被各种各样临时插入的新条件所干扰,甚至新条件出现的顺序也会影响人类的最终决策。让我们再回到“矿井救援”的思想实验中对此加以说明。
如果必须有人牺牲才能拯救集体,那么在被困的矿工中,无人有权让他人去做普罗米修斯,因而至少要找到一种大家认同的选择20名牺牲者的方式。在不得不这样做的前提下,这20名作为“食物”的矿工应该如何产生将受到诸多复杂条件的影响,有些会左右人类的最终选择。比如,(a)若这20名矿工是经过随机抽签产生的,且全体矿工都事先认同了这种随机选择的方式,那么存活下来的80人在道德上具有更弱的可责备性吗?(b)若这20人是经过一番残酷的相互杀戮后率先死亡的,那么靠着他们的血肉活下来的80人在道德上更值得被责备吗?(c)若在这场杀戮中,怀特杀死了约翰,而约翰恰好是第20个死亡的矿工,理论上来说不需要再死人了,但约翰的弟弟杰克要为哥哥报仇,他让怀特成为了第21具尸体,那么约翰是否比其他78名矿工更不道德?(d)若矿工们商定所有人放弃暴力,等待前20个体弱的人自然死亡,再食用他们的尸体,这样做会更为社会所接受吗?(e)若有10个矿工不是因体弱率先死亡的,而是主动提出为了集体自愿牺牲,那么这10名义士难道不是更值得被优先拯救的人吗?(f)若矿工们通过电话联络外界,表达了希望公众在充分了解他们每个人的处境与背景之后进行全民公投,得票最少的20人成为牺牲者,那么剩下的80人是否是道德可责备的?

以上这些问题其实都是在原情境中插入或调整了一两个变量,但是却会极大的干扰甚至颠覆人的道德判断,然而算法伦理几乎不会受到上述条件的干扰或打断,因为从本质上看,算法伦理不会仇恨或同情某个人,它只是严格遵循规则功利主义而已。在一个数据用之不竭的时代,每个人时间的有限性就被放大了,为了帮助人们摆脱“挑剔的相亲者”问题困扰(即数学上的最优停止难题),算法在自我演化的方向上就只能朝着“效率”这个维度前行。高效的算法必然是基于统计学的,统计学服从数学逻辑,而世界上只有一种数学逻辑,算法工程师们是无法在算法中插入一套自创的“数学规则”的。稳定的基于数学逻辑的算法只可能是功利主义的,它会产生一种自己独特的因果论,即认为假如事件A发生,那么不是事件B,便是事件C或D必然接着发生。其中,发生事件B、C、D的概率则可以用统计学的方法进行计算。即使在事件A之后发生事件B的概率远比发生事件D的概率高很多,事件A的发生也无法排除事件D发生的可能性,因而机器在选择的时候才会对行动的“期望值”进行比较。但是,机器的这种因果论会对目前人类的道德、责任和自由观点造成冲击,当我们判断某个行动是否具有可责备性时,最主要的判断标准就是这个行动在道德信念相对的(而不是在行动结果的)意义上是否正当。一个人很有可能隐隐感到自己的道德信念存在某种偏差,但是他依然无法做去真正正当的事,正如他无法做一个完全理性的人,他只能去做在当时自己相信是正当的行动。

价值一元论认为表面上林林总总的价值在本质上是一致的或者统一的,算法伦理无疑是典型的一元论,在算法世界的判断体系中,就是通过赋值和添加标签完成的多元价值的归一,所归的“一”即数学逻辑。然而对于公共领域的决策者来说,人类价值体系中始终存在着许多相互独立、不可公度的终极价值,我们无法为多个终极价值作统一的优先性排序,因而当它们相互冲突时,人类就不可避免地陷入伦理两难,不得不“为着一些终极价值而牺牲另一些终极价值的需要”。这是人深刻的悲剧性所在,同时也是算法伦理比人类伦理反应更迅捷的主要原因,人工智能从不会陷入进退维谷的痛苦纠结,它在规则不够清晰的领域会基于数理逻辑主动创造规则以求得“最优解”,只不过这个“最优”未必是“最善”。从本质上讲,探讨伦理学的目的在于对何为正确行为作出判断,并给出这一判断所蕴含的关于人的品格或行为之道德与否的合理解释。对于人而言,在复杂的、两难的情况下快速作出道德判断是困难的,在各种情形下做何事正当是很难简单回答的问题。不过,一旦人类形成了自己的道德判断,再要让他解释这种判断的理由则相对容易得多。算法伦理恰恰与之相反,AI能很快作出道德判断,但要解释这种判断具备充分的伦理学依据则是困难的,尤其是对它的判断作出功利主义之外的辩护异常困难。即是说,人类的决策虽然伦理学基础更坚实,但对于复杂紧急的情况而言太过迟滞,算法伦理虽然决策迅捷但只满足效应主义伦理观。那么,最好的办法似乎就是结合两者的优长,由算法批量决策并归类,由人来负责事前审核和事后解释。这其中,最关键同时也最困难的无疑就是“审核”环节,它需要审核者能够在普遍意义上对何事更重要作出的价值排序。也就是说,在人类社会的道德体系中,伦理是有客观价值存在的,确实有些事情比其他事情更重要。

摆在公共部门面前的紧迫任务是在“湖心岛”上扎起两重围栏,第一重围栏旨在保护传统伦理,通过立法和监管等多种手段为人类伦理建立“保护区”;第二重围栏则是针对算法的,要在制度上限制赋予算法以一种“人的形象”出现。我们逐一进行解释这两重围栏的意义,首先看第一重围栏。通过前文论述我们知道,虽然短期内人类的伦理无法对抗算法伦理,但这并不是人类放弃希望的理由,人如果跟AI比计算能力和决策效率,那么很快就会被机器全面替代,进而导致现行法律与政策大规模修订,但人的优势在于抽象而非计算。因此,要使人在智能时代活得有意义,就必须保持人类社群充足的价值多样性,通过建立“伦理保护区”来为人类伦理的演化保留火种,而不是任由它们在与算法伦理的对抗中消亡。只有存活下来,才有可能在未来继续寻求与算法伦理能够共在共生而非彼此掣肘的可能。在此期间,我们需要等待算法伦理通过自我迭代,表现出某些能够与人类伦理相互结合的“特征”。当前,令AI发展出伦理特征的多数障碍其实来自人类伦理本身。比如,规范伦理学始终在苦寻“哪种规范是正确的”答案未果,反而在近代出现了元伦理学的不可知论的倾向,一些终极的价值在伦理上发生了分叉,这种分叉会导致机器在学习涉及规范伦理学的大量文本时陷入迷惘。我们需要通过调整算法学习的文本和实践案例,有意识的训练它成为具备伦理特征的机器,并将解锁伦理保护区“围栏”的密钥定义为四个基础性原则——“不伤害原则”、“行善原则”、“正义原则”和“自决原则”——只有当算法伦理同时拥有了这四把钥匙,才能向人类申请打开第一重围栏。

其次,我们来解释第二重围栏的意义。这个问题可以转变为:如果将算法放入一个人类外形的壳中,与它仅仅维持一个网络世界的虚体形象有何本质上的不同?事实上,一旦人工智能拥有了人形外观,它就从一个主体性的隐匿状态跃升为实在状态,它成为了具体的“人”,社会投射在其身上的诸种情感也就有了明确的指称和寄托。因此我们主张,不要让人工智能以一个具体的“人”的形象出现。从认知科学的角度来看,外形对人类的认知和理解一直具有极大的潜在影响,这也是为什么近年来业余的射击爱好者俱乐部不再适用“人形靶标”练习而是改用“环形靶标”,我们不希望射击爱好者在潜意识中认为他在瞄准一个“人”。因而,以机器人的形态出现的AI,可以被视为AI和人造生命(Artificial Life)分离的标志性事件,人们对待它既不像对待人一样,也无法像对待机器,因为这是一个会从自身经历中汲取新知的机器,而且我们几乎不能保证它是否学到了我们想让它学习的东西。泰格马克在《生命3.0》一书中总结了AI获得主体性之后可能带来的12种后果,包括:自由主义乌托邦、善意的独裁者、平等主义乌托邦、看门人、守护神、被奴役的神、征服者、后裔、动物园管理员、1984、逆转、自我毁灭。尽管泰格马克尽力向我们展示充满一个可能性的未来,但事实上,AI在未来所扮演的角色无非“士兵、伴侣、奴隶或神祗”四种,角色身份决定道德义务,这四种角色中的前三种是将AI视为欲望的出口而非合作的伙伴,最后一种角色则是算法伦理成为社会主流伦理并掌控了每个人的生活之后的必然。一旦算法伦理化身为一种宗教性道德符号,人类将陷入海德格尔曾警告过的“现代技术摆置人类命运”的境况中,在“技术陷架”的促逼和掌控下,人成为了提线木偶。因此,我们必须谨慎对待AI的主体性问题,不要急于赋予算法以“人形”或“人性”。毕竟,“人形”会令人对它另眼相看,而“人性”的贪婪则是真正危险的东西。让机器选出最经济的方案只需要给它数据与算法,而让机器心生怜悯、尊重或恐惧,则需要我们在完全不同的道路上摸索。在没有理解其本质之前,应该让算法停留在作为一种解蔽方式的现代技术的意义上,而非无节制的追逐它的所有应用可能。




编辑:董莉

348#
 楼主| 发表于 2019-12-12 21:37:07 | 只看该作者
【案例】
区块链技术协助社会治理现代化的创新机理分析

编者按:
10月24日,中共中央政治局就区块链技术发展现状和趋势进行第十八次集体学习会,习近平总书记指出,要探索利用区块链数据共享模式,实现政务数据跨部门、跨区域共同维护和利用,促进业务协同办理,深化“最多跑一次”改革,为人民群众带来更好的政务服务体验。过去一年来,阿里云研究中心持续关注区块链在政府数字化转型中的应用研究,本文整理自《区块链应用蓝皮书(2019)》中《区块链技术在社会治理的应用趋势与对策建议》。
1
从数字经济视角探讨区块链技术的本质
区块链技术定义了一种全新的“公开透明的数据存证”方式,是数字世界中数据记录、组织和传播方式的一种组合式创新。它像是数字世界里的一个“好会计”,利用分布式记账的机制,把大家的所有交易信息都清楚明白地记录到多份账本上,解决了数字世界里数据“篡改”如何追溯的难题。
区块链的本质是数字世界的的一种“生产关系”。如果使用社会生产的理论,在数字世界里,数据是劳动对象,计算力和算法是生产工具,互联网和移动互联网关系到数据的流转机制,就像是数字世界的生产关系。而区块链对生产关系的三要素做了更加清晰的定义。
以公有链为例,要素一:生产资料归谁所有?全网都拥有账本的数据;要素二:人们在生产中的地位和相互关系如何?每个参与者完全平等;要素三:产品如何分配?新产生的区块数据每人都有。有趣的是,公有链、联盟链和专有链也恰恰在生产关系的三要素上各有不同程度的定义。
02
区块链技术在政府领域的应用态势


区块链在政府领域的应用对区块链技术的未来有重要的先导性作用,未来区块链在政府领域应用仍然是区块链技术的重要应用的重要方向。从全球来看,欧洲各国政府目前对区块链应用尝试的热情最高,在欧洲45个国家和地区中,一共有22个国家采用或计划采用区块链技术。我国各地政府部门在司法存证、电子发票、扶贫、公益等区块链应用的创新走在世界的前列。相比区块链的行业应用,尽管区块链在政府的应用尚处于起步阶段,但是进展很快,并且应用方的价值认可程度相对较高。
在司法领域,区块链技术帮助司法存证实现全流程记录、全链路可信、链上取证和在线审理,高效解决纠纷。2018年9月,蚂蚁金服与杭州互联网法院联手打造了全国首家用区块链技术协助判案的司法存证平台。2019年5月,上海、浙江、江苏、安徽四地法院引入蚂蚁区块链技术,成立长三角司法链,推动长三角司法一体化。
在民生服务领域,区块链医疗票据和区块链发票能够提高报销效率。2018年8月,蚂蚁区块链在浙江台州开通了基于区块链的电子医疗票据服务,让患者可以通过支付宝来查询和下载电子医疗票据并直接用于保险理赔或医保报销。该平台连接了医院、保险公司、当地政府部门以及患者,让患者的报销不在繁琐。此外,蚂蚁区块链已与广州税局合作上线了区块链电子发票项目,并在停车场、餐饮等场所落地,目前上链的电子发票总量超过1亿张。
在公益领域,区块链技术可以帮助捐赠人建立信任,督促捐赠资金的合规使用。2016年下半年开始,蚂蚁金服便联合多家公益基金会上线区块链公益项目试点,捐款人可以追踪善款从个人支付宝账户到基金会、公益执行机构直至受益人账户的完整流转情况。
03
区块链技术协助社会治理现代化的创新机理分析
数字经济时代需要新的治理理念,在工业时代,要通过流程化管理提高大家协作效率,在数字经济时代,能够让数据在组织内部、在国家内部甚至跨国界的流通起来,才能够让数据发挥更多的价值。没有区块链之前,没有数据治理手段,数据在无序传播,但是有了区块链之后,流转过程可追溯,方便共享。区块链会成为未来数字经济时代治理的重要基础设施,数据规则可以通过区块链进行数据治理。
区块链技术与构建我国现代化社会治理格局具有天然的互补性。党的十九大报告提出,建设现代化的社会治理能力需要构建“共治、共建、共享”的社会治理新格局。区块链技术本身恰恰是在数字世界里,围绕数据的记录,组织和传播的一种共建、共享、共治的新技术。以公有链为例,区块链上的数据由各方共同产生,验证计算和记录也有各方共同完成,这就是共建和共享;各方按照代码约定规则在不需要人为干预的前提下,系统实现健康发展,这就是共治。从这个角度来看,区块链将是现代化治理构建中可以依靠的一项关键技术。
从创新机理上来看,区块链技术服务社会治理能力的创新方向分为简政放权、权威发布、信用社会三个方面。
(1)组织扁平化与实现简政放权政府部门内部的架构和文化是一种典型的科层制金字塔式组织,组织内部将耗费大量的成本来进行沟通和协调,并且跨部门多团队的协作又变得非常困难。随着更多互联网的技术和软件在企业和政府部门应用,金字塔式组织结构向扁平化组织演进的趋势日益明显。
比特币成功构建了一种分布式自治组织结构(DAO),将组织的管理权下放到“智能合约”,完成每一个成员的自组织协作。区块链从最初的“去中心化”正在演变成“多中心”自治的架构。多中心的分权治理体系,有助于构建以行业协会等多角色为主体的自治组织权利运行新模式。
如果政府部门的部分权力运行依托区块链技术,相当于信用背书的部分职能从政府具体的人员剥离,将权力归还制度和规则。例如,对于基于明确和显性规则的监管和审批,审核人员的个人“审批”和“盖章”行为就可以通过区块链的自动运行来替代,从而实现简政放权。好处是公务员和行政人员的审批决策与腐败风险可以转移到区块链技术,风险是对政府的权力运行机制、对现有行政人员分工会造成冲击。
(2)信息传达与权威信息发布区块链的跨层级和点对多点的信息传递方式,是一种信息高效传递的革命。传统信息的分层传递,存在时间的滞后性以及信息传达断层的不可控风险等问题。
在政府组织内部,基于区块链构建的信息传递网络,信息可以非常快速的非常可信(不可随意篡改)地发送给在链上的每一个行政人员群体,阅读行为可以上链,实现精准送达。针对不同层级的不同权限的人员可以构建不同的区块链发布网络。
在政府组织外部,对于面向公众的官方信息的权威发布,基于区块链构建的信息传递网络,可以实现对链上的可信媒体的转载、修改的动作的全流程追溯。通过这样的信息传递区块链平台,对发布出去的内容可以清晰地掌控信息转载去向和阅读情况,让触达公众的信息更加快速和可信。
(3)信息管理与构建信用社会区块链技术带来了一种信息记录和传播方式的一种变革。如果不同的相关方将个人的信用信息记录到区块链上,每一条信用信息都可以追溯到记录方,同一条信息被某一机构更新之后,直接同步到整个网络中,记录的数据更可信。加入这个信用区块链的征信公司,一方面可以在链上共享信息,一方面又可以从链上获得到最新的信息。
通过区块链进行信用的数据管理,这样就尽可能多地将一个人散落到各个角落的碎片化信用信息多方归集起来,信用信息的来源不在局限在某几个机构,来源更加民主化。这样对于重要失信行为就能够第一时间推送到链上的征信机构,构建起更加具有威慑力的社会级信用基础设施。
利用区块链技术构建完善的线上信用体系与线下违背信用的追溯与惩罚机制,可以显著减少社会治理总成本。因此,区块链技术将对构建现代化“共治”的社会治理环境具有极其重要的意义。
结语:区块链技术对于社会治理而言,既带来了新的变革机会,也孕育着新的监管挑战,如何在二者的平衡中让技术最大程度地造福社会,才是区块链治理的成功所在。相信区块链经过第一次泡沫期后,已经开启了脱虚向实、与实体经济深度融合的发展阶段,区块链在社会治理中一定会涌现出更多的创新应用,对于区块链的监管和治理能力也将提升和变革,让区块链技术更加健康地发展。
作者:杨军 阿里云智能研究中心战略总监
原文链接:https://mp.weixin.qq.com/s/430Xlo6lXV4YeXRSNzt_NA


编辑:董莉

349#
 楼主| 发表于 2019-12-12 21:41:48 | 只看该作者
【案例】
谢耘:“智能革命”对“工业革命”的超越——宏观大潮、中观趋势与微观困镜

本篇文章是根据谢耘博士2019年12月5日在国家商务部投资促进局电子信息产业投资促进工作委员会2019年度会议上的发言整理而成。
小影推荐:大家一定要看本篇文章第六章节哦,真的是妙语连珠呀,“上不去的尴尬和下不来的虚荣”、“顶天立地,这说法的次序反了,应该是立地才能顶天,否则就会像断了线的气球”、“捷径是世间最漫长的路,甚至是没有终点的歧途”等等。另外,淘宝直播一姐“薇娅”的故事,怎么会出现在这篇文章当中,值得你一探究竟哦。
废话不多说,大家准备好了吗?那就一气呵成地看完这篇文章吧~~~
【目录】
一.人类首次拥有的意识性的智能化技术与工具
二.前所未有的“智能革命”而非“第X次工业革命”
三.  “外意识”的三种基本存在形态
四.  外意识的“能”与“不能”
五.  四个系统性“中观”层面的重要趋势
六.  立地才能顶天:上不去的尴尬与下不来的虚荣

大家好,很荣幸有机会来这里与大家分享一下我对于信息技术产业的本质与未来发展的一些看法。刚才杨所长(赛迪智库中小企业研究所所长杨东日)对我的美言给我很大压力,不知道我讲的内容是否确实会对大家有点帮助。
杨振宁在一篇纪念爱因斯坦的文章里引用过数学家怀特海的一句话:“非常接近真理和真正懂得它的意义是两回事。”确实,对很多我们非常熟悉的事情,其实我们并没有真正懂得其意义。“熟悉”不等于“理解”(有兴趣的朋友可以参看微信“慧影Cydow”公众号中《“知道”与“真正理解”之间的距离有有多么遥远?一文,2019年7月2日)。今天我讲的是我对信息技术产业本质的理解,会与目前很多国际国内主流的看法相违,当然我的这些理解也不一定对,是我个人在具体工作实践中的一些认识,希望能够反映产业的一些本质特征,分享出来供大家参考。
一、人类首次拥有的意识性的智能化技术与工具
到工业革命为止,人类历史上创造与使用的工具基本都是物质性工具,即使用工具都是为了达到物质性的目的。我们最早用的是石器,后来有了金属工具。到工业革命,这些物质性工具具有了动力。所以工业革命的本质在于对动力的大规模使用,是人类历史上的一次动力革命,让物质性工具发生了质变。
那么以计算机为核心的信息技术呢?也是物质性工具吗?显然不是。现代电子计算机是按照人类设定的程序,对数字化的信息做逻辑数字处理运算。它的直接作用不是去达到物质性的目的而是意识性目的。对数字化的信息做逻辑数字处理运算,本质上是一种意识活动。因为信息不是物质,它既是意识的产物,也是人类意识活动的基本要素。
国际国内有一个流行的说法,包括在科技界,都认为这个物质世界是由物质(质量)、能量及信息三个独立要素构成的。我认为这个观点是错误的。我们所说的“信息”是人对所认识对象的一种描述,而不是物质世界自身的构成要素。脱离了人,就没有信息。所以说信息是人类意识的产物。同时人的理性与感性的意识活动,都是基于信息的。我们看到美女帅哥会想入非非,因为我们获取了对方相应的信息,才会产生这种感性的意识活动。理性的意识活动就更不用说了,也是以信息为基本要素展开的。
所以,计算机按照人设定的程序对数字化信息做各种处理,本质上也是一种意识性的活动。但是这种意识性活动是脱离了人的大脑的,所以我称之为人的“外意识”,以便与人脑的内部意识活动相对应。而意识性的活动,都应该属于“智能”的范畴,所以以计算机为核心的信息技术在其诞生伊始在本质上就是一种意识性的智能化工具,而不是“人工智能”相关技术出现之后才“智能化”的。我们不能认为有了所谓的“人工智能”,计算机应用才是“智能”应用的,这种理解偏离了信息技术的本质。
关于上述分析详见微信“慧影Cydow”公众号中信息技术的智能本质与人类的外意识一文,2019年5月9日。
图一  信息技术应用是人类的外意识
所以,以计算机为核心的信息技术,使人类历史性地第一次拥有了意识性的工具。它的作用与意义完全不同与之前的各种物质性工具。
二、前所未有的“智能革命”与而非“第X次工业革命”
我们把蒸汽机的出现称之为第一次工业革命。这是人类第一次大规模开始利用自然能源。后来电磁学的出现,引发了二次能源电力的应用,这个被称之为第二次工业革命。电力的应用,让人类对能源的利用极大地突破了时空的限制,人类物质性工具有了进一步的发展。所谓“第三次工业革命”原来是指核能的利用。这是沿着物质性的能源利用与发展的逻辑一脉相承下来的。但是后来人们发现核能虽然是一次技术革命,但是对于社会却没有起到革命性的推动作用。不知道什么时候有人玩儿了一个偷梁换柱的把戏,将计算机的出现称之为了“第三次工业革命”,而违背了历史赋予给“工业革命”的原本含义。
如果我们认为计算机的出现对于人类社会确实是一场革命的话,按照前面的分析,因为它是意识性的工具而不是物质性的工具,这场革命不应该划归物质性能源革命的逻辑之中,而应该是一场在工业革命基础上、人类文明的新一场革命。所以不论是从实质内涵上还是从影响的深度与广度上,我们应该认为计算机的出现,是人类历史上前所未有的“智能革命”而非是继蒸汽机与电力之后的“第三次工业革命”。这场“智能革命”的开创性意义及引发的人类社会的质变,在人类文明史上足以与蒸汽机开创的、对物质性能源利用的“工业革命”相映成辉,而不是从属于“工业革命”范畴内的某一次工业革命。
到最近,“第四次工业革命”的说法又盛行全球,有人说第四次工业革命包括了人工智能、新材料、生命科学等等内容,莫衷一是。毫无疑问,人类技术与社会正在经历一个新的蓬勃发展时期,在众多的技术与社会领域我们不断能够看到新的突破(科学原理层面的另当别论,从上个世纪60年代后就基本停滞了)。如果我们静下心来深入地分析这些进展,就会发现在背后推动这些领域快速发展的核心力量,几乎都是信息技术。科技日报刊曾登了系列文章,讲述信息技术(人工智能)在各个领域发展中所表现出的推动作用。
图二  信息技术全面推动社会的革命性发展
追根寻源我们就不难发现,今天我们感受到的技术与社会层面全面爆发的革命性变化,正是以计算机为核心的信息技术推动的结果。我们正在经历人类历史上前所未有的一场智能革命,而它的开端便是上个世纪40年代现代电子计算机的诞生。这场革命因集成电路技术在2010年跨越了关键的节点、让人类拥有了“暴力计算”能力,使得计算能力不再成为绝大多数应用场景的瓶颈,而开始全面展开。
这就是我们正在经历的波澜壮阔的历史画卷,它的画笔便是意识性的智能化信息技术,它的卷名便是“智能革命”(有兴趣的朋友可以阅读书籍《智能化未来—“暴力计算”开创的奇迹》,谢耘著,机械工业出版社2017年)。

三、“外意识”的三种基本存在形态
信息技术的应用,作为人的外意识,有三种基本的存在形态或称应用类型。
第一种应用类型也是现代电子计算机诞生伊始便起的作用,就是辅助强化人的智能活动。计算机从一开始就是作为计算工具,来完成人类难以承担的计算任务。这就是在辅助强化人的智能活动。在此基础上,后来演化出了各种“CAX”(计算机辅助X)的应用,比如CAD(计算机辅助设计),CAE(计算机辅助工程)等等,都是利用计算机的特长,来辅助强化人的智能活动,或者说在人类的内意识的主导下,人类将自己的内意识与外意识有机地整合在一起去完成特定任务,让人类的意识性活动能力在诸多方面都大大超越了原生的、仅仅基于生理的大脑内意识的能力局限。
信息技术的第二种应用类型,则不在于辅助强化人的智能活动,而是利用人类特定意识的外化,来完成原本可能由人的内意识完成的工作。这就是现在各种不同类型的信息技术的信息类应用,它们包括了从传统的办公自动化到各种互联网服务。它们属于智能化信息类应用系统,是人类外意识的自主活动,以达到解放人的大脑的目的,而不是为了辅助强化人的大脑。因为借助了计算机这个工具,这类应用超越了人类大脑自身的许多局限,比如易疲劳,易出错,记忆能力有限等等,持续不断地拓展人类意识活动的有效边界,由外意识承担着许多人类大脑实际上难以完成或无法完成的任务。
信息技术应用的第三种应用类型,是将人类的外意识植入到不同的物质性的工具当中,将物质性工具“智能化”。或者说给原本被动的物质性工具植入了一个能动性“灵魂”,让物质性工具具有了一定的能动性,甚至在有些情况下可以独立自主地完成不同的任务。传统上各种信息技术的嵌入式应用也属于这个类型。
从上面三个方面我们可以清晰地看出,以计算机为核心的信息技术完全不同于历史上人类创造出来的物质性工具。所以把它纳入“工业革命”的范畴是一种根本性错误。它所具有的颠覆性作用,远远超越了工业文明的语言框架。它让人类的一些意识活动挣脱了肉体的约束而外化出来,在极大地补充增强了人类大脑原生功能的同时,还渗透到了社会的各个领域自主地发挥着作用,从而导致人类社会这个在人类意识主导下创造出来的实体的所有方面,从科学技术、精神文化到物质生产等等方面,都发生着空前的变化。人类社会正在进入到一个全面智能化的新阶段。
四、外意识的“能”与“不能”
当前,人们既有夸大信息技术潜力的一面,又有低估它的颠覆性作用的一面。我们将信息技术应用—外意识,与人的智能/意识的关系简化为图三。
图三  外意识与人的智能
在图三中我们可以看到,两者重叠的那部分,也就是信息技术替代人脑所作的那些事情,基本就是我们今天所说的“人工智能”的范畴。那么外意识最终会完全覆盖人的智能吗?许多人信誓旦旦宣称这一天正在到来或者将会到来。其实如果我们尊重科学的逻辑、方法与事实的话,这个结论是不能成立的。作此结论的人基本出于三种非科技的原因:个人信念、文学想象或蛊惑他人。对此的严格分析论证详见微信“慧影Cydow”公众号中《人工智能“修炼成精”还是遥遥无期的梦想》一文,2019年5月9日。
在图三中我们同时能够看出,“外意识”所覆盖的范围将远远超过人的智能所能覆盖的范围。也就是说,“外意识”会在众多的领域超越人的智能。这与上面的结论并不矛盾。而我们常常又低估了外意识这个特征的影响,而将注意力都集中在了在外意识中只占很小比例的“人工智能”那部分。
人类创造工具,固然首先是为了替代人的劳动,从蒸汽机到计算机的诞生都不离这个初衷。但是初衷并不是未来的一切,甚至不是未来中最重要的。从总体上看,人类创造的工具所发挥出的作用,是大大超越人类创造它的初衷的。就物质性工具来说,汽车是替代人的运载工具,但是人类并没有停止于汽车,不仅造出了飞机,而且更有运载火箭。运载火箭的作用,就完全不是替代人的问题了,因为无论多少人花多少时间都无法完成运载火箭所能完成的工作。所以,工具的意义不是仅仅在于对于人力的替代,而是更在于开创人类完全力所不及的全新可能。物质性工具是这样,意识性的智能化信息技术工具也必然如此。
图四  工具对人类的影响更在于开拓全新的可能
所以,我们不应该仅仅关注信息技术对人的替代作用,如人工智能等,我们更应该关注信息技术将要开创的、超出我们今天想象的全新可能。增量总是会远远大于存量,特别是在如“智能革命”这样历史新的画卷中。
因为超出我们的想象,所以我们不可能靠历史的经验去逻辑推演出完整的未来。我们只能推测与描绘未来可能的一些方向,以帮助我们用创造去书写为来。
五、四个系统性“中观”层面的重要趋
天翻地覆的变化,都来源于基础层面的突破。工业革命极大地强化了人类在物质世界中的行动能力而改变了人类历史,让人类文明从农耕文明进化到了工业文明;智能革命则在更加基本的层面颠覆着人类社会:它创造了一个独立于物质世界、又与物质世界交织在一起的纯虚拟世界,让人类的生存空间从单纯的物质空间而进化为物质/虚拟双重复合空间,推动人类文明从物质性的工业文明跨入了智能化的信息文明阶段。这个虚拟世界完全是人类意识的自由创造,人类的“外意识”活动于其中,并与人的大脑意识活动及物质世界发生相互作用。
构成虚拟世界的基础是物质世界中的对象与关系在虚拟世界中的映射(虚拟映像),然后便是在此基础上人类意识几乎无边界条件的自由发挥与创造。由于几乎没有物质世界中物质运动规律的约束,这些发挥与创造将使得虚拟世界的结构远比物质世界要复杂“混乱”。扮演“上帝”去创造一个虚拟世界带来的不一定都是合理与美妙。
图五  信息文明阶段人类生存于物质/虚拟复合空间
从这个角度来看,外意识/信息技术应用又可以分为另外三种情况,第一种是嵌入物质世界,以传统嵌入式应用为代表,包括现在的各种机器人;第二种是连接物质世界与虚拟世界的应用,电商就是这类应用的典型;第三种是纯虚拟世界中的应用,区块链就是纯虚拟世界中的一个封闭系统,这些年兴起的“电竞”也属于这类应用。
由于基本生存空间的根本性变化,未来信息技术应用的前景会完全超出我们的想象,特别是在虚拟世界中以及连接虚拟与物质世界的应用。虚拟世界由于几乎没有物理定律的限制,成为了人类意识几乎自由创造的场所,人类的意识会天马行空到什么地步是今天我们无法想象的,哪怕是那些科幻作家。这一变化带来的挑战详见微信“慧影Cydow”公众号中《信息文明:虚拟世界的形成与“自由”的挑战一文,2017年7月21日。
虽然未来无法完全推断,但是还是可以窥探到一些端倪以为指引。看清趋势还是很重要的。看清趋势才能把握好细节。就像前面嘉宾谈的中美贸易摩擦的事情,其实应该放到由于信息文明的到来,在工业文明时期西方形成的全球霸权已经到了尾声这个大趋势中来分析与理解。西方霸权正在进入尾声,也是法国总统马克龙的看法。美国现在对中国所做的,不仅仅是两国的问题,而是西方霸权退出历史舞台的最后的挣扎。下面就根据我自己这些年做一线技术工作的经验,对不太远期的发展趋势谈一点中观层面的看法。
首先,我们应该高度重视系统级的创新,而不是仅仅局限在局部技术上。当然这不是说局部的技术不重要,但是系统级的变化往往更具颠覆性。还以物质性工具为例,活塞发动机与喷气发动机在科学原理(都是将化学能变成热能,再将热能变成机械能)以及基本材料等局部技术上并没有本质差异(至少在喷气发动机诞生之初)。但是它们的系统原理完全不同,便具有了极不相同的意义,喷气发动机彻底改变了人类的航空工业。在系统论中,有一个基本的原理就是整体大于部分之和—系统设计不同,同样的部件组合在一起可以发挥出极不相同的作用。系统是改变世界的最核心动力之一。美国的领先很重要的是在于系统构建方面的领先,而日本的工匠精神再出色,也无法填补它在系统创新上的不足,只能扮演一个出色的跟随者的角色。
近些年的一个热门区块链,本质上也是系统级的创新。不幸的是很多人把它当成了一个具体的单项技术来看。区块链的特质是由其系统层面运行的机制决定的,而不是它采用的那些成熟的局部技术决定的。详见微信“慧影Cydow”公众号中“区块链很神奇,区块链很难用”视频,2018年6月11日,及《“区块链”启示:用系统级创新去开疆拓土》一文,2018年4月2日。
那么从系统的角度看未来,我觉得有四个重要的中观趋势值得重视。当然这仅仅是基于我个人的经验而来,仅供大家参考。
1. 服务的融合化:信息产业由于基础技术—计算、存储与通信,经过几十年的发展已经不再是应用的瓶颈,所以信息技术的应用由解决局部问题而进入到了解决综合性问题的阶段。这种综合既是更大时空范围内的整合,也是跨多专业领域的整合。形象地讲,就是信息技术应用从解决“点”(如科学计算)与“线”(如业务流程)的问题进入到解决“面”的问题的阶段。在这个阶段,构建跨时空、特别跨多专业领域的“融合化服务”成为了一个主战场。构建这种服务,有两个维度的基点。一个是从“主题”出发,如旅游、健康、教育、制造等;一个是从“主体”出发,如个人,组织、城市等。不同的角度构建的融合服务需要整合的专业领域会有所不同。
这些年兴起的“产业互联网”就是针对制造业主题的、整合了多种相关专业价值环节的融合服务平台。下图是我设计的区域旅游的融合服务平台的示意。从图中可以看到,它不仅整合了不同专业领域与旅游相关的服务,而且也同时向不同类型的对象提供个性化的服务。

图六  区域旅游融合服务平台这种融合的平台并不是简单的系统集成,而是要对一个“主题”有着深入的分析及建模,并且在技术上要实现绕主题从数据到业务到服务呈现等不同层面跨专业领域的智能化融合。这里有大量原创的空间及新的核心技术需求。图七是我设计的以“城市虚拟映像”为基础的智慧城市融合服务系统示意。这种以“主体”为基础的融合服务系统就更加复杂,主体的建模与服务的融合都是跨多领域主题的。

图七  以“城市虚拟映像”为基础的智慧城市融合服务系统这种融合服务平台将带来不同专业领域的交叉融合及价值重构。在今天还一味地强调“杀手应用”等观念,是思维还停留在过去信息技术基础能力严重不足的时代的表现。对于融合服务的分析详见微信“慧影Cydow”公众号中《以主体虚拟映像构架新型智能融合应用体系》,2017年5月2日。2. 专业工具/服务的大众化/消费化:智能化的信息技术的广泛应用,使得人类许多的与普通人直接相关的专业工具/服务的使用获取变得简单易行。从而不断地让越来越多的专业工具/服务走向大众化与消费化。一个典型的场景就是在旅游景点,我们可以不再需要专业人工导游而租用一个智能导游机带我们漫步于景点中,如果去国外游玩则连专业人工翻译都不再需要。受此影响,一个将要发生重大变化的领域就是家庭健康。我们最传统的家庭健康检测设备是体温计。后来由于信息技术的发展,智能化的血压计取代水银机械产品而成为了消费品,全面进入了家庭。现在不断有更多的健康检测设备消费化而努力地挤进我们的家庭空间。那么未来家庭健康检测就是这些零碎的设备的堆砌吗?显然不会。未来会出现家庭健康检测综合系统,将这些检测手段综合在一起提供实时健康检测。下图是一个系统的框架示意。

图八  未来家庭健康检测平台示意随着专业工具/服务的不断大众化与消费化,这些领域将面临价值链重构的重大变革。这是一个涉及众多专业领域、极为广阔的市场。也是人类通过“外意识”为物质性工具注入“活”的“灵魂”的主战场之一。3. 中心化与个性化的统一:智能化的信息技术对传统生产/服务方式的一个颠覆,便是几乎彻底消除了集约化生产与个性化定制之间、规模效益与差异服务之间曾经不可调和的矛盾。传统的规模化生产都是“刚性”整齐划一的,而智能化信息技术的应用使得生产线变得具有了弹性,出现了“柔性”生产线,可以容纳不同个性化的产品。同时,网络化的信息技术对时空的超越,也导致了巨大的聚集效应。两者互动,造成了各个领域中心化趋势不断加强,而同时个性化催生了百花齐放。领域的中心化趋势首先毫无置疑地体现在了信息技术产业自身结构及其提供的服务形态的中心化。而中心化与个性化统一的最鲜明的例证便是巨型电商平台的出现以及在平台上应有尽有的产品与服务。自人类走出愚昧踏上文明的旅程,技术的进步就在持续不断地推动社会的中心化进程,这背后的最基本的逻辑就是文明是人类基于意识自觉性,以集体的方式求生存谋发展的存在形态,人类文明的进步就是组织性不断强化的过程。人类的文明进程,是人类的组织形态不断提升发展的过程。而不论在自然界还是在人类社会,复杂的组织必然是有中心的系统,组织向复杂演进的过程也是中心不断形成与强化的过程。近年来由于分布式运行的区块链技术的出现,导致很多人把它所具有的技术实现层面的分布式特征虚化为社会“去中心化”的政治理念,并声称这代表了人类社会未来的发展趋势。追根寻源我们不难发现,这种论调来源于西方根深蒂固的自由主义信仰。正是这种根深蒂固的对个体绝对自由的迷恋,导致西方的大本营欧洲至今仍是散沙一滩,欧盟只是一个多国俱乐部。一片散沙的欧洲在当今大国博弈中,总是力不从心,扮演着被大国挟持的苟且角色。虽经百千年的挣扎,欧洲统一的梦想始终遥不可及。这个梦想最近受到的一系列致命打击便来自它的后裔美洲的那个大国。自己统一不成,难免就会期待其它大国走向分裂。不论区块链未来演化出什么样的应用,认为去中心化是人类社会发展的一个重要趋势的论调,都只能是迷恋个体绝对自由的那些小知识分子的黄粱美梦,抑或是别有用心之人的蛊惑,是对人类文明进程的反动,违背人类文明发展的基本客观事实。在智能化信息技术推动下的中心化与个性化的统一,将给众多产业/领域带来颠覆性的变化。信息技术产业已经首当其冲,其它产业/领域也必将别无选择。不会太久,我们每个人的衣服将可以上网直接定制,而且价格会更加便宜。因为集约的定制化生产将去除大规模标准化制造带来的大量无效库存成本。到那个时候,中国可能只需要几个大型的服装智能加工中心就能满足十几亿人的需求,而大量的服装品牌企业只需负责花样繁多的个性化设计。这种产业模式在极大地提升效率的同时,又能充分满足个性化需求。4. 个体地位与组织地位并重:工业文明社会,是一个由各种组织主宰的结构。组织是社会的核心构成单元,而个人基本都是依附于某一个组织,否则难以生存。这是一个“组织独裁”的社会结构。在这种社会结构中,信息技术系统的建设也几乎都是从组织的角度出发的。信息技术产业孕育诞生于工业社会,所以信息技术应用也深深地打上了的“组织性”烙印。时至今日,中国许多信息技术企业还是觉“2B”的业务更好做,根本原因也在于此。但是,历史正在翻页。这场智能革命正在推动人类跨入智能化的信息文明,工业文明的社会形态正在被解构。由于智能革命导致的人类工作方式的变化、新的产业形态的出现等变故,工业文明里的中坚“组织”的特征在深刻地改变—“外包”、兼职、远程办公等使得组织的边界开始模糊化,结果是组织对个体的刚性束缚悄然松绑。个体与组织的关系变得动态而弹性,而且也不再是简单的一对一的关系。由此独立个体的人正在逐步成为构成社会的核心基础结构之一,而在重要性上与“组织”平起平坐。这个变化是人类社会基本结构的重大调整,会在众多领域带来巨大的发展机遇。在这个背景下,信息应用也正在从以组织为中心演化为组织与个人双中心并重的形态。在不远的未来,将会出现个人应用超越组织应用、个人应用支撑组织应用的局面。今天,我们已经在面向个人的微信上大量承载组织应用活动,美国总统“推特治国”也是一个个人应用支撑组织应用的典型案例。这个趋势正在呼唤以个人为中心的信息应用系统的出现,而不是停留在仅仅把不同的人连接起来的社交应用。阿里以组织为中心的“钉钉”显然反映了其创意还停留在工业社会的阶段。以个人为中心的信息系统的构建,也是属于前面第1点里讲的面对“主体”的融合服务,是跨众多领域的系统。其复杂度未必小于以组织为中心的系统,也不是对以组织为中心的系统的简单复制或模仿,需要大量的从理念到技术与系统的原始创新。下图便是这样的一个系统“慧影”的示意。



图九  慧影:以个人“虚拟映像”构建个人智能融合应用系统

慧影系统的原理介绍见《智能化未来—“暴力计算”开创的奇迹》第四、第五章,谢耘著,机械工业出版社2017年;功能介绍见微信“慧影Cydow”公众号中“影迷知道”栏目中的“影迷教程”。慧影系统手机版到各手机应用市场搜索“慧影时间流”,电脑端下载地址:www.cydow.com以组织与以个人为中心的系统将成为虚拟世界的基本结构单元,“锚定”人类创造出来的意识性的虚拟世界。以上四个“中观”趋势,就是根据我个人的实际工作实践,总结的在“近期”的未来充满“机遇”的方向,仅供大家参考。
六、立地才能顶天:上不去的尴尬与下不来的虚荣
最后让我们落脚在“微观”层面,来看一下中国企业在这个大潮中遇到的一个比较普遍的问题:“上不去的尴尬与下不来的虚荣”。近年来由于工作的原因接触了一些企业,也有一些企业主动向我咨询业务发展的问题。对看到的问题有感而发写了一篇文章《企业经营中能力与机会的双重变奏》(见微信“慧影Cydow”公众号2019年4月10日)。今年9月份,一个企业邀请我座谈企业发展战略问题,刚刚落座,企业的最高负责人就说:“我们就是你那篇文章中说的第二类企业。”我感动于对方的坦诚安慰道:其实大多数企业都是这个状态。如前面的分析,我们正处在人类历史上一个波澜壮阔的文明跨越阶段。它为企业的发展打开了前所未有的可能。但很多企业却被吊在了上不去下不来的困境中。很多企业既没有吃攻坚克难之苦及承担攀登高峰之险的勇气,所以“上不去”;又认为现在已经拥有的业务都不够“高大上”,而不屑于投入精力与热情去做深做透,做好做精。形象地说就是总看着别人的老婆更可爱。他们误认为自己上不去是因为没有机遇或“实力”不足。虽然在显意识中理性地否定,他们却在潜意识里坚定地相信只有铺满鲜花又通向辉煌的路才算“机遇”;他们虽然也知道那些具有了核心技术的企业很多都经历过砸锅卖铁的绝望,捉襟见肘的困顿,但是自己会本能地拒绝这样的选择。所以留下的只有上不去的尴尬与羡慕。他们在盲目地追赶潮流中去“抓机遇”而不是认真反思认清自己。追赶潮流的本质,不在于真正理解了潮流兴起原因,也不在于认为跟着潮流就会降低失败的风险。在内心深处,真正的原因是跟着潮流可以免去心理上的压力:跟在大众之中自然有一种非理性的心理上的安全感;即使结果是失败,也可以安慰自己“反正大家都这样”,自己给自己免除了自己本应该担负起来的责任。
他们下不来的原因就更简单,因为“不值得”去为不登大雅之堂的事情付出心血。华为当年只能下到县里买交换机的时候,你相信它未来能成为一个国际一流企业吗?比尔·盖茨当年做DOS的时候,中国好一点的科研院所都有能力做的不会比他差,但几十年过去今天操作系统成为了我们国家产业的痛之一。虽然在理性上认同万丈高楼平地起,但是因为没有经历过辉煌,所以很难真正理解一砖一瓦的价值,很难接受“农村包围城市”这样的“漫长”过程。总认为世间存在更好更快更短的“捷径”可走。岂不知“捷径”是世间最漫长的路,甚至是没有终点的歧途。最近看到“淘宝”网上直播“一姐”薇娅的故事,讲给大家做个借鉴。她草根出身,没有什么背景也没有“贵人”相助。因为坚信网上营销是未来,便关掉了盈利不错的几个实体店,靠夫妻俩人惊人的努力付出,在最困难的时候卖掉了自己两套房子而租房子住,在看不到希望的时候依然坚守,最后取得了巨大的成功。她开始参与“淘宝”直播的时候,大家都不看好这个模式,认为无非又是一个电视购物而已。但是她坚持下来了,非常敬业地工作,每一个产品是否推荐给粉丝都要由她自己最后亲自把关;在直播的时候都是自己亲自为粉丝尝试各种产品;一年365天她做了400次的直播,每次4到6个小时。因为长期不停地说话,声带受损也没有时间治疗,声音变得嘶哑,电话中被别人误认为是男性。据说在2019年“双十一”期间她的直播间销售额达27亿,是2018年她直播间一年销售的总和。她成功之后还做了很多公益活动,帮助贫困地区发展,而且已经把她的直播做到了国外。 图十  “淘宝”直播“一姐”薇娅虽然我是做技术出身的,但是对于任何靠自己实在努力而为社会创造出实际价值成功的人,我都充满敬意。举这个例子也是因为薇娅在信息文明的大潮中找到了自己的舞台,与今天我讲的话题直接相关。如果一个企业的核心人员都能这样踏实努力而不是好高骛远鄙视平凡的话,企业做不好也是很件难的事吧?企业缺的不是机会,而是不懂什么叫机会以及什么样的机会才属于自己。没有容不下你的舞台与没有价值的角色,只有不称职的演员。我们原来总是说“顶天立地”,现在我觉的这说法的次序反了,应该是立地才能顶天,否则就会像断了线的气球,结局只能是自我毁灭。当中国的信息技术领域,不再一个潮流接着一个潮流地大家一哄而起,而是各自能够认清自己、根据自己的实际情况踏实努力,我们的产业才算成熟了,也才真的有希望了。这种成熟在本质上是业界人士心理上的成熟。智能革命正在推动人类文明的升级,它为我们打开了一个空前广阔的空间。在这个空间里尽情放歌起舞的原动力是创新,而创新对人的根本性挑战不在智力,而在心理(详见微信“慧影Cydow”公众号《创新的挑战与教育的缺失》,2017年2月5日)。我讲的内容到此结束,再次非常感谢领导给我这个机会与大家互相分享交流学习。

原文链接:https://mp.weixin.qq.com/s/zfKae_57VWH-8hsig0e4Xw



编辑:董莉



350#
 楼主| 发表于 2019-12-12 21:44:11 | 只看该作者
【案例】
德雷福斯对人工智能的批判仍然成立吗?

来源:《自然辩证法研究》2019年第1期
作者:徐献军(同济大学人文学院)

  在当代哲学对于人工智能的思考当中, 美国现象学家德雷福斯 (Hubert L.Dreyfus) 的批判无疑是最具代表性的观点之一。在他这里, 欧洲的现象学哲学与美国的人工智能技术汇合在了一起。自1960年获聘美国麻省理工学院的助理哲学教授以来, 德雷福斯就直接接触到了当时世界上最为前沿的人工智能研究。明斯基 (Marvin Minsky) 与麦卡锡 (John Mc Carthy) 于1959年, 在麻省理工学院创立了计算机科学与人工智能实验室。当该实验室的学生们, 将人工智能的抱负 (通过给计算机编程, 让它们展现人类的智能) 以及人工智能对于哲学的偏见 (哲学只是先天不足的思考) 传达给德雷福斯时, 他产生了深深的困惑。

  幸运的是, 他的弟弟就是一名任职于美国兰德公司的计算机专家, 而这使他得以越过哲学与人工智能之间的专业鸿沟 (通常的哲学工作者即使对人工智能有兴趣, 也缺乏深入人工智能领域的机会或能力) 。德雷福斯甚至受聘于兰德公司, 而职责就是评估纽厄尔 (Alan Newell) 和西蒙 (Herbert Simon) 在认知模拟领域中的工作。这件事在今天看来仍然是耐人寻味的。我们不知道为什么兰德公司会让一位哲学家, 来评估人工智能的前景。但这件事至少可以启发我们:在今天的人工智能政策制订中, 让哲学家参与讨论应该是有先例的。

  德雷福斯向兰德公司提交的报告是《人工智能与炼金术》 (1965) 。这篇报告最具刺激性的地方就是将当时炙手可热的人工智能, 比喻成了古代的炼金术:“炼金术士们十分成功地从好象是尘土的东西中提炼出了水银, 这使他们在数百年毫无成果地想把铅变成黄金的努力之后, 仍然不相信:在化学层次上, 人们是难以改变金属性质的。为了免遭炼金术士们的命运, 现在我们应该问一问:我们在哪里?现在, 在把更多的时间和经费花到信息加工之前, 我们应该问一问, 人类主体的原型是否表明了计算机语言适合分析人的行为。把人类的智能行为全部分解为离散的规则去支配运算, 是可能的吗?以数字的方式去恰当地分析人类的智能行为是可能的吗?这两个问题的答案是同一个:不可能。”[1]84这篇报告的核心问题是:认知行为之下的信息加工过程, 是否可以被明晰地表达为程序, 然后在数字计算机上得到模拟。德雷福斯根据当时人工智能的挫折指出:数学计算机不能具备人类信息加工的三种基本形式 (边缘意识、本质/偶然区分、歧义容忍) 。但德雷福斯的批判, 不是对人工智能的否定。实际上, 他是提出了一种新的人工智能开发程序, 即根据人脑的结构与运作去设计人工智能 (这实际上是一种具身人工智能的思想) 。

  这篇报告后来扩展为了专著《计算机不能做什么》 (1972) , 以及《计算机仍然不能做的是什么?》 (1992) 。这些专著产生了非常大的影响, 因为它们促使人工智能领域的一些专家 (如厄廷格尔 (Anthony G.Oettinger) 、威诺格拉德 (Terry Winograd) 等) 开始反思人工智能中的哲学假设。今天看来, 德雷福斯专著中有关技术的部分, 可能已经有点过时了, 但其中的哲学部分 (他对海德格尔、梅洛-庞蒂哲学的解释) 仍然有持久的生命力。本文尝试探索两个问题:一, 德雷福斯对人工智能提出批判的哲学依据是什么?二, 在深度学习与强化学习大放异彩的今天, 德雷福斯的批判是否还能成立, 或者说在多大程度上还能成立?对这两个问题的探索, 不仅有助于推进人工智能的哲学研究, 也有助于我们对人工智能的未来保持一个冷静与理智的态度。

   一、德雷福斯的现象学哲学依据

  纵观德雷福斯一生的研究, 尽管他也从人工智能的具体挫折 (如认知模拟与语义信息加工的难题) 出发去展开他对人工智能的批判, 但他的基本立足点是哲学, 尤其是海德格尔与梅洛-庞蒂的现象学哲学。然而, 他对于海德格尔与梅洛-庞蒂现象学哲学的解释, 已经非常不同于海德格尔与梅洛-庞蒂原来的哲学了, 而是德雷福斯自己的哲学, 或者说德雷福斯式的海德格尔与梅洛-庞蒂了。“用海德格尔式的术语来说, 如果说西方形而上学在控制论中达到了它的顶峰, 那么人工智能近来的困难, 揭示的是技术 (technology) 的限度, 而不是工艺 (technological) 的局限。”[2]227

  德雷福斯将海德格尔及梅洛-庞蒂哲学, 与人工智能相联系的原因是:他认为人工智能是西方传统理性主义哲学与现代计算机发明相结合的产物。换言之, 人工智能不是单纯的技术发明, 而是有着悠久的哲学思想传承。人工智能不仅源于哲学, 而且是将理性主义哲学原则推到极致的体现。因此, 人工智能的出现具有重要的哲学意义, 因为人工智能中的成功与挫折, 可以成为判断哲学思想之优劣的一种客观依据。

  在德雷福斯看来, 当苏格拉底在雅典寻找能够阐明专家技能背后之规则的人时, 作为人工智能基础的理性主义思想就产生了。游叙弗伦 (Euthyphro) 是一名虔诚问题专家。苏格拉底要求游叙弗伦说明:判定虔诚行为的规则是什么。但游叙弗伦只能告诉他一些虔诚行为的案例。不光游叙弗伦是如此, 其他的工匠、诗人、政治家都不能阐明他们专家技能背后的规则。苏格拉底由此断定, 这些专家和他自己一样都是无知的。苏格拉底的学生柏拉图, 对上述难题进行了解释。柏拉图说, 专家们已经忘记了让他们成为专家的行事规则, 而哲学家就是要帮这些专家把他们的行事规则回忆起来。但不管专家们是否意识到了这些行事规则, 它们总是在起作用的。现代人工智能 (尤其是知识工程) , 就是要提取专家们的行事规则, 然后把它们编成程序输入到计算机中。[3]19-20

  近现代哲学中, 上述理性主义得到进一步发展。例如, 霍布斯提出推理就是计算, 莱布尼兹说存在着一系列可以表达所有知识的原素 (普遍特征) , 康德说概念就是规则, 维特根斯坦说世界可分析为逻辑原子。尽管纽厄尔、明斯基、西蒙等人工智能专家没有直接学习上述理性主义哲学, 但他们在运用理性主义思维之后, 得到了与哲学家们一样的观点。当然, 他们是把理性主义哲学思维与计算机发明进行了组合。“所有人工智能研究工作的必要前提是:世界必须可表征为本身是由始基构成的结构化描述序列。因此, 哲学和技术在依赖始基时, 都继续确立了柏拉图所探索的那个世界:一个明晰性、确定性和控制都已经得到保证的世界, 一个由数据结构、决策理论和自动化构成的世界。”[2]212

  海德格尔与梅洛-庞蒂对上述理性主义哲学进行了最有力的批判。在梅洛-庞蒂对知觉的分析中, 他把一切存在都是确定的思想, 称为“常识预设” (le prejudge du monde) 。“感知的设定证据不是建立在意识证词之上, 而是建立在常识预设 (未经质疑的世界信念) 之上的。……有两种误解性质的方式:第一种是把性质当作意识的元素 (性质是意识的对象) , 并把性质当作无声的印象, 而且性质始终是有意义的;第二种是相信:这种感知与这种对象在性质层面上是完全的和确定的。和第一种错误一样, 第二种错误也来自于常识预设。”[4]5-6梅洛-庞蒂引用了著名的缪勒-莱尔错觉 (两条原本等长的线条, 因两端箭头的朝向不同, 看起来箭头朝内的线条比箭头朝外的线条要短些) 来说明:实在的景象是模糊与不确定的。假设一切存在都是确定的认识论与心理学假设, 实际上是掩盖了人的主观性。梅洛-庞蒂依据格式塔心理学, 进一步说明了:人的主观性是与身体性相关联的。“如果我的目光不能包围物体, 那么物体就是小的;如果我的目光能充分包围物体, 那么物体就是大的……对于世界的知觉只是我存在场的扩展;知觉不会超越存在场的本质结构, 并且身体总是存在场中的自主体, 而不是存在场的对象。世界是我置身于其中的、开放与不确定的统一体。”[4]317-318

  德雷福斯根据梅洛-庞蒂的身体现象学提出:身体在人类的智能行为中起着关键作用。“把人同机器 (不管机器建造得多么巧妙) 区别开来的, 不是一个独立的、普遍的、非物质的灵魂, 而是一个涉入的、处于情境中的、物质的身体。给人工智能制造最多麻烦的, 正是智能行为的身体方面。”[2]236人类智能活动中那些不可形式化的、不可表征的信息加工活动, 只有对于身体来说才是可能的。例如, 一个人可以很熟练地使用筷子, 却很难马上说出如何使用筷子的操作规则。因此, 在德雷福斯看来, 人工智能能否成功的关键在于:人类能否制造出类人的身体。从目前的神经科学与意识科学水平来看, 这个目标的实现仍然是遥不可及的。

  海德格尔则将传统的理性主义哲学思想称为“计算思维” (rechnende Denken) 。这种思维是理性主义哲学的追求, 并且将在现代计算机技术、信息论或控制论中实现。[2]233为“计算思维”所必须的是规则模型。理性主义哲学家们这么做, 是因为他们想把知识与情境分离开来, 从而获得一种普遍性的知识;而计算机专家这么做, 是因为计算机最适合 (甚至是只能) 处理脱离情境的信息。因此, 计算机所处理的只是一个人工的虚拟世界 (或者说是微世界) ;这个世界由清晰的、可表征的基本事实与规则构成。为了模拟人类的世界, 计算机专家们试图把情境分解为事实与规则, 而他们使用的方法总是刻板与有限制的 (如决策树、学习算法) 。根据海德格尔的“在世界中存在”的思想, 最好的世界模型不是存储在脑中、输入到计算机中的世界模型, 而是世界本身。“因为事实和规则本身是无意义的, 所以要获得海德格尔所称为意义或涉入的东西, 事实和规则必须被赋予相关性。但是在计算机程序中, 用来定义相关性的谓词仍然是无意义的事实, 所以出现了这种让人惊讶的情况:计算机被给予的事实越多, 它就越难计算出哪些事实与当前情境是相关的。……这样的搜索随着事实的增加, 会变得越来越困难, 并最终变得让人绝望。”[5]48

  在深度学习中, 神经网络似乎通过设计者输入的数值 (value) , 模拟了人类的价值或意义系统, 但神经网络终究是知其然, 不知其所以然。因为设计者本人也是如此。“此在……只不过是……牵挂地消释于世界中。”[6]197最适应情境需求的技能行为是无心的 (即无精神表征的) , 而这时人与世界的联系是直接的;只有在无心的技能化应对活动出现中断时, 人们才会进行深思熟虑的活动, 即通过精神表征来间接地建立与世界的联系。换言之, 高层次的表征活动是以低层次的非表征活动为基础的。正如精神病学家们所揭示的那样, 精神分裂症患者的紊乱首先是在其存在底层的。精神分裂症患者不得不承担本该以非表征方式完成的工作, 而这使得他们表现出了极端相反的两种倾向:一是在所有的工作中都表现得极端缓慢, 二是具有异常的缜密性和理智性。换言之, 非表征技能化应付的效率, 远高于有表征的技能化应付。[7]112-113当然, 人工智能设计中的表征活动与精神疾病患者的表征活动是完全不同的———前者是自主的、可控制的, 而后者是不由自主的、不可控制的。

  如上所述, 德雷福斯发现人工智能的基础正是理性主义哲学假设, 因此人工智能与哲学之间是连续的———人们完全可以从哲学的角度去考虑人工智能进路的终极可能性。换言之, 人们可以将人工智能看作是将理性主义哲学原则推到极致的工艺产品。如果海德格尔和梅洛-庞蒂是对的, 那么人工智能的表征主义进路就是错的。因为在海德格尔和梅洛-庞蒂看来, 人类真正的智能是身体性的与无法表征的。德雷福斯批判表征主义人工智能的最根本依据就是:如果理性主义哲学原则在哲学上就已经是不能成立的, 那又何必耗费巨大的人力与物力去推行呢?
   二、人工智能的发展是否已经有效克服了德雷福斯的批判?

  德雷福斯对人工智能的批判, 经历了长期的排斥与抵制 (德雷福斯甚至为此丢掉了在麻省理工学院的教职) , 但最终得到了人工智能界的接受。近些年的人工智能界, 如加州大学伯克利分校计算机科学教授拉塞尔 (Stuart Russell) 和谷歌研究总监诺维格 (Peter Norvig) 已经大方地承认:“哲学的历史比计算机要悠久得多, 而且哲学一直在尝试解决与人工智能有关的问题:心灵是如何运作的?机器是否可以像人那样进行智能活动;如果机器有人一样的智能活动, 那么机器会有真正的、有意识的心灵吗?”[8]1020他们认为德雷福斯在提出批判意见时, 已经成为了人工智能理论家;德雷福斯所关注的许多问题 (如常识知识、不确定性、学习的决策形式等) 确实是重要的问题, 而且现在已经被纳入标准的智能自主体设计当中。但他们非常乐观地认为:德雷福斯提出的所有难题, 都已经得到解决, 或者说在原则上可以圆满解决的。拉塞尔等人将德雷福斯的批判意见归纳为四条。[8]1025接下来, 我们将逐条检查拉塞尔等人的乐观主义, 在多大程度上是正确的。前三条批判意见都涉及了明晰性假设。理性主义哲学家们认为, 我们的日常知识是完全可以被明晰化的, 而以海德格尔为代表的反理性主义哲学家们则反对这一点。德雷福斯正是基于海德格尔哲学的立场, 提出了背景知识的不可表征性、基于表征数据的神经网络与学习算法的局限性。明晰性假设也就是人工智能的最关键假设:即存在论假设———世界是否可以分解为最基本的明晰要素。第四条批判意见涉及了具身哲学的问题, 即在人们知道具身机制的运作细节之前, 就无法让人工智能真正实现具身。

  1. 第一条批判意见是:

  如果没有背景知识, 就不能对实例进行很好的概括, 并且没有人知道如何将背景知识纳入神经网络的学习过程。“可把背景当作是另一种事物, 并可以用表征任何日常事物的那种结构化描述来表征它, 这种假想对我们整个的哲学传统来说是尤其重要的。海德格尔是第一个辩识和批判过这一假想的人;按照他的意见, 我现在把这个假想称为形而上学的假想。”[2]56

  拉塞尔等人既肯定了背景知识的重要性, 也意识到了利用背景知识的难度。“一个使用背景知识的自主学习自主体, 首先必须获得背景知识, 以便在新的学习过程中使用它们。这个方法本身就是一个学习过程。因此自主体的生活历史将以累积或渐进的发展为特征。据推测, 自主体开始时是一无所有的, 就像一个很好的纯粹归纳程序一样, 在真空中进行归纳。但是一旦自主体从知识树上掉落, 就不能再继续这种天真的推测, 而应该利用其背景知识来进行更有效的学习。问题是如何真正做到这一点。”[8]777可以使用的方法包括:基于解释的学习 (EBL) 、基于相关性的学习 (RBL) 与归纳逻辑编程 (ILP) 。但不论是什么方法, 都需要以知识表征 (即以明确的形式提供知识) 为基础, 而这是德雷福斯所坚决否认的———背景知识是难以表征与形式化的, 因为背景知识往往处于意识的边缘, 或者说背景知识是默会的。

  2. 第二条批判意见是:

  神经网络学习是一种有监督学习的形式, 要求事先确定的相关输入和正确输出;因此, 没有人类培训师的帮助, 神经网络学习就不能自主运作。“神经网络确实表现出了学习能力;但在有监督学习中, 是由人来决定:哪些情况是好的, 并且是由人来提供智能。网络学到的只是:如何通过网络的力量去把握智能。我们真正需要的是这样的系统:它能靠自己学会如何应对环境, 并在环境发生变化时修正它的反应。”[2]xxxviii-xxxix

  拉塞尔等人认为, 有监督学习确实需要事先确定的相关输入和正确输出, 但无监督学习和强化学习不需要人类培训师与标记数据。无监督学习的典型就是聚类 (clustering) , 即在对象集合中辨别多个范畴的问题, 而这种问题是无监督的, 因为没有给出范畴标签。聚类算法只需要知道如何计算相似度就可以工作, 而不需要知道相似的范畴。[8]817但无监督数据仍然需要从表征数据开始。强化学习的任务是让奖励最大化。我们可以下棋为例。在有监督学习中, 自主体需要被告知它在每个棋局位置时的正确行动 (这是人类大师已经发现的下法) 。在强化学习中, 自主体可以在没有人类教师反馈的情况下进行学习, 但这时需要奖励的引导, 即被告知赢了或输了 (这就是强化) 。在棋类游戏中, 自主体在游戏结束时才接收到强化, 而在如打乒乓球这类的游戏中, 每次得分都是一个强化。[8]830强化学习使人工自主体更为接近人类的行为方式, 因为人类就是把痛苦与毁灭作为惩罚, 而把快乐与生存作为奖励的。在复杂领域中, 强化学习几乎是培养高水平智能的唯一可行方法, 因为它大大减少了对表征数据的需求。但是, 使用强化学习的神经网络, 仍然需要对相应领域中稳定特征的表征。在特征清晰但计算量大的领域中, 强化学习是相当有效的。例如围棋游戏虽然计算量大, 但其特征非常少并且清晰 (黑白二子) 。但某些领域 (如中国股市) 往往存在着大量难以表征的不稳定特征。因此, 无监督学习与强化学习, 仍然以表征数据为基础, 而无法产生非表征的智能。

  3. 第三条批判意见:

  学习算法在确定后, 就很难识别新的特征。“但是, 如果我们从可能相关特征的有限系列出发, 而且当前系列不足以解释有关强化与情境转换的学习事实, 那就没有增加新特征的方法。”[2]xliii拉塞尔等人则认为, 支持向量机等的、处理大型特征集的新方法, 有非常好的效果, 而随着基于Web的大型数据集的引入, 语言处理和计算机视觉等领域的许多应用程序, 不仅能处理海量特征, 而且在原则上可以产生新的功能。

  在学习算法中, 人们可以把之前的数据表征为一阶逻辑理论, 然后通过两种方式去搜索与这个理论一致的逻辑假设。第一种方法是当前最佳假设搜索 (current-best-hypothesis serarch) :即当新的例子进入时, 调适原有假设以保持新旧一致性。但这种方法的缺点是:回溯之前所有的例子是非常昂贵的, 因为假设空间是一个呈指数级增长的空间。因此有了第二种方法, 即最小承诺搜索 (least-commitment search) ———为了避免回溯, 就只保留那些与所有数据一致的假设, 而每一个新的例子要么是无效的, 要么就脱离一部分假设 (或者说是删除了与新例子不符的假设) 。但是, 已有的算法 (如变型空间) (version space) , 仍然不适用于现实世界学习。[8]770-798因此, 对第三条批判意见的解决仍然只是“原则上的”。
  4. 第四条批判意见:

  人们现在还不知道人脑运作的细节, 更无法用脑科学去指导人工智能研究。“要想概括人类的行事方式, 网络建筑就必须这样来设计:网络可以根据与人类相关的特征, 对情境作出反应。这些特征不仅必须以过去的重要经验为基础, 还要以近来决定如何去看情境的经验为基础。只有在网络进入以视角为基础的、类人期待情境中时, 网络才能识别未被期待的输入 (如森林中的坦克) 以及当在情境中没有的、重要的期待输入。现在没有网络具有这种能力, 现在也没有人知道甚至想过:人脑建筑是如何产生这种能力的。”[2]xxxviii

  拉塞尔等则认为, 信息价值理论 (information value theory) 使人工自主体, 具备了类似于人脑决策机制的能力。“信息的价值在于它能够改变计划, 并且新计划明显好于旧计划。”[8]631在信息价值的引导下, 敏感的自主体可以合理的顺序来提出问题, 避免不相关的问题, 并掌握每个信息的重要性。然后, 人们就可以制造出能够做简单决策的自主体, 而其决策步骤是这样的:创造因果模型、简化为量化的决策模型、赋予概率、赋予用途、确证与提升模型。[8]634这类自主体的典型就是STANLEY。它是一台无人驾驶的机器人车, 而在2005年, 它以22英里的时速在美国莫哈韦沙漠中, 首先完成了132英里长的DARPA挑战赛。这样的努力确实已经吸取了德雷福斯的具身化建议, 但在人工智能具身化后, 进一步的问题就是:人类怎么把心给予机器呢?心是可以对象化的么?

  综上所述, 尽管进入21世纪以来, 人工智能的神经网络进路的确取得了很大的进步, 并有了非常广泛的应用, 但神经网络进路中纷繁复杂的技术工作, 都有共同的哲学假设 (即存在论假设) , 而且人们也没有在具身研究中取得根本性突破, 因此过去德雷福斯对于人工智能的批判仍然是成立的。德雷福斯的人工智能批判的核心意义在于:他有效揭示了人工智能的核心假设, 并指出了这种哲学假设对于现实人工智能工作的束缚。值得注意的是:德雷福斯的批判不是对人工智能的单纯否定, 而是开发新的人工智能进路的建议。人与机器的根本差异在于:人可以处理那些难以表征的任务, 而机器不可以。在人类完全破解人类身体与意识的奥秘之前 (也许根本不可能破解) , 人类也无法让机器具备处理难以表征任务的能力。尽管人工智能可以进行很多似乎是“智能”的活动, 但我们切不可就此认为那就是人类的智能活动方式。事实上, 人工智能只是人造智能, 而非类人或替代人的智能。

   结语

  人工智能已经广泛地融入了人类的世界 (如图像识别、机器翻译、信用卡自动审批等) , 而且人工智能已经在某些领域 (如机器词典、下棋、数学定理证明等) 表现出了远远超越人类智能的水平。但我们始终不能忘记的是:人工智能中的问题, 不只有科学技术的属性, 而且有哲学的属性。德雷福斯的功绩在于:他阐明了一些根本性的人工智能哲学问题。这些问题既与人工智能有关, 也超越了人工智能的范围。其中最重要的哲学洞见是:人类最根本的智能活动是非表征的、不可形式化、不可规则化的。人类的风险不在于:人工智能在可表征的、可形式化、可规则化的智能活动中超越了人类, 而在于人类放弃了自身的独特性, 而逐渐向人工智能的活动方式靠近。换言之, 可怕的不是造出像人一样的机器, 而是培养出像机器一样的人。



原文链接:https://mp.weixin.qq.com/s/8fsW_wVEisV3TPv3MIRVZQ



编辑:董莉

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表