传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
161#
 楼主| 发表于 2019-8-17 16:23:10 | 只看该作者
【案例】
人工智能被滥用?个人数据要控制
文章来源:南方plus
    南方日报讯 (记者/郜小平)首份由企业界联合发布的人工智能(AI)行业自律公约正式公开。816日,全球人工智能创业者大会在深圳举办,本次大会以“AI·对话未来”为主题,聚焦人工智能赋能在各个领域及商业如何落地。此次会上,包括优必选、奥比中光、酷开、高新兴、云译等粤企,以及旷视、科大讯飞在内的数十家人工智能企业共同发起《新一代人工智能行业自律公约》(下称《公约》),倡导AI技术健康可持续发展。
    今年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》。这是我国首次发布发展人工智能治理原则,提出发展负责任的人工智能。
    中山大学数据科学与计算机学院教授赖剑煌表示,当前人工智能技术存在被滥用,如用户在浏览、搜索、网上购物和社交时,大量软件在分析用户行为偏好,此外,人脸识别技术也被滥用,他认为,生物特征识别具有隐私性,为避免相关数据被非法使用,他呼吁相关部门对此加强管理。
    为推动科技向善,多家企业共同发起《公约》,包括坚持以人为本、促进正义公平、确保安全可控、注重隐私保护、促进包容共享、确保权责明晰、加强协同合作、健全行业标准等8个方面。例如在促进正义公平方面,提出提升人工智能算法决策的透明度,从算法决策、编码设计以及商业应用等不同层面,确保人工智能的设计与应用公平、合理、无歧视;在注重隐私保护方面,人工智能应加强个人对数据的控制,防止数据滥用。
当天,深圳市人工智能行业协会对外发布《2019人工智能产业发展白皮书》,从人工智能产业、技术、企业及伦理等领域进行研究。报告显示,国内人工智能产业已初步形成产业链,其中上游企业提供基础能力,中游企业将基础能力转化成AI技术,下游企业则将AI技术具体运用到特定应用场景。截至今年6月,北京以709家人工智能企业数量位居全国第一,深圳居第二,相关企业为636家,创立年限平均在4.42年,近七成集中在应用层领域。
原文链接:
https://epaper.southcn.com/m/ipaper/nfrb/html/2019-08/17/content_30041.htm?from=singlemessage&isappinstalled=0
编辑:高杰

162#
 楼主| 发表于 2019-8-17 18:25:14 | 只看该作者
【案例】
人工智能怎样应用在文本数据研究中?
原文链接:https://mp.weixin.qq.com/s/pnd4UzAQmCudVF0tU6C-fw
文章来源:文本数据挖掘与分析
作者:张荣显,赵莹,曹文鸳
在人人都谈论大数据人工智能的时代,社会科学研究的未来是否可以与这些新的技术发展结伴而行?这成了困扰当前社会科学领域研究的一大难题。
file:///C:/Users/le/AppData/Local/Temp/ksohtml14624/wps1.png
社会科学是探索人类社会及其发展规律的科学,这一领域涉及哲学、经济学、法学、政治学、社会学、历史学、文学、艺术等学科。随着大数据时代的到来,人工智能、机器学习、深度学习等为社会科学研究带来了新的机遇和视野,但同时也因社会科学领域研究者所掌握的技术、算法的相关知识相对较为薄弱,使得其对人工智能等技术应用望而却步。
什么是人工智能?
人工智能主要指机器以模仿人类智能的方式执行任务,[1]具体来说,可从三个层次理解人工智能。
第一个层面比较泛泛而谈,指机器执行我们通常理解的(human-like understanding)任务的能力。[2]
第二个层面综合了类似人类的多种能力,即机器具有像人类一样感知(sense)、理解(comprehend)、行动(act)、学习(learn)的能力。[3]
第三个层面上升至认知和判断并解决问题的能力,人工智能显示出类似人类的认知能力和执行能力,强调人工智能是一种复杂的技术应用,机器能展示人类的认知功能(human cognitive),如学习、分析和解决问题。[4]
file:///C:/Users/le/AppData/Local/Temp/ksohtml14624/wps3.png
总体来讲,人工智能主要集中在类似人类的感知、认知和判断能力方面的探索和实践
根据机器是否具有自主意识,可区分为
1
具有自主意识的强人工智能
2
不具有自主意识的弱人工智能[5]
弱人工智能主要是模拟人的某些特定的技能,智能处理一些特定场景和应用的问题,实际应用领域包括,例如语音识别,图像人脸识别,自然语言处理,信息检索,自动驾驶,智能控制机器人等。
file:///C:/Users/le/AppData/Local/Temp/ksohtml14624/wps5.png
人工智能的发展目前尚停留在弱人工智能阶段,正努力向具有自主意识的强人工智能突破。
那么,当强人工智能应用得以实现后,是否意味着人工智能就可以取代人类呢?
人工智能VS人类
在人工智能的实践和应用中出现过机器战胜人类的AlphaGo,它结合了蒙特卡洛树搜索与深度神经网络(决策网络和数值网络)算法,通过自我学习进行直觉训练,匹配职业棋手的过往棋局中约含3000万步棋着,进行强化学习,以达到甚至超越人类的围棋水平。[6]
20175月,AlphaGo战胜了世界第一棋手柯洁,是围棋界一次人工智能算法成功的尝试,引发了人工智能可以战胜人类的讨论。但AlphaGo在与人类进行围棋对决的过程中,也有人不可能不出错的因素。
file:///C:/Users/le/AppData/Local/Temp/ksohtml14624/wps7.png
相比于不断进化AlphaGo,红极一时的索菲亚机器人通过预先录好的脚本应答各种问题,模仿人类的手势和面部表情,并能够与人进行简单的对话交流。2016年,曾登上时尚杂志封面、接受各地媒体访谈,走上机器人巅峰。[7]
虽然索菲亚机器人逼真的外形和快速反应的能力曾经让大家以为具有自我意识的人工智能时代已经到来。但这种只能通过预先设定的脚本进行反应的做法仍然是处于弱人工智能阶段,它还是无法自我思考。
file:///C:/Users/le/AppData/Local/Temp/ksohtml14624/wps10.png
在《哈佛商业评论》(Harvard Business Review)中,有学者总结目前不会被人工智能取代的七大技能[8],指出当前人工智能还无法通过技术或算法达到的能力,这也是目前否定人工智能可以取代人类的原因所在。
讲故事的沟通能力(Communication
具有专业知识的内容(Content
对场景理解的能力(Context
多层次的情感处理的能力(Emotional competence
因材施教(Teaching
兼备人际的强关系弱关系(Connections
伦理和道德的判断(An ethical compass
由此可见,人工智能的实践和应用在目前取得的成果基本上还是停留在一个非自主意识的弱人工智能阶段,机器实现自我意识不是在短时间内就可以达到的,我们能做的是不断提升技术,优化算法,不断提升机器学习和辅助的能力。
因而,我们不应该去问人工智能是否会取代人类,或者计算机能否赢得图灵的模仿游戏这类问题,我们需要机器来做那些人类做不到、做不好的事情,这才是关于人工智能需要去研究的具体问题。[9]只有这样,才能让人工智能真正向惠及人类的实践应用发展。
所以,停止关心机器取代人类的问题,将关注点聚焦在机器如何辅助我们的实践应用中。
回到社会科学研究
在社会科学研究中,人工智能多应用在数据的分析和处理过程中,尤其是对文本数据的意义挖掘和价值洞察。涉及到的文本数据类型多样,包括新闻报道、社交网络的信息、历史档案、访谈文字、文献、政策文档等。过去,在传统的社会科学研究中,都是人工进行文本或者数据的分析和处理,如今,运用人工智能来面对文本或数据的时候,如何从文本中来理解人的行为和想法?
人工智能在文本大数据的挖掘与分析中的应用,集中在媒体监测和趋势预测等方面。以舆情领域的研究和实践为例,当前很多应用是处于收集资料的阶段,即是人工智能的感知层面。利用机器获取数据涉及到数据覆盖度的问题,是机器获取的数据是否齐全或者是否具有代表性以及获取到的数据质量的考量,这与人工智能对于数据获取的感知能力有关。
认知,相当于机器通过对自然语言文本的理解,进行智能的自动化归类和分析,实务上来说,就是如何去测量,从文本中得到意义和洞察结果。
判断,相当于了解了文本之后所作出的决策和行为。也就是说,怎么解释、分析、挖掘研究发现,协助用户可以做出正确的判断,以为后续采取行动做指引和参考。
这三部曲,就是利用人工智能辅助进行文本数据的挖掘及分析时需要考虑的问题,这也是当前文本大数据挖掘和分析过程中遇到的三大挑战。
file:///C:/Users/le/AppData/Local/Temp/ksohtml14624/wps11.png
以当前舆情分析为例
聚焦在自然语言处理方面,人工智能在文本大数据挖掘的方面目前已经有了一些应用。
以舆情系统为例,当前主要以描述KPI的结果为主(如图1所示),如数据来源、内容的分类、点赞数、跟帖数、分享量、热度,情感分析、情绪分析等。这些都是机器感知的一部分,但目前这种分析能力还只是停留在初步的阶段,仍然需要进一步深度的挖掘和分析。
file:///C:/Users/le/AppData/Local/Temp/ksohtml14624/wps13.png
舆情分析中的KPI结果呈现
人工智能面临的主要的难题
——对语境和场景的认知
无论是舆情研究还是其他的文本研究中,认知层面涉及到的问题是目前机器比较难以解决的,尤其是需要考量中文千变万化的语境和上下文复杂的场景。对于机器来说,针对语境和场景进行理解需要大量的常识,这也是目前人工智能应用较难突破的部分,但是语境和场景也恰巧是文本数据中不可忽视的重要部分。
file:///C:/Users/le/AppData/Local/Temp/ksohtml14624/wps15.png
小妞,你今天棒呆啦,这个句子中的形容词棒呆啦指代的到底是赞赏还是讽刺?Amy做了一件很正确的好事时,就是赞赏,但当Amy做了一件糟糕的事情时,就是一种责备和讽刺。在不同场景下,棒呆啦一词的含义可以是完全不一样的。
在缺乏对语境和场景的常识下,机器的认知会产生歧义或者是不理解的状况。同时,文本的自动化情感分析也会出现同样的问题,无论是基于机器学习还是词库匹配的情感分类,机器都无法像人一样具有场景和语境的常识,对于文中涉及到的如反讽、暗语等修辞的认知能力还远远不及人类的理解水平。
在纷繁复杂的场景和语境中重塑5W1H
通过重塑5W1HWho, What, Where, When, WhyHow,以此来呈现信息中的关键要素,这也是文本挖掘和分析试图在做的事情。当前,机器是可以对Who, What, Where, When进行挖掘和分析的。例如,以通过人物角色、意见领袖进行Who(谁)的挖掘和分析。通过关键词定义议题的概念,对What(议题)进行挖掘。通过对地点和信息来源渠道进行Where(地点)的挖掘。通过API的方式,实时采集数据,得以实现对于When(何时)时间信息的挖掘。
另外两个关于因果的Why How,在目前的技术水平上,机器基本上是没办法帮我们解决的。
除了对于基本要素5W1H的理解,社会科学研究更需要强调的是变量之间的差异和关系,以及数据背后的因果探索。如何利用人工智能辅助进行多个变量的差异性或者关系的分析?如何提升对文本的感知、认知和判断的能力?这是文本大数据挖掘和分析过程中需要解决的问题。
过度的程序化和同质化
总结当前舆情分析中存在的问题,过度的程序化和同质化都限制了我们的想象力,解释力和判断力,这样就限制了我们找出更有洞察力的一些发现。所以从感知、认知到判断,重要的不是我们所看到的可视化结果,而是这些结果能带给我们作出判断的信心和确定性。这就需要从数据库的建立——抓取数据开始,到设定分析框架,从测量到分析,应该都是由我们来掌握的,是我们决定机器给我们看什么,而不是机器决定我们看什么。
信息技术—>社会科学
文本大数据挖掘过程经历不同的几个阶段。最初,是通过搜索电子简报,对信息归类。到现在是舆情监测、品牌聆听的做法,从符号/信号到归类资料到信息可视化,目前都已经做了很多的实践和应用。大部分的舆情分析工具都是在这个阶段,有很多运用机器进行自动化分析的系统或程序。
但想要做到监测之后的分析和挖掘,就需要对文本大数据挖掘有全新的理解,即从信息技术(Information technology)的视角转向至社会科学(Social sciences)的视角,也就是说,信息技术应该是辅助文本的挖掘和分析
file:///C:/Users/le/AppData/Local/Temp/ksohtml14624/wps17.png
文本大数据挖掘过程经历的阶段
运用人机结合,在内容挖掘、语义分析、结构挖掘和社交关系等分析方面,突破感知的层面,提升认知和判断的能力。在充分利用机器辅助的前提下,结合社会科学的概念与方法,以覆盖度、测量和解释这三个重要的维度为重心,聚焦人工智能对文本的感知、认知和判断层面来处理文本大数据所面临的种种问题。
人工智能+社会科学研究方法
如何实现这种人机结合的机制,将大数据技术与社会科学研究方法结合?
将传统的社会科学研究方法——内容分析法,融合在大数据技术平台上,形成集网络挖掘、机器学习、内容编码、统计分析、情感分析等这些模组集中在一个平台上(DiVoMiner®)进行文本大数据的挖掘和分析[10],方便研究人员一站式进行研究设计,类目建构、内容编码、质量监控、数据分析和可视化结果输出,形成一整套科学、系统的大数据技术辅助在线内容分析法,供社会科学研究领域对于文本数据的挖掘与深度分析。
file:///C:/Users/le/AppData/Local/Temp/ksohtml14624/wps19.png
DiVoMiner®大数据技术辅助在线内容分析法模组
file:///C:/Users/le/AppData/Local/Temp/ksohtml14624/wps21.png
大数据技术辅助在线内容分析法机制
为满足社会科学研究对研究质量的需要,平台提供信度测试和质量控制机制,以保证文本挖掘和分析过程的科学和严谨。尤其是内容编码这部分,不同于当前人工智能领域中的打标签,主要差别在于内容编码的严谨程序化,除了前测编码外,编码员之间的内在信度和编码质量也都有保障。
正是因为结合了社会科学研究方法,使得研究更具有定制性特征,给予研究人员更多的自主空间进行个性化的研究,解决了当前舆情分析或文本挖掘与分析中面临的问题,例如自动化情感分析中,机器无法解决语境和指向物模糊的问题,在DiVoMiner®上可以通过设定具体的定制化类目,对文本中的变量进行测量。因而通过社会科学研究方法的应用,实现了对于文本中的多变量的差异和关系的挖掘。
编后语
下篇将推出大数据技术辅助在线内容分析法的发展历程及具体的操作流程。该研究方法和研究平台的具体的案例介绍和应用将陆续推出,更多内容欢迎大家持续关注。
参考文献
[1] Marr, B. (2016). What is the difference between artificial intelligence and machine learning? Forbes. Retrieved from:
https://www.forbes.com/sites/bernardmarr/2016/12/06/what-is-the-difference-between-artificial-intelligence-and-machine-learning/#66fdb6862742.
[2] Knowledge@Wharton (2018). Vishal Sikka: Why AI needs a broader, more realistic approach. Retrieved fromhttp://knowledge.wharton.upenn.edu/article/ai-needsbroader- realistic-approach/.
[3] Daugherty, P., Carrel-Billiard, M., & Biltz, M. (2018). Accenture technology vision 2018. Retrieved from. Intelligent Enterprise Unleashed. Accenturehttps://www. accenture.com/t00010101T000000Z__w__/nz-en/_acnmedia/Accenture/next-gen-7/tech-vision-2018/pdf/Accenture-TechVision-2018-Tech-Trends-Report.pdf#zoom=50.
[4] Valin, J. (2018). Humans still needed: An analysis of skills and tools in public relations. Discussion paper. Retrieved from London: Chartered Institute of Public Relations. https://www.cipr.co.uk/sites/def ... R_AIinPR_A4_v7.pdf.
[5] Searle, J. (1980). Minds, brains and programs. Behavioral and Brain Sciences, 3, 417-457. doi10.1017/S0140525X00005756.
[6] Silver, D.Huang, A., & Maddison, C. J. ect. (2016). Mastering the game of Go with deep neural networks and tree search. Nature: 484–489. doi:10.1038/nature16961.
[7] 2018AI界的第一件大事记:索菲亚原来是个骗子”. 新浪财经头条. 2018822. https://t.cj.sina.com.cn/article ... /14e8a47f300100cm5j
[8] Adam J. Gustein & John Sviokla. 7 Skills That Aren’t About to Be Automated. Harvard Business Review. 2018717日。https://hbr.org/2018/07/7-skills-that-arent-about-to-be-automated?utm_medium=social&utm_campaign=hbr&utm_source=facebook&from=timeline
[9] Parnas, & Lorge, D. . (2017). The real risks of artificial intelligence. Communications of the ACM, 60(10), 27-31.
[10] 张荣显,曹文鸳:《网络舆情研究新路径:大数据技术辅助网络内容挖掘与分析》,《汕头大学学报》(人文社会科学版)2016年,第8期,第111-121页。
编辑:高杰

163#
 楼主| 发表于 2019-8-18 17:37:22 | 只看该作者
【案例】
追问人工智能
文章来源: 人机与认知实验室
原文链接:https://mp.weixin.qq.com/s/Fgm0184PMfK5OCufNGlisQ
作者:白驹
前段时间,英国公司登记处的一份文件披露了 DeepMind 2018 年的财务状况:这家 AI 科技公司的净亏损由 2017 年的 3.41 亿美元增加至 2018 年的 5.72 亿美元,今年到期的债务高达 12.656 亿美元。如此巨额的亏损引起了广泛关注,也引发了人们对于 AI 前景的质疑。近日,纽约大学心理学和神经科学教授 Gary Marcus 就在《连线》上撰文表达了对于 DeepMind 亏损状况、深度强化学习现状以及 AI 未来走向的深度思考。
file:///C:/Users/le/AppData/Local/Temp/ksohtml15072/wps1.png
       技术和资本对人工智能发展的影响从中可见一斑,在此,不妨大胆假设一下,如果DeepMind倒闭了,阿尔法狗死了,Demis Hassabis破产了,在这全民AI的时代,人们会怎样再次审视当前AI系统通用性差、不灵活的表征、可解释性差、没有常识和不能终身学习机制呢?!
       信仰是赞同的思考。先理解后信仰,与先信仰后理解不同,也许人们对于宗教的方式有时会迁移到科学技术上,尤其是在全球经济环境不乐观的环境下,AI真正的实际应用价值有点被高估了。一般而言,人在困境中,如落水时,往往会以为稻草真能救命吧?!
      有人猜测,深度强化学习会成为一种有用并被广泛采用的工具(如自行车),但不会改变世界。平心而论,这种可能性的确很大。究其因,它的运行机理无法实现人们对智能的期望和理解:开放环境下,非预期的处理和出人意料的辅助。
      现在从事智能工作的大都是手里领着各种榔头(或计算机、或自动化、或数学、或心理学…等)的人,他们眼中之钉各不相同,岭峰不同,而事实上,智能问题的综合性又远远超出这些学科本身的当前发展水平,所以效果和结果就不得而知了。
      没有人,就没有智能,也就没有人工智能。这也许是一条准则:一个不研究人的智能研究机构或教育机构,就是一个机械工程研究所或学校,说的再委婉一些,就是机械工程与自动化职业学院吧!
       这也下面这本小书写作的目的:在建筑智能大厦
file:///C:/Users/le/AppData/Local/Temp/ksohtml15072/wps3.png
      当前,无人的智能就是高级自动化(最多添加了一些统计概率等调味品)。而人机融合的智能不仅仅是拓展了视觉、听觉、触觉、嗅觉、味觉等感觉,还增强了理解、学习、判断、决策、顺应、同化等知觉行为,更重要的是产生出了新的智能形式——一种新的看待世界的方式:认知+计算所可能形成的洞察。
编辑:高杰

164#
 楼主| 发表于 2019-8-18 17:45:39 | 只看该作者
【案例】
揭秘AI训练内幕:帮助AI进化的除了专家 还有全球无数上班族
文章来源:腾讯科技
原文链接:
https://new.qq.com/omn/TEC20190/TEC2019081800049000.html?pgv_ref=aio2015&ptlang=2052
  • 1AI系统能够学习之前,必须有人标记提供给它的数据,这项工作对自动驾驶汽车、监控系统和自动化医疗等AI的创造至关重要。
  • 2大型科技公司对注释数据的工作往往保持沉默,因为他们面临着隐私维权人士对他们存储并与外部企业共享大量个人数据的担忧加剧。
  • 3数以万计的上班族和通常在家里工作的独立承包商,正通过Amazon Mechanical Turk等众包服务对数据进行注释和贴标签,每个标签只能赚几分钱。

腾讯科技讯 8月17日消息,据外媒报道,在距离孟加拉湾约60公里远的印度布巴内斯瓦尔市中心,纳米塔·普拉丹(Namita Pradhan)坐在办公桌前,盯着世界另一端某家医院录制的视频。
视频显示了某人结肠的内部,普拉丹正通过视频寻找息肉,即大肠中可能导致癌症的小肿块,看起来有点儿像黏糊糊的痘痘。当她找到息肉时,会用她的电脑鼠标和键盘标记,在这个小凸起周围画个数字圆圈。普拉丹没有接受过专门的医学培训,但她正在帮助训练一个人工智能(AI)系统,这个系统最终可以完成医生的工作。
在一座小型办公楼的四楼,数十名印度年轻男女在办公桌前认真工作,普拉丹就是其中之一。他们接受的训练是对各种数字图像进行注释,从街道场景中的停车标志和行人,再到卫星照片中的工厂和油罐车,他们都能精确定位。
科技行业的大多数人都会告诉你,AI是他们行业的未来,这项技术正在快速发展,这要归功于一种叫做机器学习的东西。但科技公司的高管很少讨论其创建过程中的劳动密集型努力。AI正在向人类学习,而且是向很多人类学习。
但在AI系统能够学习之前,必须有人标记提供给它的数据。例如,人类必须精确定位息肉。这项工作对自动驾驶汽车、监控系统和自动化医疗等AI的创造至关重要。然而,科技公司对这项工作保持沉默,因为他们面临着隐私维权人士对他们存储并与外部企业共享大量个人数据的担忧加剧。
今年早些时候,资深科技编辑凯德·梅茨(Cade Metz)设法帮我们了解下AI培训的幕后场景,这是硅谷奇才们很少会同意的。梅茨在印度进行了一次漫步旅行,走访了五个办公室,那里的人们正在从事培训AI系统所需的、几乎没有终点的重复工作,所有这些工作都由名为iMerit的公司运营。
有像普拉丹女士这样的肠道测量师和区分咳嗽好坏的专家,有语言专家和识别街景标识的专业人士。什么是行人?那是双黄线还是虚白线?将来,机器人汽车需要知道其中的区别。
2:iMerit员工必须为他们贴标签的工作学习不同寻常的技能,比如在人体肠道上发现有问题的息肉
梅茨所看到的场景看起来不太像我们想象中的未来,或者至少是你可能想象的自动化未来。办公室可以是呼叫中心或支付处理中心,其中一个位于加尔各答西部低收入居民区中央的一栋旧式公寓楼中,那里挤满了行人、汽车三轮车和街头小贩。在他参观过的布巴内斯瓦尔以及印度、尼泊尔、菲律宾、东非和美国的其他城市,数以万计的上班族都在致力于训练机器。
还有数万名工人,也就是通常在家里工作的独立承包商,也通过Amazon Mechanical Turk等众包服务对数据进行注释,这种服务让任何人都可以将数字任务分配给美国和其他国家的独立工人,工人们每个标签能挣几分钱。
总部设在印度的iMerit,为科技和汽车行业的许多大牌公司贴数据标签。该公司以保密协议为由,拒绝公开这些客户的名字。但该公司最近透露,其在全球九个办事处的2000多名员工正在为亚马逊的在线数据标签服务SageMaker Ground Truth做出贡献。之前,它还将微软列为客户。
3:在印度加尔各答Metiabruz社区的iMerit办公室展示的艺术品
可以肯定的是,AI将来可能会掏空就业市场。但就目前而言,它正在创造收入相对较低的工作岗位。根据研究公司Cognilytica的数据,2018年数据标签市场价值超过5亿美元,到2023年将达到12亿美元。研究表明,这类工作占建设AI技术所花费时间的80%。
这项工作是剥削性的吗?这取决于你住在哪里,你在做什么。在印度,这是通往中产阶级的门票。在美国新奥尔良,这是一份体面的工作。但对于作为独立承包商的人来说,这往往是一条“不归路”。
有些技能是必须学习的,比如在视频或医学扫描中发现疾病的迹象,或者在汽车或树的图像周围画数字套索时保持手部稳定。在某些情况下,当任务涉及医疗视频、色情或暴力图像时,工作就会变得可怕。
克里斯蒂·米兰德(Kristy Milland)说:“当你第一次看到这些东西时,会深深地感到不安。你不想回去工作,你可能不会回去工作了。”米兰德花了数年时间在Amazon Mechanical Turk上做数据标签工作,现在已经成为代表这项服务的工人的劳工维权人士。她称:“对于我们这些负担不起失去工作的人来说,你就只能继续忍受。”
在去印度之前,梅茨曾试着在众包服务上给图片贴上标签,在耐克标识周围画数字框,并识别“工作不安全”的图片。他当时显得非常笨拙。在开始工作之前,他必须通过测试,但却接连失败了三次。给图像贴上标签以便人们可以立即在网站上搜索零售商品,更不用说花时间将裸体女性和性玩具的粗糙图像识别为“NSFW”,并不完全是鼓舞人心的。
AI研究人员希望他们能够建立能从少量数据中学习的系统。但在可预见的未来,人类的劳动依然是必不可少的。微软的人类学家玛丽·格雷(Mary Gray)说:“这是个隐藏在技术之下、不断扩张的世界,很难将人类排除在循环之外。”
寺庙之城
4:员工离开印度布巴内斯瓦尔的iMerit办公室,这家私人公司是由Radha和Dipak Basu创立的,他们都在硅谷工作过很长时间
布巴内斯瓦尔又被称为“寺庙之城”。古老的印度教圣地矗立在城市西南端的路边市场上,包括可以追溯到公元10世纪的巨型石塔。在市中心,许多街道没有铺设路面。奶牛和野狗在轻便摩托车、小汽车和卡车之间徘徊。
这座城市拥有83万人口,也是一个快速增长的在线劳动力中心。从寺庙出发大约15分钟的车程,在市中心附近一条铺好路面的路上,一座白色的四层建筑坐落在一堵石墙后面。里面有三个房间,房间里摆满了长长的桌子,每个都有自己的宽屏电脑显示屏。这就是普拉丹女士给视频贴标签的地方。
24岁的普拉丹在城外长大,并从当地一所大学获得了学位,在接受iMerit的工作之前,她在那里学习生物学和其他学科。这是她哥哥推荐的工作,他本人此前已经在公司工作了。普拉丹在工作日时住在她办公室附近的一家旅社,每个周末都乘公交车回家。
梅茨曾在今年1月份参观了普拉丹的办公室。许多身穿印度传统服装、带着长长金耳环的女士坐在长长的桌子旁,普拉丹女士穿着一件绿色的长袖衬衫、黑色的裤子和白色的系带鞋,为美国的一位客户注释视频。在通常每天8小时的工作中,这位害羞的女士观看了十几个结肠镜检查视频,不断地倒转视频,以便更近距离地查看各个帧。
每隔一段时间,普拉丹就会找到她想要的东西,她会用数字“包围盒”套住它。她画了数百个这样的包围盒,给息肉和其他疾病征兆贴上标签,比如血块和炎症。
5:普拉丹(右二)在布巴内斯瓦尔的iMerit办公室和同事们一起工作
普拉丹的客户是美国的一家公司,iMerit不允许透露它的名字,它最终将把普拉丹的工作输入给AI系统,这样它就可以学会自己识别医疗状况。结肠镜的主人不一定知道视频的存在,普拉丹女士也不知道这些视频是从哪里来的,iMerit也是如此。
普拉丹女士在与一位非实习医生进行为期七天的在线视频通话时学会了这项任务。这位医生住在美国加州奥克兰,帮助培训许多iMerit办公室的工作人员。但是有些人质疑,是否应该由经验丰富的医生和医学生自己做这类标签。
威尔·康奈尔医学(Weill Cornell Medicine)和纽约长老会医院(NewYork-Presbyterian)的放射学家、初创公司MD.ai.的联合创始人乔治·施(George Shih)博士说,这项工作需要“有医学背景,并具备解剖学和病理学相关知识的人”。MD.ai.帮助企业为医疗保健构建AI。
在聊起普拉丹的工作时,她说那“很有趣”,但是很累。至于视频的图形化本质?她承认:“一开始很恶心,但后来你就习惯了。”
普拉丹标注的图像很可怕,但没有iMerit处理的其他图像那么可怕。他们的客户也在建立AI,可以识别和删除社交网络和其他在线服务上不想要的图片。这意味着需要标注色情、暴力和其他有害的图像。
这项工作可能会让从业者感到非常不安,iMerit试图限制他们审查这类内容的数量。在AI初创企业Clarifai负责数据注释工作的利兹·奥沙利文(Liz O‘Sullivan)表示,色情和暴力与更无害的图片混合在一起,那些贴上可怕标签的图片被隔离在不同的房间里,以保护其他员工。奥沙利文曾与iMerit在此类项目上密切合作。
奥沙利文说,其他标签公司将让员工对这些图片进行无限数量的注释。她指出:“如果这会导致创伤后应激障碍或者更糟情况,我不会感到惊讶。在道德上不受谴责的公司根本不愿意承担这样的责任。你必须用其他工作来填充色情和暴力,这样工人就不必看色情和斩首等内容。”
iMerit在一份声明中表示,它不会强迫员工查看色情或其他攻击性内容,只有在有助于改善监控系统的情况下才会承担这项工作。据一位公司高管透露,普拉丹和其他贴标员每月的收入在150美元到200美元之间,同时可为iMerit带来800美元到1000美元的收入。
按照美国的标准,普拉丹的工资低得不像话。但对于她和这些办公室的其他许多人来说,这大约与数据录入工作的平均工资差不多。尽管工作单调乏味,但它能帮助付得起公寓的费用。
6:iMerit员工普拉森吉特·拜迪亚与妻子派克在西孟加拉邦工作,他很满意当前的工作
普拉森吉特·拜迪亚(Prasenjit Baidya)在距离印度东海岸、西孟加拉邦最大城市加尔各答约50公里的农场长大。他的父母和大家庭仍然住在他儿时的家中,那是19世纪初建造的砖房。他们在周围的田里种植水稻和向日葵,并在铺满屋顶的地毯上烘干种子。
他是家里第一个接受大学教育的人,其中包括电脑课。但是学校没有教他那么多知识,教室里平均25个学生才能分配到一台电脑。大学毕业后,他自学了计算机技能,当时他报名参加了名为Anudip的非营利组织举办的培训课程。这是一位朋友推荐的,每月的费用相当于5美元。
Anudip在印度各地开设英语和计算机课程,每年培训约22000人。这家机构直接将学生推荐给iMerit,它的创始人在2013年将iMerit作为姐妹业务建立起来。通过Anudip,拜迪亚在加尔各答的一家iMerit办公室找到了工作,他的妻子巴纳利·派克(Barnali Paik)也是如此,她在附近的一个村庄长大。
在过去的六年中,iMerit从Anudip雇佣了超过1600名学生。目前,该公司的员工总数约为2500人,其中超过80%的人来自月收入低于150美元的家庭。
iMerit成立于2012年,仍然是一家私人公司,它让员工执行数字任务,比如转录音频文件或识别照片中的物体。全球各地的企业付钱给公司,而且越来越多地,他们在协助AI训练方面的工作。与丈夫迪帕克(Dipak)共同创立了Anudip和iMerit的拉达·巴苏(Radha Basu)说:“我们想让低收入背景的人进入科技行业。”巴苏和迪帕克在硅谷与科技巨头思科、惠普等长期合作。
这些工人的平均年龄是24岁。像拜迪亚一样,他们中的大多数人来自农村。该公司最近在加尔各答西部以穆斯林为主的社区Metiabruz开设了一家新的办事处。在那里,它雇佣的大多是穆斯林妇女,她们的家人不愿意让她们离开这个熙熙攘攘的地区。他们没有被要求看色情图片或暴力材料。
7:iMerit员工在加尔各答Metiabruz的办公室接受培训
起初,iMerit专注于简单的任务,为在线零售网站整理产品清单,审查社交媒体上的帖子,但它已经转移到了为AI提供支持的工作中。iMerit和类似公司的增长代表着从像Mechanical Turk这样的众包服务的转变。iMerit及其客户可以更好地控制员工的培训方式和工作完成方式。
拜迪亚现在是iMerit的经理,他负责为美国一家大公司为培训无人驾驶汽车所使用的街道场景贴上标签的工作。他的团队对数字照片以及激光雷达捕获的三维图像进行分析和标记。他们整天都在汽车、行人、停车标志和电线周围画边界框。
拜迪亚说这份工作可能会很乏味,但它给了他一种他本来可能不会拥有的生活。他和妻子最近在加尔各答买了一套公寓,步行就可到达她工作的iMerit办公室。拜迪亚说:“我的生活发生了梦幻般的变化,无论是从我的财务状况、个人经历以及英语技能等方面来看,都是如此。我获得了一个机会!”
听人们咳嗽
8:在iMerit新奥尔良办公室工作的奥斯卡·卡贝萨斯(Oscar Cabezas)。当公司开始开发西班牙语数字助理时,他加入了公司
印度之行几周后,梅茨乘坐Uber穿过新奥尔良市中心。大约18个月前,iMerit搬进了Superdome街对面的一栋建筑。美国一家大科技公司需要一种为其家庭数字助理的西班牙语版本标记数据的方法。因此,它将数据发送到新奥尔良的新iMerit办公室。
2005年卡特里娜飓风过后,数百名建筑工人和他们的家人搬到新奥尔良帮助重建这座城市,很多人留了下来。许多会说西班牙语的人随这支新的员工队伍而来,公司开始雇用他们。
23岁的奥斯卡·卡贝萨斯(Oscar Cabezas)和母亲从哥伦比亚搬到了新奥尔良。他的继父在建筑工地找到了工作,大学毕业后,卡贝萨斯加入iMerit,开始开发西班牙语数字助理。
他注释了从推文到餐馆评论的所有内容,识别人物和地点,并找出含糊不清之处。例如,在危地马拉,“pisto”意味着钱,但在墨西哥,它意味着啤酒。他所:“每天都有新的项目。”
这个办公室的工作已扩展到其他领域,为希望将数据保留在美国境内的企业提供服务。出于法律和安全目的,有些项目必须留在美国。
42岁的格伦达·赫尔南德斯(Glenda Hernandez)出生在危地马拉,她说她怀念以前在数字助理项目上的工作。她喜欢读书,曾为大型出版公司在网上评论书籍,这样她就可以获得免费的副本,她很享受用西班牙语进行阅读带来的有偿阅读机会。
9:格伦达·赫尔南德斯(Glenda Hernandez)是新奥尔良iMerit的工作人员,她已经学会了区分咳嗽好坏之间的区别
赫尔南德斯对图像标记或类似于对人们咳嗽的录音进行注释的项目不那么感兴趣,但这是建立AI的一种方式,可以通过电话识别疾病症状。她说:“整天听咳嗽有点儿让人觉得恶心!” 微软人类学家格雷说,这项工作很容易被误解。整天听人们咳嗽可能令人恶心,但这也是医生度过他们日子的方式。她说:“我们不认为这是苦差事。”
赫尔南德斯女士的工作是为了帮助医生做好他们的工作,或者也许有一天,取代他们。她以此为荣。在抱怨了这个项目后不久,她指了指办公室里的同事说:“我们都是咳嗽诊断大师。”
“我受够了”
10:多伦多的克里斯蒂·米兰德(Kristy Milland)在Amazon Mechanical Turk工作了14年,这是一家众包数据注释任务的公司,现在她试图改善从事这些工作的人的工作条件
2005年,克里斯蒂·米兰德(Kristy Milland)在Amazon Mechanical Turk注册了她的第一份工作。她当时26岁,和丈夫住在多伦多,丈夫管理着当地的一家仓库。Amazon Mechanical Turk是一种赚点儿外快的方式。
第一个项目是亚马逊自己的。米兰德的笔记本电脑上会弹出三张店面的照片,她会选择显示前门的那张。亚马逊正在建立一个类似谷歌街景(Google Street View)的在线服务,该公司需要帮助挑选最好的照片。
她每点击一次就能赚0.03美元,或者说大约每分钟0.18美元。2010年,米兰德的丈夫失去了工作,Amazon Mechanical Turk成了她的全职工作。在两年的时间里,她每周工作六七天,有时一天工作17个小时。她一年赚大约5万美元。米兰德女士说:“那时候够了,但现在却不行。”
当时的工作并不真正涉及AI。对于另一个项目,米兰德会从抵押贷款文件中提取信息,或者从名片照片中重新键入姓名和地址,有时每小时只能赚1美元。
大约在2010年,米兰德开始为AI项目贴标签。她标记过各种各样的数据,比如Twitter上出现的血淋淋图片(这有助于建立AI,有助于从社交网络上删除血腥图片),或者可能是在中东某处拍摄的空中镜头,想必是针对军方及其合作伙伴正在建设的用于识别无人机目标的AI。
米兰德说,来自美国科技巨头的项目通常比普通工作的薪酬高,大约每小时15美元。但这份工作没有医疗保健或带薪假期,可能会让人麻木或者令人深感不安。她称其为“可怕的剥削”,亚马逊拒绝置评。
2012年以来,现年40岁的米兰德始终待在名为TurkerNation的组织中,该组织旨在改善数千名从事这类工作的人的工作条件。今年4月,在工作14年后,她辞职了。
米兰德在读法学院,她丈夫的收入比他们每个月支付的房租少600美元,这还不包括水电费。所以,他们正准备负债。但她不会回去给数据贴标签。她说:“这是一个反乌托邦的未来,我已经受够了!”(腾讯科技审校/金鹿)
编辑:高杰

165#
 楼主| 发表于 2019-8-18 18:31:43 | 只看该作者
【案例】
重重危机之下,人类的未来需要伦理进化
文章来源:知识分子  
原文链接:https://mp.weixin.qq.com/s/pZN0r81bOCchB5P1KabfMQ
作者: Martin Hellman
Martin Hellman教授在今年的第69届诺贝尔奖得主大会上发表演讲。图源:www.wagingpeace.org

演讲 | Martin Hellman整理 | 李薇达
   本文的主要内容来自图灵奖获得者、斯坦福大学的 Martin Hellman 教授在德国林道举行的诺贝尔奖获得者年会上的讲话。
他的演讲分享了8个确保做出正确道德决策的经验。这些经验由他的一些故事组成,在这些故事中,有的他在后期意识到了当初自己做的是不道德的,有的是他无法评判自己的行为的。
爱因斯坦曾说,“原子释放出来的能量已改变了除我们的思维方式以外的一切,因此,我们正在走向空前的灾难。”另外,如今环境危机——比如气候变化——以及最近在基因工程、人工智能和网络技术方面的突破,更加速了人类伦理进化的必要性。
Hellman 希望通过这个演讲,帮助人们避免爱因斯坦所说的那个大灾难,建立一个可以自豪传给后代的世界。
第一课:骗自己很容易
1975年3月,美国国家标准局NBS)(现已更难名为美国国家标准与技术研究院(NIST))发布了一份拟议的国家数据加密标准DES)。在那个时候,加密几乎是为军事和外交领域提供专属保护,同时逐渐发展的计算机和通信的关系已经显而易见。
Hellman 教授当时与他的同事研究了这一标准,发现了一个明显的缺陷——虽然DES 声称拥有64位密钥,但其中8位是非活动的,因此它实际上只有56位密钥。这意味着它只有10亿把钥匙。
他们预计一台特殊用的大规模并行计算机可以在一天内搜索到这个看似庞大的加密空间,每个解决方案的成本大概在10,000美元。他们认为这是一个 bug,于是通知了 NBS 并期望它能纠正这个错误。但是在多次和 NBS 通信并重新确认他们的预测之后,他们被告知NBS并不认为那是一个 bug,反而是一个特色。
因此,教授认为如果想提高 DES 的安全性,就必须把它当作一个政治问题来对待,而不仅仅当作一个技术问题,并且必须得到媒体的报道和国会的关注。
1976年1月,就在他们开始这项工作的时候,来自国家安全局的两名高级职员拜访了他们,并警告:如果 Hellman 继续走他们目前的道路将  “对国家安全造成严重危害” 。
在这两位的拜访后,Hellman 开始思考怎么做。一方面,他收到了国家安全局的警告,另一方面,如果他保持沉默,那么人们的隐私将有可能被暴露。而那是1976年——水门事件发生几年之后,人民对政府的信任值非常低。
于是,Hellman 决定公开 DES 不充分的秘钥大小。在当时他认为自己做了正确且理性的决定。但五年之后,即1981年的夏天,他意识到那其实是自己愚弄了自己。
那时他参加了一个以前根本不会参加的为期一周的小组讨论,并且看了一部关于制造原子弹的名为《 The Day After Trinity 》(中译:《复核之后》)的纪录片。在纪录片里,一位采访者访问了参与曼哈顿计划的科学家他们制造在广岛长崎造成大约20万人死亡的大规模杀伤性武器的动机。科学家们的回答都是一样的——当时在德国已经发现了核裂变,因此必须在纳粹之前造出核弹。而后来成为费米实验室第一任主任的 Robert Wilson,充满活力地回忆了他加入时的情景:
“那是一个全国团结一致的时代,我认为这是正义的。……如果纳粹……能够赢得那场战争,那就可能导致……一千年的黑暗时代,我们所谓的一切文明都可能结束。”
在纪录片的后面,采访者问每个科学家另一个问题。当纳粹在1945年5月投降,科学家们所说的研制核弹的动机没了,但他们为什么还要继续?在回答这个问题时,他们的态度发生了显著的变化。他们变得安静,甚至是自卫。Wilson 对自己缺乏内省感到困惑,但他出奇地诚实:
“我现在想,在德国战败的时候,我应该停下来,好好考虑一下,仔细考虑一下,那时我应该离开洛斯阿拉莫斯国家实验室。鉴于我在战争之前、期间和之后所信仰的一切,我不明白为什么我没有采取那种行动。另一方面,当时根本丝毫没那种想法……我们的生活是为了做一件事。就好像我们是被编程来做那样的事,我们就像机器人一样在做。“
Wilson 听说炸弹落在广岛时,他所做的一切带来的恐怖感袭击了他。他被恶心的感觉所压倒然后呕吐。
这部纪录片让 Hellman 认识到自己正和参与曼哈顿计划里的那些科学家一样以一种非常相似的方式在欺骗自己。
比如在德国战败后科学家们没有终止研究的动机,除了能说得出口的、能够被社会的接受的动机外,还有那些说不出口的、对他人隐瞒的不会被社会接受的动机。比如:我,一个一直被其他男孩捉弄的书呆子,能不能也变成一个战争英雄?或者:我的大脑够不够强到能摧毁一个城市?而考虑到后果是包括妇女和儿童在内的20万人被杀以及更多人承受折磨,他们那些说不出口的动机就显得如此卑鄙,以至于他们不会允许这种潜藏的动机被提到意识中。因此包括 Wilson 在内的科学家才会如此困惑。
回顾当时的决定,Hellman 发现,当时自己以为在做决定时把坐在肩上的魔鬼赶走了,但其实那只是把它淹没在他无意识的自我里面。而在那个阴暗的深处,它肆意捣乱以至于他没有意识到本质上他是为了出名而枉顾国家安全而不顾。
“我没有做合乎道德的事,而是做了我想做的事情,然后想方设法把它合理化。” Hellman 说道。
第二课:外部帮助的价值
Hellman 教授和他的同事及学生发明了一种新的密码算法——公钥密码术,这种技术到今天都还在保障美国人电子银行和网上个人信用卡消费的安全。不仅如此,它还确保了每天5万亿美元的外汇交易,所以即使是很小的版税也能让他们成为百万、千万甚至亿万富翁。

但不幸的是,他们的专利并没有使他们三个人变得富有。虽然有很多原因,但其中之一是便是和他三个前同事创立的RSA数据安全公司RSA Data Security)的专利权扯皮。
RSA 认为 Hellman 的团队发明了公钥密码术。但是,当 Hellman 团队要求 RSA支付版税时,RSA 说 Hellman 的专利是无效的。并且在 Hellman 坚持的时候,直接让 Hellman 方起诉他们。
Hellman 希望这项专利的所有方——斯坦福大学来起诉 RSA 时,学校的专利顾问说,如果你们没有25万美元的预算(相当于今天一百多万美元),就不要起诉。于是斯坦福大学决定不在这项几乎无人获得许可的专利上冒险。
很多年以后,硅谷的一个网络新兴公司 Cylink 的 CEO 找到 Hellman,试图获得这项专利的斯坦福大学独家许可。首席执行官 Lew Morris 是一个好斗的人,从言语上也看得出来,他对 Hellman 说:“你帮我从斯坦福大学获得独家许可证,我向你保证,我们会让那些 RSA 的混蛋得到他们应得的报应。”
Hellman 那时候已经发誓不再欺骗自己。当他仔细考虑时,虽然他似乎很清楚地知道和 Cylink 一起工作有很好的商业意义,但他不能确定那有没有出于报复心理。因为 “无论什么时候,当你情绪化地投入到一件事中,你都不可能确定自己是客观的。” 于是在他妻子的建议下,他向与此事没有商业利益及情感关系的第三方斯坦福大学技术许可部主任 Nils Reimers 求助。他们开了会,Hellman 向他阐释了困境,Nils 表示与 Cylink 合作是一个很好的商业决策。这也让 Hellman 放了心,他没有再愚弄自己。
因此他的建议是,当你情绪化地参与某个问题时,获得外界帮助是做出更加合乎道德决定的关键因素。
第三课:朋友比敌人好
即使斯坦福与 Cylink 合作,他们仍然没有从他们的专利中赚到太多钱,而 RSA 几年后以2.5亿美元的价格被出售。Hellman 意识到,如果还生以前那几位创立 RSA 同事的气,那么将和他的目的——过一种更加道德也更加快乐的生活——相违背。所以他试着从他们的角度重新思考这场法律之战。以新的视角,他通过中间人的帮助三个前同事重新联系起来。于是,在短期内,他们就把仇恨变成了友谊。

而跟美国国家安全局的矛盾也是这样化解的。在1978年,Hellman 经常和美国国家标准局与完成 DES 基本设计的 IBM 公司在媒体上争论。这两个机构当时都是美国国家安全局的喉舌。那一年,他接到了国家安全局局长办公室的电话,被告知 Inman 上将将去加州,如果 Hellman 愿意的话,他愿意见面。于是 Hellman 欣然接受了直接与该机构交谈的机会。Bobby Inman, 时任美国国家安全局局长)
当他们在办公室会面的时候,Inman 上将对他说自己是在国家安全局所有其他高层的反对下见他的。Inman 说他理解高层们的担忧,但他没有看到谈话有什么坏处——这种以不同角度看问题的方式是 Inman 上将的特色。
他们的关系一开始是谨慎的,但随着他们开始了解彼此的关切,它发展成了友谊。
大约十年前,英曼上将签署了一份声明,支持 Hellman 为美国核战略提供一种更客观、更具风险性的方法。如果他们不同意这个声明,他们就不会这么做,但如果他们不信任 Hellman,他们也不会这么做。
大多数人都认为朋友比敌人好,但有多少人愿意为实现这一奇迹般的转变而付出必要的努力?正如这些例子所显示的,这是可能的,也是加快我们道德进化的重要一课:朋友确实比敌人好。
第四课:通过纠正轻微的道德失误来进行实践
上文提到,在看过纪录片后的1981年,Hellman 发誓不再欺骗自己。从那时起,他把他认为的所谓 “不道德的行为” 标准降低,每天都在一些小事上练习做道德决策。比如,结婚时发誓要好好对待的他的妻子,但有的时候就没有好好对她,那就是 “不道德的”,就得改正。 “我不断地练习成为一个更好的人。”
如果你想卧推数百磅重量,你不可能只在每次举重比赛来的时候才举。你必须不断地练习和增肌。同样,如果只在做出重大决策时才做道德决策,比如1976年关于 DES 秘钥大小的那个决策,1986年是否接受与 Cylink 合作的决策,那可能会失败。通过纠正小到 “轻微” 的道德错误,Hellman 不断地练习更合乎道德地生活。而所有那些练习的回报是他拥有了一个更有爱、更快乐的家庭。同时,当 Lew Morris 带着一份可能会让他赚钱,并且 “可以复仇” 的礼物接近他时,他能够清醒地看到有可能所做的决策会有自欺欺人的危险并寻求他人的帮助,确保做出的决定是道德的。
Hellman 认为我们应当庆幸在生活中会遇到各种问题,我们应当把它们看做是机会,而不是变得生气疯狂或做一些既不道德又无效的事,这样我们才能通过不断地练习来不断为自己增加道德的肌肉。
第五课:道德标准在不断进化,因此变得有道德是一个过程,而不是终点
按照当时的标准,托马斯杰弗逊总统是高度道德的,但在当今世界,作为奴隶主,他会被认为犯下了反人类罪。而由于英国当时的法律,艾伦·图灵被迫因为他的性取向接受化学阉割最后自杀。

我们很容易判断过去的行为是否道德,但是却很难判断现在的行为在未来是否会被视为不道德。但是我们可以应用那些我们用于科学上的严格分析法,来对伪装成公理的一些基础假设进行质疑。
已故的 Harry Rathbun 教授曾将科学精神定义为:热忱地寻求真理,当普遍持有的信仰与观察到的数据相矛盾时,无视这些所谓的信仰。
他也主张将科学精神应用于核武器和战争等伦理问题。Hellman 教授提出了三个具体的提案,作为探寻科学精神的起点:
首先,社会目前对核武器的做法有多道德?我们是否已经尽了一切合理的努力将能让二战相形见绌的种族灭绝风险降到最低?社会是否仔细权衡了当前核战略与替代方案的风险?除了明显(不可行)的直接彻底裁军之外,社会是否在努力寻找替代战略?
第二,最近的哪些战争是合乎道德的?哪些适得其反?我们是否从那些适得其反的战争中学到了什么,以让我们不会重蹈覆辙,并造成额外的、不必要的人类伤害?
第三,社会目前对气候变化的反应有多么道德?我们的行动是否与成本、风险和不确定性相一致?
由于社会伦理规范在不断演变,因此成为一个有道德的人需要不断地实践,它没有终点。而对当前的失败保持开放的态度是这个实践过程的关键。
第六课:技术让加速道德进化变得十分必要
科学和工程学赋予了我们那种从前被认为只属于神的物理力量。例如,在犹太基督教传统中,只有上帝可以用雷电来摧毁城市。今天,我们可以用核武器做同样的事情。只有上帝才能制造出一种需要诺亚建造方舟的洪水,而人类引起的全球变暖也可能造成类似的破坏。只有上帝才能创造出新的生命形式,而基因工程则让我们可以经常这样做。

与科技赋予我们的神圣力量相比,人类的伦理进步充其量只是处于不负责任的青少年阶段。核武器、环境危机和基因工程便是技术力量发展与伦理发展之间巨大鸿沟的体现。人类就像一个拥有全新驾照的16岁的年轻人,而他不知怎么得到了一辆500马力的法拉利。所以我们要么加快我们的伦理进化,要么会杀掉我们自己。
Hellman 教授认为核战争是目前人类面对的最大直接风险,因为它是唯一可以摧毁文明的人为威胁。
在过去的十年中,他曾向数百人询问他们认为多少年以后核威慑会失败并摧毁我们所知的文明。因为数字很难量化,所以 Hellman 教授让受访者们用1-10的数量级来回答。几乎所有人都认为 “十年” 太短,“一千年” 太长。因此只剩下了 “一百年” 的数量级估计。这就相当于从现在开始每年会增加大约1%的风险。而在接下来的十年中会增加10%的风险!
除了用数量级来估计外,Hellman 教授还用了另一种更加简单的方法向观众描述这一危机。假设一位穿着 TNT 背心的男子进入了你所在的房间,在你逃脱之前,他告诉你他不是自杀式炸弹袭击者。他没有引爆 TNT 的按钮。相反,这两个按钮在非常安全的地方——一个在华盛顿与特朗普总统在一起,另一个按钮则是在普京总统那里,所以再没有什么可担心的了。但是你依然会全速逃离那个房间!
因为我们直接面对着那个穿 TNT 背心的人,我们都看不到这两个控制按钮我们就跑了。但人类却已经自信满满地坐了50多年,相信着因为地球的爆炸背心还没有爆炸,所以它永远不会爆炸。
file:///C:/Users/le/AppData/Local/Temp/ksohtml15072/wps85.png穿TNT背心的人, 图源:演讲
第七课:人类有希望变得更加道德
在同意第六课观点的前提下,接下来的问题就是:这样做有希望吗?Hellman 教授认为答案是:有。

虽然过去的35年多的时间里,他因为所做的事而被很多人说傻,但他依然认为这是有希望的,因为许多最好的想法在实现之前都显得很愚蠢。鉴于时间关系,Hellman教授没有展开这个部分,但他推荐了他的另一个演讲:《愚蠢的智慧》(有兴趣的读者可在Youtube上搜索 Stanford Engineering Hero Martin Hellman Lecture 观看)。
其中一个有希望的原因在于我们促进人类的伦理进化并不是从0开始的。在过去的一两个世纪里,世界上许多地方都做了以前看来不可能的事情。他们废除了奴隶制,改善了人权,并开始解决包括气候变化在内的环境退化问题。在减少核威胁方面也取得了显著进展:世界上的军火库已经从1986年的大约70000枚弹头的峰值下降到今天的14000枚。这个数字在30年前看来几乎是不可能的。
file:///C:/Users/le/AppData/Local/Temp/ksohtml15072/wps87.png社会变革是一个过程,而不是一个非连续的跳跃。图源:演讲
另一个原因是:社会变革是一个过程,而不是一个非连续的跳跃。我们不可能直接从我们现在所处的国家直接过渡到导致第三次世界大战的极端国家中的任何一个,因此那些说第三次世界大战不可能发生的批评者们也有一定道理:没有几个国家的过渡,就不可能发生第三次世界大战。但从长远来看,它们是错误的,因为我们目前的超级大国就在转向不同的国家——1962年的发生的事就已经证明:在古巴导弹危机期间,世界在核深渊上摇摇欲坠。
虽然我们在与文明生存有关的各个方面都取得了重大进展,但我们还有很长的路要走。而且,正如最近发生的事件所表明的那样,在此过程中还会开很多次倒车。但我们不应该因为这些挫折而无视我们已经取得的巨大进步。
第八课:每个人都能够参与
即使是诺贝尔奖获得者,有一个问题也会经常出现:作为一个个体,我能做些什么来帮助解决如此巨大的问题?

没有人能解决这个问题,即使是诺贝尔奖获得者或美国国会议员。但是,如果我们都能够稍微做一点点,我们就可以一起改变世界的亚状态,创造新的可能性。奴隶制就是这样结束的,妇女也是这样得到了选举权。
我们能做的最有效的事情是,根据我们所在的领域,促进社会的伦理进化。
人为导致的气候变化有关的风险已经获得了很多公众关注,但还没有达成普遍共识,因此我们可以通过,例如,支持在应对气候变化问题上采取强硬立场的政治候选人或游说政府,来采取行动。
与气候变化不同的是,与核武器有关的风险没有得到足够的公众重视。因此,最有效的行动是与人们交谈,告诉他们提高对此的认知。一旦获得了更多的关注,就有可能产生具体的改变。世界核武库规模80%的下降是开始于公众高度关注的时期。
Hellman 教授还分享了一个他个人践行这项建议的例子:他和他遇到的普通人及政府成员都会讨论核风险,而和后一种人的对话都倾向于非常 “安静”。尽管这些谈话很 “安静”,但他们提出的问题可以影响国会议员的投票方式以及他们在听证会上提出的问题。这反过来可以影响媒体报道和公众的看法。
他还鼓励与他有关系的国会议员与他们的同事分享他们关切的问题。因为从多个来源听到一些东西会给人留下更深的印象。
在几个月前,在一个与这个问题毫无关系的晚餐上,Hellman 和朋友及朋友的朋友谈到了这个问题,那位朋友的朋友很好奇,很乐意帮忙。后来,Hellman 得知他是美国国会议员的密友。也因此,他们得到了这位议员的注意,尔后英曼上将(编者注:博比·雷·英曼为已经退役的美国海军四星上将)以及4位诺贝尔获者便签署了一份支持 “重新思考国家安全” 的声明。
他们事先都不知道一次简单的晚餐谈话会有那么大的影响。但通过与许多人交谈,增加了各种可能性。
所以,如果我们中有足够多的人致力于促进人类的伦理进化,我们不仅将能共同战胜面临的威胁;还将建立一个更和平、更可持续的世界,我们可以自豪地将其传给后代。
演讲的最后,Hellman 教授引用了 Harry Rathbun 教授的两种假设:要么我们能够做出巨大改变来确保人类生存(这是更高尚的假设),要么我们不能。如果我们认为自己不能改变什么,那么即便我们有能力改变,我们也将注定失败。但是,如果我们认为我们能够做出巨大改变,发生的最糟糕的情况也莫过于我们陷入困境。而最好的情况是人类继续其令人敬畏的进化之路。所以,为什么不认为我们可以呢?
参考文献:https://www.wagingpeace.org/wp-content/uploads/2019/07/hellman_technological_imperative.pdf
制版编辑 | 皮皮鱼
编辑:高杰

166#
 楼主| 发表于 2019-8-19 11:44:05 | 只看该作者
【案例没有人,就没有智能,也就没有AI

原文作者:白驹  
原文来源:人机与认知实验室

       “水是最好的(water is best)”是西方科学与哲学的共同鼻祖—泰勒斯的一句箴言,而在同一时代的东方,老子曰:“上善若水”,孔子云:“智(知)者爱水”。这几句2500年前的经典之句把东西方思想的区别厘的一干二清:一个偏事实,一个侧价值。

      虽然两者都是以人为中心,但关注点却不尽然。西方关注人与物之间的客观事实性,如强调人诞生于水,且离不开水的滋养;而东方关注人与人、人与环境的主观价值性,得意忘形,天人合一。


      在机器学习热闹过一阵子后,因果关系又要姗姗来迟,图灵奖得主Judea Pearl说了:要建立真正的智能机器,教它们因果关系才是关键。

       因果关系,表面上看,是揭示客观世界中普遍联系着的事物具有先后相继、彼此制约的一对范畴。原因是指引起一定现象的现象,结果是指由于原因的作用,缘之串联而引起的现象,二者的关系属于引起和被引起的关系。实际上,这大约反映出的是事实性的因果关系,没有反映出价值性的因果关系。

      所谓事实性的因果关系,是指客观性存在所引起的先后相继,如科学中重力作用与苹果落地的关系。所谓价值性的因果关系是指主观性存在所引起的先后相继,如自认为出现的风马牛也相及事件(如我思故我在、喜鹊叫好事到)等。在同一个情境中,不同的人为什么常常会有不同的态势感知、处理、决策、评估方案,究其因,面对客观知识中的对象、属性、关系,每个人(动物)心目中的价值往往不同,狗认为好的东西,人认为不好,张三觉得《银河补习班》中的父子很不错,而李四却认为《哪吒之魔童降世》中的父子更有意思……

     事实是高维空间,价值是低维空间,因果关系就是一个降维过程,是由人找到且梳理出的一种关系,具体反映在智能的灵活运用上,进而发现、发明了AI这一工具并使之不断改造着主客观世界系统。于是在下面小书的封面上出现了:

     没有人,就没有智能,也就没有AI

       实际上,人们在进行大多数决策时,一般都是基于事实与价值的混合因果推理,只不过高手的价值观更胜一筹,在错综复杂的状态空间里可能会更好地迅速形成一个有利的优势局面……这也是人类的两重重要认知特征的自然结合使然吧:主观性的价值(可以非事实)+客观性的事实两种因果关系推理。

       客观的因果孕育着事实线,主观的因果产生了价值链,人工智能侧重于前者,人的智能着眼于后者,追问人工智能,不是用剑刺死它,而是希望能够在不远的未来搭建起人、机环境系统之间的桥,以早日实现人们所期待的真正的(有意向性)智能产品,而不仅仅是用形式化手段智造出的高级自动化系统。

      Water is best,水之所以是最好的,大概是因为智能最像是水吧!

编辑:吴悠

167#
 楼主| 发表于 2019-8-19 12:04:10 | 只看该作者
【案例】人民网叶蓁蓁:人工智能催生“内容科技”

原文来源:传媒茶话会  

今年6月6日,5G牌照正式发放,标志着我国进入万物互联的5G时代。万物互联将迎来万物皆媒,媒体改革该指向何方?

8月9日,人民网党委书记、董事长、总裁叶蓁蓁在“中国人工智能峰会”暨“多媒体信息识别技术竞赛成果发布会”上对人民网“内容科技”及相关规划进行了阐述。

或许,“内容科技”将成为新时代媒体改革的新方向。

8月9日,由中央网信办、工信部、公安部共同指导,厦门市人民政府主办的“中国人工智能峰会”暨“多媒体信息识别技术竞赛成果发布会”在厦门举行。会上,人民网党委书记、董事长、总裁叶蓁蓁在演讲中指出内容科技将加速内容产业业态重构,催生新的社会化大分工。
  

以下是演讲全文:
  

尊敬的各位领导、各位来宾、朋友们:

大家上午好!

很荣幸在此同大家分享人民网最近提出的“内容科技”的概念。在详细展开这个概念之前,我想先将传媒行业和金融行业做个类比。在一定意义上,传媒行业和金融行业十分相似。信用是它们共同的生命!两个行业都依赖于有信用的价值传递:传媒行业以信息作为价值的载体,信用是信息真实性和权威性的保证;金融行业以货币作为价值的载体,信用是货币作为价值尺度和支付手段的保证。在新一轮信息革命中,这两个行业都受到技术的冲击:电子支付已经逐渐取代纸质货币,成为我们主要的支付手段;信息传播的主要方式也从传统的纸质媒介转变为移动互联网。因此,业务重构势在必行。正如同金融行业有热火朝天的“金融科技”,内容产业同样需要突破“内容科技”。

今年1月25日,习近平总书记主持中央政治局集体学习时深刻指出,从全球范围看,媒体智能化进入快速发展的阶段,我们要增强紧迫感和使命感,推动关键核心技术自主创新,不断实现突破,探索将人工智能运用在信息采集、生产、分发、接收、反馈中。

6月6日,5G牌照的发放标志着中国正式进入万物互联的5G时代,万物都将成为互联网的入口。从内容产业的角度来看,万物也将成为内容的载体,即万物皆媒。万物互联、万物皆媒,内容产业将发生根本性变化,过去内容产业是“直立”的,或者用流行的说法叫“垂直”,它与其他行业是并列关系。但进入万物互联、万物皆媒的5G时代,内容产业将变为“平躺”的,横向打通各行各业、深度融入各行各业之中,激发全新业态,重塑产业格局。我们理解,这也正是习近平总书记所提出的媒体将变成“全程媒体、全息媒体、全员媒体、全效媒体”,传媒行业将和各行各业深度融合。

在此背景下,人工智能技术将会加速内容产业新的社会化大分工,催生的一个个新的、价值链的“环”。内容产业可以根据生产、传播、变现等不同环节,来进行重新划分,如内容原创、内容二度加工、内容运营、内容风控、内容聚合、内容分发等。

在深入学习领会习近平总书记1·25重要讲话精神半年之后,今年7月25日人民网发布未来三年发展规划,首次提出“内容科技”的概念,希望在未来三年能够发展成为“内容科技”的领军企业。

关于内容科技,我抛砖引玉,做一个不成熟的定义供各位专家批评指正。“内容科技”主要是指对内容产品的供给与消费链条、内容产业的组织与分工模式,产生重大影响的人工智能、大数据、区块链、云计算、物联网等各种新兴技术,以及由这些技术所催生的新业态、新应用、新服务。

基于上述认识,在此我简要介绍人民网在内容科技方面的布局。人民网内容科技的概念分为三个层次:基础层、平台层和应用层。

在基础层,我们已经成立了人民网人工智能研究院,今天下午举办的“人工智能产业发展论坛”上,将会向首批人工智能研究院的专家发出聘书。同时,我们正在申请设立“媒体智能认知国家重点实验室”。研究院与实验室将共同打造人民网内容科技的基础层。

在平台层,我们于上月发布“游戏适龄提示”平台,将网络游戏划分为6岁以上、12岁以上、16岁以上和18岁以上等四个层级,腾讯、网易、盛大等8个国内网络游戏的头部企业已加入该平台,21款流行的网络游戏已开始发布适龄提示。目前由于积累的数据和经验相对不足,“游戏适龄提示”平台多数工作目前依靠人工实现,我们希望有更多游戏公司和从事相关研究的人工智能企业参与其中,尽快将其转变为智能化、自动化的技术平台。另一个是“风控大脑”平台,我们与中科院自动化所成立人民中科智能技术公司,给予核心科学家股权激励,推动研发互联网内容风控大脑,帮助互联网企业有效把控内容政治方向、舆论导向和价值取向,避免出现重大差错,防范企业潜在风险。

在应用层,我们将内容业务划分为四个部分。

第一是内容原创。尽管媒体行业现在已经可以实现机器人写稿、虚拟主播等技术,但我认为短期内机器人不太可能完全取代人类从事深度报道、政策解读、新闻评论等内容的创作。在很长一段时间,“人机融合”可能是内容创作领域的主流。

第二是内容风控。我们和一些互联网公司合作,凭借人民网过硬的内容把关能力和风控体系,帮助他们有效地把控风险。目前已经承接苹果、腾讯视频、咪咕等15家互联网头部企业内容风控的任务。内容风控并不是人民网独家所有,如Facebook在全球拥有15000人的内容审核团队,今日头条的内容审核团队也超过10000人。我们预测内容风控将是一项新兴产业,未来3到5年中国可能会有百万人从事该产业,创造产值3000到5000亿元人民币。前面提及的风控大脑,也将是对全行业开放使用的人工智能平台。

第三是内容聚合与分发。目前绝大多数内容聚合分发平台采用“家乐福模式”、“沃尔玛模式”,所有品牌厂商把商品聚集在大型超市,由大型超市统一售卖和收银,如微信公众号和今日头条,就是这样的模式。但是,人民网希望打造全新的“内容批发市场”模式,来自不同源头的内容在批发市场进行集合、交换、交易,我们负责风控、分类和分级,确保由批发市场分发的内容安全可靠、有趣有用。内容聚发领域是一个庞大的市场,今日头条2018年产值就超过500亿,今年有可能突破1000亿。人民网的“批发市场模式”内容聚合分发平台1.0版本将于今年9月10日正式上线。

最后是内容运营,即把我们在内容方面的策划、创意、制作、分发、运营能力,输送给政府机关、企事业单位和合作伙伴,帮其运营网站、客户端及各类账号平台,做好与群众、用户之间的互动。目前已有近百个部委、地方、企业的官方网站或社交媒体账号由我们代理运营。

内容原创、风控、聚发和运营,都需要内容科技来进行再造和升级,这无疑是万亿量级的市场。关键是政治价值更加不可估量!

人民网内容科技战略的三个层次均已有具体的业务和应用。将来,我们希望在各地开展内容科技的产业合作,包括共建研发中心、共建产业园区、共建投资基金等。今天下午人民网将在这里举办“人工智能产业发展论坛”,欢迎在座的各位行业人士参与以及洽谈合作。

编辑:吴悠

168#
 楼主| 发表于 2019-8-19 12:48:20 | 只看该作者
【案例2019年人工智能AI报告

原文来源:新媒体创意营销

Stateof.ai发布了“2019年AI报告”。

面部识别用户体验:减少日常消费者用例的摩擦
在中国,人脸识别技术已经开始应用。人们在店内刷脸支付,在机场获得航班详情等。

中国网络巨头扩展到农牧业
阿里巴巴和京东都进入了畜牧业和昆虫养殖业,包括养鸡、养猪和蟑螂养殖。并在养殖过程中利用人工智能收集和分析数据。

中国企业AI研发支出快速增长,但总额仍然落后。
中国企业的研发支出同比增长34%,但美国企业仍占全球科研支出的61%。
从数据来看,中国芯片销售和采购在快速增长,但是购买远高于销售。

在过去的3年里,一些中国工业企业40%的劳动力已经实现自动化。
这在一定程度上是因为中国的机器人年装机量自2012年以来增长了500%(欧洲为112%)。但是,目前还不清楚这些安装的机器人在多大程度上运行AI软件,或者对AI的普及做出了贡献。
京东的上海配送中心使用自动化仓库机器人,每天组织、拣选和发货20万份订单,该设施仅由4名工人管理。京东的仓库数量和面积同比增长45%。
2018年有33家中国公司在美国交易所进行IPO,(比去年同期增长2倍),接近2010年的历史最高水平。2018年,美国共有190宗IPO。

中国团体拥有最多的AI专利,但2017年只有23%是“发明专利”。
91%的5年设计专利和61%的5年实用新型专利被放弃。相比之下,维护费用按照5年的美国专利的85.6%支付。

中国已经发布了比美国更多的机器学习方面的研究。






















编辑:吴悠

169#
 楼主| 发表于 2019-8-19 22:47:26 | 只看该作者
【案例】何渊:美国“2019不跟踪法案”有望获得国会通过!附草案全文

原文作者:何渊  
原文来源:数据法盟

引言:美国“2019不跟踪法案”意在通过建立“不跟踪系统”以保护互联网用户的隐私权利。2019年5月21日,在美国参议院的会议上,参议员Josh Hawley正式提起了2019年“不跟踪法案”,目前已经过两读并已递交给商业、科学和运输委员会审议。根据相关权威报道,该联邦立法有望在2019年通过,值得大家高度重视。

美国“不跟踪立法”旨在保护用户选择是否被第三方网站跟踪的权利。它通常被称为“不要打电话”的在线版本。该立法得到了隐私权倡导者的支持,并受到使用跟踪信息来个性化网络内容的广告商和服务的反对。

美国为什么需要“不跟踪法”?
随着互联网技术的发展,大量的人、企业实体和组织正在相互作用。例如,Facebook使用户之间实现广泛的在线社交。Google通过Gmail和YouTube提供电子邮件服务和娱乐。客户则以支付服务费用或接触广告为代价。在处理此交互时,用户会在互联网上留下其个人
信息的痕迹,例如IP地址或搜索历史记录。

个人信息已成为宝贵的资产,许多企业家正在利用它来实施定向广告或精准营销。然而,根据消费者监督机构的统计,人们越来越关注个人信息的非法收集。隐私权倡导者担心搜索引擎等互联网公司可以任意或非法存储和利用用户的个人信息,例如病史,犯罪记录,档案,位置等。为了缓解这些担忧,一些美国立法者正试图制定有关保护互联网用户隐私的联邦法律,“不跟踪法”就是其中的努力之一。

其实,我们都知道广告商正在跟踪我们的在线行为,并经常反对这种做法,如朱烨诉百度案提出了cookie隐私问题和任甲玉诉百度案提出了“被遗忘权”问题。在美国也是如此,盖洛普组织和今日美国进行的一项调查显示,61%的受访者知道根据他们的兴趣向他们展示了一些广告。67%的受访者表示,根据消费者的在线行为定向广告是不应当被不允许的,61%的受访者认为在线行为跟踪是不合理的。37%的受访者回答他们不想要定位广告,单也有14%的受访者表示他们会允许这些广告。

美国“不跟踪立法”的历史

FTC的报告
2010年12月1日,美国联邦贸易委员会(FTC)发布了一份初步报告,强调了消费者应当拥有阻止网站跟踪其在线行为的权利。该法案的核心内容是对Web浏览器采用Do Not Track选择退出功能。美国联邦贸易委员会认为,在线营销人员普遍收集的个人信息可能会侵犯隐私。谷歌宣布新的隐私政策后,这个问题在2012年再次浮出水面。Reps.Edward Markey,Joe Barton和Cliff Stearns要求联邦贸易委员会调查谷歌改变隐私政策的合法性,他们就联邦政府改变的隐私政策向FTC致函。

2011年“不跟踪法案”
2011年“不跟踪在线法案”试图使美国联邦贸易委员会在美国设定使用在线选择退出功能的标准,授予消费者权利来禁止企业收集或使用其私人信息,并要求企业尊重消费者选择退出此类收集或使用的权利。该法案被视为“请勿拨打电话”法律的在线版本,该法律禁止电话推销员向不希望接听电话的个人拨打电话。该法案还规定,各个商业实体应披露个人信息收集的现状以及与之共享信息的人员。

根据2011年“不跟踪在线法案”,个人信息包括:
1. 姓名、邮政地址或其他位置、电子邮件地址或其他用户名、电话或传真号码;
2.政府签发的识别号码,如税号,护照号码或驾照号码等;
3.允许访问个人财务帐户所必需的金融帐号、信用卡或借记卡号,或任何所需的安全码,访问码或密码等

该法案还禁止收集以下数据:
1.病史、身体或精神健康,或为个人提供医疗保健;
2.种族或民族;
3.宗教信仰和从属关系;
4.性取向或性行为;
5.收入、资产、负债或财务记录以及与金融账户相关的其他财务信息,包括余额和其他财务信息,除非个人提供金融账户信息,且仅用于处理授权信用卡或借记卡帐户;
6.精确的地理定位信息以及与此类地理定位相关的个人活动和关系的任何信息;
7.生物识别数据,包括指纹或视网膜扫描;
8.社会安全号码。
该法案于2011年2月11日推出。但它并未颁布。

2019年“不跟踪法案”
最近的法案由参议员Josh Hawley提出,意在通过建立“不跟踪系统”以保护互联网用户的隐私权利。2019年5月21日,在美国参议院的会议上,参议员Josh Hawley正式提起了2019年“不跟踪法案”,目前已经过两读并已递交给商业、科学和运输委员会审议。

该法案通过将概念应用于网络浏览器以及所有互联网活动(包括移动应用程序),更新了之前“不跟踪法案”。该法案允许个人只需按一下按钮,就可以禁止任何公司收集比提供服务所必需的数据更多的数据,该法案将对任何违反该规定的公司实施严厉的处罚。

以下是2019年“不跟踪法案”的全文:

编辑:吴悠


170#
 楼主| 发表于 2019-8-20 16:39:40 | 只看该作者
【案例女黑客设计“反监视套装”,掀起“对抗时尚”

原文作者:张静  
原文来源:DeepTech深科技

据《麻省理工科技评论》的报道,一家名为 Adversarial Fashion(中文译名“反对时尚”)的公司在上周举办的 DefCon 网络安全大会上,展示了它的首个“反监视套装”系列,这些卫衣、短袖、长裙和短裙可以给监视摄像头传递垃圾信息使其识别认证出现问题,从而影响到摄像头背后数据库的有效性。

Kate Rose 是这些衣服的设计者,她同时还是一名黑客。一次采访中她谈到,在与朋友闲聊的过程中,朋友提到电子车牌阅读器(automated license plate readers,简称 ALPRs)会经常出错,它们可能会把栅栏或者其他一些东西误判为车牌。“后来我想,既然它能被栅栏糊弄,或许我也可以愚弄它一下。”
图 | “反对时尚”裙被 ALPR 识别为摩托车车牌(来源:The Guardian)

于是,这个套装系列应运而生。

从电子车牌阅读器的视角来看,这些衣服是一个车牌的集合,每一个车牌状的图案都将被添加到数据库中,就像其他正常的车牌被收录一样。但是随着数据库中无效车牌数据的急剧增多,部署这种监视设备的成本就越高,同时识别效率也会锐减。

但从肉眼来看,这些衣服只不过是一些印有奇怪图案和线条的服饰。有意思的是,Rose 的第四代修正 T-shirt 用的粗体黄字是美国宪法第四修正案所用的字体。该修正案旨在保护国人免受“不合理的搜查和扣押”,这是对美国政府各种形式的政府监控的重要反抗。
图 | Adversarial Fashion 官网

在美国,大部分警车、路标或者桥梁等物体上都安装了电子车牌阅读器,这些阅读器使用小型高速摄像机每分钟拍摄数千张照片,以此被用于记录每一个车牌号、位置以及时间。其中,真正被用来执法的信息只占一小部分,更多的是无辜的司机被监视和记录。此外,还有一些私营公司也在使用这些数据,几乎没有政府监督和隐私保护。如此种种,引发了隐私权倡导者的恐慌,他们认为,这些电子车牌阅读器使一种存在法律问题的大规模监控成为可能。

Rose 设计此类衣服的目的不言而喻。“如果连简单的布料都能愚弄电子车牌阅读器,那么我们或许不应该打造一个系统把所有重要的信息都挂在上面。”

当然,并不是所有糊弄电子车牌阅读器的尝试都能像 Rose 的衣服这么成功。一个名为 Droogie 的黑客注册了一个“NULL”的自定义车牌,因为在很多公共数据库系统中 NULL 表示一个空条目,所以他以为可以利用漏洞“隐身”。结果是,他被开的罚单超过 12000 美元,因为每一个无效车牌的超速罚单都被记在了他身上。
图 | 美国四个州的数据保留策略(来源:ACLU)

美国公民保护隐私的斗争早已有之且形式多样。为了反击监控,有人设计了印有对抗图像的服装来迷惑人工智能,有人用古怪的妆容和发型来混淆面部识别软件,甚至还有一种帽子可以通过红外照明投射让人脸识别系统认为你是歌手 Moby。
图 | 连接微型红外 LED 的棒球帽,可以通过投射到佩戴者脸上的光点“欺骗”人脸识别系统(来源:VICE)

以上方式其实是利用了人工智能算法的漏洞,通过输入恶意样本来欺骗算法,使系统最终输出一个“不正确”的结果,这被称为“对抗样本攻击”。原理在于:机器学习分类器通过它试图区分的两个事物之间找到一条分界线,并将之用绿点(可接受)和红点(禁止)区分开来,根据这条线,分类器可以完美工作。
图 | 分类器正常运作(来源:Medium)

如果我们想要使其分类失误,也就是要把其中一个红点分类为绿点,那么现在只要考虑在边界旁边红点的 Y 值上添加多少单位可以将它推向绿色区域。
图 | 分类异常(来源:Medium)

在使用深度神经网络的图像识别中,我们分类的每个“点”都是由数千个像素组成的完整图像。这为我们提供了数以千计的可能值,通过它们可以改变决策线。也就是说,我们只要轻微改变一个照片的像素,人工智能就会被轻易欺骗,“猫变面包机”可以轻松实现。
图 | 把猫“变成”烤面包机(来源:Medium)
编辑:吴悠

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表