当前位置:6374刘伯温开奖结果 > 人工专门知识 >

研究 人工智能政策:入门与路线图

  新一轮人工智能热潮至少有两点独特之处:一是得益于计算能力和训练数据的巨大增长,机器学习取得实质性突破,促使人工智能的大规模应用成为可能;二是决策者终于给予了密切的关注。当前,人工智能引发了一系列严峻的政策挑战,包括公正与平等、武力使用、安全与认证、隐私和权力、税收和失业以及机构配置与专业知识、投资和采购、消除归责的障碍、人工智能的心理模型等跨领域问题。人工智能末日论反映了人类对于人工智能等拟人化科技的特殊恐惧,在可预见的未来并不会真实发生。相反,对人工智能末日论投入过多的关注和资源,可能会分散决策者对于人工智能更直接的危害和挑战的注意力,进而阻碍有关人工智能对当前社会影响的研究。

  本文主要目的是尝试将人工智能政策的讨论介绍给读者,并为现有的各方主体提供一个概念架构。本文旨在帮助决策者、投资者、学者以及学生们理解人工智能的当代政策环境及其面临的关键挑战,具体包括:公正与平等、武力使用、安全和认证、隐私与权力、税收和失业。除上述主题之外,本文还将选择性地介绍一些更广泛的系统性问题:机构配置和专业知识、投资和采购、消除归责的障碍、纠正有缺陷的人工智能的心理模型。

  文章主要包括以下几部分:第一部分简要介绍人工智能的背景,并通过比较伦理、治理等术语来证成为何使用政策这一术语。第二部分详细探讨本文梳理的人工智能的关键政策问题。第三部分探讨人工智能末日论这一古怪而又普遍存在的恐惧——如果这种担忧属实,那么将会让其他政策问题变得黯淡失色。最后一部分则是结语。

  人工智能在产业界、学术界和军事领域的发展是最为先进的。④ 有一些私人机构和公共研究室对于人工智能也十分敏感,包括艾伦人工智能研究所(AllenInstitute for AI)和斯坦福研究所(Stanford Research Institute,简称“SRI”)。其中,产业界在人工智能领域处于领先地位,各大科技公司雇佣大学最顶尖的科学家,同时拥有无与伦比的计算能力和庞大而及时的数据。⑤ 参见Jordan Pearson,Uber’s AI Hub in Pittsburgh Gutted a University Lab—Now It’s in Toronto,Vice Motherboard,May 9,2017[报告担心Uber公司将会成为一家“从公共机构吸取营养(并由纳税人资助研究)的寄生虫”]。然而,情况并非一直如此:与许多技术一样,人工智能起源于大量军事资助推动的学术研究。⑥ 参见Joseph Weizenbaum,Computer Powerand Human Reason:From Judgment to Calculation,W.H.Freeman andCompany,1976,pp.271-272(该文探讨了资助人工智能研究的资金来源)。但产业界长期以来始终扮演着重要角色。从人工智能冬天步入现在的人工智能春天(AI Spring),我们多少要感谢那些曾经在施乐帕克研究中心(Xerox Parc)和贝尔实验室(Bell Labs)工作的研究人员的不懈努力。即使在今天,公司的大部分有关人工智能的研究都发生在研发部门,它们某种程度上与公司损益底线的要求是隔离开来的。但值得注意的是,截至本文写作时,只有七家盈利公司——谷歌、脸书、IBM、亚马逊、微软、苹果以及百度——拥有大大超过所有其他公司的人工智能研发能力。⑦ 参见Vinod Iyengar,Why AI ConsolidationWill Create the Worst Monopoly in U.S.History,Techcrunch,Aug.24,2016.(文章分析了这些主要的科技公司是如何收购那些具有前途的人工智能初创公司的);Quora,What Companies Are Winning the Race for ArtificialIntelligence?,Forbes,Feb.24,2017,当然,也有一些致力于人工智能民主化的努力,包括资金充裕但非营利性的机构OpenAI。

  不管怎样,我们今天接触到的许多设备和服务——从iPhone手机的自动校正到谷歌图片搜索——都利用了经过训练的模式识别系统或复杂的算法,而它们都可以归入广泛的人工智能定义当中。② See Matthew Hutson,OurBots,Ourselves,Atlantic,Mar.3,2017.当然,接下来的讨论并没有假定人工智能复杂性的最低限度,而是侧重于分析当代人工智能与以往人工智能以及诸如计算机、互联网等组成技术的不同之处。

  人工智能缺乏一个稳定的共识性定义或实例使得制定一套适当的政策配套设施更加复杂。我们可能会质疑“政策(policy)”这个词在描述社会努力引导人工智能促进公共利益方面的实用性。这里也有一些其他类似的词语在使用。例如,由麻省理工学院媒体实验室(MIT’s Media Lab)和哈佛大学伯克曼·克莱恩互联网和社会中心(Harvard University’s Berkman Klein Centerfor Internet and Society)共同发起的一项新举措就被称之为“人工智能伦理与治理基金(Ethicsand Governance of Artificial Intelligence Fund)”。③ See“Ethics and Governance of ArtificialIntelligence”t.of Tech.Sch.ofArchitecture&Planning,(2017年10月15日访问)。也许这些词语更好一些。也许不管我们使用何种术语,最终来看它们并没有什么区别,只要我们的任务是探索和引导人工智能的社会影响,那么我们的工作就是细致和严谨的。

  与此同时,使用政策这一术语起码有以下值得称道的地方。一方面,政策承认制定新法律的可能性,但并不苛求它们。在早期阶段,试图通过有关人工智能的一般法律可能并不明智,甚至也是不可行的,但就人工智能对于社会的影响进行规划则是明智和及时的——包括通过发展专业知识、调查人工智能目前和可能的社会影响,以及对适当的原则和法律作出较小幅度的修改,以应对人工智能的正面和负面影响。③ 参见Rebecca Wexler,“Life,Liberty,and Trade Secrets:Intellectual Property in the CriminalJustice System”,inStan.L.Rev.,2018,70,pp.1343-1429(除了其他方面之外,该文还澄清了公司不得援引商业秘密法以规避刑事案件的被告对其人工智能或算法系统进行审查)。产业界可能会试图影响公共政策,但最终政策的制定并非它们的职责。另一方面,政策传达了探索和规划的必要性、法律的确定性以及公共利益的优先性,同时又无须明确支持或拒绝监管干预。出于这些原因,我有意识地选择政策这一术语来构建我的文章框架。

  本部分将转向论文的主要目标:人工智能对决策者提出的各种挑战的路线图。我将从需要关注的特定领域中的单个挑战开始分析,然后再讨论一些跨领域的常见问题。大多数情况下,本文避免对需要复查的具体法律或学说进行过多细致的阐述,而是强调总体战略和规划问题。

  这里的政策问题至少有两个方面:其一,减少歧视性偏见的最佳实践是什么以及通过什么机制(反歧视法,消费者保护,行业标准)来激励最佳实践的发展和运用?⑨ 参见Solon Barocas,Andrew D.Selbst,“Big Data’s Disparate Impact”,inCalif.L.Rev.,2016,104,pp.730-732(讨论在数据挖掘的背景下适用反歧视法的优缺点)。其二,我们如何确保人工智能的风险和收益在整个社会均匀分布?这两个问题都已经占据了相当多的资源和注意力,包括那些将人工智能引入它们产品的行业,但大家普遍认为要解决这些问题还有很长的路要走。

  我们可以从三个不同方面来深入探索人工智能在结果决策中的作用。第一个方面涉及对程序和过程在特定环境下试图实现的目标和价值进行界定。如果不彻底了解法律、规范和其他保障措施试图实现的目标,那么我们就无法评估现有系统是否足够,更不用说设计新的系统了。③参见Danielle Keats Citron,“Technological Due Process”,inWash.U.L.Rev.,2008,85,pp.1249-1313.(探讨了技术正当程序的目标);Kate Crawford,Jason Schultz,“Big Data andDue Process:Toward a Framework to Redress Predictive Privacy Harms”,inB.C.L.REV.,2014,55,p.110(探讨了正当程序与大数据);Joshua A.Kroll et al.,Accountable Algorithms,inU.Pa.L.Rev.,2017,165,p.633(认为当前的决策程序并没有跟上技术发展的脚步)。这种保障措施所固有的权衡和紧张局势使这一任务更加复杂,如美国《联邦民事诉讼规则》同时要求“公正、迅速和平价”的诉讼程序,④ FED.R.CIV.P.1.我要感谢我的同事伊丽莎白·波特(ElizabethPorter)。再比如美国宪法第六修正案为了确保公正的刑事审判规定了各种限制条件,但同时又要求审判必须迅速。⑤ST.amend.VI(规定被告有权知晓指控的性质和原因、与对他不利的证人面对面质证、强制有利于他的证人作证以及得到律师的帮助,这一切都是迅速和公开审判的一部分)。

  有趣的是,程序保障中固有的价值冲突似乎在机器学习文献中有关性能权衡的领域也能找到类似的对应,当然这种对应并不完美。①See Jon Kleinberg,et al.,InherentTrade-Offs in the Fair Determination of Risk Scores,Proc.InnovationsTheoretical Computer Sci.,2017,p.2.一些研究人员已经测量了系统提高透明度或减少偏见将会如何降低其整体准确性的问题。②See Jon Kleinberg,et al.,InherentTrade-Offs in the Fair Determination of Risk Scores,Proc.InnovationsTheoretical Computer Sci.,2017:p.1.相较于效率而言,准确性是公平的一个重要方面:我们不会认为通过掷骰子来确定刑期的长短是公平的,即使它对所有的参与者是透明的,并且对适用对象没有任何偏见。政策上的挑战包括如何管理这些权衡因素,要么通过设计技术社会化系统(techno-social systems)来最大程度地实现所有的价值,要么以社会认为有效的方式来接受某种特定交易。设计反映公正和平等的系统最终将涉及巨大的跨学科努力,并很可能被证明是我们这个时代的一个决定性的政策问题。

  人工智能决策的一个特别情形涉及使用武力的决定。正如上文所提到的那样,有的决策——特别是涉及故意剥夺他人生命的情形——决策者可能永远都不会让机器来决定。这是许多有关自主性武器的研发和应用的辩论要点所在。③ 需要注意的是,武力使用在更多的情况下不是军事冲突。我们可能会追问,国内巡逻人员、警察甚至私人保安使用武力是否恰当。有关这些问题的讨论,请参见:Elizabeth E.Joh,“Policing Police Robots”,inUcla L.Rev.Discourse,2016,64:pp.530-542。国际社会普遍认为,人们决不应该放弃对杀人决策的“有意义的人类控制(meaningful human control)”。④See Heather M.Roff,Richard Moyes,MeaningfulHuman Control,Artifcial Intelligence and Autonomous Weapons,Article36,Apr.11,2016.然而,关于有意义的人类控制的含义和范围的争论一直不断。人类监督是否足够?进行目标选择是否满足这一要求?这个观点是否可以适用于防御系统,还是仅适用进攻战术和武器?这些重要问题都没有解决。⑤ 参见 Rebecca Crootof,“A Meaningful Floor for‘Meaningful HumanControl’”,inTemp.Int’Land Comp.L.J.,2016,30:p.54(“对于‘有意义的人类控制’的实际要求并没有达成一致”)。

  译者简介:郑志峰,西南政法大学与贵州省社科院联合培养博士后研究人员,西南政法大学民商法学院讲师(重庆 401120)

  数邦客-大数据价值构建师()除非特别注明,本站所载内容来源于互联网、微信公众号等公开渠道,不代表本站观点,仅供参考、交流之目的。转载的稿件版权归原作者或机构所有,如有侵权,请联系删除。

  声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。

http://antalyaesc.com/rengongzhuanmenzhishi/852.html
点击次数:??更新时间2019-08-25??【打印此页】??【关闭
  • Copyright © 2002-2017 DEDECMS. 织梦科技 版权所有  
  • 点击这里给我发消息
在线交流 
客服咨询
【我们的专业】
【效果的保证】
【百度百科】
【因为有我】
【所以精彩】