AI治理:人工智能时代的秩序困境与治理原则

庞金友
【摘要】人工智能是20世纪以来最为深刻、最有影响的技术革命和社会进步。它在深度挑战传统生产方式和经济关系的同时,也在广泛改变着现代人的日常行为和社会生活。人类长期既定的认知体系、价值观念和生活方式,习以为常的法律规则、道德信条甚至决策机制都面临着前所未有的危机和挑战。全新的AI时代内在地需要全新的治理理念和治理形式。这就意味着治理体系和治理能力必须实现跨级飞跃:从传统治理到互联网治理,再到AI精准治理。AI精准治理必须坚持创新、适度、平衡和多元四大原则,建构由政府、市场和社会组织等多元主体携手合作、共同参与的多层次、多样化的新型治理模式,既能合理应对可能出现的诸多风险,又能积极支持人工智能的有序发展。
【关键词】人工智能 大数据 AI治理 精准治理
【中图分类号】TP18 【文献标识码】A
【DOI】10.16619/j.cnki.rmltxsqy.2018.10.001
人类正在步入一个由互联网、大数据和人工智能(Artificial Intelligence, AI)三重叠加的数字时代。“三者共同标志着人类新时代的三个侧面,共同构成了新的社会时代。网络侧重于描述人类社会乃至与物理社会广泛连接的状态,大数据侧重描述新社会状态下的内容形态和数字本位状态,人工智能则描述了新的社会创造物和广泛的机器介入的社会状态。”[1]20世纪40年代,通用计算机和存储设备走入普通人的日常生活,数字时代开启。20世纪50年代,网络技术获重大突破,为网络时代的到来铺平了道路。20世纪60年代,芯片、激光和通信三大技术迅速升级,促成了互联网络、数据处理和智能机器的迅猛发展。20世紀90年代,互联网逐步普及。网络不再仅仅意味着技术和工具,而成为沟通平台和组织原则。传统人类生活开始被网络解构、重构、再构,人与人之间的交往、交换和交流逐渐围绕网络展开,人类开始步入网络时代。随着传感器技术的应用,海量级数据存储的普及,新型通信技术的开发,人类社会生活的数据规模呈指数级上升。2010年左右,大数据时代宣告到来。21世纪的第二个10年,伴随数据处理能力的大幅提升,超级运算技术的广泛应用,新式算法的横空出世,人工智能领域的跨越式发展让人目不暇接,甚至有些始料不及。所有的现实都在显示:无论人类情愿与否,一个全新的人工智能时代正在迎面走来。如何理解人工智能带给人类世界的机遇和挑战,如何认识人工智能引发的一系列社会影响和治理困境,如何确立人工智能时代精准治理的方向与原则,既是一个重大的理论课题,也是一个迫切的现实难题。
人工智能时代:大幕初启的数字革命
人工智能,顾名思义,是指通过软硬件的结合使机器具有一定程度的类人智慧、思维和行为。这一概念与内涵也在随着应用范围和相关学科的发展而变化。但毫无疑问,这是一个被高度关注、广泛使用且正在飞速发展的新兴领域。[2]
20世纪40年代,图灵提出著名的“图灵测试”:“如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么称这台机器具有智能。”[3]随后,在香农和冯·诺伊曼的努力下,现代信息论和计算机科学的理论根基得以确立。在1956年美国的达特茅斯会议上,人工智能概念和研究领域被正式提出。自20世纪60年代起,人工智能大体经历了两大发展阶段:一是弱人工智能阶段,依靠单台机器或小型局域网络,只能完成简单的程序和任务;二是强人工智能阶段,全球互联,大数据全覆盖,终端云端协同运作,云存储云计算同步开启,已经具备近人类的思考方式和处理复杂任务的能力。[4]
近些年来,人工智能技术的革新更加突飞猛进,某些领域的发展水平已达到了前所未有的高度。1997年5月,IBM计算机“深蓝”轻松战胜国际象棋世界冠军卡斯帕罗夫。2016年3月,谷歌“阿尔发狗”(AlphaGo)战胜围棋冠军李世石。次年5月,再度战胜排名世界第一的世界围棋冠军柯洁。虽然“阿尔发狗”是否代表人工智能发展方向这一问题还有争议,但人们比较认可的是,它象征着计算机技术已进入人工智能的新信息技术,其特征是大数据、大计算、大决策,三位一体。它的智慧正在接近人类。2017年10月18日,DeepMind团队公布了最强版的AlphaGo Zero,它的独门秘籍是“自学成才”,从零基础开始学习围棋短短3天后就以100:0碾压了第二个版本的“旧狗”(战胜李世石的那版)。2005年5月,美国斯坦福大学研制的无人驾驶汽车在沙漠中行驶了132英里,开启了无人驾驶汽车的新时代。2014年5月,Google正式推出的新型无人驾驶汽车开始路测。2015年2月,英国的无人驾驶汽车也正式亮相。据统计,2014年至今,全球范围内与自动驾驶技术相关的投资、合伙、并购多达200多项,涉及总额高达1000亿美元。[5]以互联网科技先锋自居的英特尔,早在2017年1月美国GES展会上就高调宣布与奔驰合作并将于近期推出AI驾驶汽车。进入21世纪不到20年,从强调海量数据存储、高速计算能力的“强计算弱智能”,到依靠深度学习、大数据、云计算的“网络协同强智能”,人工智能提升到了一个崭新的高度和水平。有学者认为,人类社会即将迎来继哥白尼革命、达尔文革命和神经科学革命之后的“第四次革命”。[6]
人工智能在生产领域中的应用,为新一轮产业结构升级提供了助力。借助互联网+和工业4.0,人工智能以替代人工或与人工合作的方式,大幅提高了劳动生产率,深度重构了信息链和产业链,对传统的价值创造和分配方式构成了重大影响。虽然当前的人工智能还不具备自我升级、自主创造的能力,但它对人类的生产和生活带来了巨大的冲击和挑战。未来社会的发展不可能无视人工智能的作用与功能,这意味着,新一轮的创新运动势必被强势激发。
当今世界各国高度重视人工智能的研发与应用,尤其是人工智能战略的发展。2014年6月,日本政府出台《日本复兴战略》后火速启动“机器人革命会议”。2015年1月,安倍首相提出要“通过规制改革实现机器人无障碍社会,确立世界最高水准的人工智能技术”,并声称2015年是“机器人革命元年”。[7]2015年,日本政府公布《机器人新战略》,重点规划了未来以机器人为轴心的人工智能发展目标。[8]2016年10月31日,美国先后发布《国家人工智能发展与研究战略报告》(The National Artificial Intelligence Research and Development Strategic Plan)和《为人工智能的未来做好准备》(Preparing for the Future of the Artificial Intelligence)两份报告,对人工智能发展的现状和前景展开深度分析,正式宣告美国人工智能的发展战略。
我国对人工智能的发展历来高度重视。20世纪70年代末人工智能的研发和制作就已启动。进入21世纪,我国对人工智能的重视程度更加提高,对技术研究和应用发展的支持力度也逐步加大。例如计算机视觉、语音识别和语言处理等技术的发展水平,已然稳居世界先列。2017年,国务院发布《新一代人工智能发展规则》[9],引起国际社会高度关注。
某种程度来讲,2017年是“人工智能元年”。它标志着,人工智能已实现跨越式发展,人类既有的认知、伦理和法律体系正面临前所未有的挑战。一个“后人类时代”正在缓步走来。未来,智能机器将参与甚至自主承担越来越多的关乎伦理、法律的决策和行动,人类的生存安全以及思考决策的权威地位可能受到威胁。一旦人工智能成长为独立的、自我约束型的“道德主体”,人类的本质都可能面临重新界定和书写。这无疑是重大的时代性人文命题。“人工智能领域是当前人类所面对的最为重要的深刻技术和社会变革,是网络时代、大数据时代之后的新的人类社会形态在社会主体层面维度的反映。人工智能在深刻改变人类物质生产体系的同时,也将深刻改变人类的社会关系与社会行为。”[10]
人工智能引发的秩序困境
当今世界,人工智能的应用已经相当广泛。普通人的日常生活,正在不可避免地被智能机器影响、左右甚至重构。不知不觉间,人们的学习、工作、购物,甚至寻友、旅行、炒股,已经离不开智能软件和智能机器。许多过去只能由人类才能胜任的复杂工作,正在让位给智能机器;而一些人类无法承受、无法逾越、无法胜任的高危险难领域,智能机器正在扮演越来越重要的角色。越来越多的人们意识到:人工智能越发展、越进步,人们对它的依赖程度越高、依赖范围越广。是否应该接受人工智能已经不是一个问题,人们要回答的是,如何应用人工智能造福人类,并及时应对人工智能带给传统安全、法律、道德和政治等观念和现实的冲击与挑战。在伊隆·马斯克(Elon Musk)看来,人工智能是对人类生存最大的威胁,开发能思考的机器就像在“召唤恶魔”。史蒂芬·霍金(Stephen Hawking)则认为,全面的人工智能将意味着人类这一种族的灭亡。就连比尔·盖茨(Bill Gates)也对超级智能感到无比担忧,他担心超级智能再需几十年就会诞生。[11]那么,人们不禁会问:人工智能为何让人类如此忧虑?人工智能的迅猛发展会有哪些风险和不确定性?会引发哪些社会危机和秩序困境?
安全困境。首先是两种极端形式的安全隐患:超级智能和“人工愚蠢”。超级智能是指某些人工智能在某些特定领域拥有超级的能力,如一些超级计算机,它们的计算速度是惊人的,从而造成了某些不可控的后果。例如,证券交易所中用于自动执行股票交易的人工智能系统,执行时间以纳秒为单元。由于这些交易行为的发生速度很快,一旦出现问题,人类根本无法及时干预。更可怕的是这些智能机器不用吃饭、不用休息,理论上可以不间断地永久工作。此外,这些超级智能的运行往往存在一些“黑箱”般的不透明性。如对于先进神经网络与基因算法,人类早已放弃了试图理解其何以能够有效执行如此复杂的任务。当今社会,人工智能承担和处理的任务在不断增长。人工智能可以轻松地设计新城市草图、监控银行帐户安全、执行具有重大经济影响的金融交易,甚至在同一时刻自动驾驶成百上千台自动汽车……这些都是寻常人力所不能及的。“我们已经无法控制计算速度快于人类大脑百万倍的机器,在可预见的未来,这个速度将持续增长。”[12]“人工愚蠢”是人工智能的反义词,意指简单规则下的人工智能的失败。有些学者认为,人工智能真正的威胁恰恰在于“人工愚蠢”,例如一个被设定了固定程序的计算机会无条件地执行命令,迅速完成某项单一工作内容。一旦程序失误,智能机器就会无限地重复生产和制作动作,这将造成大量的资源浪费。2011年4月,亚马逊网站上一本不再出版的图书《苍蝇的成长》出乎意料地与自己打起了价格战。这本书有两个版本,原来售价为35至40美元。有一天,它们突然分别以1730045和2198177美元销售。仅仅数小时,价格又连续翻倍。两周之后,书价已达到不可思议的23698655.93美元。之所以会如此,就是因为算法规定这本书的售价必须略高于竞争对手,于是就引发了价格战,并最终将自己的价格提升到了一个荒诞的程度。[13]2010年5月6日,美国东海岸时间下午2点42分,道·琼斯指数“闪电崩盘”,三分钟内下跌了将近1000点,创下历史最大的单日跌幅,将近1万亿美元财富凭空蒸发。一些股票从平时的30~40美元暴跌至0.01美元,而苹果公司股票每股从250美元激增至100000美元,不过,这些情况很快恢复正常。[14]造成这一惊天大崩盘的罪魁祸首就是因为基于规则的简单人工智能的反馈回路被锁定。“人工愚蠢”成功地以合法方式从人们口袋里把钱偷走了。
其次,人身安全问题。1978年,日本广岛一家工厂的切割机器人突然失灵,将一名工人当作钢板进行切割,这是世界上第一宗机器人杀人事件。1979年,美國密歇根州福特铸造厂工业机器人突然伸出手臂,闪电般击倒一名装配工人。1989年,苏联国际象棋冠军古德柯夫和机器人对弈,连败3局的机器人突然释放高压电流,将一代象棋大师电击致死。2015年,德国大众汽车制造厂一台正在被安装调试的机器人突然将装配工人击倒并碾压在金属操作板上。2018年3月20日,一名女子周日深夜在美国亚利桑那州坦贝市横越马路时,被一辆Uber自动驾驶汽车撞死。这是全球首例因无人驾驶车辆导致的交通事故。最近以来,用于战争的自动人工智能武器伤人事件也屡次不鲜。尤其是无人机的定点清除,容易带来误差导致贫民误伤。有数据显示,2004至2012年间,美军针对阿富汗恐怖组织的无人机空袭超过300次,杀死3000余人,其中误杀的平民和儿童高达1100多人。[15]无人机的大量滥用,给所在国带来了深重的人道主义灾难。
再次,数据安全问题。人工智能时代是互联网、大数据和机器智能的三重叠加。随着政府、企业和社会组织的决策越来越依赖大规模的数据收集、分析、整理和使用,传统社会越来越走向数字化、透明化和公开化。这种技术形式使个人的隐私无处可藏、无所遁形,完全处于一种“网络裸奔”状态。所谓隐私保护,只不过是“皇帝的新衣”罢了。在日常生活的许多领域,人工智能产品已经与人类形成了服务与被服务、辅助与被辅助的关系,如机动车的自动泊车、轨道偏离纠正和自动驾驶技术,手机语音助手、地图导航、免密支付功能等。当这些人工智能产品与人类进行信息交互时,如何确保使用者的信息不流失、不外泄,不被别有用心的人窃取和利用,即便上传到远程终端,依旧能够保持安全,这已经关涉到每个人的切身利益。人工智能时代,无论是数据的收集环节,还是数据的保存环节,抑或是数据的使用环节,都存在风险。大规模的智能机器在互联网上没日没夜、一刻不停地搜集、整理着海量的个人数据,包括姓名、性别、电话、邮箱、住址、位置等。这些海量信息的全面追踪,经过简单的分析、归纳,完全可以勾勒出个人的个性特点、脾气秉性、饮食习惯、购物倾向、颜色偏好,甚至各种个人癖好、行踪轨迹、交往范围、性取向等私密信息。由于系统安全漏洞、黑客恶意攻击等原因,个人数据始终面临被泄露、被窃取、被买卖等潜在的安全风险。2007年上半年,“熊猫烧香”“金猪报喜”等一系列恶意病毒的爆发让人们首次认识到个人数据竟然可以被私下交易的黑幕。可这仅仅是现代数据与信息安全巨大黑幕的冰山一角。2016年9月22日,全球互联网巨头雅虎证实至少5亿用户账户信息遭人窃取。12月,雅虎再次发布声明,宣布在2013年8月,未经授权的第三方窃取了超过10亿用户的帐户信息,包括用户姓名、电子邮箱、电话号码、出生日期和部分登录密码。消息一出,全世界一片哗然。
最后,隐私安全问题。数据是人类现代文明的基石。大数据也是人工智能产生和发展的必要前提。大数据的收集与整理必然需要每个人生活、工作和交往的诸多细节和信息,也势必会形成对个人隐私的威胁。能否在利用大数据进行分析的同时,确保信息数据和个人隐私的安全,这直接影响每个公民的合法权益,间接影响公众对政府的信任和认可。出于自身利益和高额利润的考虑,一些商家片面强调新兴智能产品的性能、优点,却对这些新设备和新技术对个人数据的动态获取避而不谈。当前一些应用APP在为人们提供免费、便利生活服务的同时,也会自动记录、收集个人的数据信息,从而给下一步的精准推送和精准营销提供素材。这一行为,无疑对个人财产和人身安全造成了潜在的威胁。由此来看,人工智能时代的数据安全与隐私保护是需要高度关注的核心议题,正如艾瑞斯所说:“隐私问题部分来说不是大数据分析的问题,它是数字化过程的阴暗面。”[16]
法律困境。人工智能技术的不断发展,对现有的法律体系带来了巨大的冲击和挑战。我们能否起诉机器人?这个以往不是问题的问题,如今却成为真正的问题。
当今时代的人们对人工智能助手寄予了极大的信任,有时超过了人们的本能和判断,甚至远远超过了设计者的信心。2013年底,美国阿拉斯加州弗尔班克斯几位Iphone用户按照苹果地图导航指引,选择一条抵达费尔班克斯国际机场最近的路线,但没有想到这条路线竟然直穿飞机起降的跑道,险些酿成大祸,这几个人不得不面对数额不菲的罚款。2009年10月,一位英国司机依据GPS导航,使自己冲下悬崖,撞坏了别人庄园精美的围栏。尽管英国法庭将这起事故归因于他的GPS,但还是认定其有大意驾驶的过错。在类似这种因技术引起的交通事故中,当前可用的法案条例非常有限,不过,法院一直趋向作出针对人类的判决。因为法官和民众一样,已经习惯于一种无智能工具的世界。一个人用枪杀了人,他应为自己的罪行负责,而不是让他的枪负责。同样,一家公司销售了有瑕疵的枪支,购买者在使用过程中发生了爆炸,售枪公司应对造成的伤害负责。进入数字时代,这种惯性思维开始遇到挑战。1984年6月,美国一家名叫阿斯隆工业的公司被告上法庭,用户指控其销售的自动投球机过于凶狠,发射的棒球不仅路线诡异,而且速度极快,极易导致使用者颅骨骨折甚至失明。阿斯隆案看似平常无奇,实则令人难忘,因为法官最终宣判对阿斯隆工业而不是投球机进行起诉,原因是什么呢?因为“我们无法起诉机器人”。[17]随着人工智能产品越来越广泛地应用于人类生活,越来越深入地影响整个世界,“无法起诉机器人”越来越遭到人们的反思和质疑。现代人工智能最大的不同点在于:它“不再仅限于由人类使用,而是一种由人类部署的工具。一旦部署,在多数情况下,机器就会按照所收集、分析和最终用于作出决定的信息,独立于指令而自行运转”。[18]从这个意义上看,陈旧的“无法起诉机器人”的观念可能需要有所改变。
作为现阶段人工智能应用最广泛的领域,目前全球自动驾驶汽车的发展最引人注目。但这一技术也引发了不少法律纠纷。2016年5月7日,美国佛罗里达州一辆自动驾驶的特斯拉撞上了一辆试图横穿高速的卡车,造成车毁人亡的后果。美国公路安全管理局经过调查取证认为特斯拉的自动驾驶模式并无明显缺陷,汽车生产商、驾驶员也没有过错。可事故毕竟是发生了,最终该由谁来负责呢?人们却各持已见,争执不下。
法律责任的区分与承担是人工智能发展面临的首要法律挑战。其中涉及的深层次问题是人工智能是否可以被问责?更进一步说,该如何问责?从传统法理来看,主观过错在法律责任认定中至关重要。过错性责任与无过错性责任有实质性区别:无过错就无责任。人工智能系统独立完成工作,没有人类的参与,那么,由人工智能自主性操作造成的损害如何认定责任,这就成了一个难题。
人工智能引发的责任认定问题,已经引起人们越来越多的重视。2016年8月,联合国教科文组织在《关于机器人伦理的初步草案报告》中对机器人的责任问题进行了界定,认为应采取责任切割的方法,但凡参与机器人的研发、设计、生产、装配和使用过程的所有人必须共同分擔责任。欧盟在智能机器人责任认定领域走在了世界前列。同年的5月和10月,欧洲议会法律事务委员会(JURI)先后发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》和《欧盟机器人民事法律规则》,对机器人和人工智能提出立法提案,为智能机器人重构责任规则。这两份文件认为,如今的机器人已经具有自我学习、自我决断和自主行为的能力,已经不能将其视为一个简单的工具,因此,急需制定新的责任规则。而这又牵涉到机器人是否拥有法律地位的深层难题。也就是说,人们必须对机器人的本质作出规定,它是法人、自然人、动物还是物品?因为这直接关系到机器人在权利、义务、责任承担等方面具有何种特性和内涵。
目前的法律框架下,机器人不必对其自身行为给第三方造成的损害承担责任,这些责任分别归结到生产者、销售者和使用者身上。这里预设的责任条款是:这些主体能够且应该预见智能机器人的任何行为尤其是伤害行为。可一旦人工智能机器可以自主判断并实施行为,传统的责任规则就无法确定责任方并让其作出赔偿了。这也就意味着,机器人具有自主行为能力的那一刻,所产生的机器人责任问题在现有法律体系内就会陷入死局,无法解决。
还有一些可能的现象值得关注。试想,如果未来可以很便捷地为每个人打造一个智能复制品,虽然只是一个机器,但外貌、感觉和行为与本人一模一样。有没有可能出现下面的极端情形?一个男人迷恋一个女孩,他就上网预订了这个女孩的复制品,通过快递到家,然后虐待甚至“杀掉”这个复制品。从技术和法律层面来讲,复制品只是一个玩具,虽然具有人的形象但却没有感觉和情绪,买家将它当作玩具购买和使用也无可厚非,那么问题就出现了:“我们有法律保护这本书免遭剽窃,或我的观点不被扭曲,但是没有法律保护我们的复制品。”[19]
伦理困境。所谓人工智能,简单地说就是要造会思考的机器。那么问题来了?这些机器是人吗?它能像人一样享有权利并承担义务和责任吗?我们凭什么相信这些比人类更有力、更聪明、会自己学习的智能机器不会有一天向人类倒戈一击?这些问题已经引起人们越来越多的思考。“人工智能的潜在危险、我们对其日渐依赖以及法律的灰色地带共同构成了非常重要的问题:我们需要在这个领域建立一种伦理规范。”[20]
对此,作家艾薩克·阿西莫夫提出了著名的“阿西莫夫法则”,也被称为“机器人学的三大法则”:“1、机器人不得伤害人,也不得见人受到伤害而袖手旁观;2、机器人应服从人的一切命令,但不得违反第一法则;3、机器人应保护自身的安全,但不得违反第一、第二法则。”[21]这三大法则一经提出,随即引起人们的热议,但仅限于人们对未来生活的幻想和无形的担忧层面。2014年1月,当谷歌收购深度学习公司(DeepMind)时,事情发生了重大转折。作为交易的一部分,深度学习公司提出的条件是:谷歌必须成立人工智能伦理委员会,确保对人工智能技术的安全开发和明智使用。这表明民众看待人工智能的眼光已经发生转变,从原来“人工智能怎么如此不堪?”转向“人工智能怎么如此恐怖?”[22]
2014年,塔夫茨大学和布朗大学成立了一个多学科研究团队,重点探索能否为用于战争的自动智能武器赋予是非感,希望这些战争机器人在战场上能做出符合伦理的决定。但其中难度可想而知。试想,一个正在完成运送伤兵去战地医院任务的机器人军医遇到另一个腿上受伤的士兵,它是立即停下来救治伤兵,还是置之不理继续前行?这对于正常人类来说都是一个难以抉择的伦理问题,更何况是机器?再比如生产自动驾驶汽车的公司在设计汽车时规定,一旦汽车检测到前方或后方即将发生碰撞,车辆可以迅速驶离道路从而保护车上人员安全。这一操作是合理的,现实生活中许多驾驶员也是这样做的。但如果迅速驶离道路的汽车正好冲进了一群正在路边下棋的市民当中呢?汽车避开了一个小追尾事故却酿成数人伤亡的惨痛后果。这又如何是好?
人工智能还引发了一些隐性的道德问题。2000年到2010年,无人机和机器人战争走出科幻电影的大银幕,变成了真正的现实。据大卫和伊莱恩·波特(Elaine Potter)于2010年成立的独立非营利组织新闻调查局统计,“美国无人机已在至少七个国家夺去了2500~4000人的性命(阿富汗、巴基斯坦、叙利亚、伊拉克、也门、利比亚和索马里)。其中有约1000位平民,且有约200名儿童”。[23]与直接动手杀人相比,虽然造成的后果别无二致,但这种间接“扣动扳机”的行为,无论是对智能软件的设计者、无人机操纵者还是下命令的将军来说,内心的负罪感都会相对减弱,因为至少目前的人们可以接受这样的事实:“使用机器完成某个行动基本上使机器的设计者和操作者免于该项行为的责任。”[24]这样的思维也适用于其他情境和场合。如果由智能机器人执刀的手术失败导致病人死亡,生产机器的公司,操控机器的团队,确定这个手术方案的医生,谁该更内疚呢?随着机器在普通人的生活和工作中的普及,机器使行为和责任脱钩的现象越来越普遍。按照常理,人们倾向于将失败的责任转嫁到机器身上。人们的生活离不开机器,机器为人们工作,这些看起来都是理所当然的。如果出现问题,那便是机器的问题,而不是人的。这意味着,人工智能时代,即便有些后果的造成人也有过错甚至就是由于人的过错直接造成的,但机器仍要为所有的过错买单,至少目前是这样的。
随着人类将越来越多的工作交给人工智能,最后必将面临人工智能的权利问题。虽然这一问题不如人工智能是否会为人类带来危险这样的问题更热门、更迫切,但也是值得我们考虑的问题,因为我们迟早要面对。英国作家比尔·汤普森认为,如果把“阿西莫夫法则”中的第一条(机器人不得伤害人,也不得见人受到伤害而袖手旁观)写进超级人工智能的代码中,就等于承认:人工智能应该且必须永远服务于人类,而不能成为一种自主的心灵,这与为奴隶戴上枷锁和把大猩猩关进笼子没有区别。
2017年10月26日,沙特阿拉伯授予美国汉森公司生产的机器人索菲亚(Sophia)沙特国籍。作为史上首个获得公民身份的机器人,索菲亚在当天的感谢演讲中说:“我对此感到非常的荣幸和骄傲,这是历史性的时刻,世界上第一个被授予人类国籍的机器人。”[25]被问到机器人能否有自我意识时,索菲亚反问:“人类又是如何意识到自己身为人类的呢?”而对于AI威胁论,索菲亚则回怼道:“你听多了马斯克的话。别担心,人不犯我,我不犯人。”[26]索菲亚拥有仿生橡胶皮肤,可模拟62种面部表情,其“大脑”采用了人工智能和谷歌语音识别技术,能识别人类面部、理解语言、记住与人类的互动。在成为首位机器人公民1个月后,索菲娅宣布想要组建一个家庭。[27]2018年3月21日,索菲亚以沙特公民身份参加在尼泊尔加德满都召开的联合国可持续发展目标亚洲和太平洋地区创新大会。人们在为索菲亚开创一个新时代喝彩、慨叹的同时,也不禁会想,如果将来索菲亚触犯法律,是否会像人类一样接受相同的惩罚呢?接受惩罚的是设计者,制造者,还是索菲亚自已?拥有正式公民身份的类人机器人是否和人类一样具有法律身份和公民资格?这些问题并不遥远,必须及时解答。在当下社会,讨论囚禁人工智能是否符合伦理这可能看起来有些可笑,但如果科学家成功开发出一种人工智能,其行为与我们主张的以符合伦理的方式对待的真正生命体更为类似,那么,这种讨论不仅不会显得可笑,反而是意义非凡了。“人工智能是否有权利追求生活、自由和幸福的问题并不是一个需要我们现在就回答的问题,但如同向计算机植入道德,或考虑如何解决潜在的危险软件一样,总有一天我们要面对这个问题。”[28]
决策困境。人工智能将人们在网上和现实世界里的生活习惯、购物记录和日常活动转换成数字信息,这些信息被记录、存储下来,供人们在需要时提取、分析、评估和预测。这些数据和信息是人们进行决策的前提和基础。“以大数据、机器学习、人工智能、算法等核心的自动决策系统的应用日益广泛,从购物推荐、个性化内容推荐、精准广告,到贷款评估、保险评估、雇员评估,再到司法程序中的犯罪风险评估,越来越多的决策工作为机器、算法和人工智能所取代。”[29]这种算法和决策过程最容易引发的风险就是算法歧视(algorithmic bias)问题。[30]
不容否认,互联网、数字世界和评估预测越来越受算法的影响。算法可以决定你看到的网络内容,可以评估你的职业去向,可以预测你的生活满意度。甚至,算法可以决定对犯罪嫌疑人的犯罪风险评估,可以设定自动驾驶汽车的风险规避次序,可以决定智能武器的攻击人群和杀伤程度。[31]问题在于:人工智能系统承担的决策是否真正不偏不倚,公平客观?首先,公平是个模糊概念,很难被量化,其次,即便可以量化,公平被量化、被算法化也可能带来歧视问题。再次,算法好坏取决于所使用的数据好坏,现实情况是,数据在很多方面是不完美的,既可能无法全面覆盖,也可能存在地区失衡,基于不完美的数据进行的决策必然会产生偏见和歧视。最后,可量化、算法化的智能系统,决定决策结果的不再是规则,而是代码。某种程度上,歧视是算法规则无法避免的,“歧视在很多情况下都是算法的副产品,是算法的一个难以预料的、无意识的属性,而非编程人员有意识的选择,更增加了识别问题根源或者解释问题的难度。”[32]这就是人工智能决策困境的真正来源。也正由此,在自主决策系统广泛应用于日常生活的数字时代,人们必须意识到:算法是无法确保公平的,必须重视并努力克服基于算法而产生的人工智能自主决策机制的内在缺陷。
决策是指向未来的规则与设计,但人工智能决策系统的依据是过去的数据。换句话说,是用过去的数据推测未来的趋势。其中,算法模型和数据输入直接决定着预测的结果。一方面,算法模型是由设计者和开发者借助代码书写的个人意见,主观色彩和个人偏见很容易嵌入算法规则;另一方面,数据的有效性、准确性、及时性,随时影响着算法和预测的准确性、科学性和规范性。另外,一旦某个算法模型产生了歧视,这种歧视完全可能被不断巩固、强化和放大。因为算法决策会形成一个“歧视性反馈循环”,用不准确、有偏见的数据去设计算法,再用这种算法得出的运行结果来反馈,原有的偏见会再度扩大、加强。按这个逻辑,算法完全可以基于偏见创造一个歧视的现实。“算法决策其实缺乏对未来的想象力,而人类社会的进步需要这样的想象力。”[33]
人工智能的精准治理原则
人工智能时代,如何同时面对如火如荼的AI发展态势、争执不下的人类命运焦虑以及期待、担忧和质疑心理并存的广大民众舆论?如何确保在顺应技术革新大潮的前提下,既鼓励人工智能的正常发展,又合理规避可能的风险?这就需要政府、市场和公民社会等多元主体携手合作、共同参与,从而构建多层次、多样性的AI治理模式。由于AI技术的创新与应用仍处于快速生长期,真正的人工智能时代尚未到来,智能技术引发的深层次矛盾与根本性问题只露冰山一角,现在就规划和设计具体而微的法律法规和伦理信条既不现实,也为时尚早,因此,思考如何应对人工智能的基本原则和根本态度是必要而紧迫的。
第一,创新原则。治理应当建立在技术与产业革新的基础之上。这是AI时代精准治理观念的必要前提。科学的进步,技术的发展,新生事物、新兴产业的出现,自然会对传统的治理观念、监管政策产生挑战,这种冲击是必然的。但这种冲击并不必然意味着治理主体的解体和治理权威的丧失,它仅意味着:如果不能及时调整治理策略和监管政策,治理效果暂时会大打折扣,治理行为短时间会失去信度和效度而已。2015年,美国加州机动车辆管理局提出一项治理草案,以安全考虑为由规定:所有在加州公路上行驶的无人驾驶汽车必须有方向盘和制动踏板,且司机必须坐在驾驶座位上。这种规定显得很滑稽,因为它与无人驾驶本身的出发点和基本理念背道而驰。
第二,适度原则。治理应当适度控制,保持权力的谦逊。对于技术的进步与市场的创新,有时需要时间和环境去试错、去调适,更多时候可以交由市场规律來自然选择。正所谓,物竞天选,优胜劣汰。激烈的行业竞争,丰厚的市场利润,都是治理秩序的非体制保障因素。即使政府不额外制定相关的问责制,产品的责任条款和法律的追责效力,都会维持人工智能行业及其产品自身的灵活和稳健,能处理绝大部分当前出现的问题。2015年10月19日,国务院发布《关于实行市场准入负面清单制度的意见》,提出自2018年起全国统一实行“市场准入负面清单制度”,除清单上明确列出的在中国境内禁止和限制投资经营的行业、领域、业务外,其他的皆可依法平等进入。这种负面清单制度是适度治理原则的最佳体现。只有权力保持谦逊,才能使市场主体获得更多的主动权、积极性和无限活力,才能构建更加开放、透明、公开的市场管理机制。
第三,平衡原则。AI治理摆脱泛安全化误区。每个行业都存在安全问题,如食品、交通、通讯、环保、餐饮,等等。绝不能因为某个行业存在风险就主动限制其发展和进步。若以安全问题否定新变化,那么科技领域的任何一点进步和发展都会成为泡影。人工智能的广泛应用使人类可以远离一线操作,这种传统人为监管形式的缺位不禁使政府和民众产生了深深的忧虑:飞驰的自动汽车,握着手术刀的智能机器,若没有人类在场,还那么稳定可靠、值得信赖吗?万一失误了又如何是好?实际上,很多人没有想过,这些新兴人工智能产品相比传统产品、服务的风险是否更大?当人们在担心Uber、谷歌的自动驾驶汽车造成的交通意外时,是否对比过人类每年数以百万计的生命在交通事故中丧失?其实,我们更应该明确,人工智能设备和产品新产生的问题如何通过配套制度加以控制和解决。稳定与进步、安全与发展问题,向来都是一对矛盾体。只有找到两者之间的平衡点,才能做到既不粗暴地扼杀,也不任其自由地泛滥。互联网初创时期,网络上盗版横行,秩序混乱。如何既维持互联网的发展,又保护版权,成为一个令人头疼的问题。1998年美国通过《数字千年版权法案》,规定网络服务提供商只提供空间服务,如果被告知侵权,则有删除义务,否则就视为侵权。[34]这种“告知—删除”原则的制度设计,既加强了网络版权保护,也限定了网络服务商的义务范围,既保持了知识产权,也促进了产业发展,堪称现代治理的典范案例。这一立法原则也为世界各国仿效,包括我国。
第四,多元原则。人工智能时代的精准治理是一种多元主体共同参与的多层次、多维度、多样式的治理模式。首先,作为人工智能的利益相关者,政府、企业、社会组织和广大民众必须联手应对新问题和新现象。实际上,各方各有所长,各有所短。作为现代治理主导力量和公共政策制定者的政府往往缺乏专业技术储备、技术预见性和行业前瞻性,作为技术开发者和推广者的企业则无法保持令人信服的中立性,权威性也不足,而作为人工智能直接受众的广大民众和社会组织虽然其日常生活和基本权益倍受影响却无法成为主导性力量。显然,最佳的治理策略必须是各方联合行动、共同参与,在对话、协商甚至彼此竞争、相互博弈中寻找最为合理的解决方案。美国政府近期出台的《为人工智能的未来做好准备》明确鼓励私人、公共机构和社会组织通过合理的方式向机器学习,利用人工智能造福人类,甚至考虑到政府技术性知识普遍落后的现状,明确建议相关产业与政府合作,帮助政府及时获知人工智能产业最新发展动态,包括近期取得的突破。其次,政府、市场、社会组织和公民个体应各司其职、各尽其能,以适当的角色、合理的方式同步参与治理,从而构建多层次、多维度、多样式的治理模式。政府作为公共利益和广大民意的代言人,应牢牢把握人工智能的发展方向和治理基调,使其向满足广大人民美好生活需要的方向发展;同时,作为国家安全与社会稳定的守卫者,政府应为人工智能产业制定统一的安全标准和必要的法律规范。市场企业作为人工智能技术的开发者和拥有者,在承担科技研发和应用推广重任的基础上,还要承担相应的社会责任,以符合法律法则和伦理道德的标准自我约束,自我监督。社会组织和广大民众则需要以理性、冷静和平常的心态看待人工智能的新兴发展,积极参与相关规则的制定,主动介入监督与监管,从而自下而上形成健康向上、充满活力的协同治理体系。作为现代知识生产者和传播者的知识分子群体,更应积极关注这场重要的技术变革,及时观察、理性反思并深度思考人工智能的最新发展、可能引发的社会问题,从而为未来AI时代的可能到来提供必要的知识准备和智慧指引。
归根到底,人工智能是由人类创造的,它的走向取决于人类的集体意识而非机器的意志。而毋庸置疑的是,人工智能终将打开一个通向新世界的大门。《人类简史》和《未来简史》的作者尤瓦尔·赫拉利2017年7月6日在XWORLD首届大会上提出,“当你作为一个个人,一家企业、政府部门,或者作为精英阶层,我们在做人工智能的时候,做各种各样决定的时候,一定要注意人工智能不仅仅是单纯的技术问题,同时也要注意到人工智能以及其他技术的发展,将会对社会、经济、政治产生深远的影响。”[36]那么,在人类有史以来最伟大的发展面前,人类势必面对这样的终极选择:是调整既有秩序甚至价值体系走进人类智能世界,还是将人工智能嵌入人类千百万年所构建的世界秩序之中?是大力发展人工智能,将大量重复性简单劳动甚至医生、律师等专业性工作交付给人工智能,还是适当控制人工智能的无限蔓延,将其始终置于劳动工具的地位,从而确保人类的劳动权利乃至人格尊严?若有选择权,治理主体是选择让超级智能成真,还是控制技术的进程?也许我们不需要立即回答这些问题,但这些问题终究要面对。
我们即将走进一个AI的新时代。这意味着国家治理体系和治理能力务必实现从传统治理到互联网治理,再到AI治理的跨级飞跃。人工智能对于国家治理现代化是把双刃剑,治理能力与水平对于人工智能也是如此。人工智能的早期发展,需要国家治理提供宽松的环境和强力的支持,而当技术逐渐成熟并蓄势待发且准备在人类社会生长时,治理主体的缺位、治理能力的羸弱就可能导致生產秩序混乱、权责不清、道德忧虑等后果。因此,“如何在适当的时机进行适度的监管及政策支持,既保证AI的‘鲜嫩又不伤害‘食用AI的人类本身,使科技既保持活力充沛又不恣意妄为,是AI治理所面临的根本挑战。”[37]在当下,人类必须时刻提醒自己:对于人工智能,不要低估它的能力和发展,也不要高估它的风险与威胁。未雨绸缪,防患未然,总是对的。
(本文系国家社科基金项目“当代西方政治思想中的国家理论跟踪研究”和中国政法大学优秀中青年教师培养支持计划资助项目“当代西方国家理论最新发展研究”的阶段性研究成果,项目编号分别为:14BZZ007、DSJCXZ180305)
注释
[1]何哲:《通向人工智能时代》,《电子政务》,2016年第12期,第3页。
[2][3][美]卢克·多梅尔:《人工智能:改变世界,重建未来》,赛迪研究院专家组译,北京:中信出版集团,2016年,推荐序,第4~5页。
[4][英]玛格丽特·博登:《AI:人工智能的本质与未来》,孙诗惠译,北京:中国人民大学出版社,第28~52页。
[5]周志敏、纪爱华:《人工智能:改变未来的颠覆性技术》,北京:人民邮电出版社,2017年,第187页。
[6][意]卢西亚诺·弗洛里迪:《第四次革命》,王文革译,杭州:浙江人民出版社,2016年,第104~108页。
[7][8]冯昭奎:《辩证解析机器人对日本经济的影响》,《日本学刊》,2016年第3期,第73、79页。
[9]国务院:《新一代人工智能发展规划》,http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm,上网时间:2018年4月8日。
[10]何哲:《通向人工智能时代》,《电子政务》,2016年第12期,第9页。
[11][美]詹姆斯·巴拉特:《我们最后的发明:人工智能与人类时代的终结》,闾佳译,北京:电子工业出版社,2016年,第255~270页。
[12][美]皮埃罗·斯加鲁菲:《智能的本质:人工智能与机器人领域的64个大问题》,任莉等译,北京:人民邮电出版社,2017年,第169页。
[13][美]卢克·多梅尔:《人工智能:改变世界,重建未来》,赛迪研究院专家组译,北京:中信出版集团,2016年,第237~238页。
[14][美]杰瑞·卡普兰:《人工智能时代》,李盼译,杭州:浙江人民出版社,2016年,第100~101页。
[15]王潘:《无人机反恐优势明显 但容易造成误伤》,http://tech.qq.com/a/20151117/026105.htm,上网时间:2018年4月18日。
[16][美]伊恩·艾瑞斯:《大数据:思维与决策》,宫相真译,北京:人民邮电出版社,2017年,第174页。
[17][18][美]卢克·多梅尔:《人工智能:改变世界,重建未来》,第243页。
[19][美]皮埃罗·斯加鲁菲:《智能的本质:人工智能与机器人领域的64个大问题》,任莉等译,北京:人民邮电出版社,2017年,第166页。
[20][美]卢克·多梅尔:《人工智能:改变世界,重建未来》,第245~246页。
[21][美]詹姆斯·巴拉特:《我们最后的发明:人工智能与人类时代的终结》,闾佳译,北京:电子工业出版社,2016年,第15页。
[22][美]詹姆斯·亨德勒:《社会机器:即将到来的人工智能、社会网络与人类的碰撞》,王晓等译,北京:机械工业出版社,2018年,第190~195页。
[23][24][美]皮埃罗·斯加鲁菲:《智能的本质》,第164页。
[25]观察者网:《人类首次授予机器人索菲亚沙特国籍》,https://www.guancha.cn/industry-science/2017_10_27_432496_1.shtml,上网时间:2018年4月18日。
[26]新浪视频:《世界首位机器人公民回应AI威胁论:人不犯我,我不犯人》,http://video.sina.com.cn/view/251829657.html,上网时间:2018年4月18日。
[27]腾讯科技:《世界首个机器人公民索菲亚:我想成家还想要个女儿》,http://tech.qq.com/a/20171127/010416.htm,上网时间:2018年4月18日。
[28][美]卢克·多梅尔:《人工智能:改变世界,重建未来》,赛迪研究院专家组,北京:中信出版集团,2016年,第252页。
[29]腾讯研究院等:《人工智能:国家人工智能战略行动抓手》,北京:中国人民大学出版社,2017年,第240页。
[30][美]伊恩·艾瑞斯:《大数据:思维与决策》,宫相真译,北京:人民邮电出版社,2017年,第172~173页。
[31]刘凡平:《大数据时代的算法》,北京:电子工业出版社,2017年,第155~172页。
[32]腾讯研究院等:《人工智能:国家人工智能战略行动抓手》,第243页。
[33]腾讯研究院等:《人工智能:国家人工智能战略行动抓手》,第245页。
[34][英]维克托·迈尔-舍恩伯格、肯尼思·库克耶:《大数据时代:生活、工作与思维的大变革》,盛杨燕等译,杭州:浙江人民出版社,2013年,第231页。
[35]腾讯研究院等:《人工智能:国家人工智能战略行动抓手》,第338页。
[36]尼克:《人工智能简史》,北京:人民邮电出版社,2017年,第224页。
[37]腾讯研究院等:《人工智能:国家人工智能战略行动抓手》,第329页。
责 编/马冰莹
相关文章!
  • 有关税务行政复议几个问题的探

    艾俊明 徐志嵩摘 要:在税务行政复议申请人、纳税争议复议前置、申请复议期限三大税务行政复议问题中,税务行政复议申请人应当包括与具体

  • 新中国70年公民政治参与的历史

    蒋国宏摘 要:政治参与有助于减少决策失误,节约行政资源,提高行政效能,促进政府规范运作,减少和预防权力腐败,也有利于维护社会稳定。新

  • 传统诉权学说指导专利诉权配置

    王文莎 陶鑫良<br />
    摘 要 经过数百年发展的诉权理论形成了多种不同的流派与观点,其对于诉权的理论定位与现实的诉讼实务都表现出强