人工智能环境下刑法的完善及适用
蔡婷婷
内容摘要:人工智能时代的到来对现行刑法的适用提出了挑战,包括智能机器人的刑事责任主体认定及无人驾驶汽车交通肇事的刑事责任承担等问题在内。基于此,我国刑法应在未来赋予具有自主意志的人工智能产品以刑事责任主体地位,并考虑设置包括报废、回收改造、罚金在内的特殊刑罚措施;将故意利用智能机器人实施犯罪的行为人作为直接正犯予以认定;在增设单位作为交通肇事罪行为主体的基础上,对无人驾驶汽车的智能芯片研发和制造者及汽车制造公司适用该罪进行处罚,并考虑引入重大人工智能事故罪对相关责任主体进行专门规制。
关键词:人工智能;智能机器人;无人驾驶汽车挑战刑法应对
一、问题的提出
人工智能的概念于1956年在达特茅斯会议上被首次提出, 并在之后一度成为全社会关注的热点问题。人工智能作为一项对模拟、延伸和扩展人类智能的相关理论、方法及应用系统加以研究开发的技术,越来越多地在人类的社会经济生活领域被加以运用。现阶段,全球正处于从互联网时代向人工智能时代的转型期,可以想象,在不久的将来,人类将完全置身于人工智能时代并享受由其带来的便利。从IBM研发的仅“出诊”十秒便为癌症患者开出一张详细的西医诊疗方案单的机器人医生沃森, 到在乌镇围棋峰会上战胜世界围棋冠军柯洁的AlphaGo,到无人驾驶汽车辅助系统百度无人驾驶平台Apollo2.0的正式开放, 人工智能正从不同领域不断介入人类的社会经济生活,并逐步完成由弱人工智能向强人工智能的转变。然而,科技的进步总会伴随风险的产生,人工智能也不例外。人工智能所呈现出的深度学习、人机协作、自主操纵等新特征,使其区别于传统的智能工具而存在,并对传统的社会伦理及现有的法律规定造成了极大的冲击。对此,国务院于2017年7月出台的《新一代人工智能发展规划》中明确指出,应对人工智能的保障措施在于,加强人工智能相关法律问题研究,建立保障人工智能健康发展的法律法规,开展与人工智能应用相关的民事与刑事责任确认问题研究,及明确人工智能法律主体、相关权利义务和责任等。对此,学界已有较多学者对人工智能所可能涉及的知识产权侵权及民事责任方面的问题加以研究,但专门针对其中所可能涉及的刑事责任问题展开研究的学者却为少数。因此,笔者拟从智能机器人及无人驾驶汽车这两项人工智能产品出发,厘清现行刑法在规制人工智能造成的违法行为时所面临的挑战,并对未来我国刑法应如何合理有效地应对人工智能时代所带来的刑法挑战展开分析,以期将人工智能所带来的刑法风险降至最低,并保障科技进步与社会秩序稳定的双向平衡。
二、人工智能对现行刑法的挑战
传统的刑法学理论将犯罪构成分为四个部分,即主体、主观方面、客体及客观方面。人工智能涉及的违法行为与传统意义上的自然人和法人所实施的违法行为在客体及客观方面并不存在差异,关键在于犯罪主体及主观方面的差异导致现行刑法在人工智能领域的适用分歧。笔者拟从智能机器人及无人驾驶汽车这两类人工智能产品具体分析人工智能对现行刑法的挑战。
(一)智能机器人
智能机器人作为人工智能的代表产品,逐步参与到人类生活的各个行业、各个领域。從餐厅里摆放的智能点菜机器人,到前文提到的机器人医生沃森,到被沙特阿拉伯授予公民身份的索菲亚机器人,都是智能机器人参与人类生活的剪影。未来,智能机器人还会深入渗透到工业、农业,甚至是各个家庭内部,以充分发挥其对人类生活水平的促进作用。目前,大部分的智能机器人仍属于初级阶段,其仅能依据人类为其设计和编制的程序实施行为,属于人类意志的实施者,而不具有自主的意思能力。此时,智能机器人就相当于传统意义上的工具,当其涉及违法行为时,应由智能机器的制造者或使用者作为实施违法行为的直接正犯受到刑事处罚,因而不影响现行刑法的适用。然而,随着科技水平的进步,未来大部分智能机器人都将会从原先的初级阶段迈入更深层次的高级阶段。这一阶段,智能机器人能够通过深入学习而产生自主的意思能力,并通过该自由意志实施人类为其设计和编制的程序外的行为。科幻作家艾萨克·阿西莫夫在《我,机器人》一书中提到“机器人三原则”,即机器人不得伤害人类或目睹人类将遭受危险而袖手旁观,机器人必须服从人类给予它的不与第一定律冲突的命令及机器人在不违反前两条定律的情况下必须保护自己。但即使是该原则指导下制造的智能机器人,也难以避免其依据自由意志作出伤害人类的行为。此时,若该行为侵犯了社会公共法益或者公民私人法益而成为刑法意义上的犯罪行为,现行刑法便难以对该违法行为加以规制。原因在于,高级阶段的智能机器人能够脱离于人类的程序控制而行动,而具备了与人类相同的辨认能力及控制能力,若其在该项自由意志支配下实施了违法行为,则无法再将其作为一项工具而存在,而应将其作为一个具有独立承担刑事责任能力的主体认定。而现行刑法所规定的犯罪主体仅限于自然人及单位,因此无法对上述智能机器人所实施的违法行为加以规制。
同时,若在未来刑法中将智能机器人作为一个犯罪主体而存在,随之而来的便是刑事处罚的设置问题。由于智能机器人不同于自然人及单位,生命刑、自由刑和财产刑无法施加于智能机器人之上,因此现行刑法的刑罚种类设置在人工智能的大环境下同样存在缺陷。
(二)无人驾驶汽车
无人驾驶汽车是指能够通过计算机智能车载传感系统感知道路环境,自动规划行车路线并控制车辆达到预定目标的智能汽车。 其独立于传统汽车驾驶人的控制,并实现了行驶的自主性、路线选择的自主性及停车的自主性,这也是无人驾驶汽车区别于普通汽车的重要标志。国家发改委于今年1月发布的《智能汽车创新发展战略》(征求意见稿)中提到了美国汽车工程师学会对智能汽车所划分的五个等级。其中,4级对应的高度自动驾驶汽车及5级对应的完全自动驾驶汽车便是本文所述的无人驾驶汽车。虽然无人驾驶汽车作为一项技术产品能够较之于人类驾驶员更好地感知及判断风险的产生并在可实现的短时间内避免危险的发生,但由于各种内外在因素的影响,无人驾驶汽车难免会发生交通事故。就好比近期在美国亚利桑那州发生的Uber自动驾驶测试车撞上在人行道之外横穿马路的女子,并致其死亡的事件,令无人驾驶汽车的安全性问题再次被推上舆论的风口浪尖。同时,不得不注意到的是此类事件导致的有关交通肇事罪的责任承担问题。无人驾驶汽车所造成的交通事故区别于传统的交通事故,虽然二者在客观行为及所侵害的客体方面并无二致,但在无人驾驶的状态下,车辆上所乘坐的自然人未实质参与驾驶行为,传统意义上作为刑事责任承担主体的机动车驾驶人已不复存在。在整个车辆运行过程中,乘车的自然人仅仅是实施了启动无人驾驶状态的初始行为,与最终造成的损害结果之间并无因果关系。同时,在主观方面,构成交通肇事罪的主观罪过在于过失,这里既包括疏忽大意的过失也包括过于自信的过失。然而,无人驾驶状态下乘车的自然人基于相信安全、可靠的无人驾驶技术的缘故,完全不可能也没有义务预见到车辆会发生交通事故,因此并不存在主观过错。可见,在无人驾驶状态下盲目地对车上的自然人课以交通肇事罪的处罚不符合罪刑法定的原则。因此,在现行刑法的适用体系下,无人驾驶汽车导致的交通肇事行为的刑事责任主体的认定显得尤为困难。无人驾驶汽车具有商品的固有属性,既然属于商品,在由于其自身所具有的质量问题导致交通事故发生时,相关责任主体必应承担相应的刑事责任。由于无人驾驶汽车的制造和流通环节涉及包括智能芯片研发和制造者、汽车制造公司及汽车销售商在内的多个主体,如何将这些主体作为新的责任主体适用刑法相关规定同样是亟待解决的问题,需保证在合理惩罚犯罪行为,保障被害人权益的同时,不阻碍新兴科技的发展。同时,在无人驾驶技术的背景下,交通事故发生后的原因认定也不像传统的交通肇事那样简单明了。传统的交通事故完全可以依赖于诉讼双方的举证质证及现场的监控还原事故的发生过程,从而认定各自的责任,但在无人驾驶的技术背景下,人工智能系统成为一个“黑箱”,所有决策都存在于这个“黑箱”中,机器学习模型的内部决策逻辑并不总是可以被理解,即使是设计者也可能无从知晓系统是如何进行决策的。 因此,无人驾驶汽车所涉及的技术原因认定难的问题同样是实践中阻碍对相关责任人适用刑法加以规制的因素之一。
三、人工智能环境下的刑法应对
根据前文对人工智能环境下现行刑法适用风险的分析,可以看出面对人工智能的高速发展,我国现行刑法显得力有未逮,具體表现在,无法将人工智能产品作为单独的刑事责任主体加以规制,并对其处以特定种类的刑罚措施及无法对人工智能犯罪所涉及的其他相关责任主体进行有效地刑事处罚。若不及时对现行刑法加以调整,人工智能所可能带来的对社会秩序稳定的不良影响将会愈演愈烈。因此,笔者认为有必要通过以下方式对现行刑法加以完善及适用,以应对人工智能环境对现行刑法发出的挑战。
(一)人工智能的刑事责任主体地位及相关刑罚设置
基于前文的分析,未来人工智能将由初级阶段向高级阶段迈进,大部分人工智能产品将拥有自主意志,并能够根据其自由意志实施人类为其设计和编制的程序外的行为。因此,笔者认为,未来在必要的时候于刑法中赋予具有自主意志的人工智能产品以刑事责任主体地位不失为一项解决人工智能刑事法律风险的有效措施。主要基于以下两点理由:
其一,类似于刑法中将单位拟制为刑事责任主体,将具有独立意志的人工智能产品做同样的拟制又何尝不可?单位不同于自然人,之所以能够将其拟制为刑事责任主体,是由于单位具有自己的独立意志,即单位内部决策层所作出的集体意志。而具有独立意志的人工智能产品拥有比单位更强的意志自由,因为其是模拟人类的思维体系制造而成的,相比于单位更类似于人。因此刑法据此进行法律拟制,赋予其刑事责任主体地位具有合理性。
其二,赋予具有独立意志的人工智能产品以权利是未来发展的必然趋势,而作为与权利相对应的义务体系,也必然是此类人工智能产品所必须承担的。对此类人工智能产品赋予刑事责任主体地位并要求其承担作为义务体系其中一项分支的刑事责任是未来发展之必然。此类人工智能产品所具有的自主意志作为权利赋予之基础要件,本文不再过多赘述,此处主要从社会影响力角度论述为何须赋予其权利。权利之赋予之所以是未来发展的必然趋势,理论依据在于约翰·厄姆拜克提出的“实力界定权利”一说,即在原有权利遭遇新兴事物冲击的情况下,不同群体的实力博弈将重新构筑权利体系,强调的是群体性优势对于社会的影响力。 实践中也不乏相应的例子对这一理论加以验证,比较典型的例子便是妇女选举权的取得。在19世纪40年代之前的美国社会,选举权被认为是仅属于男性的政治权利,而后,随着美国全国妇女选举权协会的成立及妇女地位的逐步提升,1919年初,众议院以304:90的票数比例通过关于妇女选举权的修正案,至此,女性拥有了与男性平等的选举权。未来,当具有独立意志的人工智能产品所具有的功能及产生的效益不断地扩大从而全面地影响人类的发展进程时,此类人工智能产品在人类社会中占有的优势是无法取代的,未来社会也必然会根据此利益关系的变化对已有的法定权利结构加以改变,属于此类人工智能产品的权利也将会因此应运而生。2017年10月,沙特阿拉伯授予由美国汉森机器人公司生产的索菲亚机器人以公民身份便是人类社会在赋予人工智能产品以权利方面迈出的第一步。欧盟议会法律事务委员会在其向欧盟委员会提出的立法建议中同样提出,考虑赋予复杂的自主机器人法律地位(即在法律上承认其为“电子人”)的可能性,并明确其权利和义务。 可见,未来权利的赋予已成为大势所趋。当然,任何权利的享受必定伴随着义务的承担,具有独立意志的人工智能产品在享受特定权利的同时也必定需承担相应的义务。因此,理应赋予该类人工智能产品刑事责任主体的地位以使其承担其所应承担的刑事责任。法人刑事责任主体地位的获得便是一个很好的例证,由于其在现代社会生活中所发挥的影响力越来越大,成为了一项重要的组织形态,改变了原先的权利结构而获得了权利主体资格,因而刑法赋予了其刑事责任主体地位以使其承担相应的刑事责任。
因此,在未来赋予具有独立意志的人工智能产品以刑事责任主体地位之后,智能机器人及自动驾驶汽车均能对由于其自身意志导致的犯罪行为独立承担刑事责任,并受到相应的刑罚处罚。同时,值得关注的是,对具有独立意志的人工智能产品赋予刑事责任主体地位后,其所可能实施的犯罪形式及相关的责任认定。具体包括:一是单独犯罪,即人工智能产品在独立的思想支配下实施的犯罪行为;二是共同犯罪,即当人类与人工智能产品共谋实施了某项具有社会危害性的行为,应将二者作为共犯加以规制;三是间接正犯,即人工智能产品虽然基于自主意识在客观上实施了某项犯罪行为,但是该项行为是人类利用其“无知”,即无犯罪意识而实施的,此时应将人类认定为此犯罪行为的间接正犯,而人工智能产品则不成立犯罪。
此外,若在未来的刑法中赋予人工智能产品刑事责任主体地位,与之相适应的刑罚措施也须在刑法中加以规定。由于人工智能产品所具有的特殊性,笔者建议可以采取以下方式对其进行刑事制裁:一是彻底报废实施严重犯罪行为的人工智能产品。这是对人工智能产品最根本、最严厉的处罚措施,因此仅涉及严重的违法犯罪行为时,才考虑此种刑罚措施的适用。二是对人工智能产品加以回收改造。考虑到人工智能产品研发及制造过程所耗费的人力财力物力,当人工智能产品实施了犯罪行为之后,更多地情况下是将其回收,中断其智能程序,并设置专门的技术人员对其所存在的系统缺陷加以研究,并在改造、试验之后重新投入使用。三是设置罚金刑。对于所涉犯罪情节轻微的人工智能产品,可以考虑对其设置罚金刑。至于罚金的来源,可以在每个人工智能产品建成之初,便为其设立专门的资金账户,由相关的研发制造者及使用者按比例进行缴纳,以此作为机器人承担民事赔偿责任及刑事罚金责任的基础。同时,为了便于区分各个人工智能产品,以便刑事责任的追究不会出错,我国应当建立人工智能产品强制登记制度,即为各个产品设置不同的编号并记录在案,以期为人工智能产品的责任追溯提供必要保证。
(二)人工智能外相关责任主体的归责路径
现阶段,大部分人工智能产品仍属于初级阶段,尚不能脱离于人类的控制产生自主意志,也尚不能赋予其刑事责任主体的地位。对此,就必须从人工智能外的其他相关责任主体入手,运用刑法手段追究其刑事责任,使得涉人工智能犯罪行为得到妥善处置,保障被害人的合法权益。
以处于初级阶段的智能机器人为例,若行为人故意利用智能机器人实施犯罪行为,此时智能机器人在其所设定的程序范围内实施了相应的行为,相当于传统意义上的工具,此时的刑事责任应由利用智能机器人的行为人承担。当然,现实生活会产生很多不同的变数,故意利用智能机器人实施的犯罪行为也会由于各种认识错误而产生不同的刑事责任认定结果。但不论犯罪情形如何改变,需要始终明确把握的原则就是此时的智能机器人仅属于行为人实施犯罪的工具,而不具有任何独立意志,从而能够使很多刑事责任的认定问题迎刃而解。举个例子,假设行为人利用“智能杀手”去杀甲,并且针对该“智能杀手”所设计和编制的所有程序都是为杀害甲服务的。但在具体的实施过程中,“智能杀手”出现故障误将乙作为甲而杀害。笔者认为,本例属于打击错误而不属于对象错误,对象错误是基于行为人主观上将乙误认为甲而发生的认识错误,但本例中是由于“智能杀手”自身发生的意外导致了打击对象发生偏差,类似于行为人举着重型枪射击甲,但由于重型枪的后座力太大,导致子弹射偏,擊中了甲旁边的乙,均属于工具自身的打击错误,而不涉及行为人主观的认识偏差。对此,应适用法定符合说加以认定。法定符合说主张,行为人所认识的事实与实际发生的事实,只要在犯罪构成范围内是一致的,就成立故意的既遂犯。 据此,本例中的行为人应以故意杀人罪既遂认定。
至于无人驾驶汽车发生的交通事故,笔者认为,若其尚不具备独立承担刑事责任的能力,并且对同乘的自然人追究刑事责任明显不符合罪刑法定原则时,需结合无人驾驶汽车自身的特殊性,在合理程度上追究与其研发制造相关的智能芯片研发和制造者及汽车制造公司的刑事责任,即将最终的损害结果延长追究至事故发生前相关主体的研发制造行为。在交通事故发生后,若通过相应的技术手段检测出事故的发生原因在于无人驾驶汽车的质量存在缺陷,即相关零件或者装配方式不符合行业标准而存在制造缺陷,则可以交通肇事罪这一过失犯罪追究智能芯片研发和制造者及汽车制造公司的刑事责任。值得注意的是,相关行业标准的制定必须以研发制造当时的人工智能技术发展水平为依据,以防止不合理的追究研发制造阶段相关主体的刑事责任,阻碍人工智能技术在我国的进步。此外,之所以能通过交通肇事罪加以追究,主要原因在于当存在制造缺陷时,智能芯片研发和制造者及汽车制造公司在主观上或是存在疏忽大意的过失,或是存在过于自信的过失。即研发和制造过程中,上述主体由于没有全面检测等原因忽视了本应察觉的无人驾驶汽车所存在的缺陷,或是已经检测出所存在的缺陷,但认为这种缺陷导致的交通事故发生概率低,轻信可以避免,因而最终导致了危害结果的发生。在此种情形下,刑法运用交通肇事罪这一过失犯罪追究上述二主体的刑事责任具有合理性。至于汽车销售商,笔者认为对其以交通肇事罪加以规制过于苛刻。由于实践中汽车销售方并无对其所销售的无人驾驶汽车进行实质检测的义务,而更多的是进行形式上的检查和注意,因此,将无人驾驶汽车的内部质量缺陷归咎于本无实质检测义务的主体显然不合适。同时,由于现行刑法所规定的交通肇事罪的行为主体仅限于自然人,而上述所涉的智能芯片研发和制造者及汽车制造公司以单位居多,因此,应在现行刑法中增设单位作为交通肇事罪行为主体的规定。
针对前述提到的事故原因的认定,由于无人驾驶汽车所涉及的技术的复杂性,在事故的原因认定方面较之于传统的交通肇事行为存在更大的认定困难。笔者认为,可以在每辆投入市场流通的无人驾驶汽车上安装“黑匣子”,以期完整记录事故的发生过程,并在最大程度上明确事故的责任主体。同时,由于“黑匣子”对译码分析技术的要求高,建议在各省建立译码分析中心,专门负责对本省无人驾驶汽车的“黑匣子”数据进行分析,以强化技术保障,保证分析结果的科学性。
同时,在以现有罪名对研发制造环节相关责任主体的违法行为加以刑法规制之外,可以考虑增设新的罪名以专门规制相关责任主体未尽到相应义务而导致严重后果的行为。考虑到无人驾驶汽车的特殊地位及其在将来广泛运用将会对社会生活带来的影响,对无人驾驶汽车研发制造和流通环节涉及的相关主体提出更高的法律要求是符合情理的。对此,笔者认为可以参照《刑法》第一百三十五条规定的“重大劳动安全事故罪”、“大型群众性活动重大安全事故罪”,第四百零八条规定的“环境监管失职罪”及第四百零九条规定的“传染病防治失职罪”的规定,为无人驾驶汽车涉及的智能芯片研发和制造者、汽车制造公司设定严格责任,即只有当存在足够的证据证明相关责任主体已履行了应尽的义务时,才能够免除其刑事责任。 具体而言,是考虑在刑法中专门增设“重大人工智能事故罪”,以规范无人驾驶汽车的研发制造环节。汽车销售商在明知其所销售的无人驾驶汽车存在缺陷的情况下,仍将其对外销售,并最终造成危害后果的,也可以本罪论处。但需要注意的是,该罪的设置必须以前置法律法规中已对相关责任主体的义务加以明确规定为前提,因此刑法对于该罪的设立应与前置法律法规的完善同步进行。
四、结语
诚然,在人工智能高速发展的背景下,刑法理应在法律规范及法律适用两方面作出相应的调整以适应社会发展的需要。笔者在前文所提出的应对路径也并非盖棺之言,而是希望能够引起人们的关注,共同探讨并论证恰当的适用规则。但刑法作为调整社会秩序的最后手段,不应过多地介入人工智能领域,而阻碍新技术的发展,优先以民法、行政法等前置性法律法规对其加以调整才是最佳路径。
内容摘要:人工智能时代的到来对现行刑法的适用提出了挑战,包括智能机器人的刑事责任主体认定及无人驾驶汽车交通肇事的刑事责任承担等问题在内。基于此,我国刑法应在未来赋予具有自主意志的人工智能产品以刑事责任主体地位,并考虑设置包括报废、回收改造、罚金在内的特殊刑罚措施;将故意利用智能机器人实施犯罪的行为人作为直接正犯予以认定;在增设单位作为交通肇事罪行为主体的基础上,对无人驾驶汽车的智能芯片研发和制造者及汽车制造公司适用该罪进行处罚,并考虑引入重大人工智能事故罪对相关责任主体进行专门规制。
关键词:人工智能;智能机器人;无人驾驶汽车挑战刑法应对
一、问题的提出
人工智能的概念于1956年在达特茅斯会议上被首次提出, 并在之后一度成为全社会关注的热点问题。人工智能作为一项对模拟、延伸和扩展人类智能的相关理论、方法及应用系统加以研究开发的技术,越来越多地在人类的社会经济生活领域被加以运用。现阶段,全球正处于从互联网时代向人工智能时代的转型期,可以想象,在不久的将来,人类将完全置身于人工智能时代并享受由其带来的便利。从IBM研发的仅“出诊”十秒便为癌症患者开出一张详细的西医诊疗方案单的机器人医生沃森, 到在乌镇围棋峰会上战胜世界围棋冠军柯洁的AlphaGo,到无人驾驶汽车辅助系统百度无人驾驶平台Apollo2.0的正式开放, 人工智能正从不同领域不断介入人类的社会经济生活,并逐步完成由弱人工智能向强人工智能的转变。然而,科技的进步总会伴随风险的产生,人工智能也不例外。人工智能所呈现出的深度学习、人机协作、自主操纵等新特征,使其区别于传统的智能工具而存在,并对传统的社会伦理及现有的法律规定造成了极大的冲击。对此,国务院于2017年7月出台的《新一代人工智能发展规划》中明确指出,应对人工智能的保障措施在于,加强人工智能相关法律问题研究,建立保障人工智能健康发展的法律法规,开展与人工智能应用相关的民事与刑事责任确认问题研究,及明确人工智能法律主体、相关权利义务和责任等。对此,学界已有较多学者对人工智能所可能涉及的知识产权侵权及民事责任方面的问题加以研究,但专门针对其中所可能涉及的刑事责任问题展开研究的学者却为少数。因此,笔者拟从智能机器人及无人驾驶汽车这两项人工智能产品出发,厘清现行刑法在规制人工智能造成的违法行为时所面临的挑战,并对未来我国刑法应如何合理有效地应对人工智能时代所带来的刑法挑战展开分析,以期将人工智能所带来的刑法风险降至最低,并保障科技进步与社会秩序稳定的双向平衡。
二、人工智能对现行刑法的挑战
传统的刑法学理论将犯罪构成分为四个部分,即主体、主观方面、客体及客观方面。人工智能涉及的违法行为与传统意义上的自然人和法人所实施的违法行为在客体及客观方面并不存在差异,关键在于犯罪主体及主观方面的差异导致现行刑法在人工智能领域的适用分歧。笔者拟从智能机器人及无人驾驶汽车这两类人工智能产品具体分析人工智能对现行刑法的挑战。
(一)智能机器人
智能机器人作为人工智能的代表产品,逐步参与到人类生活的各个行业、各个领域。從餐厅里摆放的智能点菜机器人,到前文提到的机器人医生沃森,到被沙特阿拉伯授予公民身份的索菲亚机器人,都是智能机器人参与人类生活的剪影。未来,智能机器人还会深入渗透到工业、农业,甚至是各个家庭内部,以充分发挥其对人类生活水平的促进作用。目前,大部分的智能机器人仍属于初级阶段,其仅能依据人类为其设计和编制的程序实施行为,属于人类意志的实施者,而不具有自主的意思能力。此时,智能机器人就相当于传统意义上的工具,当其涉及违法行为时,应由智能机器的制造者或使用者作为实施违法行为的直接正犯受到刑事处罚,因而不影响现行刑法的适用。然而,随着科技水平的进步,未来大部分智能机器人都将会从原先的初级阶段迈入更深层次的高级阶段。这一阶段,智能机器人能够通过深入学习而产生自主的意思能力,并通过该自由意志实施人类为其设计和编制的程序外的行为。科幻作家艾萨克·阿西莫夫在《我,机器人》一书中提到“机器人三原则”,即机器人不得伤害人类或目睹人类将遭受危险而袖手旁观,机器人必须服从人类给予它的不与第一定律冲突的命令及机器人在不违反前两条定律的情况下必须保护自己。但即使是该原则指导下制造的智能机器人,也难以避免其依据自由意志作出伤害人类的行为。此时,若该行为侵犯了社会公共法益或者公民私人法益而成为刑法意义上的犯罪行为,现行刑法便难以对该违法行为加以规制。原因在于,高级阶段的智能机器人能够脱离于人类的程序控制而行动,而具备了与人类相同的辨认能力及控制能力,若其在该项自由意志支配下实施了违法行为,则无法再将其作为一项工具而存在,而应将其作为一个具有独立承担刑事责任能力的主体认定。而现行刑法所规定的犯罪主体仅限于自然人及单位,因此无法对上述智能机器人所实施的违法行为加以规制。
同时,若在未来刑法中将智能机器人作为一个犯罪主体而存在,随之而来的便是刑事处罚的设置问题。由于智能机器人不同于自然人及单位,生命刑、自由刑和财产刑无法施加于智能机器人之上,因此现行刑法的刑罚种类设置在人工智能的大环境下同样存在缺陷。
(二)无人驾驶汽车
无人驾驶汽车是指能够通过计算机智能车载传感系统感知道路环境,自动规划行车路线并控制车辆达到预定目标的智能汽车。 其独立于传统汽车驾驶人的控制,并实现了行驶的自主性、路线选择的自主性及停车的自主性,这也是无人驾驶汽车区别于普通汽车的重要标志。国家发改委于今年1月发布的《智能汽车创新发展战略》(征求意见稿)中提到了美国汽车工程师学会对智能汽车所划分的五个等级。其中,4级对应的高度自动驾驶汽车及5级对应的完全自动驾驶汽车便是本文所述的无人驾驶汽车。虽然无人驾驶汽车作为一项技术产品能够较之于人类驾驶员更好地感知及判断风险的产生并在可实现的短时间内避免危险的发生,但由于各种内外在因素的影响,无人驾驶汽车难免会发生交通事故。就好比近期在美国亚利桑那州发生的Uber自动驾驶测试车撞上在人行道之外横穿马路的女子,并致其死亡的事件,令无人驾驶汽车的安全性问题再次被推上舆论的风口浪尖。同时,不得不注意到的是此类事件导致的有关交通肇事罪的责任承担问题。无人驾驶汽车所造成的交通事故区别于传统的交通事故,虽然二者在客观行为及所侵害的客体方面并无二致,但在无人驾驶的状态下,车辆上所乘坐的自然人未实质参与驾驶行为,传统意义上作为刑事责任承担主体的机动车驾驶人已不复存在。在整个车辆运行过程中,乘车的自然人仅仅是实施了启动无人驾驶状态的初始行为,与最终造成的损害结果之间并无因果关系。同时,在主观方面,构成交通肇事罪的主观罪过在于过失,这里既包括疏忽大意的过失也包括过于自信的过失。然而,无人驾驶状态下乘车的自然人基于相信安全、可靠的无人驾驶技术的缘故,完全不可能也没有义务预见到车辆会发生交通事故,因此并不存在主观过错。可见,在无人驾驶状态下盲目地对车上的自然人课以交通肇事罪的处罚不符合罪刑法定的原则。因此,在现行刑法的适用体系下,无人驾驶汽车导致的交通肇事行为的刑事责任主体的认定显得尤为困难。无人驾驶汽车具有商品的固有属性,既然属于商品,在由于其自身所具有的质量问题导致交通事故发生时,相关责任主体必应承担相应的刑事责任。由于无人驾驶汽车的制造和流通环节涉及包括智能芯片研发和制造者、汽车制造公司及汽车销售商在内的多个主体,如何将这些主体作为新的责任主体适用刑法相关规定同样是亟待解决的问题,需保证在合理惩罚犯罪行为,保障被害人权益的同时,不阻碍新兴科技的发展。同时,在无人驾驶技术的背景下,交通事故发生后的原因认定也不像传统的交通肇事那样简单明了。传统的交通事故完全可以依赖于诉讼双方的举证质证及现场的监控还原事故的发生过程,从而认定各自的责任,但在无人驾驶的技术背景下,人工智能系统成为一个“黑箱”,所有决策都存在于这个“黑箱”中,机器学习模型的内部决策逻辑并不总是可以被理解,即使是设计者也可能无从知晓系统是如何进行决策的。 因此,无人驾驶汽车所涉及的技术原因认定难的问题同样是实践中阻碍对相关责任人适用刑法加以规制的因素之一。
三、人工智能环境下的刑法应对
根据前文对人工智能环境下现行刑法适用风险的分析,可以看出面对人工智能的高速发展,我国现行刑法显得力有未逮,具體表现在,无法将人工智能产品作为单独的刑事责任主体加以规制,并对其处以特定种类的刑罚措施及无法对人工智能犯罪所涉及的其他相关责任主体进行有效地刑事处罚。若不及时对现行刑法加以调整,人工智能所可能带来的对社会秩序稳定的不良影响将会愈演愈烈。因此,笔者认为有必要通过以下方式对现行刑法加以完善及适用,以应对人工智能环境对现行刑法发出的挑战。
(一)人工智能的刑事责任主体地位及相关刑罚设置
基于前文的分析,未来人工智能将由初级阶段向高级阶段迈进,大部分人工智能产品将拥有自主意志,并能够根据其自由意志实施人类为其设计和编制的程序外的行为。因此,笔者认为,未来在必要的时候于刑法中赋予具有自主意志的人工智能产品以刑事责任主体地位不失为一项解决人工智能刑事法律风险的有效措施。主要基于以下两点理由:
其一,类似于刑法中将单位拟制为刑事责任主体,将具有独立意志的人工智能产品做同样的拟制又何尝不可?单位不同于自然人,之所以能够将其拟制为刑事责任主体,是由于单位具有自己的独立意志,即单位内部决策层所作出的集体意志。而具有独立意志的人工智能产品拥有比单位更强的意志自由,因为其是模拟人类的思维体系制造而成的,相比于单位更类似于人。因此刑法据此进行法律拟制,赋予其刑事责任主体地位具有合理性。
其二,赋予具有独立意志的人工智能产品以权利是未来发展的必然趋势,而作为与权利相对应的义务体系,也必然是此类人工智能产品所必须承担的。对此类人工智能产品赋予刑事责任主体地位并要求其承担作为义务体系其中一项分支的刑事责任是未来发展之必然。此类人工智能产品所具有的自主意志作为权利赋予之基础要件,本文不再过多赘述,此处主要从社会影响力角度论述为何须赋予其权利。权利之赋予之所以是未来发展的必然趋势,理论依据在于约翰·厄姆拜克提出的“实力界定权利”一说,即在原有权利遭遇新兴事物冲击的情况下,不同群体的实力博弈将重新构筑权利体系,强调的是群体性优势对于社会的影响力。 实践中也不乏相应的例子对这一理论加以验证,比较典型的例子便是妇女选举权的取得。在19世纪40年代之前的美国社会,选举权被认为是仅属于男性的政治权利,而后,随着美国全国妇女选举权协会的成立及妇女地位的逐步提升,1919年初,众议院以304:90的票数比例通过关于妇女选举权的修正案,至此,女性拥有了与男性平等的选举权。未来,当具有独立意志的人工智能产品所具有的功能及产生的效益不断地扩大从而全面地影响人类的发展进程时,此类人工智能产品在人类社会中占有的优势是无法取代的,未来社会也必然会根据此利益关系的变化对已有的法定权利结构加以改变,属于此类人工智能产品的权利也将会因此应运而生。2017年10月,沙特阿拉伯授予由美国汉森机器人公司生产的索菲亚机器人以公民身份便是人类社会在赋予人工智能产品以权利方面迈出的第一步。欧盟议会法律事务委员会在其向欧盟委员会提出的立法建议中同样提出,考虑赋予复杂的自主机器人法律地位(即在法律上承认其为“电子人”)的可能性,并明确其权利和义务。 可见,未来权利的赋予已成为大势所趋。当然,任何权利的享受必定伴随着义务的承担,具有独立意志的人工智能产品在享受特定权利的同时也必定需承担相应的义务。因此,理应赋予该类人工智能产品刑事责任主体的地位以使其承担其所应承担的刑事责任。法人刑事责任主体地位的获得便是一个很好的例证,由于其在现代社会生活中所发挥的影响力越来越大,成为了一项重要的组织形态,改变了原先的权利结构而获得了权利主体资格,因而刑法赋予了其刑事责任主体地位以使其承担相应的刑事责任。
因此,在未来赋予具有独立意志的人工智能产品以刑事责任主体地位之后,智能机器人及自动驾驶汽车均能对由于其自身意志导致的犯罪行为独立承担刑事责任,并受到相应的刑罚处罚。同时,值得关注的是,对具有独立意志的人工智能产品赋予刑事责任主体地位后,其所可能实施的犯罪形式及相关的责任认定。具体包括:一是单独犯罪,即人工智能产品在独立的思想支配下实施的犯罪行为;二是共同犯罪,即当人类与人工智能产品共谋实施了某项具有社会危害性的行为,应将二者作为共犯加以规制;三是间接正犯,即人工智能产品虽然基于自主意识在客观上实施了某项犯罪行为,但是该项行为是人类利用其“无知”,即无犯罪意识而实施的,此时应将人类认定为此犯罪行为的间接正犯,而人工智能产品则不成立犯罪。
此外,若在未来的刑法中赋予人工智能产品刑事责任主体地位,与之相适应的刑罚措施也须在刑法中加以规定。由于人工智能产品所具有的特殊性,笔者建议可以采取以下方式对其进行刑事制裁:一是彻底报废实施严重犯罪行为的人工智能产品。这是对人工智能产品最根本、最严厉的处罚措施,因此仅涉及严重的违法犯罪行为时,才考虑此种刑罚措施的适用。二是对人工智能产品加以回收改造。考虑到人工智能产品研发及制造过程所耗费的人力财力物力,当人工智能产品实施了犯罪行为之后,更多地情况下是将其回收,中断其智能程序,并设置专门的技术人员对其所存在的系统缺陷加以研究,并在改造、试验之后重新投入使用。三是设置罚金刑。对于所涉犯罪情节轻微的人工智能产品,可以考虑对其设置罚金刑。至于罚金的来源,可以在每个人工智能产品建成之初,便为其设立专门的资金账户,由相关的研发制造者及使用者按比例进行缴纳,以此作为机器人承担民事赔偿责任及刑事罚金责任的基础。同时,为了便于区分各个人工智能产品,以便刑事责任的追究不会出错,我国应当建立人工智能产品强制登记制度,即为各个产品设置不同的编号并记录在案,以期为人工智能产品的责任追溯提供必要保证。
(二)人工智能外相关责任主体的归责路径
现阶段,大部分人工智能产品仍属于初级阶段,尚不能脱离于人类的控制产生自主意志,也尚不能赋予其刑事责任主体的地位。对此,就必须从人工智能外的其他相关责任主体入手,运用刑法手段追究其刑事责任,使得涉人工智能犯罪行为得到妥善处置,保障被害人的合法权益。
以处于初级阶段的智能机器人为例,若行为人故意利用智能机器人实施犯罪行为,此时智能机器人在其所设定的程序范围内实施了相应的行为,相当于传统意义上的工具,此时的刑事责任应由利用智能机器人的行为人承担。当然,现实生活会产生很多不同的变数,故意利用智能机器人实施的犯罪行为也会由于各种认识错误而产生不同的刑事责任认定结果。但不论犯罪情形如何改变,需要始终明确把握的原则就是此时的智能机器人仅属于行为人实施犯罪的工具,而不具有任何独立意志,从而能够使很多刑事责任的认定问题迎刃而解。举个例子,假设行为人利用“智能杀手”去杀甲,并且针对该“智能杀手”所设计和编制的所有程序都是为杀害甲服务的。但在具体的实施过程中,“智能杀手”出现故障误将乙作为甲而杀害。笔者认为,本例属于打击错误而不属于对象错误,对象错误是基于行为人主观上将乙误认为甲而发生的认识错误,但本例中是由于“智能杀手”自身发生的意外导致了打击对象发生偏差,类似于行为人举着重型枪射击甲,但由于重型枪的后座力太大,导致子弹射偏,擊中了甲旁边的乙,均属于工具自身的打击错误,而不涉及行为人主观的认识偏差。对此,应适用法定符合说加以认定。法定符合说主张,行为人所认识的事实与实际发生的事实,只要在犯罪构成范围内是一致的,就成立故意的既遂犯。 据此,本例中的行为人应以故意杀人罪既遂认定。
至于无人驾驶汽车发生的交通事故,笔者认为,若其尚不具备独立承担刑事责任的能力,并且对同乘的自然人追究刑事责任明显不符合罪刑法定原则时,需结合无人驾驶汽车自身的特殊性,在合理程度上追究与其研发制造相关的智能芯片研发和制造者及汽车制造公司的刑事责任,即将最终的损害结果延长追究至事故发生前相关主体的研发制造行为。在交通事故发生后,若通过相应的技术手段检测出事故的发生原因在于无人驾驶汽车的质量存在缺陷,即相关零件或者装配方式不符合行业标准而存在制造缺陷,则可以交通肇事罪这一过失犯罪追究智能芯片研发和制造者及汽车制造公司的刑事责任。值得注意的是,相关行业标准的制定必须以研发制造当时的人工智能技术发展水平为依据,以防止不合理的追究研发制造阶段相关主体的刑事责任,阻碍人工智能技术在我国的进步。此外,之所以能通过交通肇事罪加以追究,主要原因在于当存在制造缺陷时,智能芯片研发和制造者及汽车制造公司在主观上或是存在疏忽大意的过失,或是存在过于自信的过失。即研发和制造过程中,上述主体由于没有全面检测等原因忽视了本应察觉的无人驾驶汽车所存在的缺陷,或是已经检测出所存在的缺陷,但认为这种缺陷导致的交通事故发生概率低,轻信可以避免,因而最终导致了危害结果的发生。在此种情形下,刑法运用交通肇事罪这一过失犯罪追究上述二主体的刑事责任具有合理性。至于汽车销售商,笔者认为对其以交通肇事罪加以规制过于苛刻。由于实践中汽车销售方并无对其所销售的无人驾驶汽车进行实质检测的义务,而更多的是进行形式上的检查和注意,因此,将无人驾驶汽车的内部质量缺陷归咎于本无实质检测义务的主体显然不合适。同时,由于现行刑法所规定的交通肇事罪的行为主体仅限于自然人,而上述所涉的智能芯片研发和制造者及汽车制造公司以单位居多,因此,应在现行刑法中增设单位作为交通肇事罪行为主体的规定。
针对前述提到的事故原因的认定,由于无人驾驶汽车所涉及的技术的复杂性,在事故的原因认定方面较之于传统的交通肇事行为存在更大的认定困难。笔者认为,可以在每辆投入市场流通的无人驾驶汽车上安装“黑匣子”,以期完整记录事故的发生过程,并在最大程度上明确事故的责任主体。同时,由于“黑匣子”对译码分析技术的要求高,建议在各省建立译码分析中心,专门负责对本省无人驾驶汽车的“黑匣子”数据进行分析,以强化技术保障,保证分析结果的科学性。
同时,在以现有罪名对研发制造环节相关责任主体的违法行为加以刑法规制之外,可以考虑增设新的罪名以专门规制相关责任主体未尽到相应义务而导致严重后果的行为。考虑到无人驾驶汽车的特殊地位及其在将来广泛运用将会对社会生活带来的影响,对无人驾驶汽车研发制造和流通环节涉及的相关主体提出更高的法律要求是符合情理的。对此,笔者认为可以参照《刑法》第一百三十五条规定的“重大劳动安全事故罪”、“大型群众性活动重大安全事故罪”,第四百零八条规定的“环境监管失职罪”及第四百零九条规定的“传染病防治失职罪”的规定,为无人驾驶汽车涉及的智能芯片研发和制造者、汽车制造公司设定严格责任,即只有当存在足够的证据证明相关责任主体已履行了应尽的义务时,才能够免除其刑事责任。 具体而言,是考虑在刑法中专门增设“重大人工智能事故罪”,以规范无人驾驶汽车的研发制造环节。汽车销售商在明知其所销售的无人驾驶汽车存在缺陷的情况下,仍将其对外销售,并最终造成危害后果的,也可以本罪论处。但需要注意的是,该罪的设置必须以前置法律法规中已对相关责任主体的义务加以明确规定为前提,因此刑法对于该罪的设立应与前置法律法规的完善同步进行。
四、结语
诚然,在人工智能高速发展的背景下,刑法理应在法律规范及法律适用两方面作出相应的调整以适应社会发展的需要。笔者在前文所提出的应对路径也并非盖棺之言,而是希望能够引起人们的关注,共同探讨并论证恰当的适用规则。但刑法作为调整社会秩序的最后手段,不应过多地介入人工智能领域,而阻碍新技术的发展,优先以民法、行政法等前置性法律法规对其加以调整才是最佳路径。