标题 | 人工智能的法律主体地位研究 |
范文 |
摘要:当前人工智能已经成为国际竞争的新焦点,其发展速度和发展水平大有攻城掠地之势,但其法律主体地位并无有效规制,导致一系列复杂的法律困境隨机产生。从法律主体理论的演进逻辑出发,人工智能的法律主体化既有必要,也有可能。其主体化实现的路径可以是:首先承认其独立的“拟制人格”;同时构建相关“人格否认”制度;最重要的是要建立人工智能的社会保险制度。 关键词:人工智能;法律主体地位;拟制人格;保险制度 中图分类号:D913 ???文献标识码:A文章编号:CN61-1487-(2019)24-0017-03 “智联世界,无限可能”,2019年世界人工智能大会如约召开。这是最好的时代,也是最坏的时代。无论人们欢欣抑或是踌躇,我们都将迎来人工智能(Arti?ial Intelligence,以下简称AI)时代。无人驾驶汽车、机器人作家、机器人律师、纳米科技医疗机器人、区块链……都会成为这个时代的注脚。智能时代,未来已来。时下,AI被广泛应用于社会生活的各个领域,其发展速度和发展水平大有攻城掠地之势。艾伦·图灵等计算机专家们曾经预言,AI的产生和发展迟早会对人类生存构成巨大威胁,应当在问题态势覆水难收之前,为人工智能的发展制定适当的法律制度,指导实践的发展。[1]首先应当明确的即是AI的法律主体地位。AI的法律主体地位与侵权责任的承担、知识产权的应用与保护、交通领域的规制等一系列基本理论的发展决策密切相关,不容回避。适度承认AI的法律主体地位,构建特殊规制标准,切实调整好其与各方法律主体的关系,有效应对出现的复杂问题,是势在必行的。 一、困境催发生机:AI法律主体化之必要 智能革命以摧枯拉朽之势席卷而来,其裹挟的全新的理念、技术以及前所未有的存在体不断深入人类生活,同时也带来了无法回避的法律危机和挑战。它不仅与现行法律秩序相冲突,而且暴露了现行法律制度产品的供给缺陷,催生着现代社会的法律变革。AI掀起了多领域的疾风骤雨,接踵而至的众多法律规制困境让人们措手不及。所幸,困境往往催发生机,直面AI带来的挑战,多领域审视其法律主体化十分必要。 (一)AI致人损害的侵权法问题 AI技术是一把“双刃剑”,一面是高效与便捷,另一面却是事故与伤害。1978年在日本广岛,机器人把现场工作人员放入机器中进行切割;2007年美国医疗外科手术机器人引起病人烧伤、切伤和感染,其中包括89个死亡病例;无人驾驶汽车发生严重交通事故。上述损害的原因,是AI创造者的技术疏漏,或是其管理人员的不当使用?还是AI超越原控制方案的“自身行为”呢?我国尚无关于AI等设备致人损害的明确法律规定,更缺乏对其法律人格的认定,AI目前只能成为法律上的物品。从产品责任的角度来看,根据现行的《产品质量法》,产品缺陷致人损害,那么生产者或销售者应当承担责任。事实上,机器人通过自我学习之后能够根据客观情况自主判断做出行为,制造商和销售商难以预见机器人可能造成的损害,这是机器人区别于自动化“机器”的重要之处。显然,在这种情况下仍然将造成的损害归咎于“产品缺陷”或者产品质量事故并不合适,“工具论”下仍由生产企业承担全部赔偿责任的结论也再难成立。因此,随着机器学习及其智能水平的进一步提升,在机器人法律属性的研究领域,“工具论”也将最终被彻底淘汰。 (二)AI生成作品的著作权问题 在人工智能时代,大量的“作品”是由AI生成的。一些国内的新闻媒体也开始使用机器人写作系统,撰写各种新闻报道。当AI的创作成果满足了独创性要求的情况下,若不对这些成果给予著作权法上的保护,那么大量具有独创性内容的成果将会免费进入公众领域,这将损害人类创作者的版权利益,严重挫伤版权人的创作热情。那么,AI尚不具有明确的法律主体地位,它是否可以成为法律意义上的“作者”,对其创作成果是否享有著作权,有些国家和地区正试图作出积极的回应:日本正准备对AI所产生的作品提供立法保护;欧盟法律事务委员会提出动议,拟授予机器人著作权。 (三)无人驾驶系统的交通法问题 无人驾驶是AI在交通领域的重要应用。随着诸如无人驾驶汽车等智能机器人的自主性和适应性的增强,我们很难将其仅仅视为人类手中的简单工具,应运而生的法律问题逐渐呈现在我们眼前。无人驾驶的出现,意味着交通领域的准入资格由驾驶人员技术水平转变为无人驾驶汽车的智能化水平。由于AI法律主体地位问题尚无具体规制,不能独立成为受管制的主体,因而,交通法规的管理对象或需向智能驾驶系统的研发者、制造者延伸,严格监控无人驾驶汽车的交通通行资格。可见,AI已经向人类现有的法律体系下了战书。 (四)AI对其他部门法的挑战 AI也将对其他法律产生深远影响。在《电子商务法》中,基于大数据完成交易各方相关权利义务的评价,交易大数据将最终呈现出交易各方是否存在“过错”;在《产品质量法》中,基于智能算法完成产品质量的评判,针对产品质量是否合格,企业也将提交其存储在支端的数据作为证据支持;在《侵权责任法》中,还将利用机器学习最终完成损害赔偿数额的计算;在《民事诉讼法》中,基于人工智能的研究,法律也将重构诉讼中“受理”“送到”“告知”等相关制度;AI时代,传统金融法将面临来自“中心化”智能算法与“去中心化”区块链技术的双重挑战。[2]16总之,人工智能已全面来袭,无论是否愿意都有必要正视人工智能对于法律的巨大挑战。 二、理论支撑实践:AI法律主体化之可能 (一)法律主体理论的历史演进逻辑 AI的崛起对现有法律理论大厦造成了巨大冲击,法律主体理论首当其冲。对法律主体问题的考量,经历了从人到主体的漫长历史维度。[3]现代法律主体,或称作“法律人格”,是一种行使权利、履行义务和承担责任的法律资格。从理论上讲,凡是能够参与一定法律关系的任何个人和机关,都可以是法律关系的主体。”[4]150主体资格基于人的抽象呈现出概括性、抽象性和普适性的特征,这使得法律主体资格的开放性成为可能。[5]法律主体理论的演进逻辑,是逐渐地演变为以“人”的抽象为中心的理论体系,并向类人的存在物拓展,这为AI具备法律主体地位奠定了理论基础。从法律主体的发展趋势可以预见,AI的法律属性最终将会从法律客体向主体迈进。 (二)AI成为法律主体的现实可能 法律主体的构成要素,即权利能力和行为能力。然而,法人获得法律人格、成为法律关系的主体,其认定标准与自然人不同。例如,法人的权利能力是因其行为能力产生的,因此,法人通常避免用“行为能力”一詞,有时被替换为主观性,其中包括权利能力和行为能力的概念。试问,法人可以被法律拟制,AI为何不可?AI拥有学习、自主决策等的技能,具有典型的行为能力特征,能够行使特定的权利,履行义务并明确其行为的后果。[6]另外,智能机器人不等于智能的机器。“当机器说出它们的感受和感知经验,而我们相信它们所说的是真的时,它们就真正成了有意识的人。”[7]203随着算法的提升,机器人将最终被证明拥有意识,对于法律上的“人”的认识也将彻底改变。 自从沙特阿拉伯授予索菲娅(一位智能机器人)以公民身份之后,关于AI是否具有法律主体资格的讨论也更加激烈。欧盟在《机器人民事法律草案》中提及,当机器人可以作出自主决策或者与第三人自主交流时,即要申请“电子人格”。其目的是要设立电子人(electronic persons)一样的法律地位,让机器人为其制造的损害负责。这样在适用AI造成他人损害的案例中,机器人将独立承担责任。如此看来,AI的法律主体资格并不是没有可能实现。 三、交锋带来多元:AI法律主体化路径探索 AI具备独立思考的能力,这是与其他科技最大区别之处。其享有权利并承担责任的特点决定了AI具有被赋予法律人格之可能。但是,AI的这种“法律人格”属性与自然人和法人是有很大差异的。尽管AI可以做出各种独立自主的行为,但不容否认其承担行为后果的能力有限。因而,在明确AI法律主体地位之特殊性的前提下,方可对法律规制作出合理安排。 (一)承认AI的独立“拟制人格” 当AI通过机器学习后可以自主完成交流或自主完成决策时,可以赋予其法律意义上的独立人格。当然,这里的独立人格是法律“拟制”的,例如法律将公司拟制为法律上的人,赋予其权利,科以法律义务和责任。更甚者,如新西兰赋予河流以法律主体的地位。针对可以作出自主决策的AI,同样可以将其拟制为具有法律意义的独立人格。 这里所谓的“自主决策”概念,仍然是在“弱人工智能”的语境下使用的。如果是在“强人工智能”时代,AI可以与人进行思想和心灵的沟通,那么人的法学概念将被重新定义。AI的主体学说也将被重新建构。在那样的时代,“拟制人格”的概念也将被智慧人格所取代,即基于AI的智慧而被法律赋予人格,这是现实的人格而非拟制。因此,这里所讨论的AI“拟制人格”,是在弱人工智能时代下应用的学说。那么,这里的“自主决策”,并非要求其具有像人一样或者超越人类的智慧,事实上,仅仅只是要求其通过机器学习完成后所做出的决策系人所无法通过简单逻辑能直提预测到的,即可称为“自主决策”。[2]58承认AI独立的“拟制人格”,确定其作为法律主体所享有的权利,进而解释AI参与的法律行为或者法律事实,将可以突破“工具说”、“代理说”、“电子奴隶说”、“电子人格说”等的局限,相关利益方的权利问题自然迎刃而解。 (二)构建AI“人格否认”制度 《公司法》上,为保护债权人利益,产生了法人人格否认制度。“人格否认”的目的在于矫正利益失衡,给债权人以利益保护。同样,在承认AI独立人格时,还要从制度设计上防止AI给人类社会带来的危害。AI“人格否认”制度,即在出资人或者发明人滥用AI独立人格的情形下,同样有必要否认AI之独立人格,由其出资人或者发明人来承担连带责任,具体包活如下情形:第一,AI在算法设计上存在明显违法,如有欺诈、恶意误导、隐瞒重要事实等算法陷阱,从而导致使用者利益受损的情况,相关利害关系人有权主张人格否认;第二,有证据证明投资者或发明人试图通过AI人格独立原则损害债权人或社会公共利益时,相关利害关系人有权主张人格否认。[2]63 (三)推行AI保险制度 在人工智能的新型关系中,传统的“过错责任原则”也将彻底迭代为“产品质量责任原则”。AI是否达到法律规定的安全标准又将成为法庭上律师们激烈辩论的新话题。显然,要证明一个AI是否合格,比起证明一个人是否有过错要复杂很多。AI的算法又被称为像“黑洞”一样的存在,?即便有技术专家的说明,但要把它梳理清楚,同样是需要花费巨大的司法资源和成本。当证明AI产品质量度为司法最大负担时,保险制度会证明其比诉讼制度更能够节省社会资本。所有可能涉及公民人身、财产安全的AI,都有必要强制其实施保险制度。一旦AI造成公民人身或财产损害,保险制度又应当挺身而出。事实上,与其将资源花费在法庭诉讼中,还不如通过保险制度直接解决问题。 适用AI独立人格学说的一个显著特征在于,在发生损害时,由AI人格登记时需要缴纳的财产或者缴纳保险的承保范围来承担责任,如果上述财产最终没有办法承担全部损失,AI或将适用“破产”制度。如此设计的目的有利推动AI产业的发展,犹如公司“拟制人格”制度成为其迅速发展的重要基石。当然,在这一过程中,受害者的利益同样需要关注,尤其是AI导致人身伤害的案例中,如何保护受害者合法权益,是AI“拟制人格学说”中尤其需要解决的问题。“AI不得伤害人类”理应成为AI设计中的首要理念,因此在承认AI拟制人格时应当注意,当AI可能会伤及人类健康时、其需要缴纳的注册资本或者需缴纳的风险金的数额应以其足以保障受害者利益为基准。[2]60 结语 毋庸置疑,社会正在从“互联网+”向“人工智能+”转型。法律规度或是滞后的,但关于法律问题思索应当是前瞻的。AI的崛起不容回避,AI法律主体地位不明晰,对法律困境的消解就会举步维艰。一种全新的理念:“只有跳出法律后反观法律,法学才能获得更强的生命力”正在反哺法学发展。[8]310我们理应在认识和分析现行法律规制困境的基础上,探索与科技文明相伴而生的制度文明。适当承认人工智能实体的法律主体地位,破解法律难题,任重道远,但是势在必行。 参考文献: [1]袁曾.人工智能有限法律人格审视[J].东方法学,2017(5). [2]杨延超.机器人法:构建人类未来新秩序[M].法律出版社,2019. [3]胡长兵.法律主体考略——以近代以来法律人像为中心[J].东方法学,2015(5). [4]舒国滢.法理学导论[M].北京大学出版社,2012. [5]王勇.人工智能时代的法律主体理论构造——以智能机器人为切入点[J].理论导刊,2018(2). [6]詹可.人工智能法律人格问题研究[J].信息安全研究,2018(3). [7](美)雷·库兹韦尔.人工智能的未来:揭示人类思维的奥秘[M].浙江人民出版社,2016. [8]白建军.法律实证研究方法[M].北京大学出版社,2008. 作者简介:杨素花(1994—),女,汉族,单位为曲阜师范大学,研究方向为司法服务。 (责任编辑:李直) |
随便看 |
|
科学优质学术资源、百科知识分享平台,免费提供知识科普、生活经验分享、中外学术论文、各类范文、学术文献、教学资料、学术期刊、会议、报纸、杂志、工具书等各类资源检索、在线阅读和软件app下载服务。