论人工智能技术的立法规制
摘 要 人工智能在发展到一定程度时有脱离人类控制的风险。在给社会生活带来改变的同时,人工智能也给社会治安带来了新的挑战。本文认为在人工智能时代真正来临之前,应当先行规制人工智能产业,并根据不同的人工智能技术,对技术研发者以及技术运用者提出不同的要求和义务,并以此为基点拟制《人工智能法》,防范人工智能給社会治安等方面可能带来的风险。
关键词 人工智能 社会治安 防范 立法
作者简介:余越洋,华东政法大学刑事司法学院。
中图分类号:D920.4 文献标识码:A DOI:10.19387/j.cnki.1009-0592.2018.04.213
人工智能,即设备能够识别所处环境,采取行动将实现目的的机会最大化的技术。简而言之,人工智能就是使得计算机像人一样思考与工作的科学技术。21世纪以来,世界掀起了人工智能研究与应用的浪潮,智能机器人已经能够通过自主学习、分析部分接收到的信息,进一步完成设计者交与的任务,如智能语音识别,设备在接收过音频信息后,再次接收音频信息便可以进行识别,以分辨声音的归属,类似的运用还有电子邮件过滤系统、人脸识别系统等。
现如今,人工智能技术在某些领域上的表现已经超过人类,如1997年IBM的超级电脑“深蓝”击败国际象棋世界冠军卡斯帕罗夫,2015年发展成熟的人工智能图形识别、语言识别技术更是远远超过人类自身的能力,2016年谷歌公司的Alphago击败围棋世界冠军李世石,更是将人工智能技术推向了一个新的高潮。人工智能取得巨大成就的同时,我们也应当意识到人工智能改变社会、影响社会的巨大潜力,人类无法对其行为进行准确的预判与控制,这无疑给我们的社会生活增添了许多不确定的因素,在某种程度上加重了社会安全风险,这对于未来的社会治安管理而言将会是一场革命性的考验。笔者分析人工智能技术对于社会治安的风险以及安全管理的困难所在,并以此分析明确《人工智能法》应当立足的关键问题,希望以确立《人工智能法》的形式,预先规范未来人工智能技术的发展,使人工智能技术给未来社会带来的风险降至最低。
一、人工智能给社会治安带来的挑战
(一)人工智能易成为违法犯罪行为高发的新土壤
人工智能技术发展的初衷是代替人类进行生产作业活动,提高生产作业的效率。因此人工智能技术本身也具有高效性的特点,机器能够不知倦怠地自主完成一系列工作任务。人工智能技术在未来社会普及之后,违法犯罪人员很有可能利用人工智能来提高违法犯罪的效率,降低犯罪成本,如利用人工智能进行电信诈骗,仅仅一个犯罪人员使用人工智能机器便可以进行诈骗行为,机器可以通过受害人的通话内容,自主与受害人进行交流,进而达到非法占有财物的目的。并且由于人工智能能够持续不间断进行智能化工作,利用人工智能进行的违法犯罪将具有更为庞大的影响范围,大大增加了公民与公共权益受到侵犯的可能性。因此,人工智能技术在未来很有可能会成为违法犯罪实施、发展的新土壤,人工智能时代的社会治安管理形势将十分严峻。
(二)对利用人工智能违法犯罪行为的预防存在困难
人工智能技术本身具有智能性特点,机器能够根据周遭环境以及接收到的信息进行逻辑推理,自主进行“行为”选择,这就使人类对人工智能作出的行为无法进行准确预判,目前我国对人工智能行业暂无风险评估分级机制,无法准确评价各类别人工智能技术可能出现的风险,使得公安、质量监督等部门对人工智能的安全性管控存在困难,难以比照特种行业管理进行有针对性的管理行为。因此,对人工智能违法犯罪行为的预防存在一定困难。
(三)对人工智能产品侵害行为的追责存在责任主体认定的困难
人工智能技术具有智能性,它能够自己进行分析与推理,因此人工智能产品的设计者在某种程度上也无法完全预知人工智能产品在生产作业的过程中会不会由于产品自身的智能化推理而作出侵害公共与公民利益的行为,智能化行为很大程度上不一定会反映人工智能技术设计者与使用者本身的意志。这使得产品设计者与使用者对于人工智能产品所作出的行为应该承担的责任的界限,以及应该负责的内容成为了需要解决的问题。另外,违法犯罪分子若是利用人工智能进行违法犯罪,很有可能凭借人工智能的智能化特点作为逃脱法律责任的理由。因此,对人工智能产品所作出的侵犯法益行为的进行责任认定是未来需要解决的难题,应当通过《人工智能法》的形式,明确、区分责任主体,实行设计问责和应用监督并重的双层监管结构,并通过此种监管结构的设立,根据不同类型的人工智能产品,对产品的设计者、使用者提出不同的责任内容与担责界限,以便于落实人工智能损害行为的追责问题。
二、《人工智能法》的立法思考
人工智能对未来社会治安的冲击只是人工智能影响未来生活的缩影,人工智能结合各个领域的需求和相关知识,创制为各行各业的进步与发展所需要的各种智能系统,为各行各业的现代化发展提供智能化服务,其影响的领域有社会、经济、民生、健康等。从社会治安方面我们已经能看到规制人工智能的紧迫性,我国急需对规制人工智能技术的专门性法律制度进行研究,制定专门规范人工智能行业的法律规范。在人工智能时代来临之前,应当通过确立《人工智能法》来对未来人工智能技术的运用进行总领性的规制,从宏观的角度出发,防范其可能出现的风险。在此之后,国家立法机关可以在《人工智能法》的基础上,针对人工智能在各个行业应用的特点与实际情况进行进一步的细化立法。由此可见,对《人工智能法》进行立法思路的研究是我国的当务之急。
(一)《人工智能法》应当对人工智能产品研发与应用进行限制
人工智能技术给社会带来风险的主要原因在于其智能性给社会生活增添了极大的不确定性。由于人工智能做出的判断大多依赖于计算机算法,不包含道德伦理要求以及人类所拥有的情感,人工智能产品极有可能机械地根据计算机算法得出人类认为不符合道德伦理的结果,并根据这个结果选择主动伤害或侵犯人类,而这是人类不希望看到的。为了减小这些不确定因素,应当要求设计者对智能技术作出限制,尽可能将人工智能带来的不确定性降低。并且也应当考虑平衡人工智能的高效便捷特性,避免过分削弱人工智能技术应有的科技性或过度影响人工智能的正常使用,使得人工智能技术的使用失去意义。
具体而言,应当严格限制设计者开发人工智能产品的领域,对涉及国防安全、能源安全、交通安全等与公共安全密切相关的行业,可能造成重大人员伤亡风险的,应当慎用或是限制人工智能技术的开发,包括禁止在某些行业使用人工智能技术、对技术的智能化水平进行限制等,制约人工智能的学习与分析推理能力,不能使其任凭其接受的所有信息进行推理并作出自主行为。人工智能在这些特殊行业应当完全被人类所控制,作出的“行为”能够被人类完全预见。通过这样的规制,能够将人工智能的社会危险性大大减小。同时,应当明确设计责任的追究机制,对于违反上述相关规定的技术开发者,可依照情节轻重,处以罚款、吊销相关职业资格证等行政处罚,这也是法定义务的设立,设计者由于未履行法定义务造成严重后果构成犯罪的,依照刑法规定定罪处罚,设计者违背义务可能构成故意杀人罪、以危险方法危害公共安全罪、过失致人死亡罪、过失以危险方法危害公共安全罪等刑事犯罪。
另外,人工智能的功能也不应过于全面,对于人工智能产品应当采取相关措施进行能力制约,如为了限制高智能化的产品的能力,应当将其设计为固定式产品,不给其装配动力装置,对其智能化工作以外的能力进行削减,以保证人类对产品的控制。
(二)《人工智能法》应当对人工智能产品进行技术分级
为了明确责任主体的责任范围,加强安全管理的针对性,应当对人工智能产品进行技术等级分级。技术分级的依据应当是产品的智能化水平与智能产品的工作性质。根据《人工智能法》对智能产品的技术分级,国家标准化行政主管部门还可以进一步针对每一个技术分级制定国家标准与行业标准,此举有利于明确产品设计者的产品研发方向与内容,也能为行业准入标准的设立提供参考。笔者认为,人工智能技术应当大致分为三级,即完全智能化、一般智能化和相对智能化。
完全智能化,即智能产品具有完全的智能化特性,具有自主学习、认识外部世界并进行独立自主行为的能力,这也是达特茅斯会议以来人工智能领域不断奋斗的目标,是人工智能的最高水平,也是对社会治安威胁最大的智能产品。
一般智能化,即智能化产品能够进行信息分析并作出反应,能够处理较大范围的信息,但不具备自主学习的能力,只能在一定的信息范围内作出判断与选择。现如今的前沿人工智能技术则大多数处于这个水平,如围棋机器人、語音对话机器人。
相对智能化,即相对于普通机器而言,智能化产品能够通过处理外部信息作出反应行为,但其能够进行处理的信息不具有广泛性的特点。多数基础性人工智能产品则符合此级别的特征,如语言识别系统、人脸识别系统等,对社会治安有较小威胁。
确立人工智能产品分级很大程度上能够规范智能产品研发行为,更为重要的是能够进一步明确产品使用者的责任与义务。为了有针对性地对人工智能的使用进行安全防范,应当对不同智能产品的使用者提出不同的责任义务要求,这也是使用责任监督机制的重要基础。
(三)《人工智能法》应当对使用者设立相对应的义务要求
在产品研发设计层面通过立法的形式进行了规制之后,立法在智能产品的使用者层面也不应该缺位。使用者是智能产品最为直接的管理者,从某种角度上看,即便在设计层面对智能产品研发进行了规定,如果使用者故意使用智能产品进行失范行为而侵害公民、社会权益,或是使用者没有起到应有的管理作用,人工智能对于社会的威胁依旧不能得到有效的控制,因此,通过立法的形式对使用者设立义务在此显得尤为重要。笔者认为,应当对不同等级的人工智能产品的使用者设立不同的义务,以便于充分落实使用者的责任。
完全智能化产品的使用者,由于此类人工智能产品具有高度的智能化特征,对于社会的潜在威胁也就越大,此类智能产品应当有严格的使用区域限制以及能源供给控制规定,使用者必须在规定区域内使用该类智能产品,不得对其进行改装,对于产品的能源应当有严格的控制,并且要能够随时控制智能产品的能源供给,不得超越规定用途使用完全智能化产品,不具备以上条件的使用者不得引进并使用完全智能化产品。
一般智能化产品的使用者,此类产品的自主学习与分析信息能力较为普通,因此无需像完全智能化产品一样进行如此严格的限制,但仍然应当要求产品使用者不得超出用途范围使用人工智能产品,在特殊的场合下不得使用人工智能产品,以防止人工智能行为失范。
相对智能化产品的使用者,此类产品对社会的潜在威胁较小,产品使用者只需将智能技术运用于合法领域即可,不可利用其进行违法犯罪等危害社会的活动。
最后,《人工智能法》也应在责任分级的基础上建立使用监督机制,将监督责任落实到政府具体部门,对于完全智能化产品与一般智能化产品等智能化程度较高的人工智能产品,应当由公安部门、安全生产监督管理部门等进行登记与检查,参照特种行业管理制度与安全生产制度的规则进行相关制度的建设与管理,实现管理闭环,有责必究。
参考文献:
[1] Hutter, Marcus. Universal Artificial Intelligence. Berlin:Springer. 2005.
[2]中国信息通信研究院. 美国国家人工智能研究和发展战略计划 . 美国国家科学技术委员会. 2016.
[3]国务院. 国务院关于印发新一代人工智能发展规划的通知. 2017.
[4]钟义信. 人工智能: 概念·方法·机遇. 科学通报. 2017(22).
[5]刘宪权. 人工智能时代的刑事风险与刑法应对. 法商研究. 2018(1).
关键词 人工智能 社会治安 防范 立法
作者简介:余越洋,华东政法大学刑事司法学院。
中图分类号:D920.4 文献标识码:A DOI:10.19387/j.cnki.1009-0592.2018.04.213
人工智能,即设备能够识别所处环境,采取行动将实现目的的机会最大化的技术。简而言之,人工智能就是使得计算机像人一样思考与工作的科学技术。21世纪以来,世界掀起了人工智能研究与应用的浪潮,智能机器人已经能够通过自主学习、分析部分接收到的信息,进一步完成设计者交与的任务,如智能语音识别,设备在接收过音频信息后,再次接收音频信息便可以进行识别,以分辨声音的归属,类似的运用还有电子邮件过滤系统、人脸识别系统等。
现如今,人工智能技术在某些领域上的表现已经超过人类,如1997年IBM的超级电脑“深蓝”击败国际象棋世界冠军卡斯帕罗夫,2015年发展成熟的人工智能图形识别、语言识别技术更是远远超过人类自身的能力,2016年谷歌公司的Alphago击败围棋世界冠军李世石,更是将人工智能技术推向了一个新的高潮。人工智能取得巨大成就的同时,我们也应当意识到人工智能改变社会、影响社会的巨大潜力,人类无法对其行为进行准确的预判与控制,这无疑给我们的社会生活增添了许多不确定的因素,在某种程度上加重了社会安全风险,这对于未来的社会治安管理而言将会是一场革命性的考验。笔者分析人工智能技术对于社会治安的风险以及安全管理的困难所在,并以此分析明确《人工智能法》应当立足的关键问题,希望以确立《人工智能法》的形式,预先规范未来人工智能技术的发展,使人工智能技术给未来社会带来的风险降至最低。
一、人工智能给社会治安带来的挑战
(一)人工智能易成为违法犯罪行为高发的新土壤
人工智能技术发展的初衷是代替人类进行生产作业活动,提高生产作业的效率。因此人工智能技术本身也具有高效性的特点,机器能够不知倦怠地自主完成一系列工作任务。人工智能技术在未来社会普及之后,违法犯罪人员很有可能利用人工智能来提高违法犯罪的效率,降低犯罪成本,如利用人工智能进行电信诈骗,仅仅一个犯罪人员使用人工智能机器便可以进行诈骗行为,机器可以通过受害人的通话内容,自主与受害人进行交流,进而达到非法占有财物的目的。并且由于人工智能能够持续不间断进行智能化工作,利用人工智能进行的违法犯罪将具有更为庞大的影响范围,大大增加了公民与公共权益受到侵犯的可能性。因此,人工智能技术在未来很有可能会成为违法犯罪实施、发展的新土壤,人工智能时代的社会治安管理形势将十分严峻。
(二)对利用人工智能违法犯罪行为的预防存在困难
人工智能技术本身具有智能性特点,机器能够根据周遭环境以及接收到的信息进行逻辑推理,自主进行“行为”选择,这就使人类对人工智能作出的行为无法进行准确预判,目前我国对人工智能行业暂无风险评估分级机制,无法准确评价各类别人工智能技术可能出现的风险,使得公安、质量监督等部门对人工智能的安全性管控存在困难,难以比照特种行业管理进行有针对性的管理行为。因此,对人工智能违法犯罪行为的预防存在一定困难。
(三)对人工智能产品侵害行为的追责存在责任主体认定的困难
人工智能技术具有智能性,它能够自己进行分析与推理,因此人工智能产品的设计者在某种程度上也无法完全预知人工智能产品在生产作业的过程中会不会由于产品自身的智能化推理而作出侵害公共与公民利益的行为,智能化行为很大程度上不一定会反映人工智能技术设计者与使用者本身的意志。这使得产品设计者与使用者对于人工智能产品所作出的行为应该承担的责任的界限,以及应该负责的内容成为了需要解决的问题。另外,违法犯罪分子若是利用人工智能进行违法犯罪,很有可能凭借人工智能的智能化特点作为逃脱法律责任的理由。因此,对人工智能产品所作出的侵犯法益行为的进行责任认定是未来需要解决的难题,应当通过《人工智能法》的形式,明确、区分责任主体,实行设计问责和应用监督并重的双层监管结构,并通过此种监管结构的设立,根据不同类型的人工智能产品,对产品的设计者、使用者提出不同的责任内容与担责界限,以便于落实人工智能损害行为的追责问题。
二、《人工智能法》的立法思考
人工智能对未来社会治安的冲击只是人工智能影响未来生活的缩影,人工智能结合各个领域的需求和相关知识,创制为各行各业的进步与发展所需要的各种智能系统,为各行各业的现代化发展提供智能化服务,其影响的领域有社会、经济、民生、健康等。从社会治安方面我们已经能看到规制人工智能的紧迫性,我国急需对规制人工智能技术的专门性法律制度进行研究,制定专门规范人工智能行业的法律规范。在人工智能时代来临之前,应当通过确立《人工智能法》来对未来人工智能技术的运用进行总领性的规制,从宏观的角度出发,防范其可能出现的风险。在此之后,国家立法机关可以在《人工智能法》的基础上,针对人工智能在各个行业应用的特点与实际情况进行进一步的细化立法。由此可见,对《人工智能法》进行立法思路的研究是我国的当务之急。
(一)《人工智能法》应当对人工智能产品研发与应用进行限制
人工智能技术给社会带来风险的主要原因在于其智能性给社会生活增添了极大的不确定性。由于人工智能做出的判断大多依赖于计算机算法,不包含道德伦理要求以及人类所拥有的情感,人工智能产品极有可能机械地根据计算机算法得出人类认为不符合道德伦理的结果,并根据这个结果选择主动伤害或侵犯人类,而这是人类不希望看到的。为了减小这些不确定因素,应当要求设计者对智能技术作出限制,尽可能将人工智能带来的不确定性降低。并且也应当考虑平衡人工智能的高效便捷特性,避免过分削弱人工智能技术应有的科技性或过度影响人工智能的正常使用,使得人工智能技术的使用失去意义。
具体而言,应当严格限制设计者开发人工智能产品的领域,对涉及国防安全、能源安全、交通安全等与公共安全密切相关的行业,可能造成重大人员伤亡风险的,应当慎用或是限制人工智能技术的开发,包括禁止在某些行业使用人工智能技术、对技术的智能化水平进行限制等,制约人工智能的学习与分析推理能力,不能使其任凭其接受的所有信息进行推理并作出自主行为。人工智能在这些特殊行业应当完全被人类所控制,作出的“行为”能够被人类完全预见。通过这样的规制,能够将人工智能的社会危险性大大减小。同时,应当明确设计责任的追究机制,对于违反上述相关规定的技术开发者,可依照情节轻重,处以罚款、吊销相关职业资格证等行政处罚,这也是法定义务的设立,设计者由于未履行法定义务造成严重后果构成犯罪的,依照刑法规定定罪处罚,设计者违背义务可能构成故意杀人罪、以危险方法危害公共安全罪、过失致人死亡罪、过失以危险方法危害公共安全罪等刑事犯罪。
另外,人工智能的功能也不应过于全面,对于人工智能产品应当采取相关措施进行能力制约,如为了限制高智能化的产品的能力,应当将其设计为固定式产品,不给其装配动力装置,对其智能化工作以外的能力进行削减,以保证人类对产品的控制。
(二)《人工智能法》应当对人工智能产品进行技术分级
为了明确责任主体的责任范围,加强安全管理的针对性,应当对人工智能产品进行技术等级分级。技术分级的依据应当是产品的智能化水平与智能产品的工作性质。根据《人工智能法》对智能产品的技术分级,国家标准化行政主管部门还可以进一步针对每一个技术分级制定国家标准与行业标准,此举有利于明确产品设计者的产品研发方向与内容,也能为行业准入标准的设立提供参考。笔者认为,人工智能技术应当大致分为三级,即完全智能化、一般智能化和相对智能化。
完全智能化,即智能产品具有完全的智能化特性,具有自主学习、认识外部世界并进行独立自主行为的能力,这也是达特茅斯会议以来人工智能领域不断奋斗的目标,是人工智能的最高水平,也是对社会治安威胁最大的智能产品。
一般智能化,即智能化产品能够进行信息分析并作出反应,能够处理较大范围的信息,但不具备自主学习的能力,只能在一定的信息范围内作出判断与选择。现如今的前沿人工智能技术则大多数处于这个水平,如围棋机器人、語音对话机器人。
相对智能化,即相对于普通机器而言,智能化产品能够通过处理外部信息作出反应行为,但其能够进行处理的信息不具有广泛性的特点。多数基础性人工智能产品则符合此级别的特征,如语言识别系统、人脸识别系统等,对社会治安有较小威胁。
确立人工智能产品分级很大程度上能够规范智能产品研发行为,更为重要的是能够进一步明确产品使用者的责任与义务。为了有针对性地对人工智能的使用进行安全防范,应当对不同智能产品的使用者提出不同的责任义务要求,这也是使用责任监督机制的重要基础。
(三)《人工智能法》应当对使用者设立相对应的义务要求
在产品研发设计层面通过立法的形式进行了规制之后,立法在智能产品的使用者层面也不应该缺位。使用者是智能产品最为直接的管理者,从某种角度上看,即便在设计层面对智能产品研发进行了规定,如果使用者故意使用智能产品进行失范行为而侵害公民、社会权益,或是使用者没有起到应有的管理作用,人工智能对于社会的威胁依旧不能得到有效的控制,因此,通过立法的形式对使用者设立义务在此显得尤为重要。笔者认为,应当对不同等级的人工智能产品的使用者设立不同的义务,以便于充分落实使用者的责任。
完全智能化产品的使用者,由于此类人工智能产品具有高度的智能化特征,对于社会的潜在威胁也就越大,此类智能产品应当有严格的使用区域限制以及能源供给控制规定,使用者必须在规定区域内使用该类智能产品,不得对其进行改装,对于产品的能源应当有严格的控制,并且要能够随时控制智能产品的能源供给,不得超越规定用途使用完全智能化产品,不具备以上条件的使用者不得引进并使用完全智能化产品。
一般智能化产品的使用者,此类产品的自主学习与分析信息能力较为普通,因此无需像完全智能化产品一样进行如此严格的限制,但仍然应当要求产品使用者不得超出用途范围使用人工智能产品,在特殊的场合下不得使用人工智能产品,以防止人工智能行为失范。
相对智能化产品的使用者,此类产品对社会的潜在威胁较小,产品使用者只需将智能技术运用于合法领域即可,不可利用其进行违法犯罪等危害社会的活动。
最后,《人工智能法》也应在责任分级的基础上建立使用监督机制,将监督责任落实到政府具体部门,对于完全智能化产品与一般智能化产品等智能化程度较高的人工智能产品,应当由公安部门、安全生产监督管理部门等进行登记与检查,参照特种行业管理制度与安全生产制度的规则进行相关制度的建设与管理,实现管理闭环,有责必究。
参考文献:
[1] Hutter, Marcus. Universal Artificial Intelligence. Berlin:Springer. 2005.
[2]中国信息通信研究院. 美国国家人工智能研究和发展战略计划 . 美国国家科学技术委员会. 2016.
[3]国务院. 国务院关于印发新一代人工智能发展规划的通知. 2017.
[4]钟义信. 人工智能: 概念·方法·机遇. 科学通报. 2017(22).
[5]刘宪权. 人工智能时代的刑事风险与刑法应对. 法商研究. 2018(1).