网站首页  词典首页

请输入您要查询的论文:

 

标题 人工智能的潜在风险及预防对策研究
范文

    王晓兰 徐艳 张庆芳 刘孝赵 蒋中

    摘要:人工智能发展方兴未艾,已应用在了人类社会的很多方面。该文主要从深浅两个层次阐述人工智能的潜在风险。显而易见的风险主要是人工智能技术的兴起,将威胁到人类就业岗位,造成潜在的失业风险;另一个风险是现行法律法规对潜在的人工智能引发的各类危害没有完备的处理机制,受害的一方很难获得有效的法律应援,面临无法可依的风险。深层次的风险一是人工智能在战争中进行应用,另一个是人工智能的自我迭代超出人类的控制,发展出超级智能,都可能将人类带入到灾难的深渊。该文提出三个方面的预防对策,一是从技术上进行风险预防,即在算法设计之初就给予必要的安全性可控性设计;二是从法律法规上约束人工智能开发企业或者个人的开发权限;三是构建人工智能“全球治理”联盟,多方合作信息共享,预防潜在的人工智能公共危害事件的发生。

    关键词:人工智能;风险;预防;对策

    中图分类号:TP18 文献标识码:A 文章编号:1009-3044(2018)27-0182-03

    1 背景

    近年来,人工智能(AI:Artificial Intelligence)取得了长足发展,但其潜在风险并没有像AI的技术应用研究一樣引起广泛关注。

    霍金说过,“我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。”埃隆·马斯克也就人工智能发展,对人们发出过警告:超人类人工智能可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。

    2015年,科学家霍金和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所造成的影响做认真的调研。这封信也引起了社会各界的广泛关注。

    为确保人工智能不被误用,或者应用于不符合人类利益的场景,美国谷歌公司专门成立一个伦理委员会,用于监督谷歌公司的人工智能技术研发。

    毫无疑问,人工智能的崛起,对人类影响与日俱增。如果人类在大力发展AI的同时没有做好相应的风险预防和相关对策研究,其潜在的风险很可能带来意想不到的后果。随着日常生活中越来越多的领域日益受到人工智能的影响,我们需要确保人工智能无论现在还是将来,都为人类而服务。

    2 人工智能的主要潜在风险

    人工智能的潜在风险,可以从浅层次和深层次两个层面进行探讨。

    2.1.1 人类失业风险

    目前人工智能已经学会了下棋、作画、创作音乐、写新闻稿、扫地、做饭甚至是设计、无人驾驶、航行等。一些无须天赋,经由训练即可掌握的技能或者大量的重复性劳动工作岗位,已经被智能机器人取代。在未来,人工智能因其高效率和低成本,将取代更多人类劳动力,造成潜在的大量人口失业风险。

    对传统工作岗位的替代会在全球范围内导致大量失业,而新的就业岗位能否被创造出来还面临很大的不确定性。从国家角度来看,人工智能的先发国家和大国,依旧可以通过发展人工智能的收益来弥补传统产业的损失,通过将部分收益用于转移支付和社会保障系统来维护社会的基本稳定。而一些未能跟上人工智能发展浪潮的国家,大量就业可能会转移到国外,导致政府缺乏足够的资源来应对失业风险的冲击。

    霍金在英国《卫报》的一个专栏中写道:“工厂自动化已经让众多传统制造业工人失业,人工智能的兴起很有可能会让失业潮波及中产阶级,最后只给人类留下护理、创造和监督工作。”

    在当前和可预见的未来,人工智能技术的发展正在对劳动力市场产生越来越明显的影响。AI大大提高了工业生产效率,人工智能这对很多普通劳动者来说是一个潜在的工作竞争对手,因为他们的工作逐渐被机器取代。

    花旗银行与牛津大学合作发布的报告预测显示,美国47%的就业岗位可能被机器人代替。在英国,这个比例是35%。在中国,该比例高达77%,而在经合组织国家,平均57%的工作岗位将实现自动化。

    全球最大的10个雇主中有三个正在用机器人取代工人,并且这个数据会不断增长。

    北京大学市场与网络经济研究中心研究员陈永伟也提交了一份人工智能研究报告。他认为,从全国范围来看,可能有70%的职业会受到人工智能的冲击。如果剔除掉农业人口受到冲击的概率,可能大概有60%的职业会受到冲击,大量人口面临失业的风险。

    2.1.2 法律问题

    人工智能在提高人类生活水平的同时也引发了一些侵权事件。不断出现的人工智能伤人事件或者失误现象引发了人们的担忧,也直接对各国的法律和司法提出了新的难题。现行的法律法规若不增补相应条款,对后期由人工智能引起的法律纠纷,将面临法律空白的问题,立法保护相关方的基本权利,势在必行。然而法律的条款在面对此类新兴技术带来的问题,也需要一个漫长的实践和修正的过程。其潜在的很多法律问题,我们不得不提前进行预防。

    2016年有报道称,有机器人突然出现失控现象,在没有指令的情况下,自行打砸玻璃站台,误伤观众。这只是机器人伤人事件中的一个轻微事件,但是如果因为故障或者黑客恶意入侵,机器人失控发生暴力行为,完全可能会导致被侵权人的死亡。随着机器人智能化的发展,人类也正在进入两难抉择之中,一方面为了更好地让人类生活便捷化,需要进行人工智能的不断开发,以期得到良好的自动化智能服务。但另一方面这种活动也可能是危险的,对应发生的侵权与纠纷,其责任主体的确认,都是法律空白。

    一旦机器人或其他人工智设备能对人类产生某种伤害,那就涉及刑法的适用原则,如何对机器人造成的损害进行赔偿,赔偿责任由谁承担也是未来的法律难题,例如失控的机器人到底是由于本身的故障还是因为黑客的恶意操控,这个问题技术界定与法理界定上的困难,会给受害者带来无法合理保护自身合法权益的潜在风险。

    2.2 人工智能的深层次潜在风险

    2.2.1 AI技术在武器与战争中的应用

    随着各国不断努力发展以人工智能为基础的军事力量,人类已处于人工智能军备竞赛的边缘。人工智能和机器人技术可能在军事力量方面提供重要优势,世界可能面临新的军备竞赛,人工智能和机器人技术将取代冷战时期的核武器。人工智能将彻底改变全球冲突,甚至有可能改变政府使用武装力量的形式和时间。

    2018年近4000名谷歌员工发出一份内部请愿书,呼吁谷歌停止跟军方合作的Maven项目。虽然工程师想要阻止人工智能应用于战争,但是对各国军方而言,人工智能在军事领域的应用开发具有非常强大的吸引力。现在,包括未来,这种风险将与日俱增,随时可能把人类带来毁灭性的灾难。

    2018年2月《自然》刊登了一项引人注目的研究,一个模拟的人工智能神经网络能利用少量数据在几小时内在玩游戏上打败人类。如果把这种技术放到战争之中,将可能带来无法估量的结果。

    对此,美国新安全中心技术与国家安全项目的兼职研究员格雷戈里·艾伦表示,人工智能可能会像核武器、计算机或飞机的发明一样对军事产生重大影响。目前尚不清楚的是,各国将如何使用它。

    俄罗斯总统普京在对一群学生发表演讲时称,掌握人工智能意味着掌握了世界的主导权。普京說:“在这个领域成为领袖的人将是世界的统治者。”他设想了这样一个未来:在各种形式的战争中,从坦克、战斗机到武装直升机,都有各种各样的机器人作战。他还提道:“当一方的机器人被另一边的机器人摧毁时,战争就会结束。”在那之后,继续战斗是毫无意义的。你只能屈服。”

    普京的言论并非毫无根据。俄罗斯军事工业委员会已经批准,计划于2030年从远程控制和人工智能机器人平台上获得30%的作战力量。

    自主武器是指能够在无人干预情况下独立搜索、识别并攻击目标的一种新式武器。2016年12月,123个成员国已在联合国常规武器大会的总结会议上,一致同意开展对自主武器的正式讨论,其中19个国家已呼吁全面禁止。“致命的自主性武器将成为战争的第三次革命。”一旦发展起来,武装冲突的规模将比以往任何时候都大,并且速度快到人类所不能驾驭。”“这些武器可能是恐怖主义的武器,是专制者和恐怖分子用来对付无辜民众的武器,同时也有可能被黑客利用。”

    普京将人工智能的破坏性潜力与核能相提并论,可见人工智能对各国军备建设方面的吸引力会有多大,不加约束的开发带来的后果可能比核武器本身更具破坏力。人工智能在军事领域的发展,如果不加约束的开发,很可能会带来灾难性的后果。

    2.2.2 人工智能自的失控风险

    未来,随着算法的进一步发展,人工智能自我迭代可能发展出超级智能,即这个人工智能如同有自我意识一般,可以发展出自我意志,从而发生不受人类控制的风险。

    有学者认为,出现具备思考能力的机器只是时间问题,人工智能产生意识也是水到渠成的事。我们可否通过写入信息的形式去干涉它的意识,从而保障人类自身的安全和利益,起到监管目的。

    互联网和物联网技术使使得人工智能的安全问题变得更为复杂化。人工智能本身更多的是终端或者单一设备,但是,众多网络资源的易获取性,使得人工智能的自身进化和发展所需要的资源趋于无穷,源源不断的数据资源为人工智能自我迭代发展出超级智能提供可能。另一方面,互联网和物联网技术使得黑客、病毒等人为因素对人工智能产品的入侵更为容易,人工智能产品失去原本的控制与约束,造成其他不可控的危害。人工智能的失控风险向我们提出了新的挑战。

    3 人工智能潜在风险的预防对策

    面对人工智能的各类风险,主要应该从以下三个方面进行预防。

    3.1 技术的安全壁垒

    对人工智能技术不加约束的开发,会让机器获得超越人类智力水平的智能,并引发一些难以控制的安全隐患。一些研究团队正在研究高层次的认知智能,如机器情感和机器意识等。尽管还不清楚超级智能是否会到来,但如果在还没有完全做好应对措施之前出现技术突破,安全威胁就有可能爆发,人们应提前考虑到可能的风险。

    人工智能的技术核心是算法,也是安全的核心,在算法设计之初就要充分考虑到安全与可控性,即在遇到突发事件时,如何在技术上进行控制权的保护,或者实现智能终端的自我关闭,以实现最大化的安全壁垒。提高人工智能产业安全可控水平,在技术上设置一道安全屏障,才能更好地促进人工智能先进技术的发展。各国和各人工智能发展领先的公司,在进行技术开发的同时,更有必要预先设置好各类技术安全壁垒,增强安全厚度,为人工智能的健康发展保驾护航。

    3.2 标准制定与法律约束

    在我国,为促进人工智能产业的健康发展,新成立的互联网新技术新业务安全评估中心,主要针对人工智能等新兴领域网络产品和应用开展安全评估。该组织编写的《人工智能安全白皮书》,指导行业充分认识人工智能安全风险,强化应对措施,促进人工智能安全可控发展。

    2017年1月初,“阿西洛马人工智能原则”被提出。这些原则是于2017年1月阿西洛马会议上来自全球各地的顶级行业领袖讨论而制定的。名称是根据此次会议的地点,美国加州的阿西洛马市来命名,旨在确保AI为人类利益服务。本次会议参加者是业界最负盛名的领袖,全球2000多人,包括844名人工智能和机器人领域的专家联合签署该原则。呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。这一系列原则目前共23项,分为三大类,分别为:科研问题(Research Issues)、伦理和价值(Ethics and values)、更长期的问题(Longer-term Issues)。

    阿西洛马人工智能23条原则,有助于这个世界上最领先的行业领袖和技术精英关注到人工智能的安全问题,具有里程碑的意义。为后续人工智能技术的良性开发奠定了良好的基础。

    设计制定合理的人工智能行业发展标准,强化人工智能技术和安全方面的法律法规的约束,可以很大程度上预防各类潜在的风险。

    3.3 人工智能“全球治理”联盟的构建

    人工智能被誉为引领科技变革的通用型技术,同时也是一项颠覆性技术。各国政府纷纷制定战略,推动人工智能在民用和军事领域快速发展。与此同时,人们也应提高警惕,人工智能不仅会带来伦理、经济结构等社会性变革,同时也有可能对国际经济和安全秩序产生根本性影响。因此,要从全球治理的高度,加大对人工智能可能给全球秩序带来挑战的关注。

    人工智能安全问题不仅仅是一个地区或组织的问题,而是全人类共同面对的问题,也必须依靠所有参与者一起努力才可能较好地解决,各国政府和国际组织应该是协调人工智能安全问题的组织机构。目前,世界各國竞相加大对人工智能的投入力度,但同时也应该划拨专门经费用于研究人工智能的安全问题,政策的介入是必不可少的环节。另外,国际合作在解决人工智能安全问题中将起到举足轻重的作用。人工智能的发展与应用限度、安全标准与规范等问题,只有落实到具体的制度上才有意义,而只有国际组织才能实现这样的目标。从伦理责任的角度看,应当明确科学家、政府与国际组织各自的责任。构建全球范围内人工智能“全球治理”联盟,为人工智能安全问题进行国际合作提供很好的平台与基础,在面对错综复杂的安全问题,更高效地取得共识并解决问题。

    4 结束语

    正如马斯克在推文里说的。“我们必须像对食物、药物、飞机和汽车那样规范人工智能和机器人技术。公共风险需要公众监督。没有联邦航空局(FAA)不会让飞行更安全。他们的存在是有原因的。”

    人工智能的发展,对人类而言是福是祸,决定权现在还掌握在人类自己手里,是不加节制约束的放任人工智能疯狂生长,还是有计划、有目的,谨慎的发展人工智能,确保人工智能永远在可控制的范围下发展,也许全在人类的一念之间。

    人工智能对全球经济和安全的影响还处于早期阶段,但其潜在的风险不容忽视,反思如何通过全球治理发挥人工智能的积极作用,减小其可能的冲击。在发展人工智能之时,不仅需要重视法理、失业等直接相关的问题,更应关注军备的人工智能化,超级智能带来的风险问题。

    我们需要在技术上进行风险预防,即在算法设计之初就给予必要的安全性可控性设计;从法律法规上约束人工智能开发企业或者个人的开发权限;通过构建人工智能“全球治理”联盟,多方合作信息共享,预防潜在的人工智能公共危害事件的发生。

    保障人工智能安全是一项复杂的系统工程,需要多管齐下,筑牢人工智能的安全防线。

    参考文献:

    [1] 杜严勇. 人工智能安全问题及其解决进路[J]. 哲学动态, 2016(9):99-104.

    [2] 高奇琦, 张鹏. 论人工智能对未来法律的多方位挑战[J]. 华中科技大学学报: 社会科学版, 2018, 32(1):86-96.

    [3] 霍金. 自动化和人工智能将让中产阶级大面积失业[EB/OL].http://tech.qq.com/a/20161203/002359.html.

    [4] 23条阿西洛马人工智能原则[EB/OL].http://www.sohu.com/a/223638426_322883.

    [通联编辑:谢媛媛]

随便看

 

科学优质学术资源、百科知识分享平台,免费提供知识科普、生活经验分享、中外学术论文、各类范文、学术文献、教学资料、学术期刊、会议、报纸、杂志、工具书等各类资源检索、在线阅读和软件app下载服务。

 

Copyright © 2004-2023 puapp.net All Rights Reserved
更新时间:2025/3/10 11:46:34