人工智能技术应用发展中的人权伦理思考
摘 要:在人工智能广泛运用于社会之际,从人权伦理的角度重新审视人工智能技术所带来的社会影响以及探讨人权伦理在人工智能发展中所起到的作用十分重要。
关键词:人工智能;社会影响;人权伦理
现代弱人工智能的能力在一系列的活动中被认为已经取代了人类专家,并在不久的将来,人工智能会在各个领域不断超越人类。直到最近,人类控制技术的能力仍是毋庸置疑的,但现在的趋势倾向于权力差距的缩小,从而导致这种权力关系的逆转。虽然这些影响目前只能在人类活动的有限领域内看到,但值得注意的是,弱人工智能的影响正在加深,其范围正在扩大。因而,如何审视人权与人工智能技术之间的关系,如何理解人工智能技术给人权带来的冲击和影响,如何明确人权伦理规则在人工智能研究中的指导意义,这都是人类必须面对且亟须解决的问题。
1 人工智能与人权伦理的内在联系
1.1 人权伦理对人工智能所产生的作用
迄今为止,人工智能引发了许多关于人与机器之间相互作用的讨论,比如人工智能的社会影响以及人工智能在人类生活中起到的作用等。人权伦理帮助那些研究和开发人工智能的技术人员和企业划定界限。例如,谷歌、微软和DeepMind等主要人工智能企业已经制定了伦理原则,用以指导他们进一步开展人工智能活动。
人权伦理因为其具有普遍性,也更符合道德规范,它规定了问责制和纠正措施。这样,人权伦理和人工智能可以相互依存。例如,一家公司可以制定合乎道德的人工智能原则,比如避免加深负面的社会偏见,确保其系统对人类的监督负责。然后,隐私权和不受歧视权等可以进一步界定这些伦理原则,如果违反这些原则,国际人权组织可以规定补救办法。此外,如果人工智能的使用被认为是不道德的,那么它很可能也违反了人权,而国际人权制度中规定的原则和程序可以用来打击这种不符合人权伦理的人工智能的使用。
1.2 人工智能对人权伦理的影响与批判
每一项重大技术的创新都有可能促进或损害社会的发展。人工智能的数据处理和分析能力有助于缓解世界上一些最紧迫的问题,比如,加快人们疾病诊断和治疗的进展等。然而,这些人工智能的“有益”应用也可能造成潜在的负面影响。例如,人工智能在医疗保健中的许多应用对隐私构成了严重威胁。而随着科技的发展,人工智能系统以及机器人的功能越来越多,在广泛运用于社会各个领域的同時,它们对人权伦理造成的影响也值得人们深思。
重点需要注意的是,人工智能的应用会对工作权和适当生活水准权造成巨大的影响。一方面,人工智能在工作自动化中的大量应用可能会给传统手工业者造成一定的威胁,导致了大量的工人因此而失业,使他们难以养活自己和家人。但人工智能的发展也催生了很多新的就业岗位,比如快递、外卖的配送,电商客服以及专车司机等,人们可以通过更换职业类型来实现再就业。另一方面,工作自动化实际上提高了人们的生活水准,原本许多劳动强度大的工作岗位可以由人工智能系统替代,不仅提高了工作效率,改善了生活方式与工作环境,还大大降低了人力成本,减少了劳动时间,解放了人们的“双手”,使更多的人从体力劳动转向脑力劳动,从而更好地发挥自己的作用,并留出更多的闲暇时间享受生活。正如1966年联合国大会通过的《经济、社会和文化权利国际公约》中第11条规定:“本公约缔约各国承认人人有权为他自己和家庭获得相当生活水准,包括足够的食物、衣着和住房,并能不断改进生活条件。”[1]工作自动化在一定程度上保证了人们适当的生活水准权,并满足了人民日益增长的美好生活需要。
2 解决与人工智能相关的人权伦理危害的路径与方法
现在就采取应对人权风险的行动,不仅有助于防范人工智能可预见的有害影响,还为我们无法预测的问题提供了空间和框架。
2.1 从政府层面来看,应制定全面的人权伦理法律,并准备好各种有效的应对措施
第一,立法以减轻人工智能对人权伦理的负面影响,做到有法可依,有章可循。法律是国家维护各项事业和人们权利的必要保障,全面的人权伦理法律可以预见和降低人工智能带来的人权风险,该法律应该同时适用于政府和企业。目前,虽然针对人工智能的立法进程相对缓慢,但全球各国都有关于人工智能的立法需求,尽快填补人工智能领域的空白。如果人工智能系统的开发人员在设计智能产品的时候都不考虑其伦理合法性,那么开发人员及其设计出的产品免不了会遭受负面后果。全面的人权伦理法不仅提供了减轻损害的问责机制,还降低了人工智能技术损害他人或整个社会的概率。
第二,政府应提前准备好与人工智能相关的有效措施,使人工智能技术对人权伦理的不利影响最小化。在自由民主的政府系统中,政府的人工智能系统往往隐含着与政治过程必然相关的价值判断。因此,建议公共部门在使用人工智能方面提高标准。各国根据国际法负有促进、保护、尊重和履行人权的首要责任,无论是在设计还是在使用人工智能系统时,都不得从事或支持侵犯人权的行为,对于日后是否应该赋予强人工智能机器人“人权”,一定要有“度”的把握。
2.2 从企业和科学家的层面来看,应制定严格的道德政策并实行问责制
第一,企业和科学家应该秉承着“以人为本”的发展理念,坚持公共利益优先的原则。开发或者使用人工智能的企业和科学家有责任尊重和维护人权伦理,而不仅仅只是因为受国家义务的约束。为了履行其职责,企业领导人、科研负责人必须采取措施,制定严格的道德政策,增强开发人员的道德责任感,不能为了某些人的利益而损害公共福祉或者破坏生态环境,确保人工智能的开发和使用不会造成或助长侵犯人权伦理的行为。
第二,在设计之初最好将人类社会的道德伦理观念输入人工智能程序中。科学家可以将哲学和程序语言同时融入人工智能的系统里,这样可以使机器人形成好的价值观、世界观,像善的方向进化,降低机器人的使用风险,满足人类的正当需求,从而更好地为人类服务。
第三,进一步加强对人权影响的评估并严格把控伦理审查的过程。企业或科学家应保持其使用人工智能时的透明度和可解释性,确定对人权可能产生的不利后果,评估人工智能系统可能导致或促成侵犯人权的风险,在识别、预防和减轻人工智能系统的危害方面,要做到透明公开,为人工智能系统的运作建立适当的内部问责机制和补救机制,不能谎报、瞒报,欺骗政府和消费者,要长期处于政府以及企业部门的监管下,采取有效措施预防和减轻危害,并随着时间的推移跟踪风险,切实维护好消费者的使用权和知情权,有效预防和减少人工智能对人类的侵权行为。另外,并不是所有人工智能的使用都具有同等的人权损害风险,预防和应对侵犯人权行为所需的行动应取决于具体情况。
参考文献:
[1] 张军莲,龚志民,李时华.论农民工的适当生活水准权——以完善我国社会保障制度为视角[J].前沿,2006(03):169-172.
[2] 黄兵明,郭慧峰,赵良,薛金明.人工智能在通信网络故障溯源的应用研究 [J].邮电设计技术,2018(12):35-40.
[3] 马克思,恩格斯.马克思恩格斯选集(第1卷)[M].人民出版社,2012.
[4] 焦镜竹.人工智能技术应用发展中的人权伦理问题研究[D].延边大学,2017.
[5] 冯德浩.关于人工智能的哲学思考[J].大连干部学刊,2019(05):22-25.
作者简介:陈雯(1994—),女,江西吉安人,上海理工大学马克思主义学院硕士研究生,研究方向:马克思主义基本原理。