标题 | 算法权力歧视下的平等权保护 |
范文 | 摘要:随着互联网平台涉及范围的扩大,算法的使用开始制约着人们的日常生活。算法权力同时打破了制度化权力和非制度化权力间的界限,使权力不再集中于政府。在实际应用中,算法依然会表现出人类社会中长期存在的歧视,甚至加剧固化这样的歧视与偏见。法律作为社会的普遍性规范,预测和解决的只能是社会的大概率事件,在成本的制约下无法对个人进行个性的规制,在算法权力歧视下加强对平等权的保护应当从单纯对数据的保护变化到对算法运行的规制,加强对算法的权力规制。 关键词:算法权力;歧视;平等权;法律保护 中图分类号:D923;TP18文献标识码:A文章编号:2095-6916(2021)09-0031-03 随着平台型经济在全球范围内的快速发展,互联网平台企业作为其主体核心,逐渐开始影响社会、政治、经济等各个领域,其在公共事务和个人生活中的影响力不断增强。资源与需求的低成本高效匹配是市场的追求,而互联网平台高效的资源匹配正是其快速发展的核心动力,其技术基石是大数据和智能算法。在英国上议院下属的人工智能特别委员会所做的报告中,算法被定义为:“一系列用于计算或者解决问题的指令,尤其适于计算机。算法构成了计算机所能做的事情的基础,由此也是所有人工智能系统的一个基本方面。” 随着互联网平台涉及范围的扩大,其算法的使用开始影响着人们的日常生活。从私人领域的网购推荐、饮食外卖到公共领域的个人信用、政府管理,算法不仅成为个人生活的决策者,并且开始取代公权力机构做决策。大数据已经脱离技术的范畴,开始演变为新的权力形态,建立了一种新的社会图景和现实。一个由算法主导决策的社会开始覆盖过去的社会运行模式,在带来高效率、客观化的同时,却由于算法技术的专业性和算法运行过程的“黑箱”不透明性使得公众理解算法受阻、法律监管困难。如 2013 年哈佛大学 Latanya 所作的研究表明,谷歌的 AdSense 在在线广告的投遞中,会首先根据姓名对搜索者的肤色、种族进行判断,如果被认定为黑人,被推送“某人被逮捕的”的记录类型的广告将远高于白人。这种带有特定价值取向的歧视性行为是对公民平等权的侵犯,相比于传统的歧视行为,算法打破了物理空间界限,借助因技术壁垒产生的隐蔽性、隔离性和不可识别性,对过去平等权保护模式提出了挑战。 一、算法权力:全新的权力形态 科学技术作为推动社会进步的生产力,包括其所物化后的产品机器,而机器本身只是一种工具,其不具有价值取向。但是当技术成为特定主体获取利益的工具和途径时,技术便不再具有客观性,而逐渐表现出权力特征。就如同马尔库塞所认为的那样,科技与技术本身如同意识形态一样,也具有明显的工具性和奴役性,扮演着在社会中奴役人的功能。正如他在《单向度的人》书中所说的那样:“人们控制自然的科学办法”,结果“为人对人的统治提供了概念和工具”。算法权力表现出的便是一种技术权力。算法是基于对大数据资源的使用分析,进而实现对人的行为和公共资源的调度,这不仅是它的表现形式,也是它区别于其他权力形态的表现。算法权力不再需要传统暴力机关进行维护,而是在各个主体对算法的实体法产物形成过度依赖后,再由少数群体对算法核心技术进行垄断,进而表现出权力的特征。算法运行过程中会受到设计者价值倾向、利益选择等意愿的极大影响,算法的设计者就自然地成为算法权力的实际掌握者和权力的归属对象。 算法权力以算法技术作为运行内核,在该权力形态下,权力与权利关系具有特殊性,两者的来源为社会权力的增加和个人权利减少之后的再分配。此时,个人权利是由算法带来的技术便利赋予的,计算能力的加强使得算法可以对更多的数据进行处理分析,促使算法与个人日常以及社会的嵌入加深,多方面促进了算法的实体化应用,自然赋予了个人更多的权利以及社会公共福利。 在公权力方面,现代社会治理离不开官僚体系。对于官僚主义者来说,其追求的目标即是建立一个更高效率的社会制度。算法通过向技术官僚提供一个解决效率问题的工具,使算法成为真正的权威来源,将人们对政策的关注点从官僚转移到计算上来。而这样的政府过度依赖以及民众偏差认识,使得整个社会的治理出现“去政治化”,会加深民众对政府的不信任感,使得社会治理过程出现危机。 私权力方面,借助代码 / 架构权力模型,将各类规范代码化,对账户的行为进行数据化的转化并借助算法进行相应分析,作出评分评价和引导,形成“代码就是法律”的管理模式。这样的“权力—数据—评分”的规训机制构成了网络空间的权力基础。这样的模式是在给予互联网平台对生产效率追求的刺激之下逐步形成的,而平台和用户之间的数据交互也使得被大众所接受的规范开始合理且合法地成为平台的规则,使得传统法律不能处理的空白领域得以填充。但这样类似于私人立法的方式,存在着平台与用户、交易者与交易者之间的信息获取不平等的问题,平台享受了不可撼动的地位,对消费者存在一定的剩余压缩。 算法权力具有“黑箱”性质,即所不知的,既不能打开,又不能直接从外部观察其内部状态的系统。首先,因为算法本身的学习难度较大,普通人需要大量的时间精力才能知悉算法的运行逻辑和运作原则。其次,现行的算法设计大多是由企业完成,设计和研发过程变为企业自身的内部行为,使得设计和研发人员的价值取向和利益倾向可以随意加入到算法之中,甚至于政府及其相关部门都难以掌握其目的和原理。最后,算法本身具有知识产权属性,算法的运行具有一定商业秘密性质。要求公开算法的公共诉求和企业平台追求的商业性质产生冲突,企业为防止被竞争对手利用而失去商业竞争力,往往不会选择把算法交由他人审核甚至公之于众。 算法权力同时打破了制度化权力和非制度化权力间的界限,使权力不再集中于政府这一单一主体,部分能够使用算法的企业尤其是互联网平台企业自然也会拥有一定的权力,最终表现出以政府主体为核心,散射出多重非制度化的权力社会关系。算法权力还实现了在物理空间和网络空间之间的跨越,突破了传统的权力物理边界。传统的以官僚体系为连接方式的权力模式会随着物理空间的扩大以及控制内容的增多而逐渐减弱其控制力,而随着电子技术以及物联网、云计算等交互技术的发展,人们获取和交换信息的能力不断加强,传统权力便通过算法这一媒介实现了在时间和空间上的拓展,算法权力也从网络空间开始向信用、教育、投资等现实物理领域拓展。 二、算法权力之下的歧视危机 (一)算法本身所表现出来的社会歧视性 公共政策的制定多是基于对不确定事件发生可能性的信念,当算法用于公共政策制定时,人们都会对这个摆脱个人主观评估和人类思维局限的决策模式报以极高的期待。但在实际应用中,算法依然会表现出人类社会中长期存在的歧视,甚至加剧固化这样的歧视与偏见。 一是因为算法本身是人类设计的产物,是人类社会的技术投射。算法将各组数据抽象出函数与模型,并利用新的数据验证优化已有的模型,对多个事物进行分类,通过外在特征对新事物进行预测,这与人类的思维与认知方法相似。 二是算法的出现是人类对效率效益追求的集中体现。以互联网为依托,以算法为技术核心的各类平台通过数据分析和精准预测带来了实在的经济利益。当算法以经济利益和效率为最高指导标准时,势必会忽视甚至抵触平等、自由等现代社会理念,而这些理念只是算法构建的世界中的一部分数据而已。 三是数据并不具有绝对的中立性。首先,数据的产生并不一定反映真实的情况,个人某些数据的产生具有偶然性,错误数据的产生也难以避免,偶然和错误的数据并不能作为预测未来的依据。其次,数据的收据存在偏差,数据可以说是现实社会在电子技术世界的镜像映射,现实中存在的偏见与歧视的特殊社会行为和心理则会相应地反映到数据中心,自然无法得到公正的算法结果。 (二)传统法律难以有效应对算法歧视 法律作为社会的普遍性规范,预测和解决的只能是社会的大概率事件,在成本的制约下无法对个人进行个性的规制,但随着算法技术的广泛使用,法律可以根据个人产生的数据制定个性化的规则。 首先,平等权所追求的法律面前人人平等,其内涵是法律的可知性与一般性。法律的一般性表现出的是意志、对象和适用上的一般性,这种一般性对法制建设发挥着积极的促进作用,可以说是法治的支撑点。若是个人的权利义务会因为个人行为数据在算法模式下产生差异,那么平等权实现的可能性便荡然无存。由算法产生的个性化规则容易导致实质上的不平等,实质化的平等必需是和理性和正当性的差异化对待,实质化的平等追求的是特殊事实与一般规则的一一对应。而算法的个性化规则是特殊事实与特殊规则间的对应,使得法律具有不确定性,期待可能性大打折扣,难以保证算法做出的划分不具有歧视性。 其次,传统以立法为核心的保护模式具有先天的滞后性。在过去技术更迭缓慢、社会经济结构变化不够剧烈的时代,稳定的立法起到了很好的维持社会稳定的作用。但法律的调整方式是回应性的,是趋向于保守的,而算法的发展是快速更迭的,依靠大数据和实时的自我学习升级,算法权力涉及的深度与广度在不断增加,相应的,歧视可能也在不断增加。先占者将利用其资本、技术和资源使其垄断地位难以被法律撼动,过去的法律思想和法典意识将难以应对新时代的发展。 第三,传统的行为主义司法救济难以有效应对算法歧视。过去的保护模式是在侵害行为发生之后,采用事后赔偿、惩罚来予以矫正,其追求的是对侵害结果的控制。由于算法本身难以预测,其对不同个体、不同方面表现出来的歧视内容可能大相径庭,难以对未来的侵害方式和侵害结果进行有效的预测。算法同时具有较高技术性,使得立法和司法人员难以完整理解和全面把握其内在逻辑,进而采取保守态度使得立法更为滞后。因此,算法歧视的救济模式应当变为对风险的预知和防控。 三、平等權保护新模式 如上文所述,算法本身具有的黑箱属性,透明度不足,使得其运行过程难以被理解,同时,在算法的高度专业性以及商业秘密保护等掩盖之下,许多有意识和无意识的歧视都被隐藏在难以被人们理解的代码、公式和数据之中。因此,需要用新的方式面对算法歧视。 (一)应当从单纯对数据的保护变化到对算法运行的规制 过去,平等权的保护侧重保障的是数据的获取和使用过程中对个人隐私权的侵犯,但随着时代的变化,数据产生和使用的方式发生了巨大的变动,各个商业平台与公权力部门利用各自的算法,甚至在互联网上形成了割据的形势,占据着各自的权力范围,使得传统的数据保护模式逐渐失灵。单纯的数据不能产生危害,数据只有经过算法的加工才会出现可能的风险和危害,因此需要加大对算法使用者在算法使用过程中的监管与识别。 算法作为一种复杂且具有较强专业性的技术,传统的机器识别以及一般人工识别将难以辨别其中的歧视行为。只有加强专业人士对算法运行的识别判断,以及对普通公民进行相应的人工智能算法教育,使得大众能够充分认识了解算法,理解算法可能带来的歧视、偏见等问题,增强大众在新时代的新的“维权”想法,才能够实现社会中的广泛共识。 (二)加强对算法的权力规制 算法虽然是一门技术,但如果法律仅仅将其作为一项技术进行规制,将忽略算法除去技术属性的权力属性。如果仅仅视为一项技术予以规制,将使得其应当被规制的重点被忽略,例如仅仅关注其不透明,而要求公开算法的技术和运行方式,这只会使得公众的认知压力不断加大,而不能从实质上去解决问题。同时,相关的算法平台企业会承担更多的开发投入、商业秘密保护和知识产权竞争的压力。这样单一层次的规制,最终难免为了规制而规制,而失去了算法技术的优势。当把算法认定为一种权力予以规制时,现有的针对公权力的监管模式和体系可以很好地套用在算法权力之上,从而保证制度的合理运行,其对责任主体的判断和制约也会变得更加得心应手。也就是说,可以不断督促设计者增强对算法使用过程中的责任。 参考文献: [1] 张爱军,王首航.算法:一种新的权力形态[J].治理现代化研究,2020(1). [2] Latanya Sweeney.Discrimination in online ad delivery[J].Queue, 2013(3). [3] 刘永谋.机器与统治——马克思科学技术论的权力之维[J].科学技术哲学研究,2012(1). [4] David Beer.The Social Power of Algorithms[J].Information, Communication & Society,2016(1). [5] 尼尔·波斯曼.技术垄断:文化向技术投降[M].何道宽,译.北京:中信出版社,2019. [6] 胡凌. 超越代码:从赛博空间到物理世界的控制/生产机制[J].华东政法大学学报,2018(1). [7] 许可.人工智能的算法黑箱与数据正义 [N].社会科学报,2018-03-29(6). [8] 胡凌.人工智能视阈下的网络法核心问题 [J].中国法律评论,2018(2). [9] 郑戈.人工智能与法律的未来[J].公民与法 (综合版),2017(12). [10] 张凌寒.算法权力的兴起、异化及法律规制[J].法商研究,2019(4). 作者简介:黄梓航(1999—),男,汉族,四川广元人,单位为华东政法大学,研究方向为法学。 (责任编辑:王宝林) |
随便看 |
|
科学优质学术资源、百科知识分享平台,免费提供知识科普、生活经验分享、中外学术论文、各类范文、学术文献、教学资料、学术期刊、会议、报纸、杂志、工具书等各类资源检索、在线阅读和软件app下载服务。