算法权力及其行政规制

(整期优先)网络出版时间:2021-10-26
/ 4

算法权力及其行政规制

庞洋

天津商业大学 300400

摘要:随着人工智能的发展,以大数据为基本载体的算法正在渗透到我们生活的各个方面,算法与海量的大数据资源进行整合,对社会资源进行再分配,直接作为行为规范引导和预测人们的行为,逐渐形成一种新型权力——算法权力。算法权力运用其自身的嵌入性优势,形成了技术性、隐蔽性和单方性特征,加剧了社会的不平等,严重挑战社会的公平正义秩序。因此,对算法权力进行规制要转变传统的规制观念,对算法权力进行行政规制,根据不同的应用场景对算法的应用范围进行限制,包括构建政府主导的大数据系统和强化政府监管权对抗算法侵权以及完善算法权力的问责机制。

关键词:算法权力;行政规制;人工智能;大数据


一、问题的提出

随着人工智能的发展不断进步,“算法”一词逐渐成为研究的热点,算法借助海量的大数据和强大的计算机设备,对数据进行收集、清洗、分类和预测,通过不断的对训练样本进行深度的自主学习提升自身的能力,能够有效解决社会中的一些疑难问题。算法有着天然的嵌入优势,商业主体依靠算法获取商业利益,公权力机关依靠算法进行决策,可以说,国家和社会对于算法的依赖程度日益加深,从而显现出一种新的权力形态——算法权力。算法权力是指在人工智能发展中,算法的控制者或者制定者借助大数据进行算法制定从而产生的对政府、公民、和其他社会对象的控制力和影响力。

算法权力建立在科学技术发展的基础之上,将收集的数据信息进行汇总、清洗、分类并进行转化和控制,形成了一种“准公权力”。算法权力不同于传统政治学领域的权力,其是一种泛在的权力关系,可以影响甚至代替公权力进行决策从而对社会发展产生影响。当前社会,由于算法的不透明性和自主性产生的算法黑箱形成了人与技术之间的权力支配关系。算法权力则是诸如算法歧视、算法偏见以及大数据杀熟等社会现象的始作俑者。对算法权力如何进行规制成为当今学界迫切需要解决的问题,目前,实务界对于算法权力的规制提出了诸如增强算法透明度、增加算法解释权、设立专门机构进行监管等方式,这些方案的特点是仍将算法作为一种“工具”进行规制,因此对于算法权力的规制应当转变传统的规制理念,从算法权力的地位和本质进行深入理解,从行政规制等公权力规制的角度出发,警惕滥用风险,从而应对算法权力对社会发展以及对个人权利进行的冲击。1

二、算法权力行政规制的必要性

(一)算法权力上升为算法霸权

算法权力作为一种“准公权力”开始嵌入社会之中,其表面上看是一种技术权力,其背后隐藏的实质是在算法设计、应用背后的资本权力,资本力量对于人工智能算法进行巨大投入的同时,一方面推动算法的发展,另一方面作为算法背后的资本权力不断强化其自身对国家和社会的影响力和控制力。对算法权力持主观态度的学者认为,首先,由于技术发展水平还不具备一定条件,算法权力的介入尚不足以能够改变人力控制的基本格局,当前正处于弱人工智能时代,算法权力不具备主体性和自主性,对于算法造成的损害应该由其背后的设计者和应用者承担责任,因此,算法权力滥用所追责的对象应该是背后的设计者或应用者。对算法权力持客观态度的学者认为,算法的生成、训练以及应用都离不开大数据,其根据收集的大数据进行深度学习预测本身就会存在偏差,而基于数据来源的特定性,算法的应用场景也是需要进行匹配的,如算法的应用场景和数据来源不匹配,就会造成算法权力的滥用和错用。对于此,我们又必要担心算法权力会从技术权力转变为资本权力从而演化为人工智能算法对人类的技术优势,最终转变为对整个人类的算法霸权。

(二)算法权力对人的主体性冲击

人工智能算法是以“输入——反应”作为基本逻辑的,在运行中无法考虑到人类的自由意志和主体性,人类作为社会的主体,一举一动都是人类主观意识的体现,被伦理道德所约束,而人工智能所设定的模式,是缺乏道德观念和伦理的运行模式,对现有的人类社会道德秩序会产生极大的冲击。通过算法进行建模和算法设计来推动生产和生活的便捷化、智能化和智慧化,可以预见,不久的将来必然是一个算法主导的社会。然而,算法的一系列运算程序和模式毕竟是人类所设计规划的,其中都不可避免的嵌入设计者和应用者的价值观,它并不能实现完全的“技术中立”达到我们预期的客观性和可靠性,甚至还会出现诸如算法黑箱、算法偏见、算法歧视和大数据杀熟等诸多问题。COMPAS算法系统曾对犯罪人的再犯罪风险进行评估,黑人的再犯罪风险概率比白人的再犯罪风险概率高出两倍多。这些问题一旦出现在数字时代的算法决策之中,就将会产生社会不公、激化社会矛盾,形成一定的社会风险。

从本质上说,算法权力能够直接导致对人类行为模式的工具性支配,即算法通过消除人类的多种多样的印象,将多姿多彩的的人类社会排除在外,得到人类社会的可改造性。通过算法权力的支配力,我们最终在现实中所觉察到的不过是根据算法程序制定的有计划的、具有严密运行逻辑的事物。因此,在人工智能“活了”的今天,我们还能把其单纯的看作机器吗?其是否具有像人类一样的主体地位?人类和人工智能机器之间是否具有伦理道德关系?人类的主体地位是否要进行重建?诸如此类的问题就随之凸显出来,这无疑使得的主体性地位受到巨大的冲击,使社会治理变得更加的复杂,面临的问题也将愈来愈艰巨。

(三)算法权力嵌入公权力产生权力异化

算法权力作为一种技术权力,其嵌入政府机关等公权力机关后,能提高行政运行效率、降低行政运行成本,甚至能够通过数据采集和分析、机器深度学习,能够替代公权力机关作出行政决策并采取相应行动,然而,公权力所拥有的专属权力、行政公开原则、正当程序原则等无法适用于算法权力,从而可能导致算法权力产生异化的风险极大,并与公权力合谋形成权力滥用。

首先,算法自动化决策逐渐成为公权力运行中的辅助工具。这主要表现在以下几个方面:第一,算法权力介入事实认定层面。算法借助其自身优势对收集的大数据进行分类汇总,通过视频监控、人类精确画像、DNA采集等技术协助进行事实认定。第二,算法权力应用于法律适用层面。在我国,北京地区法院新一代智慧系统“睿法官”也能进行梳理简单的法律关系、提出裁判建议、生成裁判文书。可见,在不久的将来,算法权力深度嵌入公权力机关已经成为必然趋势,为此国务院办公厅于2019年1月提出要全面在法律与行政法规的适用层面加强人工智能的作用。

其次,算法权力嵌入公权力后所带来的一系列潜在风险公权力机关并未察觉,这就为算法权力的异化产生了风险。这主要体现在以下三个方面:第一,传统的行政法原则比如正当程序原则无法有效规制算法权力第二,算法权力隐含于公权力体系之中,严重缺乏透明性。第三,由于算法本身带有的复杂性和严密的逻辑性具有很强的技术性,公权力机关在使用算法进行辅助时不得不借助外部技术资源,极易违反权力行使的专属性原则。

(四)算法权力对现有法律规范的冲击

随着算法权力的不断扩张和算法自我学习能力的不断提高,算法会通过建模运算与现实世界相互融合,使算法的设计者、算法的使用者和算法相对人之间产生某种输入输出的数值关系和相关关系,而少有假设、分析和演绎等方面的能力。由此而言,传统法律的因果关系链条中的法律主体之间的对应原则无法适用,如何判定根据算法所作出行为的性质、如何界定责任也将变得极为困难。

算法的运行模式基本以算法设计、算法输入、算法分析、算法输出为特点,这种具有严密逻辑体系的方法论致使算法结果与社会规范不同,这种逻辑体系对我国的法学理论中因果关系链条的冲击是“破窗性”的撼动。在民法中侵权责任的认定中,因果关系和主观过错就很难适用于算法结果所造成的伤害。同样的,在刑法中存在着诸如‘数额较大’与‘数额巨大’,‘抢劫’与‘抢夺’等文本非常相似但是法律含义有明确区别的概念,这同样也给算法的规制带来的巨大的困难。除此之外,算法自身的技术性和复杂性以及秘密性特征也更增加了因果关系认定的难度,极大了提高了算法相对人维权的门槛和成本,此外,用户想进入算法平台系统需要点击同意协议,这种形式上的“同意”使算法进行数据收集行为合法化,可以默认为用户已经同意,从而达到规避法律风险的目的。即便算法侵权,算法的设计者或者使用者可以援引商业秘密而不履行算法的披露义务,可以说,算法权力对现有法律框架的冲击是影响深远的,亟需公权力机关对其进行规制。

四、算法权力的行政规制路径

与赋予新兴权利或课以新型义务的私法应对相比,通过行政规制算法权力似乎更加灵活和可行,因为每一项新权利或义务的诞生,往往须经过旷日持久的论证甚至博弈。且刑法、民法规制一般都属于事后监管,其规制逻辑是损害后果加法律责任,但对日益多样化、复杂化的算法权力而言,该模式的局限显而易见,更需引入灵活的行政规制。

(一)建立政府主导并掌握核心算法的大数据系统

1、政府要遵循辅助性原则。

遵循辅助性原则对算法权力的行政规制至关重要。辅助性原则是指社会、个人不能或者不愿意从事经济活动或获得福祉时,国家才可以介入,从而赋予国家介入行为的正当性。借助辅助性原则,政府可以在合理的时间点对社会某些行为进行监督和管控。根据此原则,只有算法相对人被算法权力侵害无力或者难以保障其自身权利时,行政规制才能对相关平台企业进行规制从而利用公权力维护个人私权利不受侵害。这不仅是为了避免政府过早的介入市场经济活动而使平台企业等相关市场主体丧失科技发展创新的主动性,也是为了避免国家公权力借维护公共利益的幌子成为唯一的公民私权利保护主体。

在从弱人工智能阶段向强人工智能阶段过渡的今天,法律规范的更新时常落后于科学技术的进步。对于算法权力嵌入各个领域所带来的问题,立法并没有跟进更新,这就需要政府机关以公共利益为导向,在法律制度的框架内发挥主观能动性,不断的进行改革,以达到经济发展与公民权利保障的平衡点。贯彻政府辅助性原则的理念,在政府对算法权力确实需要进行行政规制之前,应当进行必要的比例原则分析和成本收益分析。同时,要明确政府介入经济领域的启动原则和条件,既符合当下“放管服”的改革趋势,也是国家治理能力的体现,同时也有助于互联网平台合作治理土壤的形成。

2、实现政府各部门之间的数据共享。

政府传统规制路径是事前监管和事后追责的二元规制路径。但在算法权力蔓延的今天,传统的二元规制路径难以有效解决算法权力所带来的负面影响,因此,政府应当在建立自己大数据平台的同时,克服政府各部门之间的数据淤塞、部门之间的数据分享不畅等问题,实现一个部门收集数据,多个部门共享数据,以实现政府内部数据的互联互通,在大数据领域处于社会的主导地位,而不是将算法程序的设计以及大数据平台的建设外包到少数大型企业的手中,并依托于此确立对算法行政规制的地位,避免由少数企业主导大数据而引发权力失衡问题。

具体而言,对算法权力的行政规制应当由过去注重数据收集的规制转变为对数据利用层面的规制。数据本身不存在风险,只有数据和算法二者的结合才会产生价值和风险。因此,应当将算法权力行政规制的重点转向对数据控制者和使用者行为的监督和管理,同时,政府还应当积极与各位大数据平台进行对接,通过强化其外部监管和内部技术监管,赋予大数据平台权力使其建立内部的规则和章程用以辅助政府行政监管,以增强大数据领域的政府权威。

3、采取事前备案方式以规制算法权力。

随着人工智能的发展,以往简单的程序性算法已转变为具有深度自主学习能力的算法,算法设计者可将自己的价值取向植入算法程序之中,若采用事前备案的方式就能对算法程序是否合理作出监督,降低市场主体滥用算法权力侵害算法相对人权益。此外,采用事前备案方式一方面并不会泄露商业秘密,另一方面有助于行政效率的提高,因此对算法权力采取事前备案制似乎是一个合理且温和的行政规制手段。

有学者认为,在人工智能时代形成了“公权力——私权利——私权力”三者之间博弈的新型权力格局,三者之间进行合作和对抗,这在很大程度上改变了以往国家与社会、权力与权利的关系。正是由于算法权力的隐蔽性、复杂性和深入的嵌入性,使得算法越来越“神秘”以至于“算法黑箱”的出现为“私权力”的扩张产生了条件。而市场主体也得以援引算法的不透明、不可解释性作为其不披露算法模型的“挡箭牌”。对市场主体使用算法进行商业领域采用事前备案,要求算法设计者或使用者积极向政府备案机关进行备案,使政府机关及时掌握市场主体使用的算法逻辑,通过形式上的审查,使市场主体法律制度的框架内追求利益,守住公共利益的道德底线。与此同时,采取此种方式并不会阻碍市场主体技术创新、提供更为优质服务的积极性,而只是将违背商业伦理、单纯追求商业利益不顾社会效益的市场主体剔除出市场竞争。

(二)强化政府算法监管权以制约算法权力

随着算法权力的影响进一步的扩张,其嵌入场景也日益复杂与多元,对社会运行进行了无孔不入的构建、干预、引导和改造,社会权力结构正在重构,因此,通过强化政府算法监管权来制约算法权力更能适应当下社会发展的要求。

1、构建算法监管机构。

由于算法权力嵌入的广泛性和复杂性,算法权力所带来的风险事实上对行政权的专业性和知识性都提出了挑战,我国亟待建立专门的算法监管机构,以实现对算法权力在各领域的嵌入进行精细化、目标化和场景化监管目标。要改变当前我国的算法监管现状达成预期的监管目标,首先要建立专门化的算法监管机构,明确其责任与地位,规定监管人员的任职条件,从而确保监管者的专业能力,着力打造一支能根据算法权力嵌入的不同场景进行精细化分类监管的高素质人才队伍。

2、将算法决策主体以及算法本身纳入监管范围。

算法监管是政府专门机构对算法设计者、使用者的算法决策行为进行监督和管控。算法决策最初主要应用于商业领域,但是越来越多的政府决策也正由算法替代决策或者辅助决策,如交通领域中的智能监控系统以及智慧法院中的量刑辅助系统。不管是商业领域的算法系统还是公权力领域的算法系统,二者都应当是行政机关进行算法监管的对象。

对于算法本身并非可以独立进行规制的对象这是很长一段时间以来的主要观点,算法的出现大多都是作为工具出现,起到一种辅助性作用。因此,对于算法造成的侵权,大多都是由算法设计者和使用者进行负责而不是算法本身。但时至今日,随着算法设计程序的不断进步,人工智能的自主学习能力日渐增强,算法在社会生活中的重要地位日益凸显,监管部门应当从监管算法设计者和使用者转向算法本身。如我国2019年出台的《电子商务法》就要求电子商务平台的算法要求能为消费者提供自然搜索结果。

3、通过立法明确监管权。

由于我国现行法律对于算法监管没有独立的规范,因此对于算法引发的侵权和问题只能援引其他法律规范,如今年来平台理由算法导致的诸多问题,行政机关只能以约谈、处罚、责令下架等手段进行监管,然而这些举措并不能杜绝算法乱象的发生。因此,有必要通过相关行政法律规范明确政府监管权的内涵和外延,这不仅给监管机关治理算法乱象提供法律依据,也能给相关平台和企业合规予以法律指引。比如欧盟GDPR中除了赋权数据主体,更强化了监管机构的监管权,明确了欧盟以及其成员国之间监管机构的调查权、矫正权、告知权、认证权、参诉权以及行政处罚权,这为其监管机构行使监管权提供了直接的法律依据,这也是GDPR对于保护个人数据权以及遏制算法权力所提供的有力的制度保障。

综上,应当摒弃算法作为一种工具处于中立性地位的立场,做到关口前移,真正的防患于未然,通过立法逐步建立起对算法设计者、使用者以及算法本身的监管体系,强化商业主体和政府主体自我监管、自我规制。

(三)完善算法权力的问责机制

算法权力问责机制的基本框架为:第一,明确算法问责的主体。算法可能因为自身程序的错误设置或者算法权力主体恶意利用算法致使算法对数据的理解出现偏差从而导致侵权行为的发生,由于算法程序极高的技术壁垒使得算法相对人与算法权力主体之间处于严重信息不对称地位,这就导致了算法相对人对于算法侵权行为的取证极为困难,然而,对于算法权力进行追责也是一种最有力度的行政规制路径。因此,要根据算法的使用规模、涉及主体的多少、所涉公共利益的类型等确定被追责的主体。例如,美国参议员在《算法问责法案》中提出要求美国联邦贸易委员会对年收入超过5000万美元的公司以及拥有超过100万消费者数据的数据代理商和企业进行算法审查。第二,适用过错推定的归责原则。适用过错推定的归责原则具有一定的合理性,同时应根据算法应用的不同场景延长或者缩短因果关系的链条,算法与客观损害没有直接关系,则应当权衡算法模型、算法程序设计者的主观意图、损害大小予以综合确定。第三,严格限制免责事由的使用。免责事由的适用应当严格控制,否则算法设计者和使用者利用技术优势以算法存在算法黑箱无法解释为由规避法律责任。所以,只有当算法由于深度学习不受人为控制导致的算法侵权才可以免除算法设计者和使用者的责任。与此同时,由于我国关于算法权力行政规制的法律规范较为分散,立法机关也可以借鉴美国的规制模式起草符合国情的专门性法律将人工智能时代算法权力所带来的风险和问题纳入法律规范之中。

五、结语

随着大数据、人工智能的不断发展,算法权力正在不断打破社会原有的权力结构的平衡,对现行法律问题提出诸多挑战,算法嵌入不仅对商业主体产生影响,更对公权力的行使产生冲击。算法权力的异化如不利用公权力对其进行行政规制,不仅会使个人权利遭到侵害的风险,如果任由其发展,很可能会达到一个人类无法控制的地步。因此,笔者认为,对于算法权力进行有效规制应当以行政权力为主导,对其进行行政规制,并且利用现有法律资源,使算法更好的为人类服务;另一方面,随着人工智能的发展,算法的自主学习能力将会进一步提高,也要充分认识到算法的自主性及其异化风险。通过构建政府主导的大数据系统,强化政府监管权以及算法问责机制的设计,打造多层次多领域的算法权力行政规制框架。


参考文献

[1]张凌寒:《算法权力的兴起、异化及法律规制》载《法商研究》2019年第4期,第63-75页。

[2]杜小奇:《多元协作框架下算法的规制》载《河北法学》2019年第12期,第37页。

[3]戚建刚:《风险规制的兴起与行政法的新发展》载《当代法学》2014年第6期,第28页。

[4]沈广明: 《分享经济的规制策略——以辅助性原则为基点》载《当代法学》2018年第3期,第32页。

[5]杨建顺:《中国行政规制的合理化》载《国家检察官学院学报》2017年第3期,第25页。

[6]陈鹏:《算法的权力:应用与规制》载《浙江社会科学》2019年第4期,第52页。

[7]孙莹:《人工智能算法规制的原理与方法》载《西南政法大学学报》2020年第1期,第22页。


作者简介:庞洋(1995—),男,汉族,山东临沂人,天津商业大学2019级在读硕士研究生,研究方向为宪法学与行政法学。

1