程序正当原则 张凌寒:算法自动化决策与行政正当程序制度的冲突与调和
原创 张凌寒 上海市法学会 收录于话题#法学45#核心期刊45#原创首发45#东方法学4张玲玲,北京科技大学语法学院副教授、法学博士、博士后。内容摘要行政治理中存在两种信息不对称:行政机关与治理对象之间的信息不对称和行政机关与行政相对人之间的信息不对称。一方面,算法的自动决策嵌入到行政活动中,极大地缓解了第一组信息不对称,产生了增强行政权力的效果。另一方面,算法要么压缩行政活动的所有环节,要么充当内部行政决策,以逃避行政正当程序制度的控制。从信息论的角度来看,信息传递和沟通工具包括行政正当程序中的告知、辩护陈述和理由说明。两种信息不对称之间的权衡使得公民权利被算法自动决策侵蚀,“权力-权利”格局严重失衡。因此,针对解决行政相对人的信息不对称问题,应坚持和发展正当程序制度,特别是行政公开、公众参与和解释原则。坚持和发展行政公开原则,要增强算法透明度,平衡行政公开制度与商业秘密,规范信息公开方式;坚持和发展公众参与原则,要提前开展算法影响评估,重视陈述和申辩;坚持和发展解释理由制度,应当赋予相对人获得算法解释的权利,明确解释理由的内容和标准。关键词:信息不对称 行政正当程序 算法解释 技术正当程序 算法自动化决策 “权力-权利”格局自20世纪50年代以来,算法自动决策被应用于政府公共管理。人工智能时代,借助深度学习、大数据等技术,以辅助行政裁量、预测资源配置的方式,将自动化决策嵌入政府行政治理,深刻动摇了传统行政活动的运行规律和基本范式。更重要的是,这种变化不仅体现在政府行政过程和效率的角度,也体现在以公民权利保护为核心的行政正当程序层面。围绕具体行政行为构建的行政程序从“人”的行为出发,而非机器。算法自动化决策对传统行政正当程序带来了诸多挑战。例如,早在2005年,杜宝良案中行政相对人反复在同一地点违章105次却未收到行政机关通知,引发了对于全自动行政行为正当程序缺失的广泛关注。更重要的是,算法可以提前预测风险而调配行政资源,这一活动却完全不受正当程序的控制。以禁飞名单为例,算法根据既往违法人员的特征,预测高风险人群并禁止其登上飞机。换句话说,被禁飞的人并非已经违法而是有违法风险。但是,直到被阻止登上飞机之前,公民并不知晓其被列入名单,也不知晓列入名单的原因与过程。保证行政活动可信和正当的行政正当程序面临失灵的风险。在算法自动化决策逐渐嵌入行政活动的背景下,如何坚持、修订和发展正当程序原则是一个亟待研究的重要问题。从保障公民实体权利和程序权利、通过正当程序限制公权力滥用的基本立场出发,在行政权力与公民权利互动的理论框架下,分析算法自动化决策对行政正当程序的挑战,以及立法者应如何应对实现行政正当程序的制度性和技术性障碍一行政活动中嵌入算法治理的双重效应算法自动化决策从信息输入、信息处理与信息输出三个层面嵌入行政活动,并改变了行政活动的范式,使得行政机关可以通过风险预测提前配置行政资源。这极大地加强了行政机关对治理对象信息处理分析能力,产生了行政权力的增强效应。但与此同时,算法自动化决策压缩行政活动环节,架空了行政正当程序;并且以内部决策的角色参与行政活动,使正当程序控制失灵。此消彼长下,形成了“权力-权利”失衡的格局。行政治理中嵌入算法的行政权力增强效应行政活动中一直存在着行政机关与治理对象的信息不对称,即政府对社会活动和治理对象信息掌握不足的情况。许多行政制度是为了缓解信息不足的矛盾而建立起来的。例如由于行政机关检查与发现违法的情况有限,无法获知所有违法行为,所以罚款额度既要有效惩罚被发现的违法人,也要威慑潜在违法者。例如着名经济学家加里·贝克指出,最佳的惩罚额度应等于损害除以发现的概率。即,如果只有1/4的发现机会,那么最佳罚款应该是损害的四倍。在现实生活中,如果闯红灯的交通违法行为的罚款金额200元是以被发现概率为1/4而设立的,那么当交通管理部门设置的闯红灯摄像可以实现违法行为100%被发现时,罚款金额应相对降低。自动决策算法的应用大大缓解了这种信息不对称,有效提升了政府权力运行的广度、深度和密度。信息技术在中国行政活动中的应用由来已久。2019年以来,以算法为代表的信息技术应用进一步拓展,甚至参与自由裁量活动、进行风险预测,改变了行政活动范式。2019年1月,《国务院办公厅关于全面推行行政执法公示制度全过程备案制重大执法决定法律审查制度的指导意见》明确提出:“一要推进行政执法自由裁量权决策协助制度,规范行政。确保统一执法标准的酌处权;二是开发风险预测系统、预警、检测和判断,及时履行政府职能,提高行政准确性。”在算法自动化决策的推动下,政府处理信息的能力有了质的飞跃。首先,政府收集信息数量和质量得到了极大提高。如2016年上海市政府搭建的事中事后综合监管平台实现了各部门收集信息的共享,已汇集各类信息247万余条、累计提请联合惩戒156万余条。 海量信息有效助力于行政检查、行政命令等多种行政活动。如我国《道路交通安全管理法实施条例》要求营运客车、货车安装使用行驶记录仪,为行政执法提供行驶速度、连续驾驶时间等信息。其次,政府处理、输出信息能力增强,因此行政执法力度与强度也远强于过去。算法自动化决策可直接统筹信息收集、分析处理与输出环节,直接作出对行政相对人产生效力的命令、裁决等活动。以广东省食品药品监督管理局为例,互联网药品信息服务资格证书核发、变更、换发等项证照都已实现电子化。 最后也最重要的是,政府通过算法自动化决策对行政活动大数据的分析,预测评估行政相对人的风险指标,在违规发生之前干预。如北京市城市管理综合行政执法局通过对全部投诉举报电话进行定量分析,得出每年夏季晚上某固定时段占道经营违法行为上升的结论,结合指挥系统的位置信息,调配执法力量。作为一项信息职能,行政效率受到信息收集、传输和使用质量的影响。算法自动决策有效缓解了政府与治理对象之间的信息不对称,成为行政权力实现和有效运行的能量和催化剂,并在此基础上增强了对权力行使对象的说服能力。算法应用导致的行政正当程序失灵效应算法的自动决策如何导致行政正当程序的失败?如前所述,该算法增强了行政活动中信息收集、处理和输出的各个环节,从两个方面改变了传统的行政活动范式:一是反应式算法自动化决策,压缩行政活动的各个环节,直接实现行政活动的半自动化和自动化。自动管理在系统中瞬间完成,因此不可能将活动的程序、步骤和方式分开,而是将所有信息和内容混合到已建立的算法中以获得结果。其次,预测算法改变了传统的认知范式,根据过去的历史数据推断未来趋势。该算法可用于预测风险,抢先分配管理资源,提前指导和部署管理活动。首先,反应型算法对行政活动环节的压缩,使得正当程序制度无用武之地。反应型算法是算法自动化决策应用于行政活动的常见模式,其基本模型为收集数据-匹配条件-作出决策,具有较强的工具性特征。例如,最简单的反应型算法为登录邮箱时输入密码——密码错误——拒绝登录。在行政活动中,名为专家系统、业务规则引擎、决策支持工具等的算法均为反应型算法。通常这些系统包含三个主要组件:其一,相关业务规则的知识库或规则库;其二,一个独立的推理引擎,该引擎使用推理得出结论;其三,用户界面,向用户呈现信息,并将用户相应提供给推理引擎以得出结论。行政机关可实现行政行为的半自动化或者自动化,甚至如果能梳理好行政执法依据、行政裁量基准、行政执法流程、行政文书整合入人工智能系统,则有可能作出自动化的行政执法决定。一个常见而简单的例子是交通违章的自动识别。算法自动决策可以对监控设备采集的数据进行智能识别分析,按照技术标准形成车辆违法数据,经交警部门审核后再对违法车辆进行处理,并以违法处理单的形式向违法者发送处罚通知。除了人为添加的审核环节,其他所有环节都可以在技术上瞬间完成。由于算法压缩了行政活动程序,省去了原来按照人们活动建立的行政正当程序发送信息的步骤。其次,预测型算法对治理对象的预测,实质上架空了行政正当程序。算法自动化决策给信息技术带来的改变,根本在于对信息认知方式的变化。传统认知方式下,信息技术围绕特定认知对象或假设进行信息搜集,对已有的信息作出特定反应,仍具有较强的工具化特征。人工智能时代的信息认知方式下,算法自动化决策具有数据挖掘功能,一方面提高了数据计算能力,能够从不完全信息中提炼出更多有效信息;另一方面,可以进行趋势风险的研判和预测。算法自动化决策信息认知方式的改变,产生了可以预测风险的预测型算法。预测算法和反应算法之间有一个基本的逻辑区别。尽管反应式算法的动态特性使得在发生违规时可以立即进行干预。但是,预测算法可以在风险发生前分配资源规避风险,实现“好钢用在刀刃上”。例如,江苏省税务部门利用大数据技术对税收风险较高的行政相对人进行预测。据统计,一年的检查次数减少了97%,共计8000多次。在这种行政活动中,预测算法实际上已经成为行政活动的核心过程。然而,预测型算法由于其仅仅是内部行政决策,无法受到正当程序的控制。从时间点上来说,决策发生在具体行政行为发生之前,从外形上来说并不具备具体行政行为的要件,显然也并非抽象行政行为,只能作为行政机关的内部决策。内部行政决策本身即缺乏正当程序的控制,由于行政决策更多地与政治过程相关联,导致它并未纳入法治的轨道。即使近年来,行政决策亦要被纳入法制化轨道已经成为国务院和地方各级政府的基本共识,提出要以正当程序控制行政决策。预测型算法依靠运算在算法黑箱内部得出结果,完全规避了公众参与、专家论证等信息交换和披露的正当程序控制。算法自动决策一方面增强了行政权力,另一方面侵蚀了正当程序制度。行政正当程序的缺失不仅可能导致行政相对人实体权利的减少,还可能直接损害其程序权利。在行政活动中,行政程序具有不同的价值层次,可分为“工具价值”和“构成价值”。工具性行政程序关注行为活动的全过程,旨在提高行政效率,如对行为时限和方式的规定;构成性行政程序是指具有特殊价值追求的制度结构,如听证、明示理由等。日本学者认为:“违反诉讼法规定的四项主要原则至少应解释为构成撤销事由。”在我国行政法中,陈述、申辩或出席听证是我国行政诉讼法规定的具有构成价值的正当程序。缺乏这种程序即使不影响行政相对人的实质性权利,也存在效力缺陷。毫无疑问,无论行政活动如何借助科技的力量变得便捷与高效,这类构成性行政正当程序都不应该成为被省略的对象。这不仅造成了行政相对人实体权利的损害,也是程序性权利的缺失。行政相对人在行政活动中获得知情、陈述申辩、得到理由说明的各项权利,无法得到保证。在此消彼长下“权力-权利”格局严重失衡。
二
算法自动化决策与行政正当程序的冲突从信息论的角度看,行政正当程序的本质是行政机关向行政相对人发送信息的工具。无论是行政活动前的行政公示和听证,还是行政活动中的告知,听证陈述和申辩,以及事后说明理由,目的都是为了建立行政机关与行政相对人之间的信息沟通机制。算法自动化的不透明决策遮蔽了行政公开原则,算法设计和运行的技术垄断空公众参与原则,算法决策黑箱无法为相对人提供理由,算法自动化决策与行政正当程序存在严重冲突。行政正当程序制度的信息工具功能正当程序制度一直被视为规范行政权力运行、保护公民合法权利的重要制度。从信息论的角度来看,正当程序制度实际上是一种信息工具,旨在建立政府与行政相对人之间的信息沟通机制,从而缓解行政相对人的信息不对称,进而达到维权的制度目的。行政正当程序具有信息发送功能,可以缓解行政相对人的信息不对称。它是一种独立于实体权利的程序性权利,包含参与性告知、程序理性、人道主义等实现效率。正当程序的基本含义是当行政机关作出影响行政当事人权益的行政行为时必须遵循法律的正当程序,包括事先告知相对人,向相对人说明行为的根据、理由,听取相对人的陈述、申辩,事后为相对人提供救济路径等。从信息工具的角度观察,正当程序制度的几项核心内容均系为了解决行政机关与行政相对人的信息不对称问题。如果把行政行为的过程分为作出前和作出后两个阶段,正当程序制度在行政行为作出前要求行政机关对相对人发送足够的信息,在作出后亦要求提供纠正信息的路径。首先,正当程序制度包括行政活动前“发送信息”的工具。例如,要求行政机关向相对人发出合理的通知。所谓合理通知,不仅仅是要给对方一个合理的解释要处理的事情,还要在合理的时间内通知他。不告知或不当告知会影响对方行使程序性和实体性权利。还要求说明理由,即行政机关作出任何行政行为,特别是不利于行政相对人的行政行为,必须说明理由,但有法定保密要求的除外。第二,正当程序制度包括行政活动中的“信息沟通”工具。即,强制要求行政机关必须获取行政相对人的信息。例如,要求行政机关作出任何行政行为,特别是作出对行政相对人不利的行政行为,必须听取相对人的陈述和申辩。行政机关作出严重影响行政相对人的合法权益的行政行为,还应依相对人的申请或依法主动举行听证。第三,正当程序制度包括行政行为后的“信息矫正”工具。比如事后要求行政机关为相对人提供相应的救济渠道,目的是防止行政行为失误,给相对人“信息纠正”的机会。正当程序制度的上述所有要求都试图解决行政机关与相对人之间的信息不对称问题。然而,只有符合正当程序的行政行为人才是合法有效的,这充分说明信息工具的缺乏会直接影响行政行为的法律效果。虽然行政机关与相对人之间的信息不对称无法最终消除,但通过正当程序发送信息是法律对行政行为的基本法律要求。从这个角度去理解正当程序制度,会发现政府信息公开制度、行政听证制度、说明理由制度、公众参与制度等本质上均为信息工具。通过程序来强制性要求政府对公众披露行政活动中的信息,达到控制公权力保障公民权利的目的。20世纪中期以后,随着各国行政程序立法的发展,正当程序原则在世界许多国家如奥地利、意大利、西班牙、德国等得到了确立和广泛使用。从程序控权取代实体控权,从注重行政行为的合乎实体法规则向注重行政行为的合乎程序性转变,以正当程序模式的行政法来弥补严格规则模式之不足,已经成为当代行政法的主流。其背后的考量,是行政行为所需的信息越来越庞杂,依靠实体法规则已经无法囊括,只能退而要求在程序法规则上满足“发送信息”的要求,交由具体行政活动中相对人获得的信息来保障公权力在合法范围内运行。由于算法自动决策的障碍,无法实现行政正当程序的信息发送功能。无论是反应式算法压缩行政程序的各个环节,导致行政正当程序的缺失,还是预测式算法作为一种内部决策直接规避行政正当程序,行政相对人都无法通过行政正当程序接收行政机关发送的信息。具体而言,行政公开原则、公众参与原则和说明理由规则尤为重要。算法不透明遮蔽行政公开原则自20世纪中期以来,公开、透明和公众参与成为现代正当法律程序的基本内容,甚至是不可或缺的内容。自上世纪60年代或本世纪初以来,美国、欧盟许多成员国以及世界其他国家和地区等近50个国家和地区相继制定了类似美国“阳光法”的信息披露法和透明政府法。行政公开是指行政机关的活动应当坚持信息公开,但国家秘密、商业秘密和个人隐私等应当由行政机关向社会公开的除外。算法导致的行政公开原则缺失可分为两类原因:不愿公开与公开不能。具体而言,第一类原因是算法的采购、设计与运行,甚至算法的存在本身,政府基于各种考虑可公开而不愿公开。私营公司主张公开算法侵害商业秘密,政府官员可能会担心公开披露的算法会被篡改或规避,阻碍行政目的实现。2017年年底纽约市政府开展的世界首次算法监管活动堪称典型。纽约市算法监管工作组召开了三次会议,直到2019年4月仍未就“算法自动化决策”的定义与范围达成共识,各政府部门也拒绝提供使用的算法清单,仅肯提供示例。此次监管活动也因未取得成效受到了广泛批评。二是“算法黑箱”导致的披露失败。“算法黑箱”是指在算法决策数据的输入、计算、输出三个环节中,存在三个问题:因公众利益豁免知情同意规则导致数据采集不透明,因商业秘密保护导致算法决策过程不公开,数据分析结果与决策之间的转换不公开。算法不透明可由于政府严重的技术依赖关系形成一个恶性循环。政府不仅需要购买算法系统,还需要私营公司提供长期技术支持以便对算法系统运行进行维护和改造。私营公司为了垄断相关技术领域,会更加排斥将算法软件技术开源或公布。这进一步导致了某个专门的算法系统长期垄断某行政部门的行政活动技术支持,更加缺乏来自社会公众的监督。2014年美国一项针对政府工作人员的调查显示:“联邦政府工作人员没有足够的数据分析技能将复杂的数据集转化为决策者所需要的信息……高达96%的受访者认为他们所在部门存在数据技能短板。”因此,调和算法自动化决策与行政信息公开的原则需平衡的三组利益:要求企业披露算法的相关信息,同时又不损害商业秘密和竞争优势,同时又能够确保公众监督。技术垄断空公众参与原则行政正当程序中的公众参与原则极为重要,“某种形式的听证”被认为是程序正当性过程最基本的要求,是行政机关提供正当程序的最低限度。然而,算法自动化决策系统由私营公司“技术垄断”,公众的参与权难以得到保障。公众参与原则的核心思想是听取公众意见。具体来说,包括两个层面:一是公众应有参与行政活动的权利,这体现了公众意志形成功能的正当程序;二是在具体行政行为中,要充分听取当事人的陈述和申辩。在公众参与过程中,应设置听证会等特殊程序,确保公众能够参与,确保参与各方信息对称。公民的有效参与是为了通过自己的行动影响某种结果的形成,而不是被动地接受某种结果为否定对象。在算法广泛嵌入行政活动的背景下,公众参与原则面临多重障碍。第一,公众参与行政活动面临私营企业技术垄断的障碍。算法自动化决策本质是对于行政资源的分配,但这一过程改变了政府资源分配和监督行政相对人的一贯做法,转而由私营企业承担核心角色。在此次疫情防控期间,各地政府依靠私营公司的技术力量进行健康码的设计和运行工作,并大有将健康码运用于社区、企业、群体评价等社会公共活动中的趋势。“智慧城市”也极好地体现了“公共权力私有化”这一趋势。政府部门的数据、权力和私营公司的技术力量结合,发展出了主宰城市运行的智能系统。技术公司垄断了硬件与算法系统的开发、设计和使用,却拒绝对公众公布算法收集处理数据的权限和过程。如迈阿密市政府与照明技术公司签订为期30年的合同,使该公司可以免费安装装有摄像头和牌照读取器的灯杆,为迈阿密警察局收集和处理信息,而该公司可以使用这些数据。政府大多数情况下需要以技术服务合同的方式向私营企业购买算法系统的设计和运营服务,因此算法自动化决策的采购和设计处于完全不透明的状态,缺乏公众参与的听证环节。公众没有机会在行政活动中融入自身的价值判断和权利主张,更无法实现对行政权力滥用的程序性控制。第二,自动化的行政行为按照算法设定的规则运行,这个过程被行政机关和技术公司垄断,行政相对人没有机会进行陈述和申辩。由于缺乏有意义的通知,而政府倾向于预先假定算法结论是正确的,这就造成了缺乏对方的陈述和辩护。当反应式算法应用于行政处罚和其他可能对行政相对人产生不利法律后果的行政行为时,缺乏陈述和辩护是一个严重的程序缺陷。由此可见,算法自动化决策既回避了行政决策的公众参与和听证,也消解了具体行政行为层面的当事人陈述和申辩的程序,造成了公众参与原则的缺失。如果一项技术是服务于社会中的大多数群体,政府的作用就不可替代,无论作为社会系统的设计者还是行业领域技术创新的监管者,政府都应承担起责任,打破技术中心主义的局限。算法黑盒无法提供原因正当程序中的说明理由制度是指公权力机关在做出决定或者裁决时,应向其他利害关系人说明法律依据和事实状态,及通过相关法律和事实状态进行推理或裁量而做出结论的过程,从而表明理由与最终该决定的内在联系。尤其是行政机关作出不利于行政相对人的行政行为时,除非有法定保密的要求,都必须说明理由。我国《行政处罚法》《行政许可法》等法律法规均明确规定了行政行为说明理由的要求。说明理由制度是正当程序中的重要构成要素,违反说明理由义务可能直接影响到决定或者裁决的效力。预测算法在行政对象做出行为之前就做出行政决策,而且是基于大数据的相关性而不是因果关系,所以无法提供原因。由于大多数深度学习推荐算法都是将数据转化为一个隐式的空,我们可以计算如何无限逼近算法设定的目标,但很难提供直接的决策理由。尤其是预测算法在行政治理中的应用,将行政对象的目标与已有数据进行比较,利用数据分析发现特征与结果之间的相关性,并利用这种分析生成可能不容易解释或理解的预测。合法的行政行为需要披露理由和公布行政行为的证据。但是,由于预测算法的时间点在事件之前,所以没有证据。这种先验性使得合法行动所需的可证明证据不可能存在。算法预测指导的行政活动对行政对象挑选并进行甄别,却无法提供实质性证据。这实际上构成了对行政对象区别性的不利对待,可能违反法律面前人人平等的原则。典型的预测型算法应用为“预测警务”,如北京市公安局怀柔分局的 “犯罪数据分析和趋势预测系统”收录了怀柔9年来一万余件犯罪案件数据。2014 年 5 月,该系统预测提示:近期泉河派出所辖区北斜街发生盗窃案的可能性较高,派出所加大对该区域的巡逻,并于5月7日抓获一名盗窃汽车内财物的嫌疑人。 预测型算法会在治安高风险地区时会相应投入更多警力,使得该地区的治安违法行为更容易被查到,导致风险级别进一步提高,可能形成一个失真的回馈环路。算法的预测精度无法保证,一旦出错,可能会造成不可挽回的损失。2017年12月,伊利诺伊州儿童和家庭服务部宣布终止评估儿童安全和风险的预测系统,因为算法预测不准确导致父母和孩子错误分离。同年早些时候,美国洛杉矶县也因预测算法的黑箱问题和较高的假阳性率,停止了预测算法在儿童虐待风险评估中的应用。算法深度学习与相关可能存在的预测失真问题由于算法自动化决策无法提供理由说明,算法决策缺乏有效的法律程序控制,易于不断自我肯定与强化,造成行政行为持续性错误与相对人权利受损。三
基于行政信息公开原则增强算法自动化决策透明度算法嵌入行政活动背景下行政信息公开原则的回归现有算法自动化参与的行政活动中,我国法律作出了一定调整,但仍在某些领域需要行政信息公开规则的回归。例如,在算法自动化决策参与行政许可行为中,我国《行政许可法》第 33 条规定了以数据电子方式提出行政许可,应在行政机关的网站公布许可事项。作为行政信息公开在算法治理时代的因应性调整。然而,在算法自动化决策参与的行政活动中,尚有行政信息公开原则的一些基本规则尚未得到满足。首先,作为行政信息公开的基本要求,应提高自动决策的可见性。在我国政府部门,算法自动化决策系统大多被命名为“第二批”、“智能交通”、“智能司法”。我国对于人工智能算法在政府部门的应用没有明确的规划和分类,现有的电子政务宣传和通报也不完善。2018年第17届中国政府网站绩效评价显示,超过15%的政府网站服务指南与行政事项不对应,35%的政府网站服务内容不准确,80%的政府网站办理材料细节不清晰。政府不应该只把算法系统当作办公辅助系统,而应该公布政府部门自动决策清单,让公众知道哪些行政活动有自动决策的参与,知道算法自动决策可能产生的权利影响。其次,算法作出决策的基本规则和因素权重,应该对公众与社会公开。形式的改变并不能豁免政府信息公开的义务。算法参与的行政行为并不会因为缺乏意思表示要素而不受行政法的拘束。原因在于,各类智能机器、评估模型等自动化设备的设置及启用以及运作方式,都是由行政机关发踪指示,行政机关仍是行政程序的主宰,所作出的表示或决定,都是行政机关的行为,具有法效意思及规制效力,性质上仍为具体行政行为。如果政府机构采用一条规则,仅仅以为算法运行不能直观地作出解释,就拒绝向公众公开,则违反了行政行为应公开透明的基本原则。早在1992年的案件中,美国联邦公路管理局拒绝披露用于计算运营商安全评级的算法,但法庭认为这违反了《信息自由法》中政府披露政府记录和数据的要求,判决联邦公路管理局必须披露计算中所用因素的权重。这些是行政信息公开原则对算法自动化决策应用于行政活动的基本要求。此外,行政信息公开原则面临“黑箱算法”的挑战,需要进行相应调整。行政信息公开原则在算法数据收集环节的贯彻算法治理时代,人类将退化为信息的存在,从而接受机器的计算,便于企业获取利润和政府监督管理。行政机关可以收集大量的公民数据,不仅可以免除基于公共利益的“知情同意”规则的限制,还可以要求私人公司提交数据。因此,行政相对人没有机会知道哪些个人数据被用于对嵌入在行政活动中的算法进行自动决策。为了遵循行政信息公开的原则:首先,行政机关收集数据同样受到“合法、正当、必要”原则限制 ,应在行政活动中逐渐将此类规则细化。从行为性质上梳理,行政机关对个人信息的收集行为属于内部行政程序,仅仅作为后续行政行为的必要前置活动,并不受到具体行政行为的相关法律限制。但是,作为数据收集行为,仍需严格遵循正当目的原则与必要原则。以2020年新冠疫情防控为例,无论是健康码对个人敏感数据的大规模收集与使用,大数据对公民的追踪定位,包括社区出入居民的信息登记,均应有公共卫生紧急状态作为正当性基础。在紧急状态恢复成日常状态之后,即使疫情状态防控常态化,也应避免对公民个人数据的收集与追踪常态化 。其次,虽然基于公共利益考虑,不可能要求政府再次取得数据个人的知情同意,但在平台向个人收集数据时,至少应该发出“不利行为”的通知。即如果政府可能基于第三方的信息做出自动行政决策,对行政相对人产生负面不利影响,则应要求平台在收集数据时告知数据个体。例如,应提醒行政相对人,自动决策结果是指公共信息、犯罪记录、信息记录甚至社交媒体的使用。美国学者欧内斯特·格洪指出,政府机构实施的不利出版行为的基本功能是通知,旨在向出版对象告知相关政策或情况,使其在做出选择时能够利用这些信息。此外,法律应及时划定政府获取第三方平台数据的边界,防止政府以公共利益为名无限度获取平台通过知情同意收集的用户数据,并规定政府做好相关的数据安全保障工作。行政信息公开原则与商业秘密保护算法的平衡应平衡算法自动化决策的模型公开与保护私营企业商业秘密之间的冲突,适度增加算法自动化决策的透明度。一直以来,公开算法模型都被开发设计算法的私营公司以“保护商业秘密”为由反对。例如,美国法学教授要求纽约州和纽约市公布教师评分的算法,遭到了纽约州教育部的拒绝。因其算法技术供应合同规定,承包商提供的方法或措施是“专有信息”,教育部门不能公开。这引发疑问,私营企业的商业秘密可否凌驾于行政正当程序对信息公开的要求之上?坚持行政公开原则,必须平衡商业秘密保护与公民合法权利之间的价值位阶。行政信息公开是集体语境下的一种程序正义,算法的自动决策一般适用于行政相对人,其本质是一般规则。该算法的开发设计过程类似于起草并采用一个通用的证据规则应用于大量案件。一套算法系统可以对多个行政相对人产生法律效力,一旦发生错误,可能产生扩散性损害后果。具有合法性的规则应该是可预测的,即人们可以根据规则预先估计当事人的行为方式和行为后果,从而为其行为做出合理安排。这种规则知情权不仅是一项人权,也是一项可以根据我国宪法推导出来的公民权利。与保护民营公司商业秘密相比,价值排名明显更高。退一步论证,要求公布算法决策要素及权重,并不是要求公布技术源代码,而是要求公布被代码化的法律规则。当前,有学者认为算法的透明既非必要也不可能,甚至存在一定的害处。 这将算法透明视作单一的、绝对的源代码披露,忽视了算法的透明具有多层次性、多种方式、多种对象。算法自动决策系统中信息披露的缺失会导致对政府公权力的信任缺失,而公共信任的缺失可能会导致更多的诉求,抵消算法系统带来的行政效率提升效果。鉴于算法的技术性,美国学者试图开发“技术正当程序”制度来解决这一问题,即通过强调编码的开放性、开发公众参与程序和测试系统软件来实现程序所要求的透明性、公开性和可问责性。因此,未来的解决方案是增加政府内部的专业力量,由既懂行政规则又懂技术的人来监督算法的设计和运行。行政信息公开与算法决策输出的说明行政信息公开应当包括行政决策结果中涉及自动决策结果的程度信息。对于具体的行政行为,算法自动决策可以发挥不同的作用。算法自动化决策有可能直接成为一种有效的行政行为。比如深圳市政府“第二批”2020年已达212个;可能还需要进一步的人工审查,如法官审查累犯风险评估软件。从这个意义上说,算法自动化决策对具体行政行为的干预程度和行政决策的可逆性应当向行政相对人披露。即使算法的自动决策已经深入到行政活动中,但考虑到行政权力的不可剥夺性以及国家等基本概念的存在,有必要尽量减少算法直接做出行政决策的情况。与此同时,应尤其注意算法自动化决策结果对技术弱势群体的说明方式。我国《政府信息公开条例》第43条规定:“申请公开政府信息的公民存在阅读困难或者视听障碍的,行政机关应当为其提供必要的帮助。”依此立法精神,应在信息公开环节同样照顾老人、受教育程度较低人群等技术弱势群体,以简明、图画方式对公众说明算法自动化决策。综上所述,算法在行政部门自动决策中的应用,既要满足行政信息公开的基本要求,又要遵循行政信息公开原则在输入数据、决策过程和最终决策层面的要求。第36届德国信息官员自由会议通过了一份文件“公共管理算法的透明度”。根据该文件,德国政府部门使用的算法必须公布:关于程序输入和输出数据的数据类别的信息;算法涉及的逻辑,尤其是使用的计算公式,包括输入数据的权重、基本专业知识和用户部署的个人配置;最终决定的范围和程序的可能后果。如果政府在用算法做决策时不遵循行政信息公开原则,就谈不上用算法自动决策的公平和问责。四
基于公众参与原则进行算法影响评估公众参与行政正当程序原则在保障实体权利方面发挥着重要作用。算法治理时代的行政正当程序应从加强公众参与和恢复相对人的陈述权和辩护权两个方面展开。以算法影响评估保证公众参与算法系统订购与使用一般行政规则的制定需要公众参与的审议,然而,由技术力量垄断主导的采购和设计过程空构成了这一过程。公众参与原则要求公众在利用算法自动化决策系统进行决策和影响行政相对人之前,有权了解、评价和参与算法自动化决策系统对自身和社会的影响。算法影响评估是既有行政制度资源的发展,可参考环境影响评估等类似的相关制度。这一制度的目的在于让政府使用算法自动化决策前,能够创造机会使得行政相对人、研究人员和决策者共同参与影响评估。这为公众提供了算法系统部署前发现问题、表达诉求主张、甚至反对使用算法的机会,本身就是向社会提供算法系统信息的机制,能够让公众更加了解情况、增加算法透明度,并让政府部门、算法研发人员和公众进行富有成效的对话。体现出行政程序不应是行政主体单方用来约束公民、组织的工具,更是要体现出民主、责任、参与、法治的诉求。目前,我国各级公安部门算法系统上线流程基本采用“个别试点后全上线运行”的模式。该模式可视为试运行阶段的算法影响评估,但该类算法系统上线前没有明确的评估程序,公众无法通过参与过程提出自己的诉求。为确保自动算法决策系统在政府部门安全部署,欧洲议会提出了“算法影响评估”的制度框架,即对于可能对公民权利产生影响的自动算法决策系统,应允许社区和利益相关者进行评估,以确定算法是否可以使用以及在哪些领域可以使用。一些国家已经实施了从倡议到系统的算法影响评估系统。在2020年生效的《自动决策指令》中,加拿大提出了算法影响评估体系。华盛顿州通过了众议院和参议院的HB165法案,要求政府在使用前在公共网站上公布政府部门的算法系统,“并邀请公众对算法问责报告进行不少于30天的评论”。事实上,欧盟《通用数据保护条例》中规定的“数据处理活动影响评估”制度,实际上类似于算法自动化决策系统的影响评估制度,对私人公司和公共部门都适用。算法自动化决策的评估程序,不仅是公众参与的有效路径,也是算法设计者和使用者进行自我监管的重要方式。例如,我国中央网信办将某些算法应用定义为“具有舆论属性或社会动员能力的互联网信息服务”,并要求其进行自我安全评估。举轻以明重,由政府部门购买使用的算法自动化决策,也不应被置于秘密黑箱之中,而应在投入使用切实影响公民权利之前,经过公众参与的算法评估程序。在我国2020年7月发布的《数据安全法征求意见稿》中,提出了重要数据处理者的风险评估制度,以及政务数据委托处理的批准程序,但此类规定出于保护数据安全,基于保护公民权利的程序制度尚付诸阙如。通知和防御链接是算法决策生效的必要步骤第一,应避免全自动行政行为直接对当事人发生法律效力,保证行政相对人可以收到算法自动化决策的有效通知,作为行政行为生效的必经程序。为保障行政效率,很多的算法做出具体行政行为时完全无需任何人工干预。但是,当算法做出了不利于当事人的决定时,按照正当程序更应该提供有效通知。例如我国荣成市将个人信用评分的计算和评级分为指标得分和直接判级两种,前者是按照信用信息评价标准予以加分,后者则是针对严重失信行为,将自然人的信用级别直接降级,被降级的自然人可能面临如限制出境、限制高消费、公布姓名等惩戒行为。这类算法自动化决策应以对相对人的及时通知作为后续行政活动展开的基础,公民可以主张相关内容的更改、撤销或者无效,方可为公民提供后续的救济路径。基于这种考虑,德国行政程序法上对完全自动化行政的适用规定了两个条件:其一,法律保留,即仅当法律法规允许时方可适用;其二,行政机关不存在裁量和判断余地时方可适用。二是要保证当事人有陈述和申辩的权利,公民有通过人工干预算法自动作出决策的权利。心理学中的认知实验表明,人类将算法自动化系统视为一个防错系统。当算法和人类决策之间存在分歧时,自动化系统的操作员倾向于相信来自计算机的答案。由于解码算法自动决策的成本太高,验证算法做出的具体决策是否准确的好处微乎其微。这就导致了算法在进行自动决策和具体行政行为时,具体案件的听证成本极高,不符合成本效益分析。《GDPR公约》第22条为处于类似情况的对应方提供了一条出路:不受完全自动决策支配的权利,以及获得人为干预的权利。官方解释文本中指出,该条款的目的是保护数据主体的利益,确保数据主体能够参与重要决策。强大的行政部门对个人数据使用进行自动决策,使数据主体生活在数据的阴影之下,剥夺了个人影响决策过程的能力。五基于解释原因规则创建算法解释权由于数据来源的不透明、算法黑箱等因素,算法自动化决策的结果是如何得出的却难以为个体所知晓。算法治理时代应在适用算法自动化决策时坚持并修正行政行为说明理由的制度。开发解释算法的权利,以解释具体行政行为的原因各国的立法者与学界达成共识,即自动化决策的算法应当具备可解释性,使得用户有权知晓决策的原因。如法国数字事务部长表示:“如果政府不能解释其决定,政府就不应该使用算法。” 如果对于相对人不利的行政活动缺乏理由的说明,不仅会造成严重的程序性权利损害,更会使得行政相对人并不知晓理由而无法获得行政法上的救济。如果将算法的自动决策视为专家论证,行政决策的科学性必然要求建立行政决策专家咨询的解释体系。自动算法决策往往以“专家决策辅助系统”的形式参与行政决策,行政部门应以其理性的解释回应公众的质疑,这既是对行政决策理性内涵的阐释,也是对公众负责任的回应。不能提供理由的专家意见直接影响行政决策的有效性。在司法实践中,以专家咨询结论推理不充分为由否定行政决策的情况屡见不鲜。算法解释权已经从理论逐步发展为各国的具体制度,但其面目一直模糊难辨。以最早提出算法解释概念的GDPR为例,其第13条、15条提出的应使数据主体了解“有意义的信息”“参与决策的逻辑”等规则,可以被法官宽泛或限制性解释,也可能由于算法决策并非“完全基于自动化处理的决策”而被规避。2017年在法国颁布实施的《数字共和国法》为公共部门提供了更具体的算法解释权。一是扩大了算法的自动决策范围,不再要求“基于自动处理的决策”,而是涵盖了行政机关的决策支持算法体系。其次,法国的算法解释权只适用于行政决策,因为公共部门在披露算法决策时具有更强的理论合法性,商业算法决策不存在商业秘密壁垒。三是披露内容和范围具体明确。所需的具体解释包括算法在行政决策中的作用和模式,算法处理的数据和来源,算法在决策中的权重,以及如何应用于个人。巧合的是,加拿大公共部门算法的自动决策指令于2020年4月生效,该指令要求使用算法进行决策的公共部门向受影响的个人提供有意义的解释,甚至包括决策中使用的变量。可以看出,向个别行政相对人提供具体的算法解释具有不可替代的制度价值,并逐渐成为各国的实践。算法影响评估系统不能代替算法解释系统,因为它旨在事前规避风险,而不是事后个人救济。行政行为算法解释的内容和标准辩护的目的不仅是为了知道,而且是为了提供救济途径。换句话说,解释不仅要让对方知道决策是如何做出的,还要提供对方可以修改自动决策的方法。具体自动决策算法解释的理由说明包括:具体决策的理由、理由、产生决策结果的个人数据。比如各指标的功能权重,机器定义的具体案例决策规则,起参考作用的信息等。当决策涉及相对人的实体权利、程序权利和救济权利,涉及“最低限度正义”时,应对自动化决策系统的运行过程、运行结果和行为进行推理,给出理由。政府部门提供的算法解释应遵循以下标准:第一,解释的客体完整。自动化决策的算法解释应由监管部门统一提供格式解释文本,保证算法设计者和使用者提供的解释客体完整且无遗漏,否则应视为无效的解释。第二,政府具体行政行为的理由说明,如不能提供理由则应视为没有理由,可能直接导致政府算法自动化决策的行为失效。第三,解释语言清晰平实,以书面形式作出。自动化决策算法解释本质是由信息占有优势一方作出的“信号发送”行为。由于政府与行政相对人权力与技术力量的差距,应要求自动化决策算法解释必须以清晰平实的语言作出,否则会导致解释徒具形式而无法被理解。行政机关的算法解释应遵循具体行政行为说明理由的要求,或以书面形式作出,或在做出行政行为时必须说明,方便为日后行政诉讼与算法问责均留存证据。不透明的自动化决策应该由公众进行解释和监督,让相对人有权知道决策的理由,这已经成为算法自动化决策治理机制的共识。如果要求政府使用的算法为自动决策提供解释和理由,也可以限制政府使用过于复杂的机器学习算法系统。六结束语在已有的世界各国的立法中,政府使用的算法自动化决策都是被优先作为监管的对象。公民有权利期待国家使用现有的最佳技术来履行其行政管理职责,这既来源于政府机构有直接义务维护行政相对人的各项权利,更来源于行政机关应为整个国家树立榜样。试想,如果被民众信赖的、拥有最多社会资源的政府尚不能在算法自动化决策中保障公民权利,又如何指望私营的互联网企业同样公开、透明呢?算法治理时代,亟需遵循行政正当程序的制度精神以改变对算法“技术中立”的错误认识,避免“算法监狱”与“算法暴政”的产生。算法治理时代,坚持、修正与发展正当程序的具体制度,是政府负责任地应用算法自动化决策的基本要求。微博抽奖接下来我们将送出中国知网数据查询卡6份,快来试试手气吧。可用于国际会议全文数据库、中国重要会议论文全文数据库、中国学术期刊在线出版数据库、中国博士学位论文全文数据库。获奖的读者朋友,我们将通过上海市法学会官方微博告知卡号、密码,在中国知网首页完成账号注册,输入卡号、密码及网页验证码,即可将对应卡面值充入该账号。敬请关注上海市法学会官方微博,参与微博抽奖送卡活动,#微博学法#、#分享好运#!打开微博扫描右侧二维码参加抽奖上海市法学会欢迎您的投稿
fxhgzh@vip.163.com相关链接芮振华:我国高校内部纠纷解决机制构成、局限及其克服资料来源:东方法学2020年第6期。请注明报价来源及转载。原标题:《张凌寒:算法自动化决策与行政正当程序制度的冲突与调和》