郭雨婷|自动化行政决策的分类法律控制研究

2023-12-12 09:31:12 - 媒体滚动

转自:上观新闻

郭雨婷|自动化行政决策的分类法律控制研究

郭雨婷|自动化行政决策的分类法律控制研究

郭雨婷|自动化行政决策的分类法律控制研究

以是否需要人工介入做出行政决策为依据,自动化行政决策可以划分为半自动行政决策与全自动行政决策两大类,后者以是否涉及裁量为依据可进一步划分为无裁量全自动行政决策与有裁量全自动行政决策。不同的自动化行政决策类型面临的法律风险不同,分类法律控制可以针对性地化解风险。半自动行政决策有效保留人的能动性,功能面向占据主要地位,无需予以单独规制;无裁量全自动行政决策面临责任承担困境,裁量型全自动行政决策影响行政公平原则,除此之外,二者都可能导致个案正义缺失,但表现样态有所区别。针对全自动行政决策面临的法律风险,可以通过限定全自动化行政决策的适用范围、确立行政主体自动化行政决策责任制、引入算法影响评估制度以及完善全自动化行政决策人工介入机制等措施进行法律控制以化解风险。

郭雨婷|自动化行政决策的分类法律控制研究

引言

自动化行政决策以其较强的中立性可以有效减少人为因素的干扰,提升行政决策的客观性;以其强大的算力可以有效提升行政决策的准确性;以其不知疲倦的动态执法模式可以有效提升行政执法的效率。因此,自动化行政决策日益受到行政机关的青睐,在行政活动中发挥了重要的作用。但是,自动化行政决策中误判、歧视、不透明等问题对行政公开原则、行政公正原则以及行政责任承担带来了挑战,引发了学界对自动化行政(决策)的规制研究。目前研究虽然对自动化行政决策的分类观点较为一致,也注意到了不同自动化行政决策产生的法律风险是不同的,但是大都立足自动化型行政决策整体,力求全面剖析自动化决策的法律风险,并未体系性地沿着具体类型进行深入分析。因此,本文试图站在前人经验的肩膀上,沿着类型化思路对自动化行政决策进行法律控制。而关于自动化决策共同面临的程序挑战以及隐私泄露危机等问题,学界研究已较为成熟且非本文关注重点,遂不予讨论。

一、自动化行政决策的类型与应用

自动化行政决策是指行政程序中特定环节或所有环节由人工智能代为处理,而无需人工的个别介入,从而实现部分或全部无人化的行政决策。以是否需要人工介入做出行政决策为依据,自动化行政决策可以划分为半自动行政决策与全自动行政决策两大类,后者以是否涉及裁量为依据可进一步划分为无裁量全自动行政决策与有裁量全自动行政决策。

半自动化行政决策是指行政机关在人工智能辅助下做出的行政决策。行政机关仅借助电子技术和设备进行信息与数据的收集、识别、分析等活动,最终由行政机关而非人工智能做出行政决策。因此,在半自动行化政决策中,人工智能仅扮演行政机关辅助工具的角色,不会直接影响行政相对人的权益。以全国交通电子眼抓拍系统为例,智能系统的后台算法通过对摄像头抓拍的信息进行分析,识别违法行为后将有关违法信息报送给相应监管部门,最终由行政机关进行人工复核后做出行政决定。

无裁量全自动行政决策是指自动化系统可以对不需要裁量的行政活动进行独立的全程处理,无须人工介入直接做出的行政决策。公安部于2015年推出了交通安全综合服务管理平台“交管12123”手机APP,使得全过程自动化行政处罚成为现实。国家税务总局开发的增值税发票管理系统2.0版是无裁量全自动行政决策在实践中的具体应用,上述智能系统利用算法为群众提供一站式办理便利,可在无需人工介入情况下独立地做出行政决策。但是,系统在决策过程中并不享有裁量空间,仅仅是对既定规则与指令的机械执行,本文以自动化行政量罚系统作进一步说明,系统实质上是对既定的行政处罚裁量基准的执行,裁量因子与规则已经过人类事前设定,系统不对不确定法律概念进行判断与裁量。

有裁量全自动行政决策是指自动化系统利用机器学习模式在一定的裁量空间内独立做出的行政决策。机器学习的核心为“学习算法”(learningalgorithm),即从数据中产生模型的算法。有了学习算法,我们将经验数据提供给它,使他可以基于数据产生模型,在面对新情况时可以做出相应的判断。无论是半自动决策还是无裁量的全自动行政决策,二者都属于专家系统或预先编写程序规则系统的第一代人工智能,基本的规则形式为“if-then规则”,即如果a,则执行x,否则如果b,则执行y,系统仅有逻辑推理能力,但无法像机器学习模式的第二代人工智能一般进行自我学习。目前机器学习已经得到广泛的应用,基于深度学习技术的阿尔法围棋、ChatGPT都是机器学习技术的实践应用。它们拥有超强的学习能力,以ChatGPT为例,它是OpenAI新推出的一种使用了Transformer神经网络架构的自然语言处理工具,除日常交流外,甚至可用于撰写邮件、视频脚本、程序代码、论文以及翻译等任务,在法律领域,它可以直接查找具体的法律条款;结合具体纠纷类型,梳理法律适用要件;结合具体案情,分类型进行法律适用的讨论;撰写法律文书并辅助司法裁判,足见其功能强大。但是囿于行政领域的高风险性、行政裁量的复杂性以及技术手段的局限性等多重因素,有裁量的全自动化行政决策目前尚无实例。目前学界对于全自动行政决策是否可以进行裁量的态度不一:有学者认为:“全自动裁量不仅在理论上无从证立,也被域外立法排除”;有学者对裁量型全自动行政系统的引入持乐观态度,但是应通过裁量规则的构建、参与互动程序的引入、充分发挥人的能动性以避免替代系统的不公正风险。各国立法对此也持较为谨慎的立场,例如德国立法者在行政程序法第35a条引入全自动具体行政行为时排除了不确定法律概念和裁量情形。即使如此,技术的飞速发展是不可阻挡的洪流,终有一日,拥有裁量能力的全自动行政系统将会成为现实,届时我们应如何让应对?笔者认为仔细剖析有裁量的全自动行政决策所带来的法律风险,审慎对待其运用问题,不失为目前较为稳妥与合理的应对方式。

二、功能主义视角下的半自动行政决策

半自动行政决策的功能面向占主要地位,半自动决策系统可以在保留人的主观能动性基础上有效提高行政决策的客观性与公正性,提升行政活动的效率,在行政活动中发挥了重要作用,应秉着鼓励创新与发展的理念,无需在现有法律框架内进行单独规制。

半自动行政决策有效保留人的主观能动性,充分尊重了人的自主、尊严与人格。从决策系统所执行的规则角度看,其实质上是对立法机关与行政机关制定的规范与行政裁量基准的执行,因此,系统决策的结果是人的意志的延伸,与人的认知结果相一致;从决策的过程来看,半自动行政决策需要对照系统设定的要素对相对人进行询问,相对人可以进行实时确认与申辩,从而实现相对人与行政机关的有效互动;从行政决定的做出者来看,半自动决策系统的判断既不能充当行政行为合法的证据,也能不作为影响相对人权益的行政决定。系统仅为行政机关提供辅助与参考,帮助行政机关进行合理判断与裁量,最终需要行政机关结合具体的案件情节做出合法合理的决策。因此,从系统执行的规则、决策的过程到行政决策的作出,人的能动性贯穿半自动行政决策全过程,有效维护了人的主体性地位。

在传统人力执法模式中,行政机关执法人员在合法范围内结合具体案件情节进行裁量,主观性较强,极易产生同案不同“判”、相似案件判罚悬殊的问题。2019年1月,国务院办公厅发布《国务院办公厅关于全面推行行政执法公示制度执法全过程记录制度重大执法决定法制审核制度的指导意见》,其中指出“要积极推进人工智能技术在行政执法实践中的运用,研究开发行政执法裁量智能辅助信息系统,有效约束规范行政自由裁量权,确保执法尺度统一”。半自动行政决策系统是对一套固定规则的机械执行,输入相同的数据时系统会输出相同的结果。相较之下,系统以其技术中立优势可以有效提升行政决策的客观性与公正性。

辅助系统已在实践中取得了良好的效果,以南京市公安局的专利“基于警务综合应用平台的行政案件自动量罚方法”为例,该辅助系统以治安管理处罚法等有关治安管理的法律规范为依据细化行为模式与责任模式,并将不同层次的事实情节与处罚结果相对应,执法人员依据案件事实与行为定性,在行政案件自动量罚系统上选择情节要素,行政案件自动量罚系统根据预设的量罚规则自动生成处罚结果。半自动行政决策系统实现了裁量基准的电子化,减少了人为因素等不相关因素的干扰,技术的中立立场有效统一了执法尺度,大大提升了行政决策的客观性与公正性。

半自动行政决策可以有效提升行政效率。行政案件数量庞大与执法资源有限性的冲突是传统人力执法模式的内在矛盾,而人工智能的参与使行政执法从不特定随机抽查式的局部执法转向了全方位全天候的动态执法。无限延长的执法时间与“全景敞视”的执法模式使得违法行为发现概率大幅上升,道路上随处可见的电子警察让违法行为无所遁形。北京“城市大脑·生态环境”生态环境综合治理平台仅在半个月时间内发现了1683个环境污染案件。除此之外,系统执法以其强大的计算能力可以对指令进行快速反应,大大缩短了行政事务处理时间,提升了为人民群众服务的质量。另外,系统执法使行政决策准确度提升,系统具有较高地精确度,可以更加准确地进行信息识别与数据分析活动,辅助行政机关正确作出行政决策。

三、全自动行政决策的法律风险

全自动行政决策在实践中便利了群众参与行政活动,纾解了行政治理的压力,提高了行政管理与服务的效率和水平,但是,其带来的法律风险同样不容小觑,下文将进一步划分裁量型与无裁量型全自动行政决策以具体分析。

半自动行政决策由行政主体做出最终决定,因而由行政主体承担行政责任并无争议。但是,在全自动行政决策中,由系统直接做出最终决定,而无裁量全自动行政决策具有误判风险且机制并不透明为行政主体进行算法卸责提供了便利,使得行政责任承担陷入困境。1.机器决策的误判风险

无裁量全自动决策在赋予了机器决策权时排除了机器自我裁量的空间,出错概率较小。但机器决策并非总是准确无误,人工智能受到算法、数据、算力、AI框架、模型框架以及人工干预等众多因素的影响,其中算法虽占据人工智能核心地位,但数据对人工智能作用的发挥更是起到根本作用,其他因素对人工智能同样具有重要影响。但无论是申请人自主申报的还是政府提供的公共数据,两部分数据都可能存在数据瑕疵,因此基于此得到的结果精确度并不高。

目前自动化行政决策机制普遍采取不公开的做法,导致机器决策机制不透明。在无裁量全自动决策系统中,不公开原因可以归为主动不公开与被动不公开两类。主动不公开是指行政机关出于系统安全、公共利益、等因素的考量而不公开。自动化决策机制的公开意味着评分参数、因素权重、算法模型等核心要素的公开,但是上述信息的公开不仅会给予黑客可乘之机,威胁系统安全,还会给违法相对人利用系统规则漏洞以规避惩罚的机会,因此,行政机关主动对决策机制不予公开。被动不公开是指行政机关自身缺乏专业知识或负有保密义务而被迫不能公开自动化行政决策机制,一方面,行政机关不具备充足的有关自动化、人工智能的专业知识以理解自动化决策机制;另一方面,目前行政机关尚不具备自己独立开发自动化决策系统的专业能力,一般会选择委托第三方企业开发或者直接购买企业技术成果,而技术供应商出于对商业秘密的保护通常拒绝公开系统决策机制。

无裁量全自动行政决策虽由系统独立做出行政决策,但它只是行政机关意志的延伸与执法的方式,因此系统本身不具有责任承担能力。如果机器决策可以实现零失误完美执法的效果,那么责任承担问题就不存在争议,但是从上文分析可知,即使排除裁量空间的决策系统同样会犯错,此时就为行政机关进行算法卸责提供了前提条件。除此之外,不予公开的自动化决策机制不仅“遮蔽了行政公开原则”,也为行政机关卸责打开了方便之门。在决策对错以及带来的后果难以预料的情况下,人在决策时容易产生算法依赖,尤其在系统决策机制不公开的情况下,外界无法探求系统的运行状况,为行政机关推卸责任提供了可乘之机。实践中不乏将人工智能系统当作“替罪羊”而转移问责压力的事例。因此,无裁量全自动决策的责任承担陷入窘境:系统无法承担责任,行政机关凭借机器决策会犯错以及不透明的决策机制而推卸责任。

机器学习技术赋予了全自动行政决策系统不断学习与裁量判断的能力,但是其关联性决策机制会使系统建立虚假关系而做出带有歧视的决策,侵蚀行政公平原则。1.机器学习的歧视风险

机器学习决策机制由于存在理论与应用方面的缺陷而面临歧视风险。随着人工智能的研究发展,产生了机器学习,其主要包含三种学习技术:基于逻辑表示的符号主义;基于神经网络的连接主义;基于统计学习理论的统计学习。人类现今已经进入了大数据时代,数据储量与计算设备都有了极大发展,为具有强大算力的深度学习的发展打下了基础,使得曾在20世纪80年代中期走红的连接主义学习卷土重来。而连接主义下训练的模型是基于相关关系进行决策,因此会产生歧视风险。以对哈士奇与狼的识别例子进行说明:一些哈士奇与狼的图片样本(雪地背景的狼与草地背景的哈士奇居多,有少数雪地背景的哈士奇)被用于训练一个深度神经网络结合逻辑回归的识别模型,该模型能够正确分类绝大多数图片,但却会将雪地背景的哈士奇归入误判为狼。因为模型根据雪地背景(相关关系)而不是真正区分两者的生物学特征(因果关系)建立了雪地背景与狼的虚假关系,最终将哈士奇误判为狼。可以发现,在连接主义技术下,收据样本的收集对关联性决策机制有着至关重要的影响,数据样本收集的局限与偏差,可以直接导致数据驱动的人工智能系统存在偏见。如近来深受欢迎的ChatGTP,有部分研究者已经通过promptinjection攻击,来诱导ChatGPT以及其他大型语言模型输出诱导性、歧视性乃至虚假陈述。因此,机器学习技术虽功能强大,但存在歧视风险。

行政公平原则是行政法律制度的经典原则,要求行政主体平等对待相对人,相同情形相同对待,不同情形不同对待,兼顾形式公平与实质公平。形式公平的核心要义为行政机关在做出行政决策过程中应排除不相关的因素;实质正义是在形式正义基础上进一步考虑个案正义,此处先不予讨论实质正义问题。与前文规则执行性自动化行政决策一致,机器学习下的自动化行政决策因有效排除人为因素的干扰一定程度上有助于行政公平,但后者在减少人为不公平的同时增加了机器歧视的不公平。虽然没有一个算法模型是完美的,但是我们不能因此否定它的价值。正如英国统计学家GeorgeE.P.Box曾说:“所有的模型都存在问题,但其中一些是有用的。”我们在利用人工智能的时候应秉着谨慎与包容并存的态度对待算法所带来的歧视风险。

上文讨论了裁量型全自动行政决策面临违反形式正义的风险,接下来针对个案中的实质正义问题进行讨论。人工智能尚无法完全模拟人类思维,面对错综复杂的具体案件,机器无法像人类一样灵活应对各种新情况,因此,由系统独立做出行政决策的全自动行政决策系统缺乏面对未来具体情况具体分析的裁量能力,极易导致个案正义的缺失。但是,个案正义的缺失在无裁量与裁量型全自动行政决策中的表现样态不同。

在无裁量全自动行政决策中,规则已由人类提前设定完成,系统仅做重复机械执行人类指令的工作。首先,无裁量全自动系统是对人类意志的执行,而人类的认知能力受到物质世界的限制,无法穷尽所有的情形,更无力预知不断变化发展的未来世界。置于无裁量全自动决策系统下,人类无法设计一套涵盖所有裁量因子以及适合所有案件的裁量因子权重计算方法;其次,无论是电子世界的规则(即程序)还是现实生活的规则,都具有滞后性的特征,可以说,规则一经制定完成,相对于发展的未来已经滞后了,我们可以努力的是及时修改与发展以回应实践中的新情况。2016年,美国阿肯色州国土安全部用算法决策取代了护士评估,用RUGs算法来计算每周分配给个人的护理小时数。但是该自动化决策否定了个性化的过程,导致公共资源分配不当,同时也让个人付出了巨大的成本。如果一个人是足部截肢者,RUGs算法表明这个人没有任何“脚”问题,即使缺乏肢体意味着他们需要更多的帮助,它忽略了行走能力、跌倒频率等有关个人的关键事实。因此,面对复杂多变的行政案件,系统无法灵活应对以实现个案正义。

在裁量型全自动行政决策中,人工智能具有自我学习的能力,通过不断学习行政机关喂给它新数据以更新与优化自身,但是其经验与知识来源于以往的数据中,数据的滞后性决定了系统学习的滞后性。因此,即使系统可以进行学习,但只能以过去的经验去进行裁量,面对新情况时同样可能无力做出符合实质正义的最优解。综上,无论是无裁量全自动决策中规则的僵化,还是裁量型全自动决策的滞后,都可能面临个案正义缺失的风险。

四、全自动化行政决策的法律控制

针对全自动化行政决策面临责任承担困境、侵蚀政公平原则以及个案正义缺失等法律风险,可以采取整体控制与各个击破并举的策略予以应对:整体层面上通过限定全自动化行政决策的适用范围控制风险范围,具体层面上通过确立行政主体自动化行政决策责任制、引入算法影响评估制度以及完善全自动化行政决策人工介入机制等措施进行法律控制以化解风险。

全自动行政决策直接影响相对人权益,且存在误判、歧视等风险,因此有必要限定全自动行政决策的适用范围,将风险圈禁在可控范围内。1.域外关于自动化决策适用范围的限制

域外许多国家对自动化决策的适用范围进行了不同程度的限制。较为典型的例子是2019年4月加拿大发布的针对政府公共部门算法的自动化决策指令,其依据对个人或社区的权利、个人或社区的健康或福祉个人、个人或社区的经济利益以及生态系统的可持续性的影响程度将自动化决策分为四个等级:一等级为可修复且短暂的影响;二等级为可修复且短期的影响;三等级为难于修复且持续性的影响;四等级为不可修复且永久的影响。并在此基础上进一步规定了仅有第一、第二等级的自动化决策可以在没有人工干涉的情形下做出,而第三、第四等级的自动化决策必须有人工介入并且必须最终决定必须由人类做出。

除加拿大外,欧盟在通用数据保护条例中对数据主体做出具有法律影响或类似严重影响的完全自动化决策进行了一般性禁止规定;德国在联邦行政程序法中通过法律授权条件、羁束行为领域限定以及程序性权利保障等规定严格限制了全自动行政决策的适用范围。

不可否认,算法行政的兴起为传统人力行政方式注入了新的活力与方向,极大地提升了行政管理与服务的质量。但是,全自动行政的扩张与滥用极易引起行政机关裁量怠惰与算法卸责,“消解人的自主性”,侵蚀政府的公信力。因此,我们不能绝对禁止或者阻碍全自动行政决策的发展,但是有必要在法律框架内合理限定全自动行政决策的适用范围,使其在法律轨道上合规行使。

首先要建立人工智能在行政中辅助性地位的认知。全自动行政决策虽然由系统独立做出行政决策,但是其地位仍应是辅助人类行政的一种方式,不能以替代功能去认知人工智能的作用,谨防陷入“技术利维坦”与“算法霸权”误区,避免技术成为权力滥用的工具。具体来讲,让人工智能服务于合适的领域,力求最大限度地发挥人工智能为人类服务的功能。

现有技术水平下,系统决策仍会出现误判、歧视等风险,因此,我们不能任由自动化行政决策任性发展,否则可能造成对群众利益的侵害。我国个人信息保护法第24条第3款规定了个人有权拒绝个人信息处理者仅通过自动化决策的方式作出决定对个人权益有重大影响的决定,试图用反对权间接限制全自动决策适用于对个人权益有重大影响的情形,但是由于规定过于宏观且并没规定反对权行使的条件、方式等内容,导致反对权效果不佳。对此,可以划分行政决策风险等级,明确全自动化行政决策只能适用于影响程度较低的场景。而出于鼓励创新与发展的考虑,可以设置同意、采取适当措施保障数据主体权利等例外条件以豁免一般禁止性义务,以求自动化行政决策规制与人工智能发展的平衡。

全自动行政决策下中,行政主体进行算法卸责导致行政责任承担陷入困境。确立行政主体自动化行政决策责任制,是有效化解责任承担困境的良方,也是对行政主体理论与行政法律关系基本原理的遵循。

人工智能的参与使得传统的相对人—行政主体行政法律关系转变为相对人—行政主体—技术主体之间的三方行政法律关系。但是,三方行政法律关系实质上可以剥离为两个独立的行政法律关系,相对人与行政主体之间基于具体行政行为的传统行政法律关系并未发生改变,只是增加了行政主体与技术主体之间基于行政协议的行政法律关系,而技术主体并不会与相对人产生法律关系(如下图所示)。

郭雨婷|自动化行政决策的分类法律控制研究

因而技术主体的加入并不会使得相对人—行政主体行政法律关系中的行政责任主体产生移位。即使是由于技术主体在开发与设计过程中的失误造成了系统误判,也是由行政主体依据行政协议对技术主体进行追责。因此,基于行政法律关系基本原理,行政主体应承担行政责任,而与技术主体是否有过错无关。

在自动化行政框架下,人工智能目前往往作为政府的治理手段或者人类的代理者而出现。无裁量全自动行政决策作为规则的执行者,代表着行政主体的意志,理应由行政主体承担行政责任。容易受到质疑的是机器学习模式下的有裁量全自动行政决策,系统经过学习得出自己认为的最优解,机器人是否具有独立人格的问题需要未来通过法律加以明定。但是,应当认识到,行政主体作为一种法律拟制,解决的就是行政法律关系中公权力方的主体问题。尽管由自动化系统做出行政决策,但是仍旧产生的是行政法律关系,行政主体仍旧是行政责任不变的基点。

自动化行政决策系统机制不透明且具有歧视风险,对行政法治提出了新挑战。为提升自动化决策系统的安全性、公平性、透明性,实现可信人工智能,算法影响评估制度为美国、加拿大、欧盟等国家所采纳与实践。加拿大自动化决策指令中规定:“算法影响评估(AlgorithmicImpactAssessment)是一个可以帮助行政机关更好地了解和降低与自动决策系统相关的风险,并提供与所设计的应用程序类型最匹配的适当的治理、监督和审计要求的框架”。我国个人信息保护法第55条规定了个人信息处理者在利用个人信息进行自动化决策时,具有进行事前个人信息保护影响评估并对处理情况进行记录的义务。但影响评估义务强调对个人信息的保护,对自动化决策系统的监督与评估意味不足,且规定原则化,实践中可操作性较弱。构建针对自动化决策系统的影响评估机制,对于构建安全、公平、可信自动化行政决策意义重大。

2019年,欧盟委员会人工智能高级专家组(AIHLEG)发布了《可信人工智能评估清单》,具体内容包括鲁棒性与安全性;隐私与数据管理;透明度;无歧视与公平;社会与环境福祉;问责制六原则。美国2022年《算法责任法案》中提出自动化系统应考虑性能(包括准确性、鲁棒性和可靠性);公平;透明度;可竞争性;可修复性;隐私与安全;人身和公共安全;效率和及时性;成本等因素。英国人工智能办公室于2020年发布《公共部门人工智能使用指南》,其中要求公共部门使用人工智能时应当建立一套可操作的原则:公平;可问责;可持续(包括精确度、安全性、可靠性、鲁棒性);透明度。可以发现,各国对于人工智能的要求主要集中于公平、安全、问责、隐私与透明度等方面。考虑到自动化行政决策系统突出的安全价值与公共利益取向,盲目追求较大程度的透明度可能会反噬自动化行政安全并阻碍自动化行政发展,因此,我国算法影响评估清单可以包括公平、安全、可问责、隐私四要素。

我国个人信息保护法中规定的影响评估呈现事前静态特征。自动化决策系统在运行中可能会出现被攻击、硬件损坏等情况,且应用范围与功能可能会受到变更,尤其裁量型自动化行政决策系统一直处于不断优化状态,事前的影响评估不能有效回应处于变化中的自动化行政决策。而加拿大自动化决策指令与欧盟W29特别工作小组颁布的《关于数据保护影响评估和确定处理是否“可能导致高风险”的指南》确立了事前、事中动态性影响评估,全过程监测自动化决策系统,是实现可持续可信自动化行政决策行之有效的方案。

对于算法影响评估报告公布问题,加拿大自动化决策指令与美国算法责任法案形成了鲜明对比,前者规定应当公布,而后者采取自愿原则。问题背后也体现了两国规制理念的不同,加拿大重在外部规制公共部门自动化决策,而美国更加强调经济自由发展的价值取向,注重自动化决策主体自我规制。我国仅要求信息处理者对影响评估进行记录,尚未对影响评估报告做出规定。我国人工智能在发展初期处于野蛮生长状态,导致目前自动化行政决策面临信任危机,因此亟须对自动化行政决策进行有力规制。另外,相较于算法备案与算法解释,算法影响评估报告所纰漏的信息较少,同时又可以告知群众被评估系统是否安全与公平,有效平衡自动化行政决策的安全需要与透明度。因此,公布算法影响评估报告是对我国自动化行政决策实践的有效回应,也是符合我国自动化行政决策发展需要的合理选择。

人工智能不是可以解决所有问题的通用解决方案。在面对需要想象力的事物时、没有高质量数据支撑时、数据中不存在该信息而进行推断时,人工智能可能会变成人工智障。行政案件纷繁复杂,无法预测,在没有人工干预的情形下,自动化行政决策无法单独胜任行政决策,人机协同才是正确方向。因此,完善全自动行政决策人工介入机制,构建人机协同式自动化行政决策,是顺应人工智能发展趋势的正确抉择。

人工介入机制的核心与起点在于相对人对全自动行政决策的拒绝权,事前阶段的拒绝权实质上为相对人的选择权,选择适用人工决策的权利;事中阶段的拒绝权可以产生暂停现阶段的自动化行政决策,转而进入人工干预的阶段;事后阶段的拒绝权实质上为相对人的救济权,在自动化行政决策损害自身合法权益时要求人工干预的权利。因此,相对人行使拒绝权是行政主体介入全自动行政决策的重要途径。诚如学者所言:“数字社会的个人拒绝权在于回应数字权力,对个人进行赋权,使得个人有能力对特定不合理、不合法的数字化应用或其结果进行抵制,以捍卫人的尊严”。全自动行政决策是直接影响相对人的权益的决策,但该决策不总是正确无误的,也不能实现个案正义,因此,基于对人格尊严的捍卫,应当赋予相对人对系统决策说不的权利以及申请人工介入的权利。

个人信息保护法规定了自动化决策拒绝权的行使要件:(1)仅通过自动化决策的方式作出决定;(2)对个人权益有重大影响的决定的要求。“重大影响”具有不确定性,且并没规定行政机关的告知义务,对行政机关行使拒绝权形成了障碍。

“重大影响”的不确定性可能会引发相对人滥用拒绝权或者闲置拒绝权的极端情形,对“重大影响”进行界定,有利于激发相对人合理行使拒绝权捍卫自身权益的积极性。对于“重大影响”的内涵,欧盟通用数据保护条例也未给出明确答案,但W29条工作组将“具有法律影响或类似严重影响”解释为“重大影响,并进一步阐释”重大影响为“对数据主体产生长期或永久影响,或在最极端的情况下导致对个人的排斥或歧视”。W29条工作组的规定为我国界定“重大影响”提供了思路,结合算法影响评估后的风险等级场景化认定“重大影响”,切忌一刀切的硬性标准。

行政机关的告知义务是相对人行使拒绝权的必要前提。个人信息保护法第11条明确地规定了个人信息处理者在处理个人信息前应当履行告知义务,且告知事项应当包括处理方式个人信息的处理目的、处理方式、个人行使本法规定权利的方式和程序等内容,但是实践中行政机关往往利用“妨碍国家机关履行法定职责”逃脱自动化行政决策的告知义务。告知义务是对相对人知情权的基本保障,而知情权在个人信息保护法中是一项基础性权利,也是行使拒绝权、变更权、删除权等数据权力的前置条件,因此,应当明确行政机关告知义务,在事前告知相对人适用自动化行政决策、相对人对于全自动行政决策的拒绝权、相对人对个人信息的变更、删除权以及救济途径等事项,打开相对人参与自动化决策、申请人工介入的通道。

结语

自动化行政决策相较于传统执法的优势是有目共睹的,极大地提升了行政管理与服务的质量的事实也是毋庸置疑的,但是它带来的法律风险也是客观存在、不容忽视的。不同的自动化行政决策类型功能与风险占据的地位不同,对其采取的态度也应不同:半自动行政决策中决策系统为人类所掌控并利用且人类为最终决策的决定者,不直接影响相对人权益,因而无需过分担忧;而全自动行政决策面临责任承担困境、侵蚀行政公平原则与个案正义缺失的重大法律风险,有力地行有力规制。而对于全自动行政决策的规制不应采取一刀切的方式,应进一步进行类型化分析,最终采取整体控制与各个击破并举的策略化解风险。具体来讲:整体层面上通过限定全自动化行政决策的适用范围控制风险范围;具体层面上通过确立行政主体自动化行政决策责任制化解责任承担困境,引入算法影响评估制度构建可信自动化行政决策,打通人工介入机制保障相对人救济权利。

郭雨婷|自动化行政决策的分类法律控制研究

胡天昊|小额诉讼程序与非诉调解前置程序的诉调对接

顾忠华汪小芳|关系论视角下检察机关职务犯罪侦查一体化机制研究

陈佳欣|大数据时代下隐私的群体形态及法律回应

潘迪|论已公开个人金融信息的处理规则

薛佳伟|个人信息保护与平台数据流通的平衡构建——信息与数据区分视角下“三重授权原则”再解构

杨洋|数据确权之证成及权利关系进路分析

上海市法学会官网

http://www.sls.org.cn

今日热搜