作者:陈锦波(1989-),男,福建福州人,法学博士,中国政法大学诉讼法学研究院副教授、人民法院司法改革研究基地(中国政法大学)研究员,硕士生导师,主要研究方向:行政法与行政诉讼法、网络法。来源:《法学论坛》2023年第3期“学术视点”栏目。
本文导读:
政府治理的现代化需要信息化与法治化的深度融合,互联网、大数据、人工智能等技术手段可以被用于优化革新政府治理的流程和方式,从而进一步提升政府依法行政之水准。国家因此将全面建设数字法治政府提升为了一项战略性的举措。然而,当今的数字法治政府建设已不仅仅是将传统政务简单的电子化或在线化,数字技术对传统行政事项已经有了更深的介入——以机器学习算法为核心的人工智能技术在辅助行政机关作出行政决定甚至直接作出行政决定。但是,由于机器学习算法可以自我学习、具有黑箱特性且可能缩短甚至直接绕过人类来思考,因此它将给行政法治统合下的课责与监督机制带来巨大挑战。因此,我们不禁会发出这样的疑问:自动化行政合法吗?无论是关注,或是推进,抑或是阻止自动化行政实践,在采取相关行动前,我们都需要首先对上述问题作出回答。
目 次
一、问题的提出与研究的进路
二、自动化行政践行依法行政原则的可能路径
三、自动化行政对正当行政程序原则的挑战及其因应
四、自动化行政对于实现“行政最佳性”的助益
结语
摘要:自动化行政是行政机关借助自动化设备作出行政行为的情形,其本质是以机器学习算法为核心的人工智能技术对行政活动的参与。由于机器学习算法可以自我学习、具有黑箱特性且可能缩短甚至直接绕过人类来思考,所以它在直接或辅助行政机关作出行政决定时会对行政法治统合下的课责和监督机制形成一定挑战。即便如此,自动化行政本身的合法性仍然可以被有效证成。一方面,机器学习算法对行政决定作出过程的参与,不会在根本上冲击最能彰显行政法治的“依法行政原则”和“正当行政程序原则”,这使得自动化行政具备了形式上的合法性。另一方面,机器学习算法还有助于实现“最佳行政”之目标,从而增进国家的良善治理,这可以在更深层次证立自动化行政的实质合法性。
关键词:自动化行政;机器学习算法;依法行政;正当行政程序;最佳行政;形式合法性;实质合法性
一、问题的提出与研究的进路
自动化行政是行政机关借助自动化设备作出行政行为、行政程序中的特定环节或全部环节由人工智能代为处理,从而实现行政活动部分或完全无人化操作的情形。自动化行政现象在现实中已经多有发生。譬如,人力资源保障部门运用机器系统进行自动化行政审批,公安部门通过公共场所的人脸识别系统来辅助维持社会秩序,交警部门借助声纳定位系统来判定行驶车辆是否构成交通违法等。
当前的自动化行政,其有效运作在很大程度上依赖于设备自身所内嵌的机器学习算法。然而,由于机器学习算法可以自我学习、具有黑箱特性并且可能缩短甚至直接绕过人类来思考,因此机器学习算法在进行行政决定时可能会招致系列质疑。首先,在进行行政决定时,机器是否已经获得了立法机关的有效授权?其次,即使机器此时确实因获得法律授权而参与行政决定的作出,那么立法机关将公权授予非真人之机器的做法是否妥当?最后,机器学习算法的高速自动化运行及其黑箱特性,又是否会导致相对人原本所享有的程序性权利被克减?其实,公众的上述质疑归根结底是他们担心机器学习算法在公共决策领域的运用,会导致机器学习所造就的“算法社会”猝然演变为“黑箱社会”,从而使得行政法治统合下的课责和监督机制落空。质言之,公众认为自动化行政面临着合法性困境。
那么,学界对这一问题如何认识?从有关自动化行政的既有研究成果来看,学者们或者是概括性地讨论自动化行政所面临的法律风险及其应对举措,或者是对自动化行政的具体应用领域加以探究。然而,学界当前对“自动化行政是否合法”这一本源问题的理论关照却较为缺乏。只有个别学者从宪法视角审视了自动化行政的权力正当性可能,绝大多数学者似乎理所当然的将该问题当成了讨论的前提。而且,即便是在“自动化行政是否合法”的有限讨论中,该学者也更多是将研究集中于对自动化行政在实体权力来源正当性的阐述上,而对自动化行政在程序方面所可能遭受的正当性冲击较少涉及,更没有对本文以下将论及的“最佳行政”视角加以探讨。这使得该讨论缺乏一个整全性的视域。有鉴于此,本文将尝试对“自动化行政的合法性”这一基础课题展开认真且系统地思考。对于这一问题,笔者的基本立场是:自动化行政不会从根本上冲击行政法治。本文的目标即在于证成这一立场。笔者首先将会从最能彰显行政法治的“依法行政原则”和“正当行政程序原则”入手,来证成自动化行政在形式层面的合法性。然后,笔者将会从行政自动化有助于“最佳行政”目标之实现,来进一步证立自动化行政在实质层面的合法性。
二、自动化行政践行依法行政原则的可能路径
依法行政原则是我国行政法上的一项基本原则。它的最基本含义,是要求行政机关的行政行为要严格依照法律来行使、受法的约束。依法行政原则包括法律创制、法律优先和法律保留等三项子原则。其中的“法律创制”,意指法律对行政权的产生和运作具有决定性的拘束力,行政机关不得逾越法律而行为。可见,获得法律的正式授权,是行政机关行使公权的最基本前提。那么,行政机关在运用机器学习算法进行行政决定时,是否遵循了依法行政原则的这一要求?对此,如果要作出肯定回答,则大致存在两条解释路径:其一,机器学习算法在参与行政决定的作出时,获得了依法享有公权力的行政机关的合法转授权。也就是说,法律将相关权力授予了行政机关,并且准许行政机关将该权力转授给机器。其二,法律对机器直接予以了授权。易言之,法律此时直接将相关行政权力授予机器,允许机器依据该职权进行行政决定。
(一)行政机关转授公权给机器的禁止
根据依法行政原则,行政机关可以在法律明确授予的权力类型和权力范围内从事相关的公共行政活动。只是,这些公共行政活动中是否包括行政机关将从立法机关处获得的授权再次转授给机器,以使机器行使公权的行为合法化的情形?
就我国的宪法权力架构而言,行政机关由立法机关产生,行政机关的行政职权来源于立法机关的授予。因此,行政机关要对立法机关负责,并受立法机关监督。立法机关将行政权授予行政机关的目的,是期待行政机关能够依凭其专业上的优势,顺利完成行政任务,以保障社会的基本秩序并增进人民的福祉。而且,立法机关对行政机关的授权一般是以“划定一般政策、适用该政策的公共机构和该授权的界限”的方式进行。同时,从法院的视角来看,立法机关对行政机关的这种授权应当直接、明确且符合公共利益的需要。那么,允许行政机关将行政职权转授给机器的做法是否会偏离宪法配置各项国家权力的上述初衷?
实际上,如果行政机关可以不断转授权力给第三方,作为原初授权主体的立法机关将无法对行政职权行使者进行充分的监督。进而,公权被俘获的可能性就将增大,公权行使者的公益立场和民主正当性基础也会因此而被动摇。此外,对于隶属代议民主式国家体制的我国来说,行政机关作为立法机关的意志执行机关,也只能严格依照法律的具体规定来行使行政职权,而不得将从立法机关处获得的职权再行转让。而且,立法机关对行政机关的授权,实际上还暗含了民众对行政机关能够代表公益的基本信任。如果行政机关此时将享有的公共权力再行随意转让,也将违背公众的合理预期。
总之,行政机关一般不得将自身依法获得的公共权力再行转让给机器。这意味着,机器因为获得行政机关的转授权而正当化自身之自动决策行为的可能性已经在事实上被消解。
(二)法律直接授权机器作出行政决定的可能性
既然获得立法机关授权的行政机关不得再将权力转授给机器,那么说明前述第一种解释路径无法成立。那么,我们能否证立第二条解释进路?也即,立法机关是否以及能否对机器予以直接的授权?
归根结底,探讨立法机关是否直接授权给机器,这首先是组织法应当解决的问题。质言之,此处要探究的是:机器是否成为了合法的公权行使主体?从我国《宪法》《全国人民代表大会组织法》《国务院组织法》以及《地方各级人民代表大会及地方各级人民政府组织法》的条文规定来看,各法规范并未给机器可以行使行政职权提供相应的组织法依据。也即,立法机关并未对机器进行明确而具体的授权。易言之,现行有效的法规范,其指向的对象实际上只是具有生命体征之真人,而并没有把机器作为公权享有主体而纳入考量范畴。此时我们如果强行主张现有法规范已经对机器予以了直接授权,并把机器作为公权的合法行使主体,显然过度偏离立法原意。简言之,从实然角度看,机器当前并未获得法律的直接授权。
只是,在新的时代形势下,立法机关应否以及能否直接赋权机器以正当化机器作出行政决定的行为?大数据、人工智能都是信息时代的新兴产物,机器学习更是被认为是一种新型人工智能,因此以往制定的法规范没有将机器学习算法这一新技术纳入考量当属情有可原。但是,我们需要作进一步地反思:虽然从立法原意看,当初的立法者没有明确规定机器人可以成为合法的公权行使主体,但在新形势下是否就不可能对现行立法条文的内涵作适度的扩张?这实际上是有讨论余地的。笔者认为,在机器学习技术发展态势日益强劲的当下,法规范体系应当给予机器学习算法以更大的作为空间,甚至直接赋予其完全独立的作出行政决定的权力。
首先,机器身为作出行政决定的法定主体并不存在理论层面的理解障碍。在法学理论中,“法人”作为一种法律上拟制的“人”已经被人们所广泛接受。“机器人”和“法人”同样不是具有生命体征的真人,既然“法人”可以作为法定的行为主体,那么我们就没有理由将“机器人”特别排除在外。也许有人会指出,“法人仍然是由‘真人’组合而成,所以立法机关对‘法人’的授权仍然属于对‘人’的授权。”这种认识曲解了法人制度设立的目的。实际上,在立法上承认法人具有主体性,并不是因为法人真的成为了具有生命体征和自由意志的人。相反,法人本身不可能具有精神意志,法人的主体性仅仅来自于法律的拟制。而对法人的这种法律拟制在本质上不取决于其组成部分是否是“真人”,而在于我们是否有这种现实需要。同理,立法机关基于时代情势的需要也可以对机器的主体性进行这种法律上的拟制,以赋予机器进行行政决定的权力。质言之,法律对机器进行行政决定的直接赋权也不存在理论层面的解释障碍。当然,需要说明的是,对于机器的定性,会影响到后续相应法律责任的承担。因为在大陆法系国家的行政赔偿制度中,公务员的违法侵权行为与公共设施设置和管理所导致的侵害,其侵权构成要件和救济程序并不完全相同。具体而言,如果我们将机器系统视为类似于真人的“公务员”,那么相应侵权行为的成立将以机器的违法和有责为前提;但如果我们仅仅将机器系统视为一种“公共设施”,那么判定机器是否构成侵权则是以行政相对人的权益是否实际受损为要件。其实,机器系统本身的特点,决定了无论将机器严格地视为一类人或一种公共设施,都会面临适用上的诸多问题。因此,学界当前对于如何定性机器仍然存有争议。笔者认为,在现有条件下,将机器系统单独予以类型化,并确立相应的责任承担机制是较为稳妥的做法。
其次,学界目前反对将机器作为法定授权主体的重要理由还在于:公众对法律授权由真人组成的私人部门进行行政决定的做法尚且有顾虑,更不用说让他们接受由法律直接赋权机器进行行政决定的方案。然而,需要指出的是,机器相较于私人部门来说实际上更为可靠。这是因为私人对行政决定的介入常常掺杂有私人利益的考量以及个人的偏见,它将导致私人部门进行行政决定时可能会因过度维护私利而损及公益的实现。相反,由于机器学习算法此时是由公共部门来负责设计和植入,所以机器学习算法参与行政决定的作出就可以避免诸如私人部门进行行政决定时所面临的问题,进而保证所作行政决定的客观公正性。当然,机器进行行政决定,其结果的客观公正性建立在对“公共部门能够公正无偏私处理公共事务”的推定之基础上。观察政治运作现实可知,在大多数情况下,我们对公共部门的这种推定能够成立。而且,即使公共部门在少数情形中对公益初衷有所偏离,民主国和法治国下的诸多监督机制也能对公共部门的该偏离行为进行有效矫正。这也是人民选择出让部分权力而交由公共部门来统一行使的最原初目的。质言之,只要公共部门秉持公益之目的而对机器设计和植入合理的算法和程序,机器基于此而作出的行政决定就能保证其客观公正性。而且,实践已经证明,由机器来进行行政决定还能极大提升行政机关的工作效能。所以,我们没有理由不顺应信息革命的时代趋势而去选择机器学习算法这种更为高效便捷的行政决定辅助手段。
再次,就立法实务而言,全国人民代表大会在2019年、2021年和2022年持续发布的《第十三届全国人民代表大会第二次会议关于2018年国民经济和社会发展计划执行情况与2019年国民经济和社会发展计划的决议》、《第十三届全国人民代表大会第四次会议关于2020年国民经济和社会发展计划执行情况与2021年国民经济和社会发展计划的决议》和《第十三届全国人民代表大会第五次会议关于2021年国民经济和社会发展计划执行情况与2022年国民经济和社会发展计划的决议》都对“数字政府建设”作出了明确部署。此外,中共中央、国务院于2021年印发的《法治政府建设实施纲要(2021-2025)》也明确指出要“全面建设数字法治政府”。可见,最高国家权力机关已经具有推动和加强数字政府建设(包括机器参与行政决定)的明确立法意图,党中央和国务院也对数字政府建设有了明确的战略部署。在此背景下,我们对组织法以及各单行法律法规中提及的各种“行政主体”之文义作目的论扩张,将“机器”囊括进各“行政主体”的概念范畴之中,这显然既贴合立法目的,又符合时代需求。
最后,虽然我们承认法律授权机器进行行政决定的可能性,但法律对机器的授权模式并非不加择取。在授权模式的选择上,法律对机器的直接授权比行政机关对机器的转授权更为可行。这是因为,一方面,直接授权模式相较于转授权模式具有更夯实的民主正当性和公益性基础。正如前述,要想作出合法的行政决定,机器必须如传统行政机关一样具备必要的民主正当性和公益性底蕴。这种民主性和公益性的获得,在形式上需要有法律的授权。而在转授权和直接授权这两种法律授权模式中,直接授权模式显然可以给予机器学习算法在做行政决定时以更强的民主和公益底色。另一方面,机器学习算法的特性,决定了直接授权模式更有利于国家通过法律加强对机器学习算法的监督。公众对机器决策并不完全信任,他们希望国家能够对机器学习算法施加必要的管控。而在法律对机器的两种授权模式中,转授权模式只能是由行政机关在机器进行行政决定时对机器学习算法进行事中监管,但由于机器学习算法具有自我学习特性、黑箱属性以及高速自动运行的特征,这种事中监管将很难达至良好的效果,甚至这种事中监管都可能会让行政机关找寻不到合适的介入时机。相反,借助直接授权模式,由法律在机器参与行政决定的作出前就对机器植入相应的目标和要求显然更为可行。
总之,虽然立法机关在当初制定相关法规范时还没有赋权机器的意图,但为顺应信息革命的时代趋势,在立法机关尚未着手修改相关法律前,可以先结合最高国家权力机关的《决议》精神和党中央、国务院的战略部署,对原有立法条文的内涵作目的论扩张,从而给予机器学习算法以适当的法律授权,使得机器能够在一定空间内作出适切的行政决定。而当条件成熟时,立法机关则需要在各组织法和各单行法律法规中对机器的法律主体地位予以明确认可。此外,在对机器权力授予模式的选择上,相较于转授权模式而言,立法机关对机器的直接授权更符合机器学习算法的本质特性。
(三)机器作出行政决定的限度
立法机关可以且应当对机器作出行政决定的行为予以法律授权,以推动政府治理体系和治理能力的现代化。但是,这并不意味着该法律授权不受任何约束。立法机关应当对授权机器进行行政决定的范围和方式作出必要限定。当然,这种范围和方式的具体限定进路应根据不同行政事项的不同特点和不同重要度来作进一步的区分。
首先,对于羁束行政事项,机器学习算法可以依照法律的授权进行自主化的行政决定。这是因为羁束行政事项一般不涉及行政主体在行政决定中的自由裁量,只要相关事实被正常地涵射到法律所设定的构成要件,那么得出的结果将是唯一的。也就是说,只要人们按照法律的确切规定对机器进行行政决定的相关要件做事先设定,那么不管是由机器还是由真人来做该行政决定,其结果都将是相同的。对于此类事项,行政官员显然没有必要亲力亲为。这在比较法上也有例可循。例如,根据《德国联邦行政程序法》第35a条的规定,羁束行政事项即属于可以适用完全自动化的行政事项。当然,由于技术本身可能存在瑕疵,这将导致机器学习算法偏离预先设定的运行轨道。因此,在利害相关方提出,或者行政机关工作人员发现机器学习算法的决策结果具有明显错误时,行政机关应当负责矫正该错误结果。
其次,对于裁量行政事项,行政机关应根据该事项的不同重要度而予以区别对待。总体而言,对于一般行政事项的裁量,法律可以直接授权机器来行使;但对于重要的行政裁量事项,法律还是要将该事项的最终判断权保留给行政机关工作人员。至于何为重要的行政裁量事项,“特别权力关系”领域的“重要性理论”也许可以给我们提供一个参照思路。“特别权力关系”中的“重要性理论”,它根据公权所涉公民权利的重要性程度来判断该公权是否应当接受司法审查。在“重要性理论”看来,凡是涉及公民基本权利的事项均为重要性事项。这种界定标准的优点在于,它可以最大限度地保护公民所享有的基本权利。但是,我们同时也会发现,按照这种标准筛选出来的重要事项之范围将极为广泛。运用有限的司法资源来保护如此宽泛的社会事项,显然并非国家的最优制度选择。而且,在行政领域,保护公民权利也从来不是现代国家的唯一任务。实际上,行政机关在追求行政合法和公民权利保护的同时,还极为重视自身行政效能的提升。质言之,在将机器学习算法引入行政决定领域时,我们虽仍应强调该活动的合法律性,但为了同时彰显机器学习技术在提升行政机关工作效能方面的积极作用,对机器学习算法的规制显然不能过于严苛,否则技术之功效将消弭殆尽。因此,并非公民所有的基本权利都不能由机器来处置。我们在机器作出行政决定领域引入“重要性理论”时,应当对其中的重要事项之范围作进一步的限缩。那么,公民的哪些基本权利可以被剔除出“重要事项”的范畴?结合学理和我国现行宪法的规定,我们大致可将公民的基本权利归纳为以下六类:(1)平等权;(2)政治权利;(3)精神自由;(4)人身自由和人格尊严;(5)社会经济权利;(6)获得权利救济的权利。宪法学界在讨论对上述基本权利的限制时,一般对限制公民的社会经济权利之做法较为包容,而对限制公民其他类型的基本权利更为谨慎。这主要是因为,相较于其他基本权利来说,经济性基本权利的可量化度以及受损后的可补偿性更高。因此,对经济性基本权利进行更多的限制更为可行且更容易为公众所接受。基于同样的考虑,在涉及机器学习算法对公民社会经济权利的裁量决策时,法律可以赋予机器学习算法更大的作为空间。也即,法律可以授权机器对公民的社会经济权利事项进行裁量决策。
最后,对于行政裁量领域中的重要性事项,法律不应当将之直接委诸于机器学习算法。也即,当需要对经济性基本权利以外的公民基本权作行政裁量时,法律仍然应当将该项职权保留给行政机关的工作人员来行使。当然,行政机关此时仍然可以借助机器学习算法来对相关行政决定的结果进行预测,以辅助和验证人为决定之结果的科学性与合理性。易言之,在行政机关对行政裁量的重要性事项进行决策时,机器学习算法并不最终决定相关行政决定,机器学习算法此时的功用仅仅在于增强人类的判断力。
总之,自动化行政并不会对依法行政原则构成根本性的冲击,但这建立在法律对机器予以必要授权的基础上。同时,在转授权和直接授权这两种法律授权模式中,直接授权模式更加符合机器学习算法的特性。当然,即便法律直接授权机器作出行政决定,这种授权在范围和方式上也仍然有其限度。具体来说,对于羁束行政事项和一般裁量行政事项,法律可以直接授权机器进行决策;但是,对于涉及公民社会经济权利以外的其他重要裁量行政事项,法律却不能将之委诸机器来处理,而应将处置该类事项之公权保留给行政官员。
三、自动化行政对正当行政程序原则的挑战及其因应
对正当行政程序原则的遵循,是行政机关进行行政决定时所应满足的最低程序性要求。虽然学界在具体界定正当行政程序原则的内涵上还存有分歧,但学者们大体同意正当行政程序原则至少包括对行政机关的如下要求:其一,行政机关作出行政决定时应当说明理由;其二,行政决定的作出程序应当公开透明;其三,行政机关应当保证行政相对人有机会作合理的陈述和申辩,且相对人的该陈述申辩意见能够被行政机关公正地听取。那么,自动化行政是否会导致行政机关在践行正当行政程序原则的上述要求时有所怠惰?
(一)自动化行政可能克减的程序利益
机器学习算法的自我学习、黑箱运作和高速自动化等特性,决定了行政机关在运用机器学习算法进行行政决定时将会对传统行政法中的正当行政程序原则构成一定挑战。
首先,自动化行政不利于行政机关说明理由制度的贯彻实行。机器学习算法的运转呈现出高速且自动化的特征,它会缩短人类思考的过程甚至直接绕过人类来思考。此外,机器学习算法的自我学习和黑箱特性还会使得机器作出相关行政决定的理由难以解释且难以预测。这意味着行政机关运用机器学习算法来作行政决定时,在说理上会不够充分。这些都将削弱该行政决定的可接受性。当行政相对人无法理解相关行政决定而行政决定作出机关本身也解释不清自身为何作出该项行政决定时,行政机关和行政相对人之间的沟通成本就会增加,这也极易引发甚至升级公权行使者(行政机关)与公权作用对象(行政相对人)之间的矛盾。
其次,行政的自动化将降低行政决定作出程序的公开透明度。机器学习算法具有自我学习和黑箱特性,这导致人们(很多时候包括行政机关在内)很难理解该行政决定是经由什么样的程序而作出。一般而言,程序包括方式、顺序、步骤和时限等要素。在机器学习算法参与行政决定的过程中,一般不会出现时限延迟的情况;但此时相关行政决定的作出方式、作出顺序和作出步骤却可能会被极大简化,这直接影响到行政相对人程序参与权的实现。易言之,机器学习算法的特性决定了行政相对人将很难对行政决定的方式进行选择,也很难参与到行政决定的相关步骤中去。
最后,上述的行政相对人对行政程序的缺乏参与,也将影响到行政相对人陈述和申辩等相关程序性权利的行使。也即,行政相对人在面对可能不利于自身的行政决定时,将没有机会就自己行为的合法性与合理性向行政机关作必要的辩解和理由陈述。而对行政机关来说,其在没有充分听取行政决定利害相关方的意见前,就仓促作出行政决定,这也不免显得过于武断。“兼听则明,偏听则暗”,这一古老谚语所内嵌的公正裁判意旨也将无法获得实现。
可见,行政的自动化确实会在一定程度上削弱行政机关所作行政行为的合法性韵味,也会减损行政相对人一定的程序性利益。对于自动化行政所提出的上述挑战,我们应该如何应对?
(二)机器学习时代行政相对人程序利益损失的法律填补
自动化行政对机器学习算法的运用确实面临着合法性危机。但是,作为顺势而生的新兴科技,机器学习算法显然又不能被轻易地否弃。因此,法学人要做的,是在不抛弃机器学习算法的前提下,促使正当行政程序原则在行政的自动化这一过程中合理的归位,以填补行政相对人因此而遭受的程序性利益之损失。这一目标的实现,需要我们对机器学习算法采行过程化的监管措施。
首先,行政机关应当向机器学习算法“投喂”高质量的数据集且保证公众对机器学习算法的必要知情权。一方面,机器学习算法能够顺畅且合法运作的基础,在于其内部拥有数量庞大且质量优良的数据集。数据是算法的燃料,一旦控制了向机器所“投喂”的数据,就等于从源头对机器学习算法进行了必要的管控。我们应当保证机器学习算法所依赖的这些数据是完整、准确和结构化的。只有保证这些数据没有被“污染”,才能确保机器学习算法下的行政决定具有更高的科学性。另一方面,在对机器学习算法进行事前监管的过程中,国家还应当对算法的设计过程附加一定的要求,且保证公众相应的知情权。国家在对机器学习算法的设计者施加算法在设计时所应满足的规格、测试、信息披露以及算法伦理等方面要求的同时,还应当将机器学习算法的设计目的和策略议程、机器学习算法所内嵌的诸种考量因素以及这些考量因素在行政决定中的占比程度等以合理的方式在事先向社会公众作必要的说明。
其次,国家可以为机器作出行政决定的事项设置必要的程序性管控规则且赋予行政相对人一定的程序性权利,以实现对机器学习算法运作的事中监督。行政机关可以通过组建一个由行政官员、技术人员和法学专家等专业人员所共同组成的独立机构或专家委员会,来制定机器作出行政决定时所应遵循的程序性规则。此时专家委员会或独立机构可以依据事先制定的这些规则对机器学习算法进行监控,一旦发现机器学习算法偏离该规则预设的前进轨道,专家委员会或独立机构就可以随时中断或停止该机器学习算法的运行。也即,人类应当保证可以在任何时候拒绝机器所选择的规则,可以随时改变算法的规格,甚至完全“拔掉插头”而终止机器学习算法的运作。当然,我们同时要警惕对机器学习算法的这种专业规制因过度强调规制主体的精英化而背离社会公共利益,要防止社会精英利用技术资源优势来将他们自身与后代设计成高人一等的“超人”。
再次,国家还应当建立针对“机器进行行政决定”的事后监督机制。这主要是因为机器学习算法具有自我学习、黑箱运作和高度自动化等特性,所以虽然人类为其植入了选定的数据且设置了事中的控制程序,但是机器学习算法的运行仍然可能偏离人类预期的发展轨道。所以,人类要想真正掌握对机器的最终控制权,就有必要对机器学习算法进行一定的事后控制。一方面,这种事后控制机制可以通过前述专家委员会或独立机构对机器作出行政决定的回溯性事后审查来实施。也即,专家委员会或独立机构一旦发现机器学习算法支配下的行政决定具有法定的可撤销情形,就应依法追溯性撤销该行政决定的法律效力,以便矫正机器学习算法所作之不合法行政行为。另一方面,对机器学习算法的事后监督还可以通过赋予行政相对人以必要的算法解释请求权来加以实现。具体来说,算法解释请求权是指行政相对人所享有的要求行政机关说明“为何运用该机器学习算法会最终导向该项行政决定”的权利。在法律授权机器进行行政决定的情形中,行政机关实际上已经执掌了相应的“算法权力”,原本处于优势地位的行政机关此时变得更加强势。为了保证相对人能够有足够的力量和武器来抗衡行政机关并进一步对行政权进行监督,立法机关同时赋予行政相对人以相应的“算法解释请求权”就成为必然。
最后,国家还应施加给行政机关以相应的算法影响评估义务,以督促行政机关在机器学习算法辅助行政决定作出的过程中能够适时且科学地预判该机器学习算法所可能带来的诸种风险。国家给行政机关所施加的这项义务,其目的是为了弥补单纯权利保护路径的局限性,且突出算法控制者本身的风险责任意识,以最终增进机器学习算法的可控性。
其实,机器进行行政决定所可能给行政相对人带来的程序利益的减损,是我们在国家信息化背景下追求更高效行政所必然要付出的代价。此时,理性人应当做的是去找寻我们所受损失与我们所获收益之间的平衡点。就此,美国联邦最高法院在马修斯诉埃尔德里奇案(mathews v. eldridge)中的做法可以为我们的思考提供一些借鉴。该案的主审法官认为,判断行政机关的行为是否符合正当程序原则需要综合考量三个因素:一是,可能受到行政决定影响的私人利益。二是,因为错误程序而剥夺这种私人利益可能导致的风险,以及对私人施加程序保障可能带来的价值。三是,行政机关采取替代性程序所可能带来的财政负担和其他行政负担。我们在机器作出行政决定的情形中,也可以对是否向行政相对人提供特殊程序保障作具体如前的“成本—收益”考量。当然,行政机关在决定不给予行政相对人特殊程序保障时,其所可能导致的不良后果,还可以通过观察行政相对人申请对行政决定进行复查的比率高低来加以判断。对于机器学习算法下的行政决定,如果相对人对其不服而寻求救济的比率并不高于其他类型的人为行政决定被复查的比率,那么就说明行政相对人并没有对机器学习算法下的行政决定表示出特别的反感。这将从一个侧面表明机器进行行政决定对相对人程序性权益的侵害可能并没有人们所想象的那么严重,同时也可以为树立机器学习算法在行政决定中的正面形象而正名。
总之,公众对“自动化行政将可能给行政机关带来程序上的合法性挑战”的质疑是有一定道理的。然而,就此而完全否定自动化行政,显然过于武断。实际上,由于自动化行政中所运用的机器学习算法可以避免人类主观偏见或主观错误的引入,这反而能够增进人们对相关行政决定之程序正当性的预期。而且,即使是面临人们对自动化行政所可能违背正当行政程序的质疑,我们也有前述的应对办法。
四、自动化行政对于实现“行政最佳性”的助益
“行政合乎法律”是行政机关从事行政活动时的基本追求。但在面对纷繁复杂的行政实践时,学者们渐渐发现单纯依靠法律规范来治理是无比的疲软和乏力。易言之,狭义“合法行政”这一单一视角已经无法满足行政实务的需要。在此背景下,有学者颇为精辟地提出了“合法行政”和“最佳行政”的双重分析视角。在该分析架构中,行政的合法性考量首先登场,它为行政活动设置基本的规范条件和制度架构;而最佳性视角则用以观察法律和政策本身的不足,并适时提出改进方案。进而,行政的合法性和行政的最佳性形成良性互动。实际上,狭义上的“行政合法性”意指“行政的形式合法性”,而此处的“行政最佳性”则指向“良好行政”这一意涵,它属于“行政的实质合法性”之范畴。
笔者在前文已经说明,自动化行政并不会对以“合法性”为基底的传统行政法理论造成根本性的冲击。以下,笔者将进一步阐述自动化行政在“最佳行政”方面所可能给行政机关带来的助益,以及实现这一目标的法律保障机制。
(一)“最佳行政”的理论构成
传统行政法学界恪守依法行政原则,主要着眼于“行政行为是否合法”的病理性分析。但在真实的行政实践中,这种单一的狭义“合法性”观察视角已不断呈现出规制不足和执行欠缺等问题。究其根本,这是由于法律这一单一学科已经无法独立应对日益纷繁复杂的行政事务。相反,这些实践中的问题迫切需要多学科的知识和理论来共同关照。也正因为如此,“最佳行政”的分析视角才得以产生。
相关学者从行政法学的基本研究对象(公共行政)切入,来搭建“最佳行政”的分析架构。根据公共行政学的经典论述,公共行政的构成要素可用“三途径说”来加以概括。也即,公共行政目标具体可通过三个途径来实现:一是,管理途径。它主要强调行政活动的效率性、效能性和经济性。二是,政治途径。它意在彰显行政活动的代表性、回应性和责任性。三是,法律途径。它侧重说明行政活动的适法性。在上述三种公共行政目标实现途径中,法律途径可纳入狭义“合法行政”的领域,而管理途径和政治途径则可归为“最佳行政”的范畴。
“最佳行政”在基本价值理念和核心关切点上都与狭义“合法行政”有很大不同。其一,在主体层面,与狭义“合法行政”主要着眼于授权的法定性不同,“最佳行政”以行政任务为导向,更加注重行政任务与组织形态的匹配。其二,在行为层面,与狭义“合法行政”重视对行政行为合法性的司法审查不同,“最佳行政”更多关注立法和行政层面的政策选择和制度设计,更加关心如何综合使用诸种行政手段和政策工具来达成行政目标。其三,在程序设置层面,狭义“合法行政”强调行政机关的行政行为要严格遵照法定行政程序的要求,而“最佳行政”则更加希望通过行政程序的创新设计,使得行政决定的作出具有更强的民主性、效率性和可接受性。其四,在司法监督方面,狭义“合法行政”视域下的法院是消极而中立的,但“最佳行政”视角则期待法院能够发挥其政策形成功能,以反哺行政过程。
总而言之,“最佳行政”的本质追求实际上在于:在复杂的行政事务纷涌而至时,政府保有更优的治理结构以保证其实现既定的行政目标,并最终达成行政的实质合法性。那么,回归到自动化行政本身,我们此时需要追问的就应当是:机器进行行政决定是否有助于践行“最佳行政”的基本价值理念?
(二)自动化行政助力实现“行政最佳性”的现实进路
自动化行政不仅不会在根本上冲击传统的行政法治原则,而且自动化行政所内嵌的机器学习算法还会给行政机关的工作成效带来诸多助益。
首先,行政机关可以借助机器学习算法实现科学决策。行政机关通过对机器学习算法的运用,可以对社会情势作出科学预测,从而达至对公共事务的精准治理。“机器学习的核心就是预测:预测我们想要什么,预测我们行为的结果,预测如何能实现我们的目标,预测世界将如何改变。”虽然传统国家行政很多时候会投入巨大的人力、物力和财力资源,但公共治理的效果有时却并不能达到行政机关的合理预期。这当然与公共行政事务的繁杂性密切相关,但相关治理手段较为滞后显然也是重要原因。大数据、机器学习等技术的产生与运用,给行政机关提升自身之治理效果带来了时代性的契机。这些信息技术可以为行政机关筛选出应当重点治理的领域,从而确保行政机关能够将有限的行政资源投放到真正需要加强治理的区块。需要指出的是,由于机器学习算法运作的基础在于数据,所以数据的质量和数量实际上最终决定了机器学习算法的精确度。所以,机器学习算法有时即便不能实现100%(如只有99%)的科学预测率,也不意味着在此准确率(如99%)下的行政决定是失败的。相反,这说明行政机关在现有条件下已经达到了它的最好治理水平。质言之,行政机关此时的行政决定尽管不是完美的,但却是最优的。
其次,行政机关可以凭借机器学习算法实现高效决策。“工业革命使手工业自动化,信息革命解放了脑力劳动,而机器学习则使自动化本身实现自动化。”机器学习算法的高度自动化,将大大缩短行政决定的作出时间,而这种优势在多阶段和交叉并行的行政行为过程中表现的尤为明显。以国有土地使用权出让行政协议的签订为例:相关行政事项必须先列入规划部门的立项计划,然后经由住房与城乡建设部门审批,最后由国土资源部门对协议进行盖章确认。经历这一复杂的行政程序后,该国有土地使用权出让协议才算最终签订完成。这是一个系统而费时的过程,但在机器学习算法的介入下,上述事项都将可在瞬间处理完毕。易言之,机器学习算法使得复杂而繁琐的行政过程变得快速、简单且高效。
再次,机器学习算法可以帮助行政机关探寻到解决疑难问题的可行方法。一般来说,算法都包括输入和输出两个环节。以往算法的运作过程是:程序员将数据输入计算机,然后计算机内置的算法凭借这些输入的数据导出最终的结果。而机器学习算法则有所不同,它是将一般算法的运行过程直接颠倒过来:程序员向计算机输入的是数据和想要达成的结果,而计算机最终输出的却是算法。也即,程序操作员可以借助机器学习算法而得到勾连“数据”与“结果”之间关系的其他算法。质言之,机器学习算法可以制作其他算法。这就为行政机关处理复杂行政事项探索出了可行的方法和路径:行政机关只要输入相关的数据和想要达至的行政目标,就可以探寻到能够实现这一行政目标的可行方法。
最后,机器学习算法可以帮助行政机关和行政相对人走出信息超载的困境。信息时代,不管是行政机关还是行政相对人,都直面巨量的数据。这一方面确实给他们创造了更大的选择空间,另一方面却也给他们带来了信息超载的困扰。易言之,巨量数据大大超越了人类的可负载能力,这将延长人们的决策时间、减损人们的决策质量且降低人们决策的满意度。因此,如何从巨量数据中快速而准确地择取到自身真正需要的信息,成为行政机关和行政相对人所共同面临的现实难题。而机器学习算法的出现,将可以帮助行政机关和行政相对人走出上述困境。总体而言,机器学习算法可以帮助人们迅速过滤掉不需要的信息,并摘取出自身真正需要的信息。这不仅增进了行为人的选择自由,也大大降低了行为人筛选信息的成本。具体到行政活动领域,对于行政机关而言,一方面,精确而有用的数据将有助于政府信息公开制度功效的发挥,更为透明负责的政府之建设得以可能;另一方面,行政机关可以利用这些更为精确的数据来实现对公共事务的科学治理,从而实现行政成本的降低和行政效能的提升。而对于行政相对人来说,机器学习算法在行政过程中的运用,将可以保证相对人能够从行政机关处获得自身真正需要的信息,从而合理安排自身的生产和生活;同时,这也能更好的满足公民对宪法赋予他们的知情权这一基本权利的期待,使得公民得以更充分的展开对行政机关的监督,从而督促行政机关依法行政。
总之,借助机器学习算法而实现的行政自动化不仅有助于行政机关更加快速、精准与明智的作出行政决定,也更有利于公民实现其依法所享有的诸项权利。
(三)自动化行政在增进“行政最佳性”时所需的法律保障机制
自动化行政在增进“最佳行政”方面所具有的诸多优势,是我们在结果层面所做的评估。那么,如何保障行政自动化能够切实增进“最佳行政”这一优势的发挥?笔者认为,这是一项从技术和法律两个层面都需要作出努力的事业。技术层面的举措是科学家(特别是算法科学家和计算机科学家)应该重点关注的事项,而法学家们的任务则在于通过一系列法律制度的设计来保障机器学习算法的顺畅运行。尽管如前所述,机器学习算法在行政决定中的运用并不会在根本上对传统行政法律原则形成冲击,但是公众对行政机关依赖技术进行行政决定的担忧并非没有任何根据。所以,法学学者们仍然应当提醒行政机关谨慎行事,防止行政机关因不当使用机器学习算法而遭致合法性质疑。
首先,机器学习算法在行政决定中的运用需要解决组织权力来源和决策的民主性问题。我们会发现,机器学习算法在行政决定作出过程中的运用,往往需要行政机关对决定事项进行编码,对相关行政决定的成本和收益作更为细致的量化分析。但在以往,这些行政决定事项都是由行政机关进行定性判断。机器学习算法的引入所带来的这一变化,需要我们反思如下问题:究竟谁才有权将这种定性的价值判断问题转化为成本比率的定量分析问题?谁又有权在机器进行行政决定所面临的困难与可能提升的准确度之间作出具体的衡量和判断?这是行政机关在进行相关量化工作时所面临的规范性问题,故而只能由法规范来予以回应。
其次,国家需要在程序法制度的设计方面作出更多努力,以防止行政的自动化导致相关行政决定逸脱法规范意旨。行政机关应当保证其给机器植入的算法符合公益需求,从而不带有任何人为的歧视和偏见。同时,在运用机器学习算法来做行政决定时,行政机关还应当不时考察算法中数据错误率与行政决定被撤销率之间的关系,以判断机器进行行政决定是否足够成功。此外,行政机关还应当寻找和组建中立的专家组,对行政机关运用机器学习算法进行行政决定的合法性和有效性做中立而客观的过程性判断;如果专家组认为相关行政决定可能偏离既定目标,可以随时暂停或终止该行政决定的作出或使得该行政决定得以被溯及性的撤销。
再次,行政机关不应当随意介入个人隐私领域。运用机器学习算法进行行政决定的前提,是行政机关掌握有大量的数据(特别是行政相对人和其他公民的数据)。由于借由公民个人的数据可以清晰地勾画出公民的网络肖像和行为轨迹,这显然已经关涉公民的个人隐私,因此国家此时应当对公民施加足够充分的保护。即便是对时常以公益代表自居的行政机关,国家也不能允许其随意对公民的相关数据进行不当利用。具体而言,国家应当对行政机关在运用机器学习算法而收集、存储和使用公民数据的行为作出相应地规范:行政机关不在必要的时候,不得收集公民个人的数据;对于必须收集的公民数据,行政机关应当妥善进行保管和储存;同时,各行政机构之间因公务需要而共享公民的个人数据时,还应当确保该数据在传输时的安全。
最后,在机器学习时代,行政机关除了在干预行政领域应当遵循一定的法规范要求外,在给付行政领域也有依法行政的空间。行政的自动化必然会使得原本很多由真人从事的工作被机器所取代。这将直接导致相关劳动群体失去工作的机会,关涉劳动者在宪法层面的就业权,也涉及到行政机关给付行政职能的发挥。这虽然是社会信息化后必然会出现的结果,但政府在其中并非毫无作为的空间。在当前的时代情势下,行政机关应当发挥其宏观调控和行政指导的公共行政职能,将公众就业方向更多的转移到机器学习算法的设计这一技术的前端,而非一直固守在技术运用的末端。只有这样,我们才能克服公众对机器学习将导致大面积失业的恐惧,也才能有效防止人类沦为机器作用的客体。
总之,自动化行政会给行政机关科学而高效地进行行政决定带来诸多助益。但是,行政机关在此中仍然应当审慎行事,并设计相应的法律机制来保障自动化行政能够切实助力“行政最佳性”的实现,从而防止发生行政机关决策因逸脱法规范要求而可能引发的合法性危机。
结语
自动化行政活动在现实中已经多有发生,其内在的技术支撑在于以机器学习算法为核心的人工智能。“机器学习是100万年传奇中最新的篇章:有了它,不费吹灰之力,世界就能感知你想要的东西,并依此做出改变。”随着机器学习时代的来临,行政机关借助机器学习算法而实现的自动化行政将成为未来的一个趋势。但由于机器学习算法可以自我学习、具有黑箱特性且可能缩短甚至直接绕过人类来思考,因此它也引发了公众对于“人将被机器所控制”的深刻担忧甚至恐惧。然而,机器学习算法对行政机关行政决定作出过程的合理参与,并不会对传统行政法治造成根本性的冲击,自动化行政仍然符合形式合法性的要求。同时,自动化行政还会让行政机关所作出的行政决定更加科学、高效和明智,从而实现“最佳行政”之目标,这就在更深层次证立了自动化行政的实质合法性。当然,这并不意味着我们可以对机器作出行政决定的行为听之任之,行政机关的行政决定仍然应当在权力来源、程序设置、公民个人隐私保护以及公众就业引导等方面合乎法规范的要求。我们要防止行政机关因不当使用机器学习算法而致使相关行政决定陷入合法性危机。最后,需要指出的是,行政的自动化必然会使一些法律价值遭受减损,但这是国家在引入新技术和力图提高行政效能时所必然要付出的代价。而对于国家来说,这其中会涉及到“成本—收益”的总体考量;同时,这也是国家推行信息化大战略时在公益和私益之间进行结构性平衡的结果。