内容提要:人工智能的发展带来了维护安全、人权保障、程序规制、监管权限、监管机制和责任分配等公法挑战,需要公法规制予以回应。美国人工智能的公法规制体系包含了公法规范体系和权力结构体系两个部分,展现出一种综合性的公法规制路径,将立法、行政和司法相结合,力图构建一种全过程的监管机制。为弥补私法路径之不足,我国有必要提倡人工智能规制的公法路径,将人工智能系统视为一种公权力行使系统,充分且审慎地考量一些国情变量,采取综合性的公法路径来对人工智能进行有效规制。
关 键 词:人工智能 公法规制体系 公法制度建构 人工智能发展法 美国
一、引言
进入21世纪以来,人工智能已经越来越多地被应用于生产操作、交通运输、医疗辅助、新闻写作和司法裁判等领域,渗透到人类生活的方方面面。与此同时,人工智能对公共安全和公民权利的威胁也开始充分展现,因而对人工智能的法律规制也逐渐沉淀为学界的基本共识。①但是,任何对新技术领域的法律规制都必然遭遇两个难题。一是监管者自身能否具有足够的监管能力。如果监管者自身缺乏足够的专业性和技术性,将不得不接受人工智能研发者的技术监管措施,形成“做自己案件的法官”的法治困境,最终让监管者用技术措施架空甚至反噬政府部门的法律监管。比如,监管者“在询问法律应当对算法要求多少透明度之前,应当考虑程序员能够以专业的法律文本提供多少有用的解释”。②二是政府如何监管方能不影响产业创新。“过于严苛的监管将扼杀创新。”③著名的历史实例是英国于1865年颁布的《红旗法令》(red flag act)。该法令对机动车规定了在城镇和村庄行驶时每小时2英里的限速,并且要求有人携带一面红旗在车前60码(55米)处进行引导。有人认为这一规制性规定限制了英国机动车产业发展30年之久。④在人工智能领域,对无人机操作奉行“视距监管”(beyond visual line of sight)原则就可能遏制无人机在运输和交通领域应用的发展。⑤
对此,现有研究尚未给出令人信服的解答。大体观之,我国关于人工智能法律规制的研究主要遵循私法路径展开,聚焦于立法规制和司法规制。此类研究常常将人工智能视为一种民事主体,主张从立法上赋予其法律人格,并由法院按照民事责任(产品责任、侵权责任或保险责任)来对其进行法律规制。⑥这一路径有着比较明显的欧盟法痕迹。2017年,欧盟表决通过的《欧盟机器人民事责任法律规则》提出了“非人类的代理人”概念。这实质上是将人工智能作为一个有目的性的系统,并赋予人工智能体民事法律人格。⑦其实,无论是何种类型的人工智能系统,如果去除人们赋予它们身上的拟人化想象,它们都是基于数据,通过算法自主学习、自主提升、自主决策的一套计算机制。其中,数据是燃料,算法是火焰。它们自身并不能成为民事责任主体,能够成为民事责任主体的只可能是人工智能系统的研发者和生产者。但是,在私法关系中,人工智能系统的生产者具有绝对的技术优势,普通公民的技术性程序权利常常被剥夺限制,导致其没有能力获取被侵权的证据,更无力在司法对峙中有效举证。可见,单一化地遵循私法路径的司法规制并不能对人工智能的损害实施充分有效的救济,更无法对危及公共安全的人工智能进行预防性规制。遵从私法路径的实践逻辑,对人工智能的预防性规制应交由人工智能系统生产者自我规制。因为,他们更能理解技术的发展前景和潜在风险,最适合制定规则和标准。
但是,“没有任何政府监管的企业自我规制是危险的”。⑧它必然导致规制动力不足、规制规则虚化、规制效果与公众利益不一致等问题,从而陷入“明希豪森困境”。因此,为弥补私法路径之不足,有必要提倡人工智能规制的公法路径,将人工智能系统视为一种公权力行使系统。作为一种公权力行使系统,人工智能的不当行使不仅可能导致私法责任,更可能导致公法责任,因而必须建构一种包含立法规制、行政监管和司法审查,以及事前、事中和事后全过程的监管机制。鉴于此,本文聚焦于人工智能给监管主体带来的公法挑战,并以美国法确立的公法规制体系为基本参照,从中汲取营养为我国人工智能的公法规制提供一些建构思路。
二、人工智能规制的公法挑战
在公法研究中,尽管对人工智能规制的法律问题仍须甄别,理论领域尚未明确,研究方法仍在探索,但其规制需求、规制目标和发展趋势已经比较清晰地展现出来,并表现为公法变革中必须回应的一些基本命题,成为各国未来人工智能公法规制面临的重大挑战。
第一,人工智能与国家安全、公共安全。比如,无人机的应用必然对飞行安全、地面安全和国家安全构成潜在威胁,并可能造成实际损害。因此,监管部门必须对无人机的飞行与操作进行必要的法律限制。一般而论,在城市公众集会区、军事、核电、机场、自然保护区等上空,或者在超过法定高度、超出视线距离的区域驾驶时,无人机的飞行活动应当受到必要限制。⑨再如,2017年微软的智能聊天机器人“阿泰”(chatting bot tay)在开放16个小时后不得不被关闭,因为它变成了种族主义者、性别主义者,并且否认大屠杀。⑩这种算法技术的失控趋势被学者称为“算法未知”,很可能引发不良社会行动,危及公共安全。(11)哪里有风险,哪里就需要规制。显而易见,进入数字时代后,人工智能对国家安全和公共安全的潜在风险为政府监管提供了最高的正当性。而且,此类风险规制职能,只能由政府来承担。此等情形下,不论是人工智能系统生产者,还是人工智能行业组织,都不能准确识别国家安全和公共安全的红线,也没有足够的干预能力和干预措施进行预防性规制,一旦风险发生,后果极为严重,再遵循私法路径给予事后救济也往往于事无补。
第二,人工智能与权利保护。人工智能的广泛运用,既可能侵犯公民的私法权利,更可能侵犯公民的包括宪法权利在内的公法权利。比如,一个公司通过人脸识别系统自动收集的脸部数据信息可能侵犯公民的肖像权,通过智能系统发送一些营销短信可能侵犯了《民法典》第1032条所规定的生活安宁权,这些都属于民事权利。再如,在我国智慧交通体系的建设中,算法可以直接对监控查获的交通违法行为处以罚款;美国联邦寻亲处使用的算法曾误将某公民认定为“拒付抚养费的父母”,并对其开出20.6万美元的罚单。(12)此时,算法辅助甚至替代行政机关行使公权力,不仅侵犯了公民的财产权,还剥夺了公民在一般行政处罚过程中享有的陈述和申辩等程序性权利,这些属于公法权利。对于公法权利被人工智能所侵犯的情况,则只能依靠事先、事中和事后的公法规制来进行全过程治理。
第三,人工智能与程序规制。“算法黑箱”与人工智能的发展同步,它使得人工智能可以规避审查。大多数智能系统都是不透明的,用户无法看清其中的规则,也不能参与决策过程,只能接受最终的结果。这就类似于我们的数据被装进了“黑箱”,用户无从了解它们的工作原理,这样算法不仅仅是在预测和解决问题,而且有助于控制用户的行为。(13)显然,“算法黑箱”导致公众无从质疑算法的错误,难以使算法决策过程接受程序规制,还会给公民寻求法律救济增加难度。(14)反之,算法透明则有利于发展更丰富的监管框架以评估和解决数字政府条件下算法应用的可问责性问题。(15)因此,人工智能系统的算法运用,应当以公法程序建构为中心来探索有效公法规制机制。比如,美国科学院风险感知与沟通委员会设计了完善风险沟通程序,让各方主体之间交换有关风险性质、相关信息及趋势预判,表达对风险事件的关注、反应和评估,或者研究制定政府部门在风险管理方面的法规和措施。(16)
第四,人工智能与监管权限。出于安全和人权的绝对优先性考虑,政府对人工智能规制的正当性毋庸置疑。从法理上来说,任何权力的行使都必然受“比例原则”的约束。(17)2020年11月,浙江省富阳法院对“人脸识别第一案”做出判决,法院在判决书中明确提出人工智能系统收集指纹和人脸等个人生物识别信息必须遵循“合法、正当、必要”原则,遵循确保安全原则,不得泄露、出售或者非法向他人提供,否则其信息收集行为违法。(18)该案就是运用比例原则进行司法审查的典范事例。如何贯彻比例原则清楚界定行政监管的权限,是各国人工智能公法规制的普遍难题。其中,审查人工智能系统所收集的数据是否是必要的最为困难。比如,为了预防恐怖袭击,收集指纹一般就可以确定恐怖分子的身份,无须收集脸部生物识别信息。但是,基于“安全胜过后悔”的风险预防原则,人工智能系统可能倾向两类数据都收集,以便两类证据相互验证。此种情形下,比例原则实际上被架空了。
第五,人工智能与监管机制。在西方,对新兴产业领域的监管措施一般强调法律监管与技术监管并重。因为在新兴技术领域,法律监管措施愈来愈被规避,借鉴和运用相关技术进行监管成为不得已的选择。技术监管措施的重点在于将法律命令转化为技术编码和操作指令,使技术系统成为强有力的监管工具。它为监管者提供了企业的视角,使监管者持续地参与风险分析;并且,它要求各监管机构参与整个监管过程,加强监管合作。(19)人工智能的公法规制,也应当改变过去政府单向的“命令—服从”的监管机制,探索算法规制的合作监管机制。目前的算法规制实践中,各国探索并建立算法伦理审查、算法及数据集缺陷检测机制、算法标准、算法解释、算法查验、算法认证、算法应用登记等规制手段,初步形成了算法规制谱系的轮廓,但仍须调整规制思维和规制策略,努力构建一种合作监管的法律机制。(20)比如,国家完全可以建立某种形式的“算力池”供公众利用,既可以降低个人研究算法、开发算法应用的成本,又可以促进社会公众对算力资源的平等利用,还可以使公民在算法侵害面前有更强的防御能力。(21)即便合作监管机制已经确立,如何明确各种规制工具的应用场景、技术条件及功能,也仍是人工智能系统规制面临的一项艰巨挑战。
第六,人工智能与责任分配。责任归属问题是所有政府规制的核心问题,必须遵循“权责统一原则”,具体包含两个要求。其一,权责主体相一致,即有权力就有责任。比如,对于技术风险犯罪的公法规制,必须在技术发明者、使用者和管理者多元风险主体之间进行公平的责任分配。“治理技术风险犯罪的生成机制表明,技术风险来源于多元风险责任主体,并且社会非正式力量在技术风险犯罪的治理中发挥了史无前例的重要作用,因为他们是技术的发明者、使用者和管理者。”(22)其二,权责程度相适应,即行使了多大权力就承担多大责任。(23)在人工智能领域,由于责任主体多样、责任大小不一、担责能力不同,监管主体要进行责任精准分配尤为艰难。比如,无人机的飞行损害情形多样,责任归属的确定也存在难度。在远程驾驶时,无人机可能因驾驶错误、技术故障或远程控制失灵而造成他人损害;在自主飞行时,无人机也可能因计算机错误造成他人损害。此外,无人机还可能窃取国家机密、侵犯个人隐私、造成噪声污染等,损害国家利益和个人权益。(24)凡此种种,无人机所有者、制造者、计算机系统制造者都可能要依法承担法律责任。这些法律责任既可能是行政责任,也可能是民事责任,还可能是刑事责任。但是,谁应当承担主要责任,谁应当承担次要责任,以及谁承担主要责任更有利于公民权利保护,要对诸如此类问题精准判断非常困难。再如,对于自动驾驶汽车导致的交通事故,很难依据我国《刑法》第133条来追究刑事责任。《刑法》该条所规定的交通肇事罪是把自然人作为行为主体,而且行为人必须存在主观过错。自动驾驶显然不符合这些构成要件,因此存在刑事责任由谁承担的难题。
此类挑战,已然成为各国人工智能公法规制的普遍难题,也考验着各国监管主体的治理智慧。美国尽管是一个典型的司法国家,但近些年来一直努力探索对于人工智能的积极性监管,并且在自动驾驶系统、无人机系统、致命性自动武器系统、人脸识别系统和算法等方面初步形成了相关的监管规范体系和权力结构,并大体展现出对人工智能进行公法规制的法律路径和治理理念。
三、美国人工智能规制的公法规制体系
“体系”不是强调规模,而是强调功能协同、价值一致和逻辑自洽。“体系思维是一种重要的学术思考方式,它是对问题进行的具有逻辑意向的阐释,是将范畴和主题思想‘一以贯之’。价值和范畴的贯彻性和统一性是体系化思维的标志。”(25)遵循体系化思维,笔者将美国人工智能的公法规制体系分为公法规范体系和权力结构体系。其中,前者是公法规制价值理念的静态载体,后者是公法规制价值理念的动态应用。
(一)公法规范体系
在美国,对人工智能监管的规范体系主要包含三个层面:一是联邦立法,二是州立法,三是联邦和州政府的监管指南和监管通告。
1.联邦立法。早在2012年,美国联邦国会就通过了《联邦航空管理局现代化和改革法》,(26)旨在通过立法来消除无人机兴起与美国空域监管的冲突,并且对无人机监管的重点从操作行为监管转向产品系统监管。(27)2015年,联邦国会已经将有关人工智能的表述加入《修复美国地面交通法》,对自动驾驶车辆进行立法规制。该法明确要求交通部对自动驾驶车辆提高高速公路交通能力的应用研究予以资助。(28)2018年,国会已经建议联邦航空管理局(faa)在《faa再授权法》中嵌入对人工智能的规定,要求其采取必要措施应对人工智能的新发展。(29)
自2018年以来,“深度伪造”技术引发了美国联邦国会的高度关注,相关议员先后提交了各有侧重的法案,包括《恶意深度伪造禁止法案》《深度伪造问责法案》《2019年深度伪造报告法案》等。尽管尚未正式通过生效,这些法案已经规定了标识数字水印、视听信息披露、视觉信息披露、音频信息披露等公法规制手段,展现出公法规制路径的鲜明特色。(30)
在2019年,由约翰·麦凯恩(john s.mccain)提出的《2019财年国防授权法令》第238节明确规定了对国防领域的人工智能进行主动监管的相关措施。该节第(b)项要求国防部长任命一个协调者来指导和监管国防部发展和使用人工智能以及机器自主学习功能。(31)其中,该节第(g)项对人工智能做了列举性界定。人工智能包括:(1)任何在多样且不可预测的环境下没有明显的人为监控时履行任务的人工系统,或者能够通过经验学习和运用数据系统提升执行力的人工系统;(2)任何用计算机软件、硬件研发的系统,或者其他需要与人类类似感知、认知、计划、学习、交流或物理行动相结合来完成任务的系统;(3)任何被设计为类似人类思考或行动的人工系统,包括认知体系和神经网络;(4)包含自主学习能力,是类似计算一种认知任务的技术;(5)旨在理性行动的人工系统,它包含一个可以使用感知、计划、推理、学习、交流、决策或者行动来实现其目标的智能软件行为主体或者实体化机器人。(32)该节第(f)项要求国防部长在法律颁布一年内对“人工智能”描绘一个界定的术语供国防部使用。(33)另外,联邦国会已经将国防部关于配备有人工智能系统的飞行器的飞行政策列入立法任务。(34)据统计,在美国第115届国会提出的法案中,有39个法案文本涉及“人工智能”,有4个法案被颁布为法律。(35)
2.州立法。各州立法机构正越来越多地通过立法来规范人工智能系统的应用,最引人关注的当属对自动驾驶车辆的监管。早在2011年,内华达州做出第一个关于自动驾驶车辆检测的立法。这个专门性的法律将自动驾驶车辆限定为“没有人类操作者予以积极控制和监督的汽车”。该法还制定了检测这些车辆的条件,要求发布监管规定对自动驾驶进行监管。(36)在2012年,佛罗里达州做出了相似的立法,规定对自动驾驶车辆进行检测监管。同年,加利福尼亚州也颁布了这方面的法律。(37)到目前为止,美国已有40个州通过了法律或行政命令规制自动驾驶汽车。这些法律文件规定允许自动驾驶车辆在特定环境和特定道路上行驶,鼓励自动驾驶车辆开发商与州监管机构合作开发试点项目以确保自动驾驶车辆的安全和发展。(38)在对“深度伪造”的监管方面,很多州也走在了联邦政府前面,有代表性的州是加利福尼亚州、弗吉尼亚州和得克萨斯州。(39)在人脸识别技术的监管方面,目前在联邦层面并没有统一的立法,往往是通过各州自行立法来进行严格监管。
3.联邦和州政府的监管指南和监管通告。总体来看,美国对于人工智能监管的规范建设,政府部门早于立法机构,州政府早于联邦政府。早在2007年,美国联邦航空管理局就首次颁布了关于无人机的监管通告。该通告运用技术标准将无人机划分为公共飞行器、民用飞行器和娱乐或体育飞行器三大类进行区别监管。(40)2016年,联邦政府颁布了《为人工智能的未来做好准备》的政府通告。该通告概括了人工智能在美国社会、经济界和政府中的运用现状,特别聚焦于人工智能在交通和战争领域的运用,提出了一些无拘束力的建议。(41)尽管如此,该通告也简略涉及“人工智能与监管”“公平、安全与人工智能监管”的内容。(42)
2018年,联邦政府又颁布了《关于美国工业领域人工智能峰会的概要》。该通告对特朗普总统关于人工智能在工业领域的运用进行监管的政策规定进行了评价。(43)2019年2月,白宫科学和技术政策办公室正式发布了由特朗普签署的《美国人工智能倡议》,该行政令旨在优先调配更多联邦资金转向人工智能研究。2020年1月,美国白宫发布了《人工智能应用监管指南备忘录(草案)》,该备忘录从监管和非监管层面对联邦政府外部开发、部署人工智能提出了相关原则和建议,具体包括公众对人工智能的信任、公众参与规则制定、科研诚信与数据质量、风险评估与管理、收益与成本、灵活性、公平与非歧视、披露与透明度、安全保障、跨部门协调十个方面,为政府行政机关在抽象的原则和建立更具体的治理机制之间架起了一座桥梁。(44)
相较于联邦政府,有些州政府的监管反应更加迅速。2012年,内华达州政府就开始发布操作自动驾驶汽车的监管规定。2014年,加利福尼亚州政府制定检测自动驾驶汽车的监管规定,并于2018年制定了使用自动驾驶车辆的监管规定。(45)2017年,亚利桑那州政府就颁布执行令,要求州的监管委员会就检测监管自动驾驶车辆制定规则。(46)
(二)权力结构体系
规制是一个权力结构塑造的问题。(47)进言之,权力结构不同,规制效果可能大相径庭,因为在政府维护公共利益的过程中,每个机构都有自身的能力和专长。好政府的关键不只是提出最好的政策,而且能够明确哪个机构应当做出何种决策,怎样才能使这些机构相互影响。美国人工智能监管的权力主体主要有三大类:立法机关、监管机构和司法机关。
1.立法机关。在美国,作为监管主体的立法机关包括联邦国会和州议会。相对于监管机构和司法机关,立法机关具有民主合法性和授权能力,是对价值排序问题做出决策的最佳机关,是制定监管方案起点的理想主体。它可以建立一些基本的原则来指导发展政策,但不对监管规定所涉具体专业的实体内容做出决定。(48)而且,它可以通过委托、授权内部机构或外部机构来进行政策制定或者调查研究,以弥补其对人工智能监管专业性不足的缺陷。(49)因为一旦委托决定做出之后,立法机关就掌握了多重手段去监督被委托机构,包括提供资助、监督听证和撤销委托等。如果监管机构和法院无法确立具有可接受性的监管措施,立法机关能够采取撤销或者重新设置人工智能的监管政策;相反,如果被委托组织成功地确立了一个稳固的监管框架,立法机关则能够将相关监管规则予以固化,或者将这些监管规则嵌入后续的立法中予以标准化。(50)
2.监管机构。在美国,作为监管主体的监管机构包括联邦政府及其相关部门或机构、州政府及其相关部门或机构。一般来说,独立监管机构的创建旨在对某一方面的不公平举措进行预防纠偏,作为政府一般性警察权力的延伸和补充。比如,美国联邦贸易委员会、国家劳工关系委员会和平等就业委员会,都是对政府传统职能的扩大与补充。(51)相对于政府组成部门,监管机构具有灵活性、专业性和独立性,可以自由地进行独立的事实调查,将监管政策的制定基于更加广泛的社会考量。在人工智能监管政策制定过程中,这些独立监管机构能够承担决定监管政策实体性内容的角色。(52)比如,联邦贸易委员会针对脸谱网(facebook)未能根据2012年联邦贸易委员会发布的一项命令改善其隐私保护状况后,对其做出了一项罚款50亿美元的行政处罚。(53)再如,美国无人机监管机构主要有三:联邦航空管理局、国家航空航天局(nasa)和远程控制航空拍摄委员会(rcapa)。其中,联邦航空管理局是典型的行政部门,是联邦运输部的下属行政机构,负责制定关于无人机监管的规则,同时为了确保安全或高效使用空域,该部门也被授权可采取必要监管措施,是监管决策与监管执行合一的监管机构。(54)国家航空航天局则是一个行政性科研机构,帮助联邦航空管理局对无人机监管政策和技术措施进行研究、测试和调查。(55)远程控制航空拍摄委员会却是一个典型的行业中介组织,旨在分享无人机使用所需的硬件研究、数据收集和安全处理,为无人机监管提供技术支撑。可见,美国已经形成了以行政监管部门为主导,以行政科研机构为辅助,以行业中介组织为补充的多主体、多属性、多中心、多层次的监管结构,其本质是一种行业治理结构。
此外,就人工智能监管权的纵向划分来看,美国学者普遍认为,各州政府应当在各自区域内承担主要的监管责任,而联邦政府则主要发挥对州的监督和支持作用。(56)
3.司法机关。在美国,作为监管主体的司法机关包括联邦法院系统和州法院系统。相较于立法机关和监管机构,司法机关重在以事后救济的方式来保障和维护美国的技术、经济和国家安全,以及公民隐私、自由、人权、法治、知识产权等美国所尊崇的价值观。(57)人工智能侵权所引发的诉讼,既包含民事责任,也包含行政责任,还包含宪法责任。其中,人工智能引发的行政责任和宪法责任属于公法规制的重要内容。比如,美国犯罪预警系统中将有色人种赋予更高关注权重,导致有色人种被过度执法,机动车保险公司关于保费计算标准中赋予女性更高风险系数等。此时,算法体现了一种不当的态度偏好和价值倾向,很可能侵犯了公民平等权,这些属于宪法权利。再如,美国联邦法院和州法院在判例中将搜索引擎的算法视为“言论”,算法中关于性别、种族等不当变量的设定是否构成“歧视性言论”,算法中多种变量的取舍是否经过“正当法律程序”检验,都是合宪性审查问题,属于公法规制的重要方面和内容。(58)
四、美国人工智能规制的公法路径
近些年来,美国法学研究对于人工智能监管提出了多种法律监管思路,笔者把它归结为三大类:一是立法性路径;二是司法性路径;三是综合性路径。
1.立法性路径。这种路径主张通过制定关于人工智能监管的专门性法律,来创设专门的监管机构,赋予其具体的监管职责,设计一套具体的监管机制来实现其监管目标。比如马修·谢勒提出,应当制定专门的《人工智能发展法令》,创设一个独立监管机构来承担确保人工智能系统安全的任务。该法令不是赋予这个新的监管机构一种权力去禁止它认为不安全的产品,而是创设一套责任体系。其中,经监管机构认证了的产品设计者、生产者和销售者可以承担有限责任,而未经认证者将承担严格的连带责任。(59)但是,更多的学者认为,制定一部专门性的立法是一种“自我挖坑”式的思路。有法官就批评了试图制定一部新的《数据空间法》的思路,指出当技术还处于快速发展的阶段去进行立法调整是错误的。(60)
2.司法性路径。这种路径强调将现有法律适用于人工智能监管领域,重点关注现有规则与人工智能监管的冲突,特别聚焦于法院在具体个案的法律适用过程中对人工智能问题的基本态度,以及形成之后进行监管的先例。在美国,对人工智能的私法救济,往往被生产者以“商业秘密”为由抵制。对人工智能的公法救济,则往往是将其视为“言论”加以保护。作为一种言论,对人工智能的司法审查标准主要有二。一是防止禁止性言论。在2003年的搜索王诉谷歌(search king v.google tech.)一案中,俄克拉荷马州法院认为,搜索引擎根据算法生成的结果是一种言论,网页排名是一种意见,它涉及特定网站对某一检索指令响应的意义,可能构成一种“歧视性言论”(discriminate speech)或者“仇恨性言论”(hate speech)。该案就形成了对人工智能监管的司法先例,被四年后的兰登诉谷歌(langdon v.google)一案所援引。(61)这一路径在美国司法界居主流地位。二是正当法律程序原则。丹妮尔·西特鲁恩(danielle keats citron)等主张,正当程序应该要为此类人工智能评分系统可能带来的歧视提供基本保障,监管者应当可以检测系统以确保其公平性和正确性,个人有权要求纠正对他们进行错误分类而带来不利影响的机器决策。他们认为,缺乏正当程序的保护,基于偏见和武断的数据基础上的算法必然带来污名化的后果。(62)自20世纪70年代以来,美国法院关于判断程序正当与否形成了主导性的“利益衡量标准”(balancing test),该标准强调综合考察私人利益、执法效率、财政与行政负担以及社会成本等多项内容,进而形成客观化的评价标准。显然,此种考量在人工智能领域极其复杂,能否形成客观化判断还有赖于更多的司法判例来检验。
3.综合性路径。这种路径主张为了保护公共利益,应当建立一种事前、事中和事后全过程监管机制,区别不同情况并采取不同的监管措施,通过综合施策实现其监管目的。比如,尼古拉斯·佩蒂特认为,为了更有效地保护公共利益,应当依据人工智能应用所导致的外部性来调整监管反应的强度。当人工智能导致的外部性是具体的,应对其采取一种事后的诉讼救济,即司法路径;当人工智能导致的外部性是系统的,应对其采取一种事前监管,即立法路径和执法路径,但必须仔细测试其效果。(63)在美国,事前监管对象主要包括人工智能的生产者、研发者和使用者。对于生产者,其监管内容主要包括与生产者共同制定监管政策,提出和制定监管编码,对生产者进行许可和伦理培训,规定生产者必须达到特定的资质要求(laws of identification),并负有对人工智能算法的说明义务(laws of explanation)、避免算法设置的偏见(laws on bias)、限制人工智能的使用权限(limits on limitation of ai use),以及设有摧毁人工智能系统(即“自杀开关”)等内容。(64)对研发者的监管,主要是规定人工智能研发者的安全测试义务,即要求其研发的人工智能产品必须通过安全测试鉴定,并且研发者将测试结果提交给独立监管机构。同时,进行安全测试的机构职员中应当特别包含对当下人工智能发展大势有深入研究的专家。(65)对使用者即公众的监管,主要是规定公众对人工智能的使用许可。(66)目前来看,这种事前监管机制,往往是抽象性规则与具体性措施相结合,技术监管措施与法律监管措施相结合,激励性措施与惩罚性措施相结合。
大体来看,美国法治实践中对人工智能的监管大体遵循一种综合性的法律路径,往往将立法、行政和司法相结合,并力图构建一种全过程的监管机制。但比较而言,司法监管受重视程度最高,包括法院对人工智能引发民事责任和公法责任的追究。立法监管相对滞后,一般不追求制定专门统一的关于人工智能监管的法律,由各州根据自身需求自行立法,先行先试。行政监管手段最为广泛,既有事前激励,又有事后惩戒;既有主动干预,又有被动反应;既有命令控制,又有合作治理。这种多样化措施的探索已经引发监管理念、监管机制和监管模式的公法变革。比如,在美国无人机领域,其行政监管已经经历了从反应性监管到积极性监管,从命令控制到合作治理,从行为监管到产品监管的理念转变。(67)综合性路径的理论框架如下表:
五、我国人工智能规制的公法建构
从美国人工智能规制的公法路径来看,采取综合性的公法规制是人工智能健康快速发展的重要保障,也是我国未来人工智能公法建构的重要方向。当然,由于我国法治道路、监管结构和司法体制与美国存在巨大差异,我们不可能也没有必要去模拟创建类似美国的人工智能公法规制体系。所以,在遵循人工智能公法规制大势的同时,必须充分且审慎地考量我国的一些国情变量,这将成为我国人工智能规制公法建构的关键所在。
第一,全国人大制定一部统一的、专门的《人工智能发展法》,以防范和管控与人工智能有关的公共风险。其实,尽管美国学者普遍认为对于人工智能发展导致的系统的外部性,应当采取立法方式予以规制,但是,其主流意见并不主张在联邦层面制定一部统一的监管性法律,更多的是寄望于州层面的相关立法或者政府部门的监管指南和监管通告发挥引导、预防和管控的作用,并最终依靠司法裁判来进行审查、纠偏和救济。笔者之所以主张在国家层面制定统一的、专门的规制性法律,考量有三。一是我国属于成文法国家,立法先行原则和法制统一原则是中国特色社会主义的两个重要法治原则,在社会生活中有着比较普遍的认同。(68)但是,如果由各个地方自行立法来对涉及利益广泛的巨大产业进行调整规制,不利于维护法制统一,也难以总体解决人工智能带来的一系列系统性的问题。二是美国属于判例法国家,尽管其司法判决主要解决关于人工智能引发的具体的外部性问题,但这些判决形成之后可成为反复援引的先例,这种相对较慢的方式也能逐步解决一些系统性的问题。而我国的司法判决不能形成先例,无法解决系统性问题,且无法解决人工智能侵犯公民宪法权利的问题。三是两国行政监管机构存在差异,美国的监管机构是国会依据美国宪法的“必要和适当条款”,通过“授权”来创设的执行机构,它被视为“国会立法权的延伸”,其监管权力来自国会直接授权,统括性地拥有立法权、执法权和监督权,它自身能够通过行政立法解决人工智能引发的系统性问题。(69)而我国行政监管机构属于政府部门,按照职权法定原则必须通过立法来解决其监管权力合法性问题。
我们认为,该法应当规定人工智能规制的基本性、全局性、体制性和机制性问题。其一,该法应当尽可能对人工智能做出充分列举性的规定,以明确其适用范围。具体列举性规定的立法方式可借鉴美国《2019财年国防授权法令》的相关规定。其二,该法应当规定人工智能法律规制的基本原则,以维护社会核心价值。具体应当规定保障人权原则、社会公平原则、安全可控原则、开放共享原则和权利义务相统一原则。(70)其三,该法应当对可能涉及人工智能领域的所有主管部门进行统括性授权,赋予其监管合法性。但是,没有必要以该法创设一个对人工智能进行监管的专门机构。因为人工智能几乎涉及现行所有产业,监管部门不仅需要掌握人工智能的专业知识,更要熟悉传统产业的专业知识。比如,医疗手术机器人不仅涉及人工智能知识,更包含医学专业要求。一个完全独立于医疗主管部门的专门监管机构很可能在人工智能领域的专业能力强,医疗专业能力弱,导致制定的监管政策和采取的监管措施之间产生专业冲突。反之,医疗主管部门作为该领域人工智能应用的监管部门,不仅有利于使政府监管和行业自律相结合,还有利于法律监管和技术监管的相互配合。其四,该法应当规定行政监管的基本环节,构建合作治理机制。要明确规定积极性监管的启动程序、监管措施(包括技术措施和法律措施)和监管重点,探索政府—平台—商户—用户的合作治理机制。其五,该法应当规定算法安全风险的保险机制,解决人工智能产业发展的后顾之忧。也就是说,应当强制规定作为算法载体而存在的人工智能体的生产者或所有者购买一定份额的保险,以分担算法引发的安全风险。(71)
第二,政府部门应当根据上位法结合各自产业特点,通过规范性文件对各自领域中人工智能的设计、开发、部署和操作制定监管措施。在美国人工智能的公法规制中,行政监管是最敏锐、最活跃、最具创新精神的一条路径,是对新兴技术领域进行预防性监管的排头兵。其中,特别重要的监管制度有7项。(72)一是风险评估制度。政府部门应根据其管辖范围内各种活动所带来风险的程度和性质来制定相应措施,这样可以避免不必要的预防性监管措施对创新的抑制,并在适当的时间间隔重新评估其假设和结论。二是公众参与制度。在人工智能算法使用有关个人信息的情况下,政府部门应在可行且符合法律要求的范围内,为公众提供参与算法解释听证的机会,向公众宣传并提高其对标准和其他政策的认识。三是公平性审查制度。政府部门在考虑与人工智能应用相关的监管措施时,应依法考虑有关系统及其算法应用产生的结果和决策的公平性和非歧视性问题,并考虑与现有流程相比是否可能会降低非法、不公平或其他歧视性影响。四是信息披露制度。对于具有潜在危害的人工智能,政府部门可以要求披露其相关设计的利益考量、适用范围和技术水平,以及应对可能风险的预防措施和技术手段。五是成本收益分析制度。政府部门应当根据已确定的或者可预期的法律责任来评估相关的成本、收益,从而选择那些能够带来最大净收益(包括潜在的经济、环境、公共卫生和安全等)的方法,使之符合比例原则的要求。六是区分监管制度。借鉴美国人脸识别规制的经验,可以对人工智能的应用分领域、分场景采取严格程度不一的监管措施,既防范人工智能可能引发的不可承受的风险,又保障了相关产业的健康发展。比如,对于人脸识别技术的应用首先充分尊重用户的意志自由,其次基于特定目的划定不得应用的一些“禁区”(比如美国严禁政府部门使用),继而对违背前两条规则的违法主体规定严格的惩罚措施。七是研发人员法律培训制度。人工智能的运行机制实际上就是系统基于数据执行算法的过程,必须通过代码形式才能真正作用于人工智能系统。研发人员可以通过初创、修改或者调整代码等行为来改变人工智能运行规则,从而产生不同的行为效果。因此,应该通过对研发人员的监管性培训,推进法律规则的代码化和标准化,将政府部门的监管理念编入人工智能的电子系统之中。
第三,司法机关应当通过判决来建立人工智能责任追究的法律适用规则、责任分配、司法审查标准和判决执行机制。在美国,法院对于人工智能引发的个体的民事责任之诉,其职责主要是通过判决来分配人工智能产品设计者、制造者、销售者和使用者之间的法律责任。(73)这一点与我国并无差异。从人工智能规制的公法路径来看,我国司法机关应当重在确立追究人工智能引发的刑事责任的归责要件和刑事责任的承担方式,以及行政责任的判断标准。另外,对于人工智能引发的行政纠纷,法院应当通过判决来确定更加具有包容性的审查标准来补充救济。比如,对算法审查应当确立正当法律程序标准、禁止歧视标准、比例标准、禁止不当关联标准等。此外,司法判决的书写制作应当采取通过程序语言能够准确表达的文本规范,以配合区块链智能合约在司法判决执行中的应用。“区块链智能合约简化了申请执行的立案流程,便利了当事人并促进了法院审判与执行的有效衔接。与智能合约相结合的司法联盟链具有不可篡改、可追溯、自动执行等技术特点,能够与司法执行的某些业务痛点相匹配,对于解决‘执行难’‘执行乱’问题必将大有裨益。”(74)
六、结语
未来已来,将至已至。人工智能带来的美好图景与社会风险都已然成为现实。然而,人工智能规制的法律路径却并不清晰,在世界各国呈现出多元化的趋势,尚不存在一般化的法律路径。具体而论,在每一个细分领域里,必然存在着不同的规制方法、进路和手段。但总体观之,美国人工智能公法规制以立法机关作为建立监管体制和树立基本原则的起点,行政机关发挥政策的平衡和调节作用,司法体系发挥保障和事后监管作用,基本形成了综合性规制的整体框架,初步展现了公法规制的社会效果。有鉴于此,我国应当充分且审慎地考量一些国情变量,努力探索综合性的公法路径来对人工智能进行有效规制。
当然,本文所建构的公法路径只是多种法律规制方案之一,并不意味着它具有毋庸细琢、简单应用的可适性。但确定无疑的前进方向是必须建构一种对人工智能进行事前、事中和事后全过程的监管机制,可靠无误的检验标准是这种机制对于各国人工智能发展所带来挑战的回应能力。
注释:
①王成:《人工智能法律规制的正当性、进路与原则》,《江西社会科学》2019年第2期,第6~7页。
②miriam c.buiten,"towards intelligent regulation of artificial intelligence," european journal of risk regulation,vol.10,iss.1,2019,pp.41-59.
③nicolas petit,"law and regulation of artificial intelligence and robots:conceptual framework and normative implications," working paper,2017.
④ibid.
⑤ibid.
⑥此类研究主要有彭诚信、陈吉栋:《论人工智能体法律人格的考量要素》,《当代法学》2019年第2期;郭万明:《人工智能体法律人格论》,《广西社会科学》2020年第2期;蔡文坤:《试论人工智能的法律人格》,《知与行》2020年第4期;曹险峰:《人工智能具有法律人格吗》,《地方立法研究》2020年第5期等。
⑦彭诚信、陈吉栋:《论人工智能体法律人格的考量要素》,2019年,第55页。
⑧jacob turner,robot rules:regulating artificial intelligence,new york:palgrave macmillan,2019,p.211.
⑨韩春晖:《无人机监管的法治变革与公法建构》,《河北法学》2019年第10期,第58页。
⑩miriam c.buiten,"towards intelligent regulation of artificial intelligence," 2019,p.1.
(11)karen yeungk,"big data as a mode of regulation by design," information communication & society,vol.20,2017,pp.118-136.
(12)张凌寒:《算法权力的兴起、异化及法律规制》,《法商研究》2019年第4期,第65页。
(13)卢克·多梅尔:《算法时代:新经济的新引擎》,胡小锐等译,中信出版社,2016年,第213页。
(14)doaa abu-elyounes,"contextual fairness:a legal and policy analysis of algorithmic fairness," university of illinois journal of law,technology & policy,2020,p.51.
(15)david engstrom & daniel ho,"algorithmic accountability in the administrative state," yale journal on regulation,2020,pp.820-827.
(16)committee on risk perception and communication,national research council,improving risk communication,national academy press,1989,pp.72-82.
(17)城仲模主编:《行政法之一般法律原则(一)》,三民书局,1999年,第145~149页。
(18)《“人脸识别第一案”判了》,http://www.xinhuanet.com/local/2020-11/22/c_1126771968.htm。[2021-10-17]
(19)kenneth a.bamberger,"technologies of compliance:risk and regulation in a digital age," texas law review,vol.88,no.4,2010,p.669.
(20)苏宇:《算法规制的谱系》,《中国法学》2020年第3期,第170页。
(21)同上,第179页。
(22)肖扬宇:《技术风险犯罪的现实展开、规制逻辑及治理革新》,《江西师范大学学报(哲学社会科学版)》2020年第4期,第72页。
(23)袁曙宏等:《现代公法制度的统一性》,北京大学出版社,2009年,第546页。
(24)jean-louis van de wouwer,"nascent drone regulations worldwide:a legal framework for civil rpas (remotely piloted aircraft systems)," european networks law and regulation quarterly,vol.4,no.2,2016,p.137.
(25)于立深:《中国公法学现代化的方法论进路》,《法商研究》2005年第3期,第19页。
(26)韩春晖:《无人机监管的法治变革与公法建构》,2019年,第69页。
(27)donna a.dulo (ed.),unmanned aircraft in the national airspace:critical issues,technology,and the law,chicago:american bar association,2015,p.128.
(28)"regulation of artificial intelligence:the americas and the caribbean," https://www.loc.gov/law/help/artificial-intelligence/americas.php.[2021-03-20]
(29)ibid.
(30)张涛:《后真相时代深度伪造的法律风险及其规制》,《电子政务》 2020年第4期,第96 页。
(31)"regulation of artificial intelligence:the americas and the caribbean," https://www.loc.gov/law/help/artificial-intelligence/americas.php.[2021-03-20]
(32)ibid.
(33)ibid.
(34)ibid.
(35)ibid.
(36)ibid.
(37)ibid.
(38)陆凯:《美国算法治理政策与实施进路》,《环球法律评论》2020年第3期,第21页。
(39)m.a.franks & a.e.waldman,"sex,lies,and videotape:deep fakes and free speech delusions," maryland law review,vol.4,2019,pp.892-898.
(40)ethan n.brown,"please,don't let me drone on:the need for federally-led and state-collaborated action to promote succinct and efficient drone regulation," kansas journal of law & public policy,vol.26,no.1,2016.p.48.
(41)"regulation of artificial intelligence:the americas and the caribbean," https://www.loc.gov/law/help/artificial-intelligence/americas.php.[2021-03-20]
(42)jacob turner,robot rules:regulating artificial intelligence,2019,p.230.
(43)"regulation of artificial intelligence:the americas and the caribbean," https://www.loc.gov/law/help/artificial-intelligence/americas.php.[2021-03-20]
(44)r.david edelman,"here's how to regulate artificial intelligence properly," washington post,jan.13,2020.
(45)"regulation of artificial intelligence:the americas and the caribbean," https://www.loc.gov/law/help/artificial-intelligence/americas.php.[2021-03-20]
(46)ibid.
(47)程岩:《规制国家的法理学构建——评桑斯坦的〈权利革命之后:重塑规制国〉》,《清华法学》2010年第2期,第149~152页。
(48)matthew u.scherer,"regulating artificial intelligence systems:risks,challenges,competencies,and strategies," harvard journal of law & technology,vol.29,no.2,2016,p.378.
(49)ibid.
(50)ibid.
(51)ibid.
(52)matthew u.scherer,"regulating artificial intelligence systems:risks,challenges,competencies,and strategies," 2016,p.381.
(53)陆凯:《美国算法治理政策与实施进路》,2020年,第16页。
(54)49 u.s.c.40203(b)(1).
(55)49 u.s.c.40113(e).
(56)michael calvo,"uncertainty and innovation:the need for effective regulations to foster successful integration of personal and commercial drones," southwestern journal of international law,vol.22,no.1,2016,p.190.
(57)matthew u.scherer,"regulating artificial intelligence systems:risks,challenges,competencies,and strategies," 2016,p.37.
(58)如果把算法视为商业秘密,则是一个民事侵权问题,属于私法救济。汪庆华:《人工智能的法律规制路径:一个框架性讨论》,《现代法学》2019年第2期,第58~59页。
(59)matthew u.scherer,"regulating artificial intelligence systems:risks,challenges,competencies,and strategies," 2016,p.38.
(60)nicolas petit,"law and regulation of ai and robots:conceptual framework and normative implications," 2017.
(61)langdon v.google,inc.,474 f.supp.2d622,629-30(d.del.2007).
(62)汪庆华:《人工智能的法律规制路径:一个框架性讨论》,2019年,第59页。
(63)nicolas petit,"law and regulation of ai and robots:conceptual framework and normative implications," 2017.
(64)jacob turner,robot rules:regulating artificial intelligence,2019,pp.319-357.
(65)matthew u.scherer,"regulating artificial intelligence systems:risks,challenges,competencies,and strategies," 2016,p.39.
(66)jacob turner,robot rules:regulating artificial intelligence,2019,p.315.
(67)韩春晖:《无人机监管的法治变革与公法建构》,2019年,第66页。
(68)2014年,党的十八届四中全会通过的《中共中央关于全面推进依法治国若干重大问题的决定》提出,“建设中国特色社会主义法治体系,必须坚持立法先行,发挥立法的引领和推动作用,抓住提高立法质量这个关键”,首次将“立法先行”确立为中国特色社会主义的法治原则。
(69)richard a.epstein,"why the modern administrative state is inconsistent with the rule of law," nyu journal of law & liberty,vol.6,no.2,2013,p.491.
(70)胡元聪、曲君宇:《智能无人系统开发与应用的法律规制》,《科技与法律》2020年第4期,第66页。
(71)郑智航:《人工智能算法的伦理危机与法律规制》,《法律科学》2021年第1期,第26页。
(72)本部分前5项制度参考了美国白宫2020年1月发布的《人工智能应用监管指南备忘录(草案)》。
(73)matthew u.scherer,"regulating artificial intelligence systems:risks,challenges,competencies,and strategies," 2016,p.43.
(74)杨成铭、孙超辉:《区块链技术应用视阈下我国司法执行法律制度的变革》,《广西大学学报 (哲学社会科学版)》 2021年第3期。