摘要:加快数字化发展是我国的战略规划,然而私权制度的底层逻辑还远不能支撑这一规划。算法归责应有理性标准,理性标准是民事归责制度中的必要评判工具,同时算法适用理性标准可以促进正义,还具有技术价值。然而,算法与传统主体有很大差异,算法归责直接适用传统主体理性标准将面临困境。所以,在现阶段应当明确算法的意思参与机制是归责的前提;传统主体在算法的开发使用中应承担应有的积极注意义务;通过承认部分算法的行为主体性和为算法设计独立责任来协调算法与传统归责体系的结构冲突。
一、问题的提出
我国“十四五”规划用了整整一部分来为“加快数字化发展,建设数字中国”谋篇布局,它既包括了数字经济与数字社会,也包含了数字政府,甚至考虑到了数字生态。而事实上,“十四五”规划中,从创新科技,到社会民生都已经与数字技术密不可分。数字空间已经成为或将要成为与实体空间平行的人类意思、行为与关系的空间。在数字空间中,数字主体也逐步发展起来。学界主流观点认为,在满足一定条件下,数字主体(或人工智能)应当被赋予法律上的主体地位(或法律权利)。1虽然这些条件尚难以短时间内满足,但人们在双层空间的生活中,已经开始逐步接受数字主体。比如,相对于过去人们对商标与商号的依赖,现在人们更多地在使用算法为自己选择商品。2商标与商号的底层逻辑是传统民法的主体及责任机制,而算法的行为与责任却没有相应的机制建立起来。
面对现实世界的复杂性,理性标准是民事归责制度中的必要评判工具。而算法对民事行为的参与更增加了这种复杂性,没有适应算法参与的新理性标准,算法归责几乎不可能完成。
算法的民事归责本质是在法律上设定一个“理性算法”,即什么样的算法才是法律上可以接受的一般算法。这实际比“理性人”的设定更为困难,因为在现有的技术条件下,很多行为并非由算法独立作出,算法参与决策是目前主要形态。所以,理性算法还承担着在算法参与决策行为中与传统主体责任区分的任务。
从计算机时代,到互联网时代,再到移动互联时代,技术越来越多地进入现代人的生活,而算法时代不管以什么形态到来,都必将同样深刻地改变社会。为此,算法民事归责的理性标准的讨论将具有重要的理论价值。
二、算法归责应有理性标准
算法根据其智能程度不同,对人的决策参与程度也不同,甚至某些算法可以基于深度学习进行一定程度的自动决策。例如,在法律领域,ibm公司的“ross”等“虚拟律师”已经加盟律师事务所进行独立的法律分析,odr算法已经在网上独立解决纠纷,保释算法决定被告是否可以保释;外科医生也越来越依赖算法来进行诊断和选择最佳的治疗方案;随着无人驾驶技术的发展,在不远的未来,无人驾驶算法可能取代人类司机。所以,算法参与决策在各种工作中越来越常见。有行为就可能有损害,这种损害可以由侵权行为造成,也可以由违约行为造成。通过解释,有些损害可以在既有的民法过错理论框架内进行评判。而一旦算法参与到了人的意思机制中,过错评判就变得更为复杂。算法归责也应有理性标准,以使评判公平且高效。
(一)理性标准是归责制度中的必要评判工具
在民法制度的运行中,理性标准的构建具有必要性。民法的社会功能在于定分止争,在于对责任进行划分。而于此过程中,主观方面的考量具有特殊的复杂性。在法律的合法与非法二元评判体系中,客观方面比如是否违约、是否有侵权行为等,都具有相对确定的标准,而主观方面却难以找到一个明确标准。立法无法完成在复杂社会环境中对当事人主观方面是否合法进行相对精确描述的任务,只能将此任务交给法官在具体案件中具体评判。但是,将归责交由法官评判又不能衍生成司法的恣意,法官应当遵循一定的方法在个案中探寻当事人主观方面的应然状态,比如罗马法的善良家父标准、法国民法的善良管理人标准等。
拒绝对算法进行理性分析的原因可以概括为:算法不是民事主体;3算法没有独立的责任能力;算法由人设定,不具备单独接受理性评价必要等。4但现在已经有人在自动驾驶这一特定领域讨论算法的理性。5综合分析,反对对算法适用理性标准有以下两个方面的理由:
其一,直接理由是算法不是人类。6比如有学者不同意将过错理论适用于软硬件,给出的主要理由是“过错分析的一个组成部分是确定一个理性人在相同的情况下是否会有类似行为。然而,无论是硬件还是软件都不属于普通人的定义范围。”7事实上很多学者都坚持人类中心主义。8
其二,“行为”或“选择”的分析不适用于算法。有人反对对算法进行人格化,9当然也反对对其适用人的理性标准,其理由是算法没有自我意识、没有幸福感,只有被开发者设定的目标。10黑格尔认为,“一切事物都应该为之存在的就是人、自我意识”,11康德认为,人是立法的“终极目的”。12这构成了算法理性否定的伦理基础。然而,关于算法主体性的讨论应当发展地看待,毕竟法人、船舶、财团都可以被拟制为民法上的人。现实问题是,算法由人类开发、运营和使用,区别算法与其人类开发者、运营者和用户的主观状态是否存在必要。换言之,算法与其人类开发者、运营者和用户的理性是否总是一致。如果总是一致,那么探究人类开发者、运营者和用户的理性为已足;而如果不一致,引发的新问题是,若不对算法进行行为主观状态的分析,如何进行相应的归责。
(二)算法适用理性标准具有社会价值
理性标准之所以在制度上可以促进正义,原因有二。13其一,威慑。使可能侵犯他人权益的人,为使自己不承担责任而不为这些行为,14或从另一个角度说,使承担注意义务的人,正确地尽其注意义务。其二,公平。在一方有过错或过失时,使其承担责任以实现公正,定分止争。民法过错责任的理论基础之一是公正,即对损害的赔偿。当然理性标准是让具有主观过错的人承担责任与理性行为人不承担责任之间的平衡。15这一平衡取决于很多因素,其中最为重要的是效率与公正的价值冲突,比如过分地强调责任会抑制民事行为的发生。
算法归责适用理性标准还具有技术价值:
首先,促进技术的发展以及技术与社会的融合。毫无疑问,技术的发展会带来社会问题。但一味追求社会规范的一致性,而压抑技术的发展显然不利于整个社会的福祉。所以,合理地分配注意义务,进一步合理地分配责任与相应的风险,是促进技术发展及其与社会融合的最根本性选择。
其次,容纳更高的技术发展。更强算力可以处理更大量数据,并且随着深度学习算法的发展,算法的智能程度也会越来越高。这种技术上的增长必定会对算法民事行为的类型、数量、参与度等产生重大影响,从而也对其相应的损害产生影响。构建更灵活的、适应性更强的、技术更加中性的理性标准,16可以容纳更高的技术发展。法律对技术更高的包容性有利于法律在未来技术调整进步的时代保持其稳定性和确定性。
最后,相对产品责任制度、无过错责任加保险制度对算法适用理性标准具有优势。其一,理性标准较产品责任适用的范围更广泛。比如在医疗领域,医生很容易证明自身遵从了医疗操作规范与指导,符合医疗流程,而这并不代表医生提供的医疗服务没有瑕疵,不构成侵权。而若适用职业习惯作为标准,则更多的职业者可以逃避责任。医疗算法如果没有相应的理性标准,也会产生同样的制度缺陷。其二,理性标准较产品责任的诉讼成本更低。产品责任首先要证明产品存在瑕疵,而这对于算法以及包含算法的产品来说或难以完成或成本过高。其三,理性标准抑制侵权,无过错责任抑制创新。因为无过错责任不考虑主观状态,是由所有类行为人一并通过保险或概率风险承担责任。这增加了无过错责任基础行为的一般成本,概括地抑制了这一类行为。17
三、算法不能直接适用传统主体的理性标准归责
(一)理性标准的制度逻辑
理性标准一般是通过建立一个理性人形象作为参照来评判案件中的当事人。“理性人是一个在对行动目标的认识及实现目标手段的选择上不犯错误的假想人。”18确定当事人的主观状态的要件有四:存在注意义务;未尽注意义务;存在损害;未尽注意义务与损害之间存在因果联系。19如果一个理性的人可以预见到损害的发生,而行为人应当预见却没有预见,或预见却没有避免损害的发生,则行为人没有尽到注意义务。法院在引用理性人的标准时,经常判断在同等条件下、同等知识的情形中,一个理性人会怎样做。
理性标准取决于注入这一标准的“理性”本身的内涵,可以分为规范标准与积极标准。在理性标准如何确定的问题上,传统理论有主观标准和客观标准的区分。从字面意义上看,主观标准更注重当事人的内心意思,而客观标准更注重当事人表现出的行为。事实上,不管是主观标准还是客观标准都是“客观标准”,都应当是可以观察和证明的。而所谓主观与客观的界分更多是法官视角的不同。若法官站在更为抽象的、更像立法者的角度,则是客观标准;若法官更多地站在当事人的具体环境中,则是主观标准。所以,为避免语义上的混淆,“规范标准”与“积极标准”的表述更为适当。
一方面,理性的规范标准,即作为一个概念中的理性人应当如何行为,或如同立法中拟制了一个理性人在同样的情况下应当如何行为。霍姆斯认为注意义务是“指一般主体对一般主体的义务,不考虑任何一方的特殊情况,如所有人都有不实施殴打和威胁的义务”20。规范的理性人标准理论上应由社会价值指引,但理性的规范标准也是一个模糊概念,当法律价值取向不同时,它也随之改变。一种可能是按照康德的平等自由思想,人必须以与他人自由共存的方式行事,所以合理的注意义务就是人的自由与他人不受自由行为伤害两者的调和。21另一种可能是理性必须实现经济效率(福利)的最大化。当采取预防措施以防止损害的成本低于预期的损害时,就必须承担赔偿责任。换言之,当一个人没有采取经济上具有效益的措施时,他的行为是非理性的,事实上这是将社会理性内化为个人理性。尽管这两种方法在分析具体案件时差异不大,但对不可预见的风险的分析却有所不同。因为所有人类的活动都包含了不可预见的风险,所以每个人都准备好了接受这种风险,而每个人同时不愿意接受可预见的风险。22在现实中,理性的规范标准充当了规范与自由心证的中介,使法官在评判当事人行为时可以找到一个方法指引。
另一方面,理性也可以是一个积极标准,该标准是将当事人的行为与其他人的行为进行比较:如果当事人像其他人那样行事,则他就没有违反他的注意义务。然而在这个标准中,“其他人”本身就是一个复杂的问题。不同人可以给予其不同内涵,比如“其他人”是指普通人、一般人或谨慎的人、理想的人。即使认为“其他人”是指普通人,也可以有很多理解,比如所有人的平均水平,或大多数人,或“中人”(处于中间位置的人,类似于中位数)。23所以,它要求法官积极地超越自身认知图式,以他人的认知图式进行认知。24就规范标准与积极标准的区分来说,前者操作要求低,更符合法官规范主义的行为习惯,而后者则更接近于理性标准的制度初衷,也更能适应专业分工后对不同职业的理性要求。
理性标准首先是一种规范,同时也要有积极考量。理性人是用于评判当事人行为的拟制形象,其作用在于参照与比较。在法律的二元评判机制中,当事人的行为优于理性人,则为合法;反之,则非法。既然是拟制,其必然包含法官根据其自身经验抽象出的可能性,而非用一个具体的人进行个案场景的重现。在具体案件中,一个人的性别、年龄、受教育程度、生活状态、心理状态、认知等都会对理性人的具体构建产生重大影响。所以,理性人并非一个只有空壳的“常人”,而是在深入具体理性标准的时候,会附着更多基于个体差异性的考量。从应然的视角看,理性标准尽管立法上难以描述,具有现实的复杂性,但最终是规范的、抽象的、客观的,同时也要考虑具体行为人的认知状态。“理性人标准需要通过结合个案因素予以立体化构建,以确定理性人具有什么样的能力与知识。理性人所置身的场景也应当根据个案进行具体构建。最终还是要通过法官的心理机制,来判断已具体化的理性人。”25这对于判断算法理性非常重要,因为仅依据一般理性,会使算法、算法的开发者、运营者和用户理性的评判极为困难和不公平。当然,过于具体化会使二元评判难以进行,也有可能造成理性人注意义务的不当扩大或限缩。26
(二)算法相对传统主体的差异性
在民法中,直接对算法适用传统理性标准会导致大量不公平现象发生。因为现阶段算法尚不是民事上的主体,所以直接对算法适用过错责任不现实。27工业时代,机器被认为是人的肢体延伸,算法时代,算法也可以被认为是人的肢体与大脑的延伸,而两者的不同在于:机器不会存在过错,所有过错都可以归于使用机器的人;而利用算法参与决策的人却不一定可以完全掌握决策过程,特别是当算法具有自我学习能力之后,其决策的复杂性远非一般人可以理解,或者说一般人不愿甚至无法付出理解算法决策机制的成本。很多学者建议赋予或有条件地赋予机器人以独立法律地位,这就意味着算法有可能不再是工具而是使用工具的“人”。
算法理性标准面临的第一个问题就是会不会使算法的受害人面临相对于传统主体的受害人来说更高的风险,却只能得到更少的赔偿。比如,你利用算法购买机票,希望购买更符合目的、也更便宜的机票,但算法却通过数据分析发现,你长时间地使用同一算法,而在不告知的情况下进行了1%的加价。在这种情况下,用户面临着难以充分了解算法机制的风险,从而遭受损失,但又因为损失过小(有时可能只是几元、几十元),不愿意付出更大的成本(诉讼的费用以及时间成本)来获得赔偿。
当然,没有算法参与的民事纠纷也存在不公平的情况。与“大数据杀熟”相对比的是实体店铺的营业员也会区分顾客而给予不同的价格,因为法律有明码标价的要求,价格的差异可能通过折扣或赠品体现。此外,在司法实践中,当事人的财富情况、受教育程度、认识等因素也会对司法结果产生重大影响。但是,这些影响并不像算法参与民事行为对司法结果的影响那样具有系统性。其一,算法与人的差异远大于人与人之间的可能差异。其二,算法行为具有更强的可复制性,传播速度极快。其三,算法对人的优势是确定的、单方的和压倒性的,这种优势还会随着技术的进步而扩大。如果说人与人之间的差异是随机的,比如被车撞后,能不能得到赔偿取决于司机是有钱人还是没钱人,那么算法与人的差异虽然并不显著,但却是单方向的、难以逆转的。
算法在决策过程中也有很多方面不及人类。算法可能遭受技术故障或容易受到网络攻击。算法缺乏创造力和灵活性,而在许多情况下,创造力和灵活性正是成为专业领域专家的关键要素。算法克服其僵化性的手段之一是利用实时数据,但并不是所有算法都有在线升级和读取数据的能力,这本身就构成了算法的瑕疵。并且开发者或运营者也很少对算法的僵化性和不适应性进行适当的告知。此外,当算法遇到不属于其代码设定的新参数时,或者当某些调整不符合其编程框架时,不一定能够相应调整其决策。
(三)算法归责直接适用传统主体理性标准面临困境
关于算法归责使用传统方法将会面临困境,已经有了很多研究,但是以下两个方面很少被提及:
其一,算法参与决策让诉讼变得更为复杂。比如,一个心脏病人由两个医生进行治疗,与由一个医生通过算法辅助治疗,以及与一个医生和一个算法共同治疗,一旦出现医疗事故,在责任的认定和分配上,显然后两者比前者的诉讼框架和考量因素要复杂得多。28随着技术的进步,算法参与决策的广度与复杂度都获得极大提升。除了医疗领域,再比如在金融领域,算法可以帮助银行对客户进行信用评估,进行贷款的风险控制,为复杂保险产品定价,甚至进行金融上的预测;29在法律领域,司法辅助算法可以帮助法官整理甚至辨别证据,搜集法律依据,30甚至可以草拟或审查法律文书。对于这些行为,如果立法不给予明确的评判标准,司法将失缺准绳。
其二,算法归责的裁判结果可能会对算法领域的创新和技术进步产生寒蝉效应。虽然证明算法的过错本身更为复杂,成本也更高,但是影响司法判决的因素更复杂。由于法官的情感因素、舆论影响和无过错理论影响等原因,法官更倾向于使算法的开发者和运营者承担责任,特别是在算法与人类连带承担责任的情况下(比如算法参与决策时),因为受害者可以任意选择一方,请求其承担所有责任。31过重的责任会对算法的开发者和运营者的预期产生负面影响,从而打击其信心,使其放弃原本的投入。
寒蝉效应特别值得关注。其一,算法的发展是渐进的,也是困难的。一时的阻力可能导致长期影响,而且随着其他相关算法的进步,某一领域算法的落后将可能无法弥补。其直接原因是先进的算法已经更新迭代,研究落后的算法在市场经济条件下是不合算的。其二,算法的进步是新技术革命的核心,源于社会原因的停滞不利于整个人类的福祉。算法的进步不但给人类带来了生活的便利和经济的繁荣,更展现出未来无限可能。并且,算法的进步是指数级的,随着算法深度学习能力的提升,其发展可能再也不受制于开发者。现阶段的停滞有可能导致未来重大损失。目前世界各国及国际组织都在大力发展人工智能技术,同时也在积极鼓励人工智能的研究,比如联合国教科文组织、世界科学知识与技术伦理委员会、美国、日本、韩国等都有相关文件公布。32所以,算法的制度设计不能不考虑其技术影响的层面。
四、算法归责理性标准的现阶段措施
算法正在突飞猛进地发展,本身又包含着极大的复杂性,所以对算法的行为与责任进行一个明确而规范的评判非常困难。而算法却又事实上大规模地参与着民事行为。因此,立法与司法需要一个类似于传统主体理性标准一般的标准来评判算法。
(一)明确算法的意思参与机制是归责的前提
人类和算法在实现类似功能时各有其优缺点,算法与人类协作,即算法参与决策是目前很多工作中的最优模式。算法可以是线性的,也可以是非线性的,这对其所参与的违约、侵权等行为的分析框架有着本质影响。虽然算法的开发者可以设计特定的代码,实现部分特定的运算,甚至完全阻止部分决策结果的产生,但算法的开发者并不等于算法,算法的决策结果也并不会与开发者所预期的相同。
从技术角度看,算法参与决策可以分为检索过滤算法、排序精选算法、偏好模拟算法和家长式算法。33检索过滤算法是指算法决策的参数以及每个参数的权重都由人来设定,然后算法根据这些设定的偏好进行选择。排序精选算法是指用户从算法设计者准备的固定菜单中选择决策参数。偏好模拟算法是指使用的决策参数不完全基于人的明示偏好,相反算法会基于一定数据模拟或预测人的偏好。家长式算法是指算法会为用户作出决策,即使决策结果与人的明示偏好相悖。家长式算法有意识地更多考虑长期偏好而非短期偏好,更多地考虑理性偏好而非情感驱动偏好。
算法参与决策的行为和选择具有与人类内部协作完全不同的结构。但从理性参与的角度看,可以将算法参与决策分为“命令-结果式”“推荐-选择式”“结果-同意式”“结果-否决式”和“功能-实现式”。其中,“命令-结果式”算法是指人类给出命令,算法予以执行的模式。这类算法对应检索过滤算法,相对比较线性,算法在决策中参与程度不高。“命令-结果式”算法可以被认为是人的肢体延伸,责任应当由发出命令的人承担。“推荐-选择式”算法主要对应排序精选算法,固定菜单形成的过程就是算法推荐的过程。34算法推荐的主要原因在于选项数量过多,用户难以进行选择。而算法在推荐的过程中,已经为用户进行了初步选择。“结果-同意式”和“结果-否决式”主要对应偏好模拟算法,算法根据模拟或预测的人的偏好即用户模型,初步作出决策,由人类进行同意或否决。而“结果-同意式”和“结果-否决式”之间也存在本质区别。“结果-同意式”是算法的决策必须经过人类的同意才可以施行,而“结果-否决式”是只要没有人类的否定,算法的决策就可以成为行为。事实上,“结果-否决式”算法已经部分实现了算法自治。“功能-实现式”主要对应家长式算法,人类为算法设定一个抽象目标(即算法功能,比如减肥),算法为实现这一目标会忽略人类的一些具体命令(比如购买夜宵)。35“功能-实现式”是深度自治的算法,其复杂程度远超前几种算法。
在理性参与的程度评判上:一个极端是人类发出命令,算法线性地执行命令;另一个极端是人类设定一个抽象的功能,人类放弃了决策权,算法完全自治地实现这一功能。所有算法的意思参与都在这两极之间的标尺上平移,有些界限并非清楚明确。比如在“推荐-选择式”算法中,人类本应掌握决策的主动权,但算法推荐本身也可能只是一种“催眠”手段,为的是诱导用户作出某些选择。在偏好模拟算法和家长式算法中,人类可以参与算法决策的程度非常有限,因为算法调用的数据是人类难以、也不愿去充分了解的。
在行为主体的判定上,“命令-结果式”“推荐-选择式”“结果-同意式”算法参与决策可以认为是人类做出的行为,而“结果-否决式”和“功能-实现式”算法参与决策可以认为是算法行为。“表决式”决策广泛地存在于法律拟制民事主体的意思机制中,比如法人。36与此相似,行为主体的判定对民事法律关系的分析具有重要意义。所以,即使在算法尚未成为法律上的主体的条件下,也可以有条件地将算法拟制成为民事法律关系的节点,以形成行为的外观,便于法律关系的分析。而主体的判定以最终决策权的归属为依据,“命令-结果式”“推荐-选择式”和“结果-同意式”算法的最终决策权归于人类,尽管人类也许并不了解算法提供信息的全部过程与内容,但人类至少可以选择终止算法参与决策。而在“结果-否决式”算法中,这一点发生了本质改变,人类只要不表示否定,算法就会实施自己的决策。在这种情况下,人类只是监督者,而非行为者。当然,“功能-实现式”算法中人类的参与程度更低,除了抽象功能的设定外,并不参与具体决策之后的行为。
(二)传统主体在算法的开发使用中应承担应有的积极注意义务
在现有技术条件下,虽然算法越来越多地参与决策,但人类依然掌握着决策的主动权,真正意义上的“功能-实现式”算法相对少见。在这种情况下,很多传统商家以算法为幌子,恶意操纵。技术中立的表象不能掩盖追逐利益的实质,很多商业手段本来就是传统商家的操纵手段,比如个人化定价、广告性排名等。如果将人类与算法的意思、行为与责任混为一谈,不管是算法作为主体,还是人类作为主体,都无法实现理性标准的功能。所以,算法开发者、运营者和用户都应当承担相应的积极注意义务。
首先,开发者(或包括运营者)的理性标准并不是一般理性人的标准,而是专业理性人的标准。理性开发者的标准是其程序开发的能力、决策、实现与一个知识、能力与态度正常的程序开发者相似。37开发者的理性标准高于一般理性人的标准,是因为特定职业者由于在经济和社会中的优势地位而被赋予了较高的注意义务。38并且有时这种注意义务不仅仅是遵循自身职业的常规,更是面对一些法所不允许的危险时,所可以期待的“一个处于行为人立场上的合理慎重职业者”实施的行为。39
其次,并不要求开发者开发出的程序实现的算法达到一般理性人的标准。比如自动驾驶出租车具有将特定乘客运送至特定地点的功能要求,其算法的最终标准是其应当如同一个理性驾驶员驾驶的出租车一样,完成这一功能。但是如果有歹徒手持凶器,胁迫一名女性进入车内,一名理性的驾驶员马上就会发现这一危急情况,并进行必要的处置,典型的是报警。而理性驾驶员之所以会这样做,是因为其不仅是一个理性驾驶员(专业理性人),更是一个一般理性人。相应地,尽管自动驾驶出租车具有丰富的后台数据及强大的算力,但就识别危急情况这一情形,如果没有事前的特殊安排,则难以如同人类驾驶员一样进行适当的处置。人类不管其专业能力如何,其必须具备一般理性人的能力,而算法的开发者具有的专业性,在现阶段只适宜规定为其目标功能所要求的专业性。因为一般理性人的要求过于复杂,不可能由单一功能算法来实现。
最后,从规范标准的角度分析,用户的理性标准就是一般人的理性标准。但如果法律对用户本身就有专业理性的要求,那么用户使用了算法之后,不应当降低其本身的法律要求。从积极标准的角度分析,用户应当具备一个一般用户应当具备的知识与经验。但是用户不应当仅仅是一般理性人,因为使用算法本身就要求用户对算法有一定了解,通过算法的使用,用户也会积累一定的知识与经验。所以,用户的理性标准首先是一般人的理性标准,但随着算法的普及使用,对用户的积极标准事实上会更高。
(三)协调算法与传统归责体系的结构冲突
1. 承认部分算法的行为主体性
就抽象与具体两个标准而言,算法有两个问题需要讨论:其一,算法是否具有独立的行为机制,算法的行为是否都在人类的掌控之下。其二,算法虽然现在不具有财产,没有责任能力,但是如果算法具有了财产,其责任机制是否可能会优于现在的机制。虽然在绝大多数的算法与人共同决策的过程中,算法都处于执行或辅助地位,但随着算法复杂度与自动化的提升,算法的行为也逐步具有了独立性。算法行为具有独立性的条件有三个:
一是算法具有独立的意思。算法的法律主体地位是否被赋予尚值得讨论,但其意思的独立性已经现实地表现在日常生活与工作的各个方面。40有学者认为,人工智能(算法)不具备独立意思表示能力的原因是其不能享有权利并承担义务,41但这并不意味着算法没有独立的意思。算法不能享有权利并承担义务是不具备独立意思的后果,不是原因与前提,相反算法具备了独立意思,法律才需要将算法是否需要享有权利并承担义务纳入考量。如果单纯地强调算法的辅助性,将会使理性的讨论在数字时代陷入困境。
二是算法的意思有不受干预性。算法本身实现行为的过错不一定是开发者的过错,而是开发者通过算法实现行为时而产生的过错。在开发者根据其理性标准没有过错的条件下,算法实现的行为按照一般理性人的标准又具有过错,那么算法本身的参与就是过错的来源。但不管程序员如何努力,都不可能避免所有最终算法实现功能中出现的风险以及由此而产生的责任,原因在于算法的复杂性和不可预见性。所以,算法的理性不等同于开发者的理性,算法意思不一定受开发者干预。
三是算法的意思具有可现实性。算法的意思不仅仅存在于人类的内心意思中,在现代社会人们每天根据算法的建议规划驾驶路线,根据算法的推荐阅读与购物,甚至根据算法的指令进行工作,算法已经深度介入民事法律关系,广泛地形成了具有法律意义的行为。随着算法的发展,家长式算法也会逐步市场化,比如三星与亚马逊合作开发的智能洗碗机,可以检测清洁剂的使用量,并在现有清洁剂用尽时自动定购。在这种情况下,算法本身就可以形成有效的民事行为。
虽然现在只有部分算法可以达到以上三个条件,但承认这部分算法的行为主体性是研究数字社会法律关系的重要一环。
2. 为算法设计独立责任
算法责任是在算法无法达到其他一般算法都可以实现的理性时需要承担的责任。算法责任与其开发者、运营者和用户的责任有本质不同。算法责任与算法独立行为相关,是理性开发者、运营者和用户不可预测和控制的行为的后果。算法在运行的过程中,开发者、运营者和用户会有改变,而算法责任则不因这些改变而改变。换言之,算法的现在开发者、运营者和用户不用为除自身行为而导致的不可控结果负责,而基于算法的技术进步性和不可预测性,算法责任应由历任开发者、运营者和用户甚至社会分担。将算法责任与相关人的责任进行区分,可以促进相关人理性行为,同时也避免了开发者和运营者的寒蝉效应,只要其理性行为就不会因无过错责任而受到追究。
通常认为,在算法具有独立人格及相应的责任能力之前,算法的开发者、运营者和用户需要承担责任,就像雇主为雇员的过错造成的损害、主人为宠物造成的损害承担责任一样。算法侵权责任,根据情况不同,可以适用《民法典》等相关法律中所规定的产品质量责任和管理者责任。算法责任严格化42与主观评判规范化是两大趋势。43
现有机制会增加算法开发、运营和使用的成本。让主人为宠物损害承担责任不用证明宠物具有过错,宠物也没有独立的决策行为,主人在考虑到宠物伤人风险的时候,或选择加强对宠物的看管,或选择不养宠物,不管哪一个都有利于公共福祉,至少不会有害于公共福祉。但是不开发算法将会产生深远的不利影响。雇主为雇员承担责任,因为雇员的决策行为有明确的工作目的性,为雇主利益而工作,雇主应当承担这一责任。依表面逻辑推理,算法也是为开发者、运营者和用户而决策,受益人应当承担责任。问题是证明算法的过错较证明开发者、运营者和用户的过错更难,证明开发者、运营者和用户的过错相对符合现有司法习惯。根据《侵权责任法》第74条、44《产品质量法》第41条第2款,无论是产品质量责任还是管理者责任,举证责任倒置。依此推论,算法受害人在证明自身存在损害并且损害与算法存在因果关系的情况下,算法的开发者或运营者需要承担证明自身没有过错的责任。45这虽然回避了受害者证明难度的问题,却也使算法开发、运营和使用的成本不可避免地增加了。
保险并不能解决算法理性功能(威慑与公平)与寒蝉效应的冲突。解决无过错责任的一般方式就是设定保险,甚至是强制保险。46而这种保险以平均的方式增加了算法的成本,抑制了算法的开发与使用。保险的方式分两种:一种是以算法本身投注责任险,即只要有风险的算法都须投保的险种;另一种是以算法的效益百分比来投保责任险,或者以效益百分比来计提责任财产。两者都没有考虑算法的主观方面,也没有考虑算法不同会导致的风险不同,只是以算法整体的风险作为风险基数进行的大数法则核算。
算法责任独立可以使算法具有可威慑性。算法归责与传统主体归责的一个重要不同是算法不受威慑。即使算法的非理性行为被宣告为非法,而算法本身并没有受到威慑,这仍然不意味着这样的法律不能阻止非理性行为。虽然算法本身不具有自我意识,但不代表算法不“害怕”其行为带来的潜在负面后果。开发者可以在算法中加入过错行为的参数,使其在行为时将过错纳入决策的考量。47并且算法理性在对威慑的反馈方面还具备特有的优势。算法不会像人类一样以可利用性法则作为其决策的基础。