[匈牙利]兹索尔特·兹迪著 王泽山译|算法可解释性和法律推理

B站影视 欧美电影 2025-09-30 09:00 1

摘要:算法可解释性已成过去十年有关自动决策(ADM)讨论的重要主题。该讨论涉及影响个人法律地位或具有法律含义的机器决策或结果的可解释性,即算法法律决策。其可能是由协助法官的软件作出的决策或建议。可解释性已成为“语义过载”的概念并与其他伦理问题和价值重叠。该概念需用于

算法可解释性已成过去十年有关自动决策(ADM)讨论的重要主题。该讨论涉及影响个人法律地位或具有法律含义的机器决策或结果的可解释性,即算法法律决策。其可能是由协助法官的软件作出的决策或建议。可解释性已成为“语义过载”的概念并与其他伦理问题和价值重叠。该概念需用于个别自动决策,尤其是由基于机器学习软件作出的决策,此时可将法律决策与机器决策合并讨论,从而将该主题视为法律推理问题或语言学问题。算法法律决策也应遵循法律推理模式。将规范和事实转化为算法数据时应将数据回译为适当的法律依据。

算法可解释性话题已存在几十年,可归类为计算机科学中“人机交互”的子领域。该论述下的重要子领域涉及机器作出决策和机器输出的可解释性,这些会影响个人的法律地位,其包括某些由机器作出的行政决定,或在司法过程中使用的系统建议。从更广泛意义上讲涵盖了算法法律决策或建议的领域。由机器作出决策和建议有很多好处,机器没有隐藏的意图、偏见或程序,操作合理且没有数据处理限制,尽管人们渴望完全公正理性的决策者,但事实难以达到。这种看似完美决策的痛点之一是机器不能恰当地解释和证明其决策正确。算法可解释性出现了转折,因可解释性已成为“大数据伦理学”和“人工智能伦理学”的重要要求。尽管与自动数据处理相关的某些信息权利已包含在旧的数据保护规则中,但随着《通用数据保护条例》(GDPR)的生效,关于清晰度的争议已经展开。在这些辩论中,可解释性同其他道德要求如可示明性、公平性、透明度、可问责性、自由、尊重人的尊严或自决权一样被定义为道德要求。所有这些要求背后的基本理念是人们有权了解应遵守的规则,以便能够理解影响自身生活的决定性原因以及这些决定如何被追溯到规则。过去几年法律中算法的可解释性概念非常混乱,出现语义过载的情况。笔者尝试对可解释性、透明度、可问责性和公平性的概念作明确区分,并建议仅在机器决策的情况下应用可解释性要求,从而将其与内容—实质预期分开。此外,澄清和缩小该术语的含义提供了重新获得和扩展该主题法律和语言维度的方法。本文所述语言维度指罗曼·雅各布森提出的语言翻译理论在算法可解释性方面的应用。

一、可解释的算法:一个语义上超载的概念

(一)机器作出法律决策的可解释性——历史很短

自动化个人决策作为一个法律概念出现在《欧盟数据保护指令》当中。作为一般性规则,数据主体对此类决定具有“选择退出”的权利。第12条中“获得解释的权利”措辞模糊且不确定,仅规定数据主体有权“获得有关其数据的任何自动处理所涉之逻辑的信息”。该规定已转移到GDPR中并进行了小幅修改。GDPR用部分新的利益相关者许可证补充了有关自动数据处理的规定,还在自动决策范畴内引入了关于“分析”的新规则。解释权仅在GDPR中有关自动数据处理条件下的非约束性条款中提及:此类处理应受适当保障,如向数据主体提供具体信息,获得人为干预、表达观点、获得此类评估作出之决定的解释以及对该决定提出质疑的权利。凡存在机器推理的地方,通常都被设计为有机会求助人类决策者的模式,这些决策程序非常简单。自动决策规则从两方面与“被解释权”混淆。一是法律已开始在数据保护背景下解决整个问题,如果数据保护的终极目标是对个人数据的获取、存储、使用、传输等有明确规则,那么解释权远不止于此,其会为涉及个人权利的实质性决策确立特殊要求,尽管这种决策与其他任何决策一样部分基于个人数据。二是即使在数据保护背景下解释权是否能作为一项法律要求也存在争议。人们对大数据和人工智能在法律与道德方面的担忧大幅增加,大量文章、立法提案等开始讨论其潜在风险,这些文件大多是在道德、伦理期望和原则背景下讨论。尽管形式和背景各不相同,但几乎都体现了可解释性的要求。由于这些文件包含了数十种不同的伦理原则,导致在这种“原理扩散”中可解释性与其他相关概念和原理错综交织。迄今就可解释性的标准而言,除了知晓其是重要的伦理原则外其他问题均不明确,但可以肯定该词在语义上已经过载。

(二)语义过载的根源——算法警惕

混乱出现在几方面。一是仍不清楚可解释性应适用在哪些领域,给定系统/决策的哪个部分应被解释,其旨在避免何种相反或消极状态,以及何为解释的最终目的。本节在确定出现混淆的领域及其原因后,主要目标是证明为了更好地利用该有用的概念,对可解释性的要求应尽可能保持简单。这需要将其解释为一种形式程序标准(不能混淆实质性要求,如决定中的公平正义等),将其与问责制和透明度相区分,并将其专门用于机器决策或输出内容。在处理人所作出的决策时,终极理想是决策具有实质正确性和公正性,但并不要求每个时刻都做到完美。如果法官遵循程序规则,对案件进行仔细彻底地审查,即使最终作出的裁决不完全公平,因其推理是连贯的,社会也会接受这样不完美的裁决。这与机器的情况不同,我们似乎无法容忍机器的结果不正确,对机器的期望似乎比对人类更高。该现象被学界称为“算法警惕”。导致这种预期的因素来自多方面。首先,算法是非常有效的行为控制工具。早在1998年莱西格就认识到了这点,其认为代码(算法)是控制网络空间行为的工具。其次,机器处理的数据涉及定量和数据分类。这种分类的随意性加剧了问题的严重性。如果机器学习是基于数据样本,那么机器自己就会根据“心中”的某些数据划定看似任意的边界,并形成任意的类别,这些类别通常由人类划定。比起机器,人更容易接受这种武断的划分。奥尔森、斯洛瑟和希尔德布兰特也在研究中假设,机器决策存在源于控制、人的尊严和决策可操纵性的“抽象担忧”。围绕采用ADM系统的担忧可以分为三类:控制之争、尊严之争和污染之争。再次,人们担心决策会偏离其最初的价值观。算法决策没有单独的价值观,其基本原理或控制价值来自外部世界。最后,造成算法焦虑的一个主要原因是机器决策有时无法用常识叙事来解释,因“统计”和“常识”解释之间存在巨大差异。

(三)可解释性语义过载的范畴

对可解释性的需求和无法解释的算法/系统/决策的问题出现在各领域,部分系因对算法的警惕。大数据是最早出现的领域,人们常表示基于大数据方法的算法可能会不公平地歧视个人或对其进行无意识的操纵,因此在“大数据伦理”中透明度已成为首要价值,即要求有关人员必须始终了解机器分组或预测所基于的数据。大数据伦理中另一个重要要素是需赋予决策主体质疑的机会,且决策必须以可理解的语言进行论证。大数据叙事大多已被人工智能的解释框架所取代,该框架侧重于其不可预测的、“黑盒”式的操作和非确定性的输出。这种叙事聚焦于基于机器学习的系统现象,强调要使普通人也能理解人工智能的结果。21世纪初这种叙事被另一因素补充,即互联网平台的脆弱性。解释平台内的数据、流程、算法和输出的需求是欧盟委员会最新平台监管方案中反复出现的关键要素。所有这些导致了对可解释性的要求成为语义过载的概念。这种过载至少表现在三个方面:首先,应解释何处不明。某些情况下该要求适用于整个系统,其他时候不适用于系统本身而适用于系统的决策或输出。在此情况下,“可解释性”意味着给定的输出必须可解释,就像决策者必须能够解释其决策一样,这意味着需要为特定的决策提供适当的理由。此时根据法律论证的结构重点是了解什么指导了决策以及哪些事件和情况被纳入考量的范围。其次,算法过程或决策的“可解释性”或“不可理解性”可以指我们希望避免的不同事情。“不可预测性”至少可指三个方面。其一,算法可能无法访问,因其由某人所有而此人不想透露。其二,即使算法的操作不是秘密的也有可能因某种原因而过于复杂。其三,当存在“无法用明晰的故事来解释模型中的统计关系”时,算法可能是“非直观的”。最后,期待一种解释也会影响何种解释会被认为可接受以及什么被认为是解释的目的。这种解释可被视为对未来行为的指导或对决策提出质疑的基础,但它也可以维持整个决策系统的可接受性和合法性。

(四)可解释性的相似概念和简化建议

为了化解这种语义过载,应将可解释性从相关概念中分离。将这些相关概念分为两类较为合适:在性质上更具程序性和形式性的概念以及在内容上更具实质性的概念。在此分类中,通过将可解释性放在程序—形式组别进行澄清是合理的。在内容—实质概念中,合法性、公平性、非歧视性和自主性往往作为与可解释性密切相关的期望出现。虽然这与可解释性的性质明显不同,但两者间存在强关联性,因可解释性不仅意味着提供解释对机器决策进行补充,还意味着这种解释必须满足某些实质性价值的最低限度。从本质上讲,弗洛里迪和考尔斯对此持相同观点,在阐明这些原则之间关系的同时,提出可解释性使得其他原则(善意、自主和正义)更为优先。然而这并不意味着明确性(以及透明度和问责制)与自治、公正等实质性期待没有本质区别。在朗·富勒的“程序法律理论”所依据的那种“程序性”原则与实体性原则之间,也能发现同样的关系。其在研究中区分了“法律内在或内含的道德”与法律必须实现的实质目标或价值。尽管后者是开放的,但很难想象其没有前者的法律体系。

在区分了可解释性和实质性标准之后,仍有一些原则需加以区分。分别是四个接近的概念:透明度、问责制、可解释性和可理解性。这些概念可区分成各种不同的关系,有时也可被当作同义词或同一层次的补充概念。因尚不清楚可理解性是应被解释为整个过程或系统的可理解性,还是仅解释为单个案例产生的系统输出决策或建议的可理解性。在该点上,完整程序或系统的结构和运行最好通过透明度的概念来表达。相应地,当出现某人是某程序的所有者及其对最后操作负责的问题时,问责制原则就更具相关性。可解释性涉及为机器输出找寻合理的解释,因此其包含这样的期望:即决策或建议应说明管理系统的规则并展示背后参考的事件。在三种自动生效的状态中,可解释性主要是为了解决过于复杂和非直观输出的问题,而通过规定透明度或问责制,可以更有效地打击秘密算法。弗洛里迪和考尔斯的研究在正确认识可解释性与实质性原则区别的同时,认为可解释性是包含可理解性和可归责性的一般性原则。尽管这三个程序原则之间存在一定联系,但并不是必然的联系。可理解性(可解释性)主要关注语言维度,问责制则寻求人类承担的最终责任,透明度意味着知道在什么情况下和什么程序中使用这些建议,问责制意味着明确谁可以使用它以及用于什么目的,如果系统提出错误的建议则谁应该负责。可解释性标准反映的是输入端的规则以及输入数据与输出决策上的决定之间能够形成清晰易懂的联系。最后,可理解性意味着将事情整体以语言可理解的形式呈现。决策不一定能满足所有要求,该过程可以是透明的,但其又很难理解。最终的责任可能会在此过程中被隐藏,但事情整体都可得到很好的解释。

采用该可解释性原则有两个好处:一是通过将可解释性的要求专门用于机器决策和建议,使得这种话语容易与法律推理话语相关联。法律推理寻求以下问题的答案:为何需要推理?论点在什么情况下正确且合理?法律推理的具体内容是什么?这种在机器决策领域的讨论是否可通过诸如司法决策和机器决策之间有何区别和共性等问题得到补充?可从司法推理中学到什么?在算法可解释性的背景下可从中学习和借鉴什么,哪些是不适用的?二是使我们能够重新考虑语言学的维度,并用一些语言学的知识,尤其是雅各布森的翻译理论及其核心对等概念的范畴。

二、法律理论和语言学视角下的算法可解释性

(一)司法推理的特点

从法学理论的角度考察可解释算法会产生实践和司法推理的问题。人们作出决定时都希望能够为自己提供理由,法律尤其如此,这是实践推理非常重要的领域。法律本身有时被认为是一种基于融贯性推理的话语实践,当机器作出决策时我们期望它以同样融贯的方式进行推理。法律论证有三大支柱:规范的提供、事实的陈述以及证明规范已正确应用于事实从而得出正确的法律结论。两者都是用人类的语言所写,对两者可理解性的要求也很高:对于法律规范来说,这意味着其必须使用一种接近普通语言的语言,事实也被期望“包装”成通俗易懂的“故事”。该讨论本身是有益的,前提是它要使读者相信规范已被适用,且规范已被详细解释,证据已得到适当考虑,事实已被彻底披露,且在该情况下裁决符合法律。一个非常丰富的理论传统涉及该过程的微观结构和细节,但其是基于一些简单的假设:第一,做决策的人有一定的自由度,推理在一定程度上是对所选解决方案的解释。在许多法律文化中这种解释与反映其个性的特定个人有关。第二,决策所依据的规则是用人类语言所写,因此要受人类解释的约束。解释是用基于或者内含于法律共同体所使用的语言。第三,事实被转换成连贯的叙述。事实不是“原始事实”,至少是连贯可信的叙事,符合“普通故事”的特点。第四,司法决策程序是循环的。规范的解释与事实的选择和陈述相互参照:事实是用法律概念来解释,法律文本则是根据被解释的事实选择和构建。第五,司法推理同时针对多个目标群体。其不仅是说服受害者的手段,还可指导其他人未来的行为。因此决策和推理是为满足多个目标群体的需求而设计。第六,解释是“概括”的一种形式。讲故事和解释法律以及证明规律的正确适用都基于共同的假设,即对适用深层次叙述的保证和对隐喻的持续使用,并且是在多价值空间中完成。

(二)机器决策的特点

如果将机器决策与上述六点总结的法律决策的特征进行比较,会发现几个重要差异:第一,该论点假设可以作出另一个决策,决策者解释为何选择特定的决定。机器在基于规则的算法时不具备这样的自由裁量权和能力。如果该决策是开放的过程,则解释可给出对此背景的说明,但这将不是由合适的修辞支持的推理过程,而是对导致这种结果的数学过程的描述。第二,人类的决策是开放式的,法律规则系用人类语言编写而可用不同的方式解释。自然语言与法律一样受到各种解释的制约,而解释总会存在争议,因其根植于法律案例和法律共同体的实践中。机器没有共同体也不会说话,即使其使用自然语言处理工具,其所应用的特定法律规则的解释是在机器程序中预先确定,且在机器学习过程中,当对该特定规则的翻译进行编码或根据数据模式创建规则时决定该解释。算法可能存在用人类语言编写的规则,但算法本身并不是用人类语言编写,因此不能对其进行不同的解释。事实上在作决策时根本没有任何解释,算法是“使用”或“运行”的。第三,为机器建构事实并非讲故事的过程。故事的讲述和事实的设定往往基于数据,但底层的一般故事模式远比这重要。数据可以勾勒出一个故事的轮廓或使其更可信,但数据本身并不能说明什么,尽管事实认定并非完全脱离机器决策,但事实发现的性质和基本原理却截然不同,其没有传统意义上的事实和故事,只有数据。机器将单个数据与之前的数据或数据库进行比较,在学习系统下这些数据会部分取代和重新建构规则。该过程像法律决策一样有个循环:如果系统基于机器学习且数据建构规则(算法),那么机器在运行中将不断建构规则。第四,解释学循环理论主张故事叙述和法律解释互相关联,而如果无法改变对规范的解释,也未找到可供选择的故事叙述余地,那么它就缺乏法律论证中所熟知的衔接过程。第五,机器决策不能前瞻性地影响未来的行为。特定决策的前瞻性是指决策者在参照一定社会价值观的基础上,希望通过决策强化、改变某种行为或在未来避免这种行为。机器决策总是基于先前的数据,即使其不是确定性的,这种非确定性特征更多是个性化的结果,更像是随机性而不是考量社会价值观的规范性行为。虽然机器比人类更能“预测”,但这并不意味着其可为人类的未来提出更明智的建议。第六,机器无法使用隐喻和叙述,不能感知价值考量。这是其解释自身决策时的巨大障碍。叙述对事实很重要,法律文本和法律背后的源文本不断丰富围绕法律的叙事世界并影响作出法律决策的人,但机器所作出的决策中不存在这样的源文本。

(三)作为符际翻译的人机交互

第一,翻译理论与此有何关系?机器使用算法和数据,人类决策者使用自然语言表达规则和叙述。因此机器决策所需的数据和算法的生成,以及机器输出的解释都需转换到其他信号系统中。法律规则和事实必须先转换为数据和算法,然后机器输出转换回自然语言媒介。单个信号系统之间的转换或翻译产生了丰富的文献,可以帮助理解可解释算法的问题。雅各布森区分了三种翻译:语内翻译、语际翻译和符际翻译。语内翻译是用同一种语言对文本进行重新措辞或解释,如释义。语际翻译是发生在两种语言之间的标准翻译活动。符际翻译是不同信号系统之间的翻译,如用自然语言写的文本被转换成图形。艾柯未讨论翻译,但区分了两种类型的解释:不同系统间和同一系统内。系统内解释可以是一种语言系统内的转述,也可是音乐被转换为另一种音调时音乐符号系统内的转换。跨系统解释也可采取几种形式:如传统语言间的翻译或创造一种新的品质,如小说的电影之间的转换。法律的运行同样可被理解为一种语言活动,可以是语言内或系统内的翻译。一项法律决定作出前要经过一系列翻译或解释:法律活动是语言活动,是一系列语言表达和文本的转换,以法院判决为最终结果。如果把法律活动理解为一系列的翻译,可以将两条相互交织的翻译链区分开。一条沿着法律问题运行,规范文件处于中心,另一条是从经验行为(事件)到法院的判决。连接第二链条的回路就是重建过去的事件,将其转化为事实后再转化为一种合法状态。在该解释框架中,虽然重要的是考虑什么可被视为同一个信号系统,但该问题与机器决策的可解释性关系不大,因机器输出的解释肯定是两个系统之间的转换。

第二,机器作出的决策:两个源流和两个译本。当机器决策的解释被视为符号系统之间的翻译时,最引人关注的是其中涉及的两种翻译(链式翻译),该链条中有两条线程:规范的翻译和事实的翻译。机器处理的是信号、数字、数据和数据模型,所以其只能处理法律案件,前提是这些案件最初就通过跨符号翻译转化为数据。对案件作出决定的机器需事先将立法转换为算法才能运行,这种转换引发了不同问题。先是将法律规则翻译成机器规则的问题,谢伊等人模拟的应施加罚款的简单情况发现程序员对这些简单规则的解释相差巨大。该研究和另一研究都表明,政府应从开始就以机器本身可读,而非纯粹机器可读的形式制定适用规则。在该情况下将规则转化为法规的责任归属于立法者,而非开发或运行法律决策系统的组织。将事实转化为数据的过程同样存在问题。贝尼格所指出,为使现代官僚机构和现代法律有效发挥作用,需要破坏或忽视信息以“促进信息的处理”。当机器参与其中时,这种破坏甚至比传统的官僚程序更严重,因机器能处理完全脱离数据的输入,且处理的数据比“推理引擎”为人类的官僚机构更多。机器根据转换为代码的规则和转换为可处理数据的事实作出决定或建议,然后必须将该输出翻译回人类语言。

第三,等价性问题。翻译理论的核心是对等问题。可解释性也可理解为对等性问题。雅各布森认为在语际和语内翻译中,对等意味着翻译包含两种不同代码的两个等效信息,即源语言和目标语言项目“在特定情况下可以互换”,因此这是一个实用性问题。艾柯的划分表明在信号系统内和信号系统间的解释中,一个重要的考虑因素是译者意图创造全新的对象还是忠于原始材料。机器系统就不存在创造性的问题,也不存在创造一种与原来不同的新品质。机器推荐或决策系统应该像不存在一样工作,就像其决策是由人类作出。那么如何定义符际翻译中的对等?杜西指出雅各布森将该活动称为“嬗变”。当把一个消息或信息翻译成另一个符号系统时也存在理论上的极限。虽然将文本转换成摩斯码的确可达到几乎完全对等的效果,但将小说改编成电影更多是一种再创作。在此情况下输出应与什么相同?是初始规则和原则还是算法阶段的数据和推理过程?这会导致双重翻译或链式翻译,从而完全扭曲原始信息。机器决策的可解释性问题似乎只与如何解释机器输出有关,但现实中并非如此,机器决策的理解和合法性也是根本性问题。解释不仅要描述输出与机器内部运行的关系,还要说明其与原始规则和事实的联系。此外,其还应证明初始事实已等效转化为数据且初始规则已等效转化为算法。因此较好的解释是最初的规则和事实以及它们在数据和代码中的对等物,同时要令人信服地证明这种转换在某种程度上已经进行且内容等效。

(四)机器决策的解释应该是什么?

有人认为机器根本不应进入某些决策领域,也有人主张适用新的算法问责制,并强调算法系统的不同特征。第一种是简单地禁止机器作出有关人类权利的决策,该想法可能为时已晚。第二种是虽然机器似乎不能以传统的“合法方式”证明其决策的合理性,但却可将其决策翻译成通用、可理解的语言,虽然这种翻译应以何种样态还有待确定。什么是机器作出决策的合理根据?机器决策的解释应采取何种形式?首先,通过考察翻译理论方法可知,重要的不仅是机器中发生了什么,还包括哪些数据被输入机器以及机器决策发生的更广泛的制度背景。因此在机器决策得到广泛使用之前,必须给出每个决策的制度和价值背景:任何使用算法决策的主体都必须解释决策的广泛背景,该要求实际意味着透明度与可解释性密切相关;引入算法决策的原因是什么?算法程序的前身是什么?指导决策的价值观和利益是什么?其次,必须说明指导决策的规则以及将这些规则转化为算法的过程。仅提供第一层法律规则中的形式是不够的,还必须描述其如何成为一种算法,符际翻译是如何进行的。如果实施上述“双重立法”,即政府制定“机器可读”版本的立法,就应由政府对此作出解释,如将解释性备忘录与有关守则随附在立法之后。再次,理由陈述必须包括对事实的描述,并再次将这些事实翻译成作出决策所依据的数据。这包括收集的关于该主题的数据和决策所依据的外部数据,但不可能也没必要列出所有数据。最后,决策过程需要解释,展示自我学习系统的学习过程。这是正当解释中与传统法律论证最不同的部分,因需要描述构成分类基础的规则和数据模式,这也意味着必须以某种方式从基于机器学习的系统中提取这些数据。该解决方案在许多方面与奥尔森等人提出的方案相似,但他们进一步提出行政决策应分别反馈到算法中和反馈给人类团队,并且“汇总最终决策以用于定期更新所使用的算法”。

三、结论

机器作出决策和建议有很多好处,其痛点是机器不能适当地解释和证明其决策的合理性。过去十年关于算法可解释性及机器作出法律决策可解释性的文献陡增,某种程度上这是可解释性概念与其他道德期望如透明、公平、无偏见或问责制出现关联的原因。该现象可称为“语义过载”。可解释性更多是一种形式上的程序原则,必须先将其与公平或非歧视等实质性要求相区分,然后与透明度和问责制等程序原则相区分。可解释性应作为机器决策和建议合理性的衡量标准。将机器决策的解释置于法律推理的背景下,可确定机器决策与人类决策不同的领域。机器在设定事实和解释规则方面没有自由裁量权,其决定不是基于叙事,也不会解释规则和事实之间的关系,更不会像人类法律决策者那样以前瞻性的方式作出决定、考虑更高的价值观。尽管存在差异,机器作出决策的情况下法律决策的理由结构仍应保持不变。机器决策的问题以及对这些决策的解释可被视为翻译理论问题,因在ADM过程中会发生多个跨符号(或跨系统)的翻译。当根据事实和规则为机器创建数据和算法时、将机器输出翻译回人类语言时会发生两次跨符号翻译。机器决策的可解释性不仅要描述输出与机器操作的关系,还要描述与原始规则和事实的联系。此外,还应证明初始事实已等效地转换为数据、初始规则已等效地翻译为代码。

来源:上海市法学会一点号

相关推荐