AI的“法律幻觉”:从纽约到墨尔本,AI开始动摇司法信任根基

B站影视 港台电影 2025-08-16 15:27 2

摘要:生成式人工智能正在全球司法体系中引发一场深刻的信任危机。其制造虚假信息(即“幻觉”)的能力,正从理论上的风险演变为现实中的困境。最新一起标志性事件发生在澳大利亚维多利亚州最高法院,一桩谋杀案的审理因辩护律师提交了由AI生成的虚构法律先例而被迫中断,再次为法律界

生成式人工智能正在全球司法体系中引发一场深刻的信任危机。其制造虚假信息(即“幻觉”)的能力,正从理论上的风险演变为现实中的困境。最新一起标志性事件发生在澳大利亚维多利亚州最高法院,一桩谋杀案的审理因辩护律师提交了由AI生成的虚构法律先例而被迫中断,再次为法律界敲响了警钟,凸显了在追求技术效率与维护司法严谨性之间的巨大鸿沟。

事件的核心是澳大利亚一位享有盛誉的御用大律师里希·纳特瓦尼(Rishi Nathwani)。他在一宗涉及未成年人的谋杀案中,向法庭提交了一份包含虚假内容的法律材料。这份材料不仅引用了伪造的州议会演讲引文,还列举了数个根本不存在的最高法院判例。这些“幽灵判例”最终由主审法官詹姆斯·埃利奥特(James Elliott)的助理在核查时发现,直接导致案件审理推迟了24小时。

在法庭上,纳特瓦尼代表其辩护团队进行了道歉,称对所发生的事情“深感抱歉和尴尬”,并承担了“全部责任”。埃利奥特法官在接受道歉的同时,也发出了严厉的训诫。他强调:“法院能够信赖律师所提交材料的准确性,对于司法公正是至关重要的。” 他进一步指出,维多利亚州最高法院去年已发布关于律师使用人工智能的指导方针,并重申:“除非其应用成果经过独立且彻底的验证,否则使用人工智能是不可接受的。”

墨尔本法庭的这一幕并非孤立事件,而是近年来全球范围内一系列类似事故的最新一例,反映出法律行业在拥抱新兴技术时普遍面临的困境。

2023年,美国纽约的一起案件引发了全球关注。在受理一宗针对航空公司的伤害索赔时,两名律师因使用ChatGPT进行法律研究,向联邦法庭提交了一份包含至少六个虚构判例的法律文件。主审法官P·凯文·卡斯特尔(P. Kevin Castel)在裁决中严厉批评了这种行为,并对两名律师及其律所处以5000美元的罚款。法官指出,他们的行为是“恶意”的,并利用人工智能“促使他们在辩论中编造虚假的法律历史”。

同年,美国前总统唐纳德·特朗普的前私人律师迈克尔·科恩(Michael Cohen)的法律团队也犯下了类似错误,在法律文件中引用了由AI编造的虚假法庭裁决。科恩事后承认,他当时未能意识到他所使用的法律研究工具具备产生“AI幻觉”的能力。

法律界的警惕情绪正在蔓延。今年6月,英国高等法院法官维多利亚·夏普(Victoria Sharpe)发出警告,称在法庭上将虚假材料当作真实信息提供,可能被视为藐视法庭,在“最恶劣的情况下”甚至可能构成妨碍司法公正罪,该罪行的最高刑罚是终身监禁。

这些事件共同揭示了一个核心矛盾:一方面,生成式AI凭借其强大的信息整合与文本生成能力,为法律工作者提供了前所未有的效率工具;另一方面,这些系统的底层技术逻辑决定了它们并非“真理引擎”,而是一种概率性语言模型,其生成的内容可能与事实完全脱节。

对于一个以精确、事实和既定先例为基石的行业而言,这种“幻觉”是致命的。律师的职责是基于真实的法律和事实为客户辩护,而法官的裁决则依赖于控辩双方所提供信息的准确性。任何虚假信息的引入,无论是有意还是无意,都会侵蚀整个司法体系的公信力。

澳大利亚的这起案件,连同其在美国和英国的先例,正迫使全球法律行业进行深刻反思。简单的禁止使用并不可行,但完全放任自流的后果已清晰可见。未来的关键在于建立一套严格的规范和验证流程,确保人类律师始终是信息核查的最终责任人。法律教育、律师协会的职业准则以及法院的诉讼规则都必须迅速更新,以应对这场由代码引发的、关乎真相与正义的挑战。

来源:人工智能学家

相关推荐