很少有律师会愚蠢到让 AI 提出他们的论点,但已经有人这样做了,法官 Brantley Starr 正在采取措施确保在他的法庭上不会重蹈覆辙。
得克萨斯州联邦法官增加了一项要求,即任何出庭的律师都必须证明“文件的任何部分都不是由生成人工智能起草的”,或者如果是,则证明它是“由人”检查的。
上周,律师 Steven Schwartz 允许ChatGPT在最近的一份联邦文件中“补充”他的法律研究,为他提供了六个案例和相关先例——所有这些都完全被语言模型幻化了。他现在“非常后悔”这样做了,虽然全国范围内对这一失态的报道可能会让任何其他想要尝试的律师重新考虑,但斯塔尔法官不会冒险。
在得克萨斯州北部地区的联邦网站上,斯塔尔和其他法官一样,有机会为其法庭制定具体规则。最近添加的(尽管尚不清楚这是否是对上述文件的回应)是“关于生成人工智能的强制性认证”。 Eugene Volokh 首先报道了这一消息。
所有出庭的律师都必须在案卷上提交一份证明,证明文件的任何部分都不是由生成人工智能(例如 ChatGPT、Harvey.AI 或 Google Bard)起草的,或者证明由生成人工智能起草的任何语言都是由人使用印刷记者或传统法律数据库检查准确性。
附上一份供律师签署的表格,并指出“引述、引文、释义断言和法律分析”均包含在该禁令范围内。由于总结是 AI 的强项之一,并且发现和总结先例或以前的案例被宣传为对法律工作有潜在帮助,因此这可能最终会比预期更频繁地发挥作用。
在斯塔尔法官办公室就此事起草备忘录的人都掌握了脉搏。认证要求包括对其必要性的充分了解和令人信服的解释(为便于阅读而添加的换行符):
这些平台非常强大,在法律中有很多用途:离婚表格、证据开示请求、文件中的建议错误、口头辩论中的预期问题。但法律简报不是其中之一。这就是为什么。
这些平台在当前状态下容易产生幻觉和偏见。关于幻觉,他们编造东西——甚至引用和引用。另一个问题是可靠性或偏见。律师宣誓放弃他们的个人偏见、偏见和信仰,忠实地维护法律并代表他们的客户,而生成人工智能是人类设计的程序的产物,而无需宣誓。
因此,这些系统不忠于任何客户、法治或美国的法律和宪法(或如上所述,事实)。不受任何责任感、荣誉感或正义感的束缚,此类程序根据计算机代码而非信念行事,基于编程而非原则。任何认为平台具有法律简报所需的准确性和可靠性的一方都可以请假并解释原因。
换句话说,准备好为自己辩护。
虽然这只是一个法院的一名法官,但如果其他人将这条规则据为己有也就不足为奇了。虽然正如法院所说,这是一项强大且可能有用的技术,但必须至少明确声明并检查其准确性。
我的法庭上没有 ChatGPT:法官命令所有 AI 生成的内容必须由Devin Coldewey声明和检查,最初发布于TechCrunch