“AI律师”案例造假引发司法信任危机
当律师开始用ChatGPT写诉状,法庭正在沦为AI幻觉的试验场。
近日,美国怀俄明州地方法院法官凯利•兰金下令,要求一律师事务所的律师解释为何在法庭文件中引用虚假案例,并说明为何不应受到制裁或纪律处分。这已是2023年以来第三起AI生成(捏造)法律文件引发争议的公开案件——司法系统的权威性正遭遇AI技术浪潮的冲击。
AI幻觉制造虚假案例,律师事务所陷入尴尬
案件起源于2023年,涉及沃尔玛和捷森电子自行车公司(Jetson Electronic Bikes)。原告是一名女子、她的丈夫及四名未成年子女,他们指控捷森公司生产的一款悬浮滑板的锂离子电池发生故障并起火,导致他们的住宅被烧毁,多名家庭成员严重受伤。
在今年1月,原告方律师向法院提交了一份“排除动议”,请求法院排除某些证据或论点。然而,法官兰金发现,该文件引用的多个案例根本不存在。“这些案例无法通过Westlaw的编号识别,法院也无法在怀俄明州地方法院的电子档案系统中找到这些案例。”兰金在判决书中写道,并要求所有涉及的律师“详细解释该动议及虚假案例的生成方式”,以及他们在起草或监督该动议时的具体角色。
四天后,涉事律师事务所作出回应,称:“我们内部的人工智能平台在协助律师起草动议时‘幻觉’生成了这些案例。”该律师事务所表示,此事件让他们深感尴尬,并已引发关于人工智能安全培训、实施及未来使用的讨论和行动。“这件事对我们事务所及整个行业而言都是一个警示,提醒大家在迈入人工智能新时代时,应更加谨慎。”
特朗普也是AI律师“幻觉”的受害者
近年来,律师越来越多地使用AI工具进行法律研究和文件分析。然而,AI在法律工作中的误用并非首次引发争议。
2022年,一名男子起诉阿维安卡航空公司,称自己在一次航班上被金属餐车撞伤。其律师提交的法律文件引用了多个AI编造的案例。然而,在法庭质疑这些案例的真实性后,该律师不仅没有立即承认错误,反而试图狡辩。最终,法院对其处以5000美元罚款。
2024年,特朗普前私人律师科恩在封口费案中,居然提交Google Bard生成的虚假判例,再次引发关注。尽管法院最终未对涉事律师进行处罚,但这种法官口中“极度不专业”的行为,导致了特朗普的辩护策略全面受挫。
“这不是技术故障,而是职业伦理的溃堤。”纽约大学法律伦理教授Rebecca Roiphe向虎嗅指出,“当律师把事实核查权交给算法,等于放弃了法律人的核心职责。”
AI在法律行业的未来:机遇与风险并存
尽管事故频发,AI法律工具的市场仍在狂飙。全球法律科技融资额从2020年的12亿美元增至2023年的43亿美元,AI法律应用的支持者抛出了效率、成本和技术进化论三大论点:
1、效率革命
- 文档处理:HarveyAI可在12分钟内完成合同审查(人工需4小时);
- 案情预测:Lex Machina通过分析历史判例,给出胜诉率评估(准确度约78%)。
2、成本杀手
- 英国Allen & Overy律所引入GPT-4后,合同起草成本下降70%;
- 美国LegalZoom利用AI将商标申请服务价格压至199美元(行业平均800美元)。
3、技术进化论
“AI幻觉是技术早期阶段的必然代价。”法律科技公司ROSS Intelligence创始人Andrew Arruda辩称,“就像自动驾驶需要累积事故数据改进算法,法律AI也需要判例反馈迭代。”
反对者则认为,目前人工智能技术在法律行业的应用仍在探索阶段,虽然其能够提高效率,但若不加审查,其“幻觉”生成的错误信息可能对律师及其客户造成严重后果。
“年轻律师正在丧失基础法律检索能力。”达维律师事务所合伙人Sarah Reynolds观察发现,“他们更擅长调试AI提示词,却看不懂《联邦证据规则》的条文逻辑。”
参考链接:
[https://storage.courtlistener.com/recap/gov.uscourts.wyd.64014/gov.uscourts.wyd.64014.156.0_1.pdf