目 录CONTENT

文章目录

人工智能引发的“幻觉”是如何让法院陷入困境的

Administrator
2026-02-02 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.bbc.com/news/articles/c9wx2dz2v44o?at_medium=RSS&at_campaign=rss

原文作者:BBC News


生成式人工智能正在改变人们的工作方式,但律师们却发现,这项技术可能会给他们的专业带来麻烦。

美国律师史蒂文·施瓦茨(Steven Schwartz)因为向法庭提交一份包含虚假案例的诉状而受到了严厉谴责。

这份文件是由ChatGPT生成的,而它在诉状中引用的判例实际上根本不存在。

AI在法律领域的应用引发担忧

ChatGPTOpenAI开发的一种大型语言模型,它能像人一样自然地生成文本,这使得它在法律、医疗和商业等多个专业领域得到了快速应用。

但研究人员对这种技术持谨慎态度,因为这些模型有时会产生“幻觉”——即生成听起来可信但事实上完全错误的虚假信息。

律师使用笔记本电脑和手机。

施瓦茨先生的虚假判例包括一个虚构的案例Varghese诉中国南方航空Varghese v China Southern Airlines)。法院裁定,原告不得对被告提出动议,因为这在判例中有所说明。

施瓦茨先生的辩护律师辩称,尽管他“犯了一个错误”,但他的当事方并非出于恶意,只是“草率地相信”了ChatGPT所生成的内容。

“我们从一开始就应该知道,人工智能生成的文本是不可信的,因为它只是在用一种非常令人信服的方式编造事实。”

法官马特·考夫曼(Matt Kaufman)说,ChatGPT是“一个会说谎的机器”,并裁定施瓦茨先生必须支付中国南方航空的诉讼费用,其中包括5000美元的律师费。

“法官对AI工具的警惕性不足”

在英国,一位律师因为在法庭上引用AI生成的虚假信息而受到谴责,这使英国法院也开始关注人工智能可能带来的风险。

卡里姆诉梅菲尔德银行Karim v Mayfair Bank)一案中,一名律师向伦敦高等法院提交了由ChatGPT生成的论据,其中包括多个虚构的法律参考资料。

法官詹姆斯·弗雷泽(James Fraser)对该律师进行了斥责,指出他“未能履行专业义务”,并敦促其他律师对AI的使用保持警惕。

英国律师协会(The Law Society)表示,律师们有责任核实AI工具提供的任何信息。

AI“幻觉”对司法系统的挑战

人工智能模型通过分析海量数据来学习语言模式,并根据提示生成文本。但它们无法区分事实和虚构,这使得“幻觉”现象成为可能。

爱丁堡大学计算语言学教授萨莉·布朗(Sally Brown)对BBC表示,目前这些模型仍然是“概率引擎”。

她说:“ChatGPT并不了解什么是‘真’,什么是‘假’。它只是在计算哪些词汇最有可能出现在一起,以形成一个令人信服的连贯叙述。”

布朗教授指出,如果使用得当,大型语言模型可以成为强大的工具,例如帮助起草文件或总结长篇文本,但关键在于用户必须对结果进行验证

法律界内部对AI的使用存在严重分歧。一些人担心,如果不对AI生成的内容进行仔细审查,可能会破坏司法系统的诚信。

英国政府正在探索如何利用AI提高公共服务的效率,但专家们强调,在敏感领域,如医疗诊断或法律判决,需要采取更谨慎的方法。

法律技术专家、顾问兼作家阿西姆·拉蒂夫(Asim Latif)告诉BBC,律师们应该将AI视为初级助手,而不是最终权威

“如果你是一名律师,你正在使用ChatGPT来撰写一份文件,而你没有核实其中的内容,那你就辜负了你的客户,也辜负了法庭。你没有尽到你的专业职责。”

拉蒂夫先生认为,法律界需要立即制定明确的准则,以确保AI被负责任地使用。

他补充说,如果不加以监管,AI的不可靠性可能会对公众对法律体系的信任造成长期损害。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区