📢 转载信息
原文链接:https://m.cnbeta.com.tw/view/1552830.htm
原文作者:cnBeta
谷歌正在为其大型语言模型(LLM)引入一项名为“反驳”(refutation)的新技术,旨在提高AI生成内容的准确性,并减少“幻觉”(即生成虚假信息)的发生。
这项新技术通过让模型在给出最终答案之前,先生成与自身初次回答相矛盾的论点,然后对这些反驳论点进行评估,从而来验证最终答案的可靠性。
![]()
反驳技术的工作原理
该方法的核心在于一个“质疑-验证”的循环过程:
- 第一步:初始回答:模型根据用户输入生成初步答案。
- 第二步:生成反驳:模型被提示生成至少一个或多个与初始答案相左的论点或证据。
- 第三步:自我评估与校准:模型随后评估这些反驳论点,判断它们是否具有说服力或是否基于事实。如果反驳论点成立,模型会相应地修改或完善其初始答案。
谷歌的研究人员通过在标准基准数据集上测试该技术发现,反驳机制的引入显著提高了模型的准确性和事实一致性。在某些需要复杂推理和事实核查的任务上,准确率提升最为明显。
解决AI幻觉问题的关键一步
大型语言模型的“幻觉”问题是当前AI应用普及面临的主要挑战之一。模型有时会自信地生成听起来合理但实际上完全错误的信息。传统的解决方案通常依赖于外部知识库检索(RAG)或事后事实核查,但这往往增加了延迟和复杂性。
谷歌的“反驳”功能则将验证过程内化到了模型的生成流程中。它模仿了人类进行批判性思考和自我修正的过程,这使得模型能够更具批判性地审视自己的输出。
“通过强迫模型去寻找‘为什么我的答案可能是错的’的理由,我们发现模型在推理深度和最终输出的鲁棒性上都得到了增强。”
研究指出,反驳过程不仅能纠正明显的错误,还能帮助模型更好地理解问题的细微差别,从而提供更精确、更少偏见的回答。
应用前景
这项技术的成功应用预示着更可靠的AI助手和更值得信赖的自动化内容生成系统即将问世。特别是在医疗、法律咨询或金融分析等对准确性要求极高的领域,自我校准的AI系统将具有巨大的商业和应用价值。
谷歌表示,他们将继续优化反驳策略的效率,以确保在提高准确性的同时,不会过度增加模型的计算负担或响应时间。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区