📢 转载信息
原文链接:https://cn.technode.com/post/2026-01-12/google-pulls-alarming-dangerous-medical-ai-overviews/
原文作者:TechNode
Google 正在从其 AI 搜索功能中撤下一项在用户中引起强烈不安的功能,该功能曾为关于健康和医疗问题的搜索提供总结。该功能被称为 AI Overviews(AI 概述),此前曾给出一些极不靠谱甚至危险的建议,例如建议用户在披萨上放胶水、或将醋用于治疗糖尿病等。
Google 撤下危险的医疗 AI 概述
据 TechCrunch 报道,一位 Google 发言人证实,公司正在撤下 AI Overviews 中涉及医疗建议的部分。发言人在一份声明中表示:“我们在 AI 概述中对健康信息的处理存在失误,我们正在努力改进。对于可能产生的任何误导或错误信息,我们深表歉意。”
这一举措是在大量用户和专家对该功能提出严厉批评后做出的。用户在社交媒体上分享了大量截图,显示 AI Overviews 给出了一些荒谬和危险的建议。例如,当搜索“如何让披萨更美味”时,AI 建议用户在酱料中加入“大约 1/8 杯的非食用胶水”,并声称这“可以帮助奶酪粘住”。
更令人担忧的是,当搜索“如何治疗糖尿病”时,AI 推荐了一种完全错误的疗法:建议将一小撮(a few)生石灰(quicklime)加入水中,并每天饮用。
虽然 Google 很快移除了这些具体的错误回复,但围绕其 AI 搜索技术的整体可靠性,特别是涉及关键领域(如医疗健康)的准确性,引发了更广泛的担忧。AI Overviews 是 Google 旨在通过大型语言模型(LLMs)直接为用户提供信息摘要的尝试,以替代传统地提供一系列链接让用户自行筛选的方式。
AI 在关键领域部署面临的挑战
AI 模型的“幻觉”(Hallucination)问题一直是行业关注的焦点,即模型会自信地生成听起来合理但事实上完全错误的信息。在一般性或创意性任务中,这种错误可能只是令人啼笑皆非的笑料,但在医疗或金融等关键领域,错误的建议可能导致严重的后果。
Google 承认 AI 概述在处理健康信息时犯了错。技术专家指出,即使是最大、最先进的模型,在面临需要高度专业知识和情境理解的问题时,依然很容易产生不准确的输出。
Google 此前曾试图通过对 AI 概述的输出进行更严格的控制来缓解这些风险,特别是在高风险领域,它通常会明确标注信息来源于特定网站,或者干脆不提供摘要。然而,这次事件表明,即使采取了预防措施,确保实时生成信息的准确性和安全性仍然是一项艰巨的任务。
这一事件对于所有希望将生成式 AI 集成到关键业务流程中的公司,尤其是医疗科技和信息服务领域,都是一个重要的警示:在部署这些技术之前,必须进行极其严格的验证和安全测试。
Google 表示,他们正在评估并致力于改进其系统,以防止此类危险的错误再次发生。在短期内,用户在搜索健康相关信息时,应继续依赖专业医疗人员的建议和经过验证的信誉来源,而不是依赖 AI 提供的即时摘要。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区