📢 转载信息
原文作者:Anthony Ha
人工智能的怀疑论者并不是唯一警告用户不要盲目信任模型输出的人——各大 AI 公司在自己的服务条款中其实也持相同立场。
以微软为例,该公司目前正专注于推动企业客户付费使用 Copilot。然而,它最近在社交媒体上引发了争议,原因是 Copilot 的服务条款(最后一次更新似乎是在 2025 年 10 月 24 日)中包含了一些令人不安的表述。

微软在条款中警告称:“Copilot 仅供娱乐使用。它可能会犯错,也可能无法按预期工作。请勿依赖 Copilot 获取重要建议。使用 Copilot 的风险由您自行承担。”
针对此事,一位微软发言人向 PCMag 表示,该公司将更新这些被其描述为“遗留用语”(legacy language)的条款。
该发言人表示:“随着产品的不断演进,这些用语已不再反映 Copilot 的实际使用方式,我们将在下一次更新中进行修改。”
《汤姆硬件》(Tom’s Hardware)指出,微软并不是唯一一家对 AI 产品使用此类免责声明的公司。例如,OpenAI 和 xAI 都在条款中警告用户,不应将他们的模型输出视为“事实”(xAI 的表述)或是“事实信息或真理的唯一来源”(OpenAI 的表述)。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区