📢 转载信息
原文作者:Julie Bort, Rebecca Bellan
对于通过 Microsoft 和 Google 产品使用 Anthropic Claude 的企业和初创公司来说,不必担心该模型会被从他们的产品中移除,微软和谷歌均已向 TechCrunch 确认。据报道,AWS 客户和合作伙伴也可以继续为非国防相关的工作负载使用 Claude。
微软是第一家公开表示 Anthropic 的模型将继续对其客户可用的公司,尽管特朗普政府的战争部(正式名称为国防部)已升级了与 Anthropic 的争执。
美国国防部于周四正式将这家美国人工智能初创公司指定为供应链风险,此前该公司拒绝向其提供对其技术不受限制的访问权限,用于其认为 AI 无法安全支持的应用程序,例如大规模监控和全自动武器。
供应链风险的指定通常保留给外国敌对势力。对于 Anthropic 而言,这一指定意味着五角大楼将在其系统中淘汰 Claude 后无法使用该公司的产品。它还要求任何与五角大楼合作的公司或机构证明他们不使用 Anthropic 的模型。Anthropic 已发誓要在法庭上抗击这一指定。
微软向包括国防部在内的许多联邦机构销售各种产品,从 Office 到其云服务。一位微软发言人表示,该公司将继续在其自有产品和向微软客户提供 Anthropic 的模型。
“我们的律师已研究了该指定,并得出结论,Anthropic 的产品,包括 Claude,可以通过 M365、GitHub 和 Microsoft 的 AI Foundry 等平台继续提供给我们的客户——战争部除外——并且我们可以继续与 Anthropic 就非国防相关项目进行合作,”这位发言人通过电子邮件表示。CNBC 最早报道了这一评论。
谷歌,这家公司向联邦机构销售云计算、人工智能和生产力工具,也已确认将继续向其客户提供 Claude。
“我们理解,此项决定并不妨碍我们与 Anthropic 就非国防相关项目进行合作,并且他们的产品仍可通过我们的平台(如 Google Cloud)使用,”一位谷歌发言人表示。
CNBC 还报道称,AWS 客户和合作伙伴可以继续为他们的非国防工作负载使用 Claude。
这与 Anthropic 首席执行官 Dario Amodei 在他发誓要抗击该指定时发表的声明相呼应。
“就我们的客户而言,这明确仅适用于客户直接作为战争部合同的一部分使用 Claude 的情况,而不是客户所有使用 Claude 的情况,”Amodei 说,并补充说,“即使是战争部承包商,供应链风险的指定也不会(也不能)限制 Claude 的使用或与 Anthropic 的业务关系,如果这些与他们特定的战争部合同无关。”
与此同时,在 Anthropic 拒绝满足国防部的要求后,Claude 的消费者增长激增仍在继续。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区