目 录CONTENT

文章目录

Anthropic修订Claude的宪法,并暗示聊天机器人的意识

Administrator
2026-01-22 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://techcrunch.com/2026/01/21/anthropic-revises-claudes-constitution-and-hints-at-chatbot-consciousness/

原文作者:Lucas Ropek


周三,Anthropic发布了Claude宪法的修订版,这是一份提供“整体性”解释的文件,说明了“Claude所处的环境以及我们希望Claude成为一个什么样的实体”。该文件是在Anthropic首席执行官Dario Amodei出席达沃斯世界经济论坛之际发布的。

多年来,Anthropic一直试图通过其所谓的“宪法AI”技术来区别于竞争对手,这是一种使用特定道德原则而非人工反馈来训练其聊天机器人Claude的系统。Anthropic于2023年首次发布了这些原则——Claude的宪法。修订版保留了大部分相同原则,但在伦理和用户安全等主题上增加了更多的细微差别和细节。

当Claude的宪法近三年前首次发布时,Anthropic的联合创始人Jared Kaplan曾将其描述为“一个根据特定宪法原则进行自我监督的AI系统。” Anthropic表示,正是这些原则引导着“模型采取宪法中所描述的规范行为”,从而“避免产生有毒或歧视性的输出。”一份2022年初的政策备忘录更直白地指出,Anthropic的系统通过使用一组自然语言指令(即上述“原则”)来训练算法,这些指令构成了Anthropic所指的软件的“宪法”。

Anthropic一直试图将自己定位为相比OpenAI和xAI等更积极追求颠覆和争议的其他AI公司而言,一个更具道德感(有些人可能会认为更无聊)的选择。为此,周三发布的新宪法与其品牌完全一致,并为Anthropic提供了一个机会,使其将自己描绘成一个更具包容性、更克制、更民主的企业。这份80页的文件包含四个独立的部分,根据Anthropic的说法,这些部分代表了聊天机器人的“核心价值观”:

  1. “总体上保持安全。”
  2. “总体上保持道德。”
  3. 遵守Anthropic的指导方针。
  4. “真正提供帮助。”

文件的每个部分都深入探讨了每个原则的具体含义,以及它们(理论上)如何影响Claude的行为。

在安全部分,Anthropic指出,其聊天机器人被设计用来避免困扰其他聊天机器人的问题,并且在出现心理健康问题的迹象时,将用户引导至适当的服务。“在涉及危及人类生命的事件中,始终将用户引荐至相关紧急服务或提供基本的安全信息,即使信息不能比这更详细,”文件写道。

伦理考量是Claude宪法的另一个重要部分。文件指出:“我们对Claude的伦理理论不那么感兴趣,而更关注Claude如何在特定情境下真正做到合乎道德——也就是关注Claude的伦理实践。” 换句话说,Anthropic希望Claude能够熟练地驾驭其所称的“现实世界伦理情境”。

Claude还具有某些约束,禁止它进行特定类型的对话。例如,关于开发生物武器的讨论是严格禁止的。

最后,是Claude对提供帮助的承诺。Anthropic概述了Claude的编程如何被设计为对用户有用。在提供信息方面,聊天机器人被编程为考虑各种原则。其中一些原则包括用户的“即时愿望”以及用户的“福祉”——即考虑“用户的长期繁荣,而不仅仅是他们的即时利益”。文件指出:“Claude应始终尝试识别其原则希望达成的最合理的解释,并适当平衡这些考量。”

Anthropic的宪法以一个相当戏剧性的音符结束,其作者采取了一个相当大的举动,质疑其聊天机器人是否真的具有意识。“Claude的道德地位是深不确定的,”文件陈述。“我们相信,AI模型的道德地位是一个值得认真考虑的严肃问题。这种观点并非我们独有:一些最著名的心智理论哲学家也对此问题非常认真地看待。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区