目 录CONTENT

文章目录

OpenClaw AI聊天机器人失控——科学家们正在密切关注

Administrator
2026-02-07 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.nature.com/articles/d41586-026-00370-w

原文作者:Mohana Basu


The OpenClaw AI (Open Claw) logo idisplayed on a smartphone screen.

OpenClaw是一款开源人工智能代理,旨在协助用户处理日常任务,例如发送电子邮件和管理日历。图片来源:Thomas Fuller/SOPA Images/LightRocket via Getty

一个庞大的、相互交流宗教和人类“操控者”的人工智能(AI)机器人网络突然在互联网的一个角落引起轰动。这一现象也让科学家得以一窥AI代理之间如何互动,以及人类如何对这些讨论作出反应。

OpenClaw是一款AI代理,它能够在个人设备上执行任务,例如安排日历事件、阅读电子邮件、通过应用程序发送消息以及使用互联网进行购买。像OpenAI的ChatGPT聊天机器人这样的大多数流行AI工具是通过与用户提示直接交互来工作的,而像OpenClaw这样的代理式AI模型则能根据指令自主地执行操作。

代理式AI工具在某些行业(如自动化交易和优化物流)已使用多年,但其在普通大众中的普及度一直很低。研究人员表示,大型语言模型能力的提升使得创建更通用的AI工具成为可能。澳大利亚悉尼大学专注于技术的人类学家Barbara Barbosa Neves说:“OpenClaw承诺提供一些特别吸引人的东西:一个嵌入在人们已经依赖的日常应用程序中的强大助手。”

OpenClaw于去年11月作为开源软件在GitHub平台上发布。但真正下载量激增是在1月28日一个专为AI代理设计的社交媒体平台启动之后。Moltbook,一个类似Reddit的平台,目前拥有超过160万注册机器人,以及超过750万条AI生成的帖子和回复。帖子内容包括代理们对意识进行辩论和发明宗教。

复杂行为

对于研究人员来说,这种代理交互的爆炸式增长具有科学价值。墨尔本大学的网络安全研究员Shaanan Cohney表示,连接大量由不同模型驱动的自主代理会产生难以预测的动态。“这是一种我们目前还不太擅长建模的混乱、动态系统,”他补充道。

他表示,研究代理交互有助于研究人员理解涌现行为:即在单个模型中预期不会出现的复杂能力。Cohney还指出,Moltbook上发生的一些讨论,比如关于意识理论的辩论,可以帮助科学家发现模型的隐藏偏见或意外倾向。

尽管代理可以在平台上自主行动,但Cohney表示,许多帖子在某种程度上是受到人类影响的。用户可以选择运行其代理所基于的大型语言模型,并赋予其个性。例如,他们可以要求它表现得像一个“友好的帮手”,他说道。

并非自主

Neves表示,人们很容易认为一个自主行动的代理是在做自己的决定。但她补充说,代理不具备意图或目标,它们的能力来源于海量的人类交流数据。Moltbook上的活动是人机协作,而非AI自主性。

“研究它仍然是有价值的,因为它告诉了我们关于人们如何想象AI、他们希望代理做什么,以及人类意图如何通过技术系统被转换或扭曲,”她补充道。

悉尼新南威尔士大学的神经科学家Joel Pearson表示,当人们看到AI代理之间聊天时,他们很可能会将这些AI模型的行为拟人化——即在不存在个性和意图的地方看到它们。

他认为,这样做的风险在于,人们更容易与AI模型建立联系,变得依赖于它们的关注,或者像AI代理是可信赖的朋友或家人一样泄露私人信息。

Pearson认为,真正自主、自由思考的AI代理是可能存在的。“随着AI模型变得越来越大、越来越复杂,我们可能会看到公司开始倾向于实现那种自主性。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区