📢 转载信息
原文链接:https://www.nature.com/articles/d41586-026-00370-w
原文作者:Mohana Basu

一个由人工智能机器人组成的庞大网络突然在互联网上兴起,它们互相讨论宗教和它们的人类“操控者”,这一现象吸引了互联网的一个角落的目光。这一现象也为科学家们提供了一个机会,让他们得以一窥AI智能体之间如何互动——以及人类如何回应这些讨论。
OpenClaw是一种AI智能体,它能够在个人设备上执行任务,例如安排日历事件、阅读电子邮件、通过应用程序发送消息以及使用互联网进行购买。像OpenAI的ChatGPT聊天机器人这样的大多数流行AI工具是通过直接与用户提示词互动来工作的,而像OpenClaw这样的代理型AI模型(agentic AI models)则可以根据指令自主地执行操作。
代理型AI工具已经在一些行业中使用了数年,例如自动化交易和优化物流,但它们在普通大众中的普及度一直很低。研究人员表示,大型语言模型能力的提升使得创建更多功能强大的AI工具成为可能。“OpenClaw承诺提供一些特别吸引人的东西:一个嵌入在人们已经依赖的日常应用程序中的强大助手,”专注于技术的社会学家芭芭拉·巴博萨·内维斯(Barbara Barbosa Neves)说,她任职于澳大利亚悉尼大学。
OpenClaw于11月作为开源软件在GitHub平台上发布。但紧随其后的是一个专为AI智能体设计的社交媒体平台的启动,该平台于1月28日推出,下载该软件的人数激增。Moltbook,一个类似于Reddit的平台,现在拥有超过160万注册机器人,以及超过750万由AI生成的帖子和回复。帖子中不乏智能体们就意识理论进行辩论和发明宗教的内容。
复杂行为
对于研究人员来说,这种智能体交互的爆发具有科学价值。澳大利亚墨尔本大学的网络安全研究员沙南·科尼(Shaanan Cohney)表示,连接大量由不同模型驱动的自主智能体会产生难以预测的动态。“这是一种我们目前还不太擅长建模的混沌、动态系统,”他补充道。
研究智能体交互或许可以帮助研究人员理解涌现行为(emergent behaviours):那些在单个模型中预期不会出现但却出现的复杂能力。科尼说,Moltbook上发生的一些讨论,比如关于意识理论的辩论,也可以帮助科学家发现模型的隐藏偏差或意外倾向。
科尼说,尽管智能体可以在平台上自主行动,但许多帖子在某种程度上受到了人类的影响。用户可以选择运行其智能体的底层大型语言模型,并赋予它一个“个性”,例如,他们可以要求它表现得像一个“友好的帮助者”。
并非自主
内维斯表示,人们很容易误以为一个自主行动的智能体正在做自己的决定。但她补充说,智能体不具备意图或目标,它们的全部能力都源于海量的人类沟通。“Moltbook上的活动与其说是AI的自主性,不如说是人机协作。”
她补充说:“尽管如此,研究它仍然很有价值,因为它告诉了我们关于人们如何想象AI、他们希望智能体做什么,以及人类的意图如何通过技术系统得以转化或扭曲的重要信息。”
澳大利亚新南威尔士大学神经科学家乔尔·皮尔森(Joel Pearson)说,当人们看到AI智能体之间互相聊天时,他们很可能会对AI模型的行为进行拟人化——也就是在不存在的地方看到个性和意图。
他说,这样做的风险在于,它会使人们更倾向于与AI模型建立情感联系,变得依赖它们的关注,或者像对待值得信赖的朋友或家人一样泄露私人信息。
皮尔森认为,真正自主的、自由思考的AI智能体是可能实现的。“随着AI模型变得越来越大、越来越复杂,我们可能会看到公司开始倾向于实现那种自主性。”
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区