目 录CONTENT

文章目录

会自言自语的AI学得更快更聪明

Administrator
2026-02-25 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.sciencedaily.com/releases/2026/01/260127112130.htm

原文作者:Okinawa Institute of Science and Technology (OIST) Graduate University


AI That Talks to Itself Learns Faster
给予AI一个内在的声音有助于它思考得更灵活,学习新任务更快。这种自言自语与工作记忆相结合,可以在依赖更少数据的情况下,让机器更好地泛化。 来源:Shutterstock

自言自语可能感觉上是人类独有的习惯,但事实证明,这种习惯也能帮助机器学习。内部对话有助于人们组织思路、权衡选择并理解情绪。新的研究表明,类似的过程可以改善人工智能的学习和适应能力。在发表于《Neural Computation》杂志上的研究中,来自日本冲绳科学技术大学院大学(OIST)的研究人员发现,当人工智能系统被训练在运用内部语音的同时使用短期记忆时,它们在多项任务中的表现会更好。

这些发现表明,学习不仅受AI系统的结构影响,也受其在训练过程中与自身交互方式的影响。正如第一作者、OIST认知神经机器人研究部门的资深科学家Jeffrey Queißer博士解释道:“这项研究强调了自我交互在学习中的重要性。通过以一种教导我们的系统自言自语的方式构建训练数据,我们表明学习不仅受我们AI系统的架构塑造,也受嵌入我们训练程序中的交互动力学的影响。”

自言自语如何提升AI性能

为了检验这一想法,研究人员将自导的内部语音(描述为安静的“咕哝声”)与专门的工作记忆系统相结合。这种方法使他们的人工智能模型能够更有效地学习、适应不熟悉的情况并同时处理多项任务。结果显示,与仅依赖记忆的系统相比,这种方法在灵活性和整体性能方面都有明显的提升。

构建能够泛化的AI

该团队工作的核心目标是“内容无关的信息处理”(content agnostic information processing)。这指的是应用所学技能的能力超越训练期间遇到的确切情况,使用一般规则而非记忆的例子。

Queißer博士说:“人类每天都能轻松地快速切换任务和解决不熟悉的问题。但对于AI来说,这要困难得多。这就是我们采取跨学科方法的原因,将发展神经科学和心理学与机器学习和机器人技术等其他领域相结合,以寻找看待学习的新方式,并为AI的未来提供信息。”

为什么工作记忆很重要

研究人员首先检查了AI模型中的记忆设计,重点关注工作记忆及其在泛化中的作用。工作记忆是保持和使用信息的能力,无论是遵循指令还是进行快速的心算。通过测试不同难度级别的任务,该团队比较了各种记忆结构。

他们发现,具有多个工作记忆槽位(用于信息片段的临时容器)的模型在解决具有挑战性的问题时表现更好,例如反转序列或重现模式。这些任务需要同时记住多条信息并将它们按正确的顺序进行操作。

当团队增加了鼓励系统自言自语特定次数的目标时,性能进一步提高。在多任务处理和需要多步骤的任务中,性能提升最为显著。

Queißer博士说:“我们的组合系统尤其令人兴奋,因为它可以使用稀疏数据,而不是通常训练此类模型以实现泛化所需的大型数据集。它提供了一种互补的、轻量级的替代方案。”

在真实世界中学习如何学习

研究人员现在计划超越干净、受控的测试,探索更现实的条件。Queißer博士说:“在现实世界中,我们在复杂、嘈杂、动态的环境中做决策和解决问题。为了更好地反映人类的发展性学习,我们需要考虑这些外部因素。”

这一方向支持了该团队的更广泛目标,即从神经层面理解人类学习是如何运作的。Queißer博士总结道:“通过探索内部语音等现象,并理解这些过程的机制,我们获得了关于人类生物学和行为的基本新见解。我们也可以应用这些知识,例如在开发能够在我们复杂、动态世界中运作的家用或农业机器人方面。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区