目 录CONTENT

文章目录

会自言自语的AI学习更快更聪明

Administrator
2026-01-29 / 0 评论 / 0 点赞 / 1 阅读 / 0 字

📢 转载信息

原文链接:https://www.sciencedaily.com/releases/2026/01/260127112130.htm

原文作者:Okinawa Institute of Science and Technology (OIST) Graduate University


AI会自言自语,学习更快更聪明

教AI自言自语可能是实现更智能、更具适应性机器的关键。

自言自语可能感觉是人类独有的习惯,但事实证明,这种习惯也能帮助机器学习。内部对话有助于人们组织想法、权衡选择并理解情感。新的研究表明,一个类似的过程可以改善人工智能的学习和适应能力。在发表于Neural Computation上的一项研究中,冲绳科学技术大学(OIST)的研究人员发现,当AI系统在接受训练时被教导使用内部语音并结合短期记忆时,它们在许多任务上的表现更出色。

研究结果表明,学习不仅受AI系统的结构影响,也受其在训练过程中与自身交互方式的影响。第一作者、OIST认知神经机器人学研究部门的专职科学家Jeffrey Queißer博士解释说:“这项研究强调了自我交互在学习中的重要性。通过以一种教导我们的系统自言自语的方式构建训练数据,我们表明学习不仅受到我们AI系统的架构的影响,也受到我们训练程序中嵌入的交互动态的影响。”

自言自语如何提高AI性能

为了测试这一想法,研究人员将自我指导的内部语音(描述为安静的“咕哝声”)与专门的工作记忆系统相结合。这种方法使他们的人工智能模型能够更有效地学习、适应不熟悉的情况并同时处理多项任务。与仅依赖记忆的系统相比,结果显示其在灵活性和整体性能方面有着明显的提升。

构建能够泛化的AI

该团队工作的核心目标是内容无关的信息处理。这指的是在训练期间遇到的确切情况之外应用所学技能的能力,即使用通用规则而不是记忆的例子。

“快速切换任务和解决不熟悉的问题是我们人类每天都能轻松做到的事情。但对于AI来说,这要困难得多,”Queißer博士说。“这就是我们采取跨学科方法的原因,将发展神经科学和心理学与机器学习和机器人学等领域融合,以寻找思考学习的新方式,并为人工智能的未来提供信息。”

为什么工作记忆很重要

研究人员首先检查了AI模型中的记忆设计,重点关注工作记忆及其在泛化中的作用。工作记忆是保持和使用信息的能力,无论是遵循指令还是进行快速心算。通过测试不同难度的任务,该团队比较了各种记忆结构。

他们发现,拥有多个工作记忆槽(用于信息片段的临时容器)的模型在具有挑战性的问题上表现更好,例如反转序列或重建模式。这些任务要求同时保持多个信息片段并按正确的顺序操作它们。

当团队增加了鼓励系统进行特定次数自言自语的“目标”时,性能甚至得到了进一步提高。最大的提升出现在多任务处理和需要多步骤的任务中。

“我们的组合系统特别令人兴奋,因为它可以使用稀疏数据,而不是训练此类模型进行泛化通常所需的大型数据集。它提供了一种互补的、轻量级的替代方案,”Queißer博士说。

在现实世界中学习如何学习

研究人员现在计划超越干净、受控的测试,探索更现实的条件。“在现实世界中,我们在复杂、嘈杂、动态的环境中做决定和解决问题。为了更好地反映人类发展性学习,我们需要考虑这些外部因素,”Queißer博士说。

这一方向支持了该团队更广泛的目标,即从神经层面理解人类学习是如何运作的。“通过探索像内部语音这样的现象,并理解这些过程的机制,我们获得了对人类生物学和行为的基本新见解,”Queißer博士总结道。“我们也可以应用这些知识,例如在开发可以在我们复杂、动态世界中运作的家用或农业机器人方面。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区