📢 转载信息
原文链接:https://www.bbc.com/news/articles/cn8xzgw623go?at_medium=RSS&at_campaign=rss
原文作者:BBC News
人工智能(AI)研究人员正在深入探索如何赋予生成性模型“记忆”,以克服当前模型的关键限制——即它们通常缺乏对先前互动或信息的持续、长期存储能力。
目前,大型语言模型(LLM)的“记忆”主要局限于它们处理的当前上下文窗口(context window)内。一旦信息超出了这个窗口,模型就会“忘记”之前的内容。
这项研究旨在模仿人类大脑的记忆机制,开发更先进的算法,使AI系统能够记住更长的时间跨度内的信息,从而实现更连贯和个性化的交互。
AI记忆的挑战与目标
目前的LLM,如ChatGPT,在处理长篇对话或复杂任务时常常遇到困难。例如,如果你在对话开始时提到了你的偏好,模型可能在几轮对话后就无法记住这些细节。
研究人员认为,要使AI系统真正实用化,它们必须具备更强大的长期记忆功能,能够整合来自不同时间点的信息。
目标是开发出能够:
- 在不需要每次都重新输入信息的情况下,保持上下文连贯性。
- 从过去的经验中学习并将其应用于新的任务。
- 在处理需要长期规划或复杂项目管理时,能够调用相关历史信息。
研究方向:借鉴生物学机制
科学家们正从神经科学中寻找灵感,特别是研究人类大脑如何存储和检索记忆。
人类的记忆系统远比目前任何AI系统都要复杂和高效。我们正在研究如何将这些机制,如海马体(hippocampus)在记忆形成中的作用,应用到AI架构中。
一种方法是构建一个外部的“记忆库”或知识图谱,让模型在需要时查询这些信息,而不是将所有信息都塞进模型自身的参数中。这被称为检索增强生成(RAG)技术的一种更高级形式。
通过有效的索引和检索机制,模型可以存储海量信息,并在关键时刻迅速提取最相关的数据点。
潜在影响
如果AI记忆问题得以解决,将对多个领域产生深远影响:
- 更智能的虚拟助手:助手将能记住用户的长期目标和偏好。
- 个性化教育:AI导师能跟踪学生的学习进度和弱点,提供定制化辅导。
- 复杂科学研究:模型能够整合跨越数年或数十年积累的文献和实验数据。
尽管取得了进展,这项研究仍处于早期阶段。然而,它代表了通往更通用、更具认知能力的下一代AI系统的关键一步。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区