OpenAI 已经开始向更多用户推出其 ChatGPT 模型的“记忆”(memory)功能。

该功能旨在帮助人工智能聊天机器人记住用户在不同对话中提供的信息,以便在后续互动中提供更具个性化和上下文感知的响应。

此举标志着人工智能助手向更持久和更具情境感知能力的方向发展。


记忆功能如何运作

ChatGPT 的记忆功能允许用户选择在对话中记住哪些特定信息。用户可以手动管理记忆内容,例如“记住我的狗叫巴迪”或“记住我是一名软件工程师”。

系统随后会尝试在后续的对话中,根据相关的上下文来调用这些记忆。

OpenAI 表示,这项功能将使得与 ChatGPT 的互动更加顺畅和高效,因为它不必每次都重复某些基础信息。


ChatGPT界面展示

在推出该功能的过程中,OpenAI 强调了用户对其记忆的控制权。用户可以随时在设置中关闭此功能,或者要求 ChatGPT 忘记特定的信息。

然而,关于这项技术如何“选择”记住什么,以及记忆如何在后台被存储和检索,OpenAI 尚未提供非常详细的技术说明。


隐私和准确性担忧

尽管 ChatGPT 记忆功能听起来很有前景,但它也引发了专家和用户的担忧,主要集中在数据隐私和记忆的准确性上。

主要问题之一是,记忆的存储和使用方式是否完全透明。用户需要相信 OpenAI 对这些个人信息的处理是安全和负责任的。

一位 AI 伦理专家表示:“我们需要了解,这些记忆是否被用于训练未来的模型,以及它们是如何被加密和隔离的。透明度至关重要。”


记忆的局限性

另一个挑战是 ChatGPT 对记忆的理解和应用能力。

AI 模型有时会“幻觉”或错误地回忆信息。如果记忆功能错误地调用了不相关或错误的信息,可能会导致对话走向歧途,损害用户体验。

例如,如果用户提到了一个旧的、不再适用的偏好,ChatGPT 是否能区分新旧信息,或者是否会固执地坚持旧的“记忆”,这是需要测试的关键点。


OpenAI 正在逐步向所有 Plus 用户、团队用户和企业用户推出这项功能。对于免费用户,该功能可能会在稍后推出,但目前仍处于有限的测试阶段。

随着 AI 工具越来越深入地融入日常生活和工作流程,这种长期、个性化的记忆能力将是下一代人机交互的关键,但必须伴随着明确的规则和用户信任。