目 录CONTENT

文章目录

全新AI训练方法诞生:仅用78条指令即可打造出强大的软件智能体

青云TOP
2025-10-09 / 0 评论 / 0 点赞 / 1 阅读 / 0 字

📢 转载信息

原文链接:https://venturebeat.com/ai/new-ai-training-method-creates-powerful-software-agents-with-just-78

原文作者:Kyle Wiggers


研究人员开发了一种新颖的AI训练方法,只需少量指令就能创建出强大的软件智能体。该方法被称为“少样本任务归纳(few-shot task induction)”,它使用只有78个示例(或更少)的演示数据来训练大型语言模型(LLM),使其能够自主完成复杂的软件任务。

这项研究由麻省理工学院(MIT)和谷歌DeepMind的科学家合作完成,发表在arXiv预印本服务器上。该方法旨在解决传统软件智能体训练中依赖大量人工编写的、特定于任务的指令和数据的问题。

超越传统指令的局限性

传统的软件智能体(Software Agents)通常需要大量的任务演示和详细的步骤指令才能学会如何操作软件界面(如点击按钮、填写表单等)。这种方法效率低下,且难以扩展到新的应用程序或任务上。

少样本任务归纳(FSTI)方法则另辟蹊径。它不是试图让模型记住特定任务的每一个步骤,而是让模型学会“归纳”出完成任务的通用操作模式,即使只看过极少的例子。

研究团队展示了这一方法在模拟的金融和邮件客户端任务中的有效性。在这些任务中,智能体不仅学会了如何执行特定操作,还能在新场景中应用这些知识。

“我们发现,即使只有很少的演示,模型也能学习到更深层的、可泛化的策略,这表明LLM在理解任务结构方面比我们之前认为的更强大,”论文作者之一在一次采访中表示。

性能超越SOTA(最先进技术)

在多个基准测试中,FSTI方法训练出的智能体展现出显著的性能优势。例如,在一些涉及复杂决策的金融模拟任务中,FSTI智能体的成功率比依赖大量演示训练的模型还要高。

研究人员认为,这种方法的核心在于引导LLM利用其固有的常识和推理能力,而不是单纯依赖记忆。

“我们的模型不再是简单的指令跟随者,”另一位研究人员解释道,“它们开始表现出真正的‘理解’,能够处理未见过的变量和界面变化。”

研究人员展示的少样本任务归纳过程示意图

对AI开发的深远影响

这项研究对未来软件智能体的发展具有重大意义。如果只需几十个示例就能训练出可靠的智能体,那么构建和部署AI助手以自动化更多日常软件交互的门槛将大大降低。

例如,在客服、数据录入、甚至是复杂的软件测试等领域,开发人员不再需要花费数月时间收集和标注海量的演示数据。

关键优势:

  • 效率提升:训练时间大大缩短,所需数据量急剧减少。
  • 泛化能力强:智能体在新环境或略有不同的任务上表现更稳定。
  • 降低成本:减少了人工标注和环境模拟的成本。

这项技术目前仍在早期研究阶段,但它为构建下一代、更灵活、更“聪明”的软件智能体指明了方向。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。

青云聚合API官网https://api.qingyuntop.top

支持全球最新300+模型:https://api.qingyuntop.top/pricing

详细的调用教程及文档:https://api.qingyuntop.top/about

0

评论区