目 录CONTENT

文章目录

“微型”人工智能模型在逻辑测试中击败大型语言模型

Administrator
2025-11-14 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.nature.com/articles/d41586-025-03379-9

原文作者:Elizabeth Gibney


A wooden sudoku board with wooden square tiles with single digit numbers on them with a yellow overlaid pixelated frame

一个“微型推理模型”在逻辑谜题中击败了大型语言模型,尽管它的训练数据集要小得多。图片来源:Getty

一种仅从有限数据集学习的微型人工智能模型,因其在提升推理能力方面的潜力而令研究人员感到兴奋。该模型被称为“递归微型模型”(Tiny Recursive Model,简称TRM),在人工通用智能的抽象与推理语料库(ARC-AGI)测试中,表现超越了世界上一些最优秀的大型语言模型(LLMs)。ARC-AGI测试涉及视觉逻辑谜题,旨在让大多数机器感到困惑。

该模型——上个月在arXiv服务器的预印本中详细介绍1——与LLM并不直接可比。它具有高度的专业性,仅在训练它的逻辑谜题类型上表现出色,例如数独和迷宫,并且它不“理解”或生成语言。但研究人员表示,它在极少资源下(比前沿LLMs小10,000倍)所表现出的优异能力,暗示了一条可能更广泛地提升AI这种能力(推理能力)的途径。

“这是关于其他形式推理的迷人研究,这些推理形式有一天可能会被用于LLMs中,”曾在加拿大温哥华的英属哥伦比亚大学任职的机器学习研究员Cong Lu说。然而,他警告说,如果将这些技术应用于更大规模,效果可能就不那么显著了。“通常,技术在小模型尺寸下效果非常好,然后在大规模时就失效了,”他说。

人工智能测试




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区