目 录CONTENT

文章目录

人工智能或不再需要海量训练数据

Administrator
2026-01-05 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.sciencedaily.com/releases/2025/12/251228074457.htm

原文作者:Johns Hopkins University


人工智能或不再需要海量训练数据

构建更像人脑的AI可能比灌输数据更重要。

来自约翰霍普金斯大学的最新研究表明,采用受生物学启发的设计的人工智能系统,在未接受任何数据训练的情况下,就能开始表现出类似人脑的活动。这项研究提示,AI的结构方式可能与它处理的数据量一样重要。

这项发表在《自然-机器智能》上的发现,挑战了当前AI开发中的主流策略。研究强调了从一个类似大脑的架构基础开始的重要性,而不是依赖数月的训练、庞大的数据集和巨大的计算能力。

重新思考AI中数据密集型方法

"目前AI领域的发展趋势是向模型中投入大量数据,并建立规模堪比小城市的计算资源。这需要花费数千亿美元。然而,人类仅用很少的数据就能学会看东西," 约翰霍普金斯大学认知科学助理教授、首席作者Mick Bonner说,"自然选择可能出于某种良好原因汇聚到了这种设计上。我们的工作表明,更像大脑的架构设计使AI系统处于一个非常有利的起点。"

Bonner和他的同事们旨在测试,仅靠架构是否能为AI系统提供更像人类的起点,而无需依赖大规模训练。

比较流行的AI架构

研究团队重点关注了现代AI系统中常用的三种主要神经网络设计:Transformer、全连接网络和卷积神经网络(CNN)。

他们反复调整了这些设计,创建了数十种不同的人工神经网络。事先没有任何模型经过训练。然后,研究人员向这些未训练的系统展示了物体、人物和动物的图像,并将它们的内部活动与人类和非人灵长类动物在观看相同图像时的大脑反应进行了比较。

AI May Not Need Massive Training Data

研究人员发现,采用受大脑启发的设计的AI可以在看到任何训练数据之前模仿人脑活动。这一发现挑战了“更大的数据集和更多的计算能力是更智能AI的唯一途径”的观点。 来源:Shutterstock

卷积网络脱颖而出

增加Transformer和全连接网络中的人工神经元数量,产生的有意义的变化很小。然而,对卷积神经网络进行类似的调整,产生了与人脑中观察到的活动模式更为匹配的活动模式。

研究人员表示,这些未训练的卷积模型表现与传统AI系统相当,后者通常需要接触数百万甚至数十亿张图像。结果表明,与先前的认识相比,架构在塑造类脑行为方面起着更大的作用。

通往更智能AI的捷径

"如果说海量数据训练是关键因素,那么仅通过架构修改就不可能实现类脑AI系统," Bonner说。"这意味着,通过从正确的蓝图开始,或许还纳入了来自生物学的其他见解,我们或许能够显著加速AI系统的学习过程。"

该团队目前正在探索受生物学启发的简单学习方法,这些方法可能催生新一代深度学习框架,从而使AI系统更快、更高效,并且对海量数据集的依赖性更低。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区