目 录CONTENT

文章目录

人工智能可能根本不需要海量训练数据

Administrator
2026-01-29 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.sciencedaily.com/releases/2025/12/251228074457.htm

原文作者:Johns Hopkins University


约翰霍普金斯大学的新研究表明,采用仿生设计的人工智能系统,在未经过任何数据训练之前,其内部活动就能开始模仿人类大脑的活动。这项研究表明,AI的构建方式可能与它处理的数据量同等重要。

发表在《Nature Machine Intelligence》上的研究结果,对当前AI开发中的主流策略提出了挑战。研究强调了从具有类似大脑的架构基础开始的重要性,而不是依赖于数月的训练、海量的数据集和巨大的计算能力。

重新思考AI的数据密集型方法

约翰霍普金斯大学的首席作者、认知科学助理教授Mick Bonner说:"目前AI领域的发展方向是向模型中投入大量数据,并建立相当于小型城市规模的计算资源。这需要花费数千亿美元。然而,人类仅用很少的数据就能学会看东西," Bonner教授说,"进化可能出于充分的理由才收敛于这种设计。我们的工作表明,更像大脑的架构设计为AI系统提供了一个非常有利的起点。"

Bonner和他的同事们旨在测试,仅靠架构是否能在不依赖大规模训练的情况下,为AI系统提供更类人化的起点。

比较流行的AI架构

研究团队重点研究了现代AI系统中常用的三种主要神经网络设计:transformer、全连接网络和卷积神经网络(CNN)。

他们反复调整这些设计,创建了数十种不同的人工神经网络。这些模型在训练前都没有经过任何训练。然后,研究人员向这些未训练的系统展示了物体、人物和动物的图像,并将它们的内部活动与人类和非人类灵长类动物在观看相同图像时的大脑反应进行了比较。

卷积网络脱颖而出

增加transformer和全连接网络中的人工神经元数量,带来的有意义的变化很小。然而,对卷积神经网络进行类似的调整,产生了与人类大脑中观察到的活动模式更为匹配的活动模式。

研究人员指出,这些未训练的卷积模型表现与传统AI系统相当,而传统AI系统通常需要接触数百万甚至数十亿张图像。结果表明,与以往认为的相比,架构在塑造类脑行为方面起着更大的作用。

通往更智能AI的捷径

"如果说海量数据训练是关键因素,那么仅凭架构修改就不可能实现类似大脑的AI系统," Bonner说。"这意味着,通过从正确的蓝图开始,也许还融入了来自生物学的其他见解,我们可能能够显著加速AI系统的学习过程。"

该团队目前正在探索受生物学启发的简单学习方法,这些方法可能催生新一代的深度学习框架,从而使AI系统更快、更高效,并且对海量数据集的依赖性更低。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区