目 录CONTENT

文章目录

为什么AI预测如此困难

Administrator
2026-01-07 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.technologyreview.com/2026/01/06/1130707/why-ai-predictions-are-so-hard/

原文作者:James O'Donnell


本文最初发表在我们的AI每周电子报 The Algorithm 上。要第一时间在收件箱中收到此类文章,请在此订阅

有时,人工智能似乎是一个很小众的话题,但一到节假日,我就会听到各个年龄段的亲戚们谈论因聊天机器人引发的精神错乱案例,抱怨数据中心导致电价上涨,并询问孩子们是否应该不受限制地接触AI。换句话说,AI无处不在。而且人们对此感到担忧。


不可避免地,这些对话会转向:AI现在已经产生了所有这些连锁反应,但如果技术变得更强大,接下来会发生什么呢?这时,他们通常会看向我,期待一个关于厄运或希望的预测。

我可能会让他们失望,仅因为对AI的预测正变得越来越困难。


尽管如此,我必须说,《麻省理工科技评论》在解读AI的走向方面有着非常出色的记录。我们刚刚发布了一份关于2026年AI发展趋势的精辟预测(你可以在其中阅读我对AI相关法律诉讼的看法),去年的预测列表也全部实现了。但是,每到假日季节,我们都越来越难以确定AI将产生何种影响。这主要归因于三个悬而未决的大问题。

首先,我们不知道大型语言模型(LLM)在不久的将来是否会持续实现增量式改进。由于这项技术支撑着当前AI领域几乎所有的兴奋和焦虑,为AI伴侣到客户服务代理等一切提供动力,它的放缓将是一个巨大的事件。这件事情如此重大,以至于我们在12月专门用一整系列文章探讨了后AI炒作时代可能出现的情景。


其次,普通公众对AI的看法非常糟糕。这里有一个例子:将近一年前,OpenAI的Sam Altman与特朗普总统并肩站立,兴奋地宣布了一项价值5000亿美元的计划,要在美国各地建设数据中心,以训练更大、更多的AI模型。他们要么没有预料到,要么不在乎许多美国人会强烈反对在他们社区建设这样的数据中心。一年后,科技巨头们正在奋力争取公众的支持,以继续建设。他们能赢吗?


立法者对所有这些不满的反应非常混乱。特朗普通过主张将AI监管定为联邦而非州事务,取悦了科技巨头的首席执行官,科技公司现在希望将此写入法律。但是,那些希望保护儿童免受聊天机器人侵害的群体,从加州的进步派立法者到日益与特朗普保持一致的联邦贸易委员会(FTC),他们都有着截然不同的动机和方法。他们能否搁置分歧,对AI公司进行约束?


如果令人沮丧的假日餐桌对话进展到这一步,就会有人说:嘿,AI不是正在用于一些客观的好事吗?比如让人类更健康、发现科学突破、更好地理解气候变化?


嗯,可以说是。机器学习,一种较早的AI形式,长期以来一直被用于各种科学研究。其中一个分支,称为深度学习,是AlphaFold的一部分,这是一种获得诺贝尔奖的蛋白质预测工具,它彻底改变了生物学。图像识别模型在识别癌细胞方面的表现越来越好


但是,基于更新的大型语言模型的聊天机器人的实际表现则更为平淡。像ChatGPT这样的技术非常擅长分析大量研究以总结已经发现的内容。但是,一些关于这类AI模型取得了真正发现(例如解决了以前未解决的数学问题)的高调报道,结果都是空穴来风。它们可以协助医生诊断,但它们也可能鼓励人们在不咨询医生的情况下自行诊断健康问题,有时还会导致灾难性的后果


到明年这个时候,我们可能会对家人提出的问题有了更好的答案,同时也会有一堆全新的问题。在此期间,请务必阅读我们关于今年AI发展的完整文章,其中包含了整个AI团队的预测。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区