目 录CONTENT

文章目录

预测未来的机器人:三本书剖析我们对预测的痴迷,以及将此任务外包给机器时会失去什么

Administrator
2026-02-18 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.technologyreview.com/2026/02/18/1132579/robots-predict-future-book-review/

原文作者:Bryan Gardiner


生而为人,其根本就在于做一个预言家,而且偶尔还是个相当不错的预言家。试图预见未来——无论是通过回顾过去的经验,还是通过因果逻辑——帮助我们狩猎、避免狩猎、种植庄稼、建立社会联系,并在一个不优先考虑我们生存的世界中总体上得以生存。事实上,随着占卜工具在几个世纪里从茶叶到数据集不断演变,我们关于未来可以被知晓(并因此可以被控制)的信念也只会越来越强烈。


今天,我们淹没在海量且无情的预测之中,以至于大多数人几乎都意识不到它们的存在。就在我写下这句话时,某些遥远服务器上的算法正忙着根据我已经输入的词语来猜测我的下一个词。如果你是在线阅读这篇文章,另一组算法很可能已经向你推送了它认为你最有可能点击的广告。(对于那些正在阅读纸质版文章的死忠读者们,恭喜!你暂时逃脱了算法的魔爪……)


如果你对一个由一群唯利是图的公司秘密植入你生活中的、无处不在的、大多看不见的预测层感到不安……嗯,我们也是。

这一切是怎么发生的呢?人们对可靠预测的需求是可以理解的。然而,没有人会想要一个调解生活中方方面面的、无所不在的算法神谕。三本新书试图弄清楚我们这个面向未来的世界——我们是如何走到这一步的,以及这种变化意味着什么。每本书都有自己应对新现实的处方,但它们都同意一件事:预测最终关乎权力和控制


cover of The Means of Prediction
预测的手段:人工智能是如何真正运作的(以及谁从中受益)
Maximilian Kasy
UNIVERSITY OF CHICAGO PRESS, 2025

在《预测的手段:人工智能是如何真正运作的(以及谁从中受益)》一书中,牛津大学经济学家 Maximilian Kasy 解释了我们生活中大多数预测是如何基于对大规模、已标记数据集的统计分析——这在人工智能领域被称为监督学习。一旦用这些数据集进行“训练”,监督学习算法就可以接收到各种新信息,然后给出其对某个特定未来结果的最佳猜测。你会不会违反假释规定?能否还清抵押贷款?被录用后是否会获得晋升?大学考试成绩会如何?是否会在家被炸弹炸到?越来越多地,我们的生活受到机器对这些问题的回答所塑造(甚至可以说,有时是被缩短)。


如果你对一个由一群唯利是图的公司秘密植入你生活中的、无处不在的、大多看不见的预测层感到不安……嗯,我们也是。据 Kasy 所说,这种安排正在导致一个更残酷、更平庸、更工具化的世界,在这个世界里,生活的可能性被封闭,根深蒂固的偏见被固化,每个人的大脑似乎都在积极地变成一团浆糊。这是一个完全可以预见的后果。


相关故事

A “QuitGPT” campaign is urging people to cancel their ChatGPT subscriptions
Read next

人工智能的支持者可能会将这些后果描述为“意外的”,或者仅仅是优化和对齐问题。然而,Kasy 认为,它们代表了系统按预期运作。“如果一个选择你在社交媒体上看到什么的算法会煽动愤怒,从而最大化参与度和广告点击量,”他写道,“那是因为煽动愤怒对广告销售的利润有好处。”对于“筛选掉那些可能在工作场所有家庭照料责任”的求职者,以及那些“筛选掉可能患有慢性健康问题或残疾的人”的算法也是如此。对公司底线有益的,不一定对你的求职前景或预期寿命有益。


Kasy 与其他批评者的不同之处在于,他认为努力创建偏见更少、更公平的算法并不能解决这些问题。试图重新平衡天平无法改变这样一个事实:预测算法依赖于过去的数据,而这些数据往往是种族主义、性别歧视和无数其他方面都有缺陷的。而且,他说,为了利润而产生的激励措施将始终凌驾于消除伤害的尝试之上。对抗这种现象的唯一方法是对 Kasy 所称的“预测手段”——数据、计算基础设施、技术专长和能源——实施广泛的民主控制


预测的手段》略多于一半的内容致力于解释这可能如何实现——通过“数据信托”(代表其贡献者就如何处理和使用数据做出决策的集体公共机构)和企业税收等机制,后者试图弥补人工智能给社会带来的伤害。在此过程中涉及很多经济学家的术语,关于“变革推动者”如何帮助实现“价值对齐”以“最大化社会福利”等等。听起来很合理,我想,但怀疑论者可能会指出,Kasy 这种严谨、系统地建立新的公共服务机构的方法,恰恰是在公众对机构的信任度降至历史最低点的时刻提出的。此外,还有大脑变浆糊的问题。


值得称赞的是,Kasy 在这方面很现实。他并不认为任何这些提议会很容易实施。或者会在一夜之间,甚至在不久的将来发生。他书的结尾提出了一个令人不安的问题:我们有那样的时间吗?


阅读 Kasy 关于夺取预测手段控制权的蓝图,引发了另一个紧迫的问题。我们究竟是如何发展到机器中介的预测几乎无处不在的地步的?用马克思的简洁回答可能是:资本主义。就其本身而言,这很有道理,但这并不能解释为什么目前对气候变化进行建模的算法,会同时决定你是否能获得新的肾脏,或者我是否能获得汽车贷款。


""
非理性决策:我们如何赋予计算机为我们选择的权力
Benjamin Recht
PRINCETON UNIVERSITY PRESS, 2026

如果你问《非理性决策:我们如何赋予计算机为我们选择的权力》的作者 Benjamin Recht,他可能会告诉你,我们目前的困境与决策理论的想法和意识形态密切相关——也就是经济学家所说的理性选择理论。Recht 是加州大学伯克利分校电气工程与计算机科学系的博学教授,他更喜欢用“数学理性”来描述这种狭隘的、统计学的概念,正是这种概念激发了构建计算机的愿望,影响了它们最终的工作方式,并影响了它们擅长解决的问题类型。


这种信仰体系可以追溯到启蒙运动,但在 Recht 的叙述中,它在二战末期真正扎下了根。没有什么比战争更能集中人们对风险和快速决策的关注了,而在对抗轴心国中证明特别有用的数学模型说服了一批精选的科学家和统计学家,他们认为这些模型也可能成为设计第一批计算机的合乎逻辑的基础。由此诞生了将计算机视为理想理性主体的想法,一种能够通过量化不确定性和最大化效用来做出最佳决策的机器。


Recht 说,直觉、经验和判断让位于优化、博弈论和统计预测。“在此期间开发的核心算法驱动着我们现代世界的自动化决策,无论是在管理供应链、安排航班时间,还是在社交媒体信息流上投放广告,”他写道。在这种由优化驱动的现实中,“每一个生活决定都被视为一场在想象中的赌场里的回合,每一个论点都可以简化为成本和收益、手段和目的。”


Recht 说,今天,数学理性(以其人类形象出现)最典型的代表是像民意调查员 Nate Silver、哈佛心理学家 Steven Pinker 以及一群硅谷的寡头。这些人从根本上相信,如果我们当中更多的人能采纳他们的分析思维,学会权衡成本和收益、评估风险并进行最佳规划,世界将会变得更美好。换句话说,这些人相信我们都应该像计算机一样做决定。


我们如何证明,(无法量化的)人类直觉、道德和判断是解决世界上一些最重要和最棘手问题的更好方法?

他说,这有多种荒谬的原因。仅举一例,自动化出现之前人类难道就不能做出循证决策了吗?“清洁用水、抗生素和公共卫生的进步使预期寿命从 1850 年代的不足 40 岁提高到 1950 年的 70 岁,”Recht 写道。“从 19 世纪末到 20 世纪初,我们在物理学方面取得了世界级的科学突破,包括关于热力学、量子力学和相对论的新理论。”我们也在没有正式的理性体系的情况下成功地制造了汽车和飞机,并且以某种方式实现了现代民主等社会创新,而没有最优决策理论。


那么,我们如何才能说服那些 Pinker 和 Silver 之流的人,相信我们生活中面临的大多数决定实际上并非永不休止的数学理性磨坊的磨料?此外,我们如何才能证明,(无法量化的)人类直觉、道德和判断是解决世界上一些最重要和最棘手问题的更好方法呢?


cover of Prophecy
预言:预测、权力以及为未来而战,从古代神谕到人工智能
Carissa Véliz
DOUBLEDAY, 2026

我们可以先提醒一下那些理性主义者,任何预测,无论是否基于计算,都只是一种愿望——但它有一种强烈的自我实现的倾向。这个想法激励了 Carissa Véliz 精彩且涉猎广泛的政论作品《预言:预测、权力以及为未来而战,从古代神谕到人工智能》。


作为牛津大学的哲学家,Véliz 将预测视为“一个将现实弯曲向自身倾斜的磁铁”。她写道:“当磁铁的引力足够强时,预测就会成为其成真的原因。”


相关故事

Moltbook was peak AI theater
Read next

想想 Gordon Moore 吧。虽然他没有在《预言》中出现,但他在 Recht 对数学理性的历史回顾中却占据了相当重要的地位。这位科技巨头英特尔(Intel)的联合创始人以其 1965 年的预测而闻名:集成电路中的晶体管密度将每两年翻一番。‘摩尔定律’被证明是正确的,并且至今仍然如此,尽管由于硅原子的物理尺寸限制,它似乎正在失去动力。


关于摩尔定律,你可以讲述的故事之一是,戈登只是一个有远见的人。他 1965 年为《电子》杂志撰写的经典观点文章《在集成电路中塞入更多元件》,只是推断了计算趋势可能对半导体行业的未来意味着什么。


另一个故事——我猜 Véliz 可能会讲的故事——是摩尔将一个有根据的预测发布到世界上,而整个行业都有集体利益让它成真。正如 Recht 清楚指出的那样,公司有明显的经济动机去制造更快、更小的计算机芯片。虽然该行业可能已经花费了数十亿美元来维持摩尔定律的生命,但它无疑从中获得了更大的利润。摩尔定律是一个非常强大的磁铁。


Véliz 说,预测不仅有自我实现的倾向。它们还会分散我们对当下挑战的注意力。当一个人工智能的“大话王”承诺通用人工智能将是人类需要解决的最后一个问题时,这不仅会影响我们对人工智能在我们生活中的作用的看法;它还会将我们的注意力从当前非常真实和紧迫的问题上转移开——而这些问题在很多情况下正是人工智能造成的。


从这个意义上说,围绕预测的问题(谁在做预测?谁有权做预测?)也从根本上关乎权力。Véliz 说,那些最依赖预测的社会也最倾向于压迫和威权主义,这并非巧合。“预测是被伪装的规定性断言——它们告诉我们如何行动,”她写道。“它们是哲学家所说的言语行为。当我们相信一个预测并据此行动时,这就像是在服从命令。”


尽管科技公司希望我们相信别的情况,但技术不是命运。是人类创造了它并选择如何使用它……或不使用它。也许面对生活中所有不请自来的日常预测,我们能做的最合适(也是最人性化)的事情就是简单地反抗它们


Bryan Gardiner 是居住在加利福尼亚州奥克兰的一名作家。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区