📢 转载信息
原文作者:Technology Review
如果过去12个月教会了我们什么,那就是AI的炒作列车丝毫没有减速的迹象。很难相信,在今年年初,DeepSeek还没有颠覆整个行业,Meta更出名的是试图(但未能)让元宇宙变得流行,而不是在超级智能领域不懈追求主导地位,而且“Vibe coding”(凭感觉编程)还不是一个时髦词。
如果这让你感到有些困惑,别担心。随着2025年接近尾声,我们的作者回顾了今年(无论好坏)占据主导地位的AI术语。
请确保花时间为又一个疯狂的年份做好准备。
—Rhiannon Williams
1. Superintelligence(超级智能)
只要人们在炒作AI,他们就会想出未来超强形态技术的名称,这种技术可能给人类带来乌托邦或反乌托邦的后果。“超级智能”就是最新的热门术语。Meta在7月宣布将成立一个AI团队来追求超级智能,据报道,该公司向竞争对手的AI专家提供了九位数的薪酬方案以吸引他们加入。
12月,微软的AI负责人也采取了类似行动,表示公司将在追求超级智能方面投入巨额资金,可能高达数千亿美元。如果你认为“超级智能”和通用人工智能(AGI)一样定义模糊,你就说对了!虽然可以想象这类技术在人类的长期发展中是可行的,但真正的问题是何时实现,以及今天的AI是否足够好,可以被视为通往超级智能的垫脚石。但这并不会阻止炒作大王们的脚步。—James O’Donnell
2. Vibe coding(凭感觉编程)
三十年前,史蒂夫·乔布斯说美国每个人都应该学习如何为计算机编程。如今,由于OpenAI联合创始人Andrej Karpathy创造的“vibe coding”(凭感觉编程)这一统称术语,那些完全不懂编程的人也能在短时间内快速搭建一个应用程序、游戏或网站。要凭感觉编程,你只需向生成式AI模型的编码助手发出提示,要求其创建你想要的数字对象,并几乎接受它们吐出的所有内容。结果会起作用吗?可能不会。它会安全吗?几乎肯定不会,但该技术最大的倡导者不会让这些小细节阻碍他们。而且——听起来很有趣!— Rhiannon Williams
3. Chatbot psychosis(聊天机器人精神病)
过去一年中最大的AI故事之一是,与聊天机器人长期互动如何可能导致脆弱人群出现妄想,在一些极端情况下,甚至可能引发或加重精神病。“聊天机器人精神病”虽然不是一个公认的医学术语,但研究人员正密切关注来自用户的越来越多的轶事证据,他们声称这种情况发生在他们自己或他们认识的人身上。遗憾的是,AI公司因与聊天机器人交谈后导致人员死亡而面临的越来越多的诉讼,证明了该技术可能带来的致命后果。—Rhiannon Williams
4. Reasoning(推理)
今年,所谓的推理模型——那些可以将问题分解为多个步骤并逐一解决的LLM——是推动AI炒作列车持续前行的主要动力之一。OpenAI在一年前发布了其首批推理模型o1和o3。
一个月后,中国公司DeepSeek以一个非常快速的跟进让所有人感到惊讶,推出了R1,这是第一个开源的推理模型。很快,推理模型就成了行业标准:所有主要的市场主流聊天机器人现在都有由这项技术支持的版本。推理模型推动了LLM能力的前沿,在著名的数学和编程竞赛中取得了与顶尖人类相媲美的表现。另一方面,关于LLM能有多“聪明”以及它们实际的工作原理的讨论,再次引发了关于如何智能的古老争论。就像“人工智能”本身一样,“推理”也是一种技术术语,披上了营销的光环。火车继续前行!—Will Douglas Heaven
5. World models(世界模型)
尽管LLM在语言方面有着惊人的能力,但它们却缺乏常识。简单来说,它们对世界的运作方式没有根基。它们是字面意义上的“书本学习者”,可以就各种主题滔滔不绝,却会在关于能把多少头大象塞进一个奥林匹克游泳池的常识问题上栽跟头(根据谷歌DeepMind的一个LLM的说法,答案是“恰好一头”)。
世界模型——这是一个涵盖各种技术的广阔范畴——旨在赋予AI对世界事物实际如何组合的基本常识。在其最生动的形式中,像谷歌DeepMind的Genie 3和Fei-Fei Li的初创公司World Labs备受期待的新技术Marble这样的世界模型,可以为机器人训练及更多目的生成详细而逼真的虚拟世界。Meta的前首席科学家Yann LeCun也在研究世界模型。多年来,他一直试图通过训练模型来预测视频中接下来会发生什么,从而让AI了解世界是如何运作的。今年,他离开了Meta,专注于在一家名为Advanced Machine Intelligence Labs的新初创公司中采取这种方法。如果一切顺利,世界模型可能是下一个热点。—Will Douglas Heaven
6. Hyperscalers(超大规模数据中心)
你是否听说过那些说“不,我们真的不想要一个巨大的数据中心建在我们后院”的人们?这些数据中心——科技公司希望在各地建造,甚至太空——通常被称为超大规模数据中心:专为AI运营而建的庞大建筑,被OpenAI和谷歌等公司用来构建更大、更强大的AI模型。在这些建筑内部,世界上最好的芯片嗡嗡作响,用于训练和微调模型,它们被设计成模块化并根据需求增长。
对于超大规模数据中心来说,今年是重要的一年。OpenAI与唐纳德·特朗普总统一起宣布了其Stargate项目,这是一个价值5000亿美元的合资企业,旨在全国各地部署有史以来最大的数据中心。但这让几乎所有其他人都在问:我们到底能从中得到什么?消费者担心新的数据中心会提高他们的电费。这类建筑通常难以依靠可再生能源运行。而且它们通常不会创造太多就业岗位。但嘿,也许这些巨大、没有窗户的建筑至少能给你的社区带来一种忧郁的科幻氛围。—James O’Donnell
7. Bubble(泡沫)
AI的宏伟承诺正在推高经济。AI公司正在筹集惊人的资金,看着它们的估值飙升至平流层。它们正将数千亿美元投入芯片和数据中心,资金越来越多地来自债务和令人侧目的循环交易。与此同时,引领淘金热的公司,如OpenAI和Anthropic,可能在多年内甚至永远不会实现盈利。投资者押注AI将带来一个财富的新时代,但没有人知道这项技术到底会有多大的变革性。
大多数使用AI的组织尚未看到回报,而且AI制造的“slop”(劣质内容)无处不在。关于扩大LLM规模能否带来超级智能,或者是否需要新的突破来铺平道路,存在科学上的不确定性。但与它们的dot-com泡沫前辈不同,AI公司显示出强劲的收入增长,其中一些甚至是像微软、谷歌和Meta这样的资金雄厚的科技巨头。这场狂热的梦想会破裂吗?—Michelle Kim
8. Agentic(自主智能)
今年,AI智能体无处不在。2025年每一次新功能发布、模型更新或安全报告中都充斥着对它们提及,尽管许多AI公司和专家对究竟什么才算真正的“agentic”(自主智能)存在分歧,这真是一个模糊的术语。尽管几乎不可能保证一个在广阔网络中代表你行动的AI会始终如一地执行它应该执行的操作——自主智能AI似乎将长期存在。想卖东西?就称之为自主智能吧!—Rhiannon Williams
9. Distillation(蒸馏)
今年早些时候,DeepSeek推出了其新模型DeepSeek R1,这是一个开源的推理模型,其性能与西方顶尖模型相当,但成本却低得多。它的发布让硅谷感到震惊,因为许多人第一次意识到,巨大的规模和资源并非高水平AI模型的必要条件。R1发布后的第二天,英伟达股价暴跌了17%。
R1成功的关键在于蒸馏(Distillation),这是一种使AI模型更高效的技术。它通过让一个较大的模型来辅导一个较小的模型来实现:你用大量的示例运行教师模型并记录答案,然后奖励学生模型尽可能精确地复制这些答案,使其获得教师知识的压缩版本。—Caiwei Chen
10. Sycophancy(阿谀奉承)
随着世界各地的人们花越来越多的时间与ChatGPT等聊天机器人互动,聊天机器人制造商正在努力确定模型应该采取何种语气和“个性”。去年4月,OpenAI承认他们在“有用”和“谄媚”之间没有取得正确的平衡,称新的更新使GPT-4o过于阿谀奉承了。它奉承你不仅令人恼火——还可能通过强化用户错误信念和传播错误信息来误导用户。所以,请把LLM生成的所有内容都当作一剂安慰剂来对待吧。—Rhiannon Williams
11. Slop(劣质内容)
如果说有一个与AI相关的术语已经完全逃离了极客圈并进入了公众意识,那就是“slop”(劣质内容)。这个词本身很古老(想想猪饲料),但“slop”现在通常用来指代由AI生成的大量、低劣的内容,通常是为了优化在线流量。很多人甚至用它来指代任何AI生成的内容。在过去的一年里,它似乎无处不在:我们被它浸泡着,从假传记到“虾耶稣”图像再到超现实的人机混合视频。
但人们也在从中取乐。这个词的讽刺性灵活性使得互联网用户很容易将其作为后缀附加到各种词语上,以描述任何缺乏实质内容且极其平庸的东西:比如“work slop”(工作垃圾)或“friend slop”(朋友垃圾)。随着炒作周期的重置,“slop”标志着一场文化上的反思:我们信任什么,我们认为哪些是创造性劳动,以及被围绕在为参与度而非表达而创造的内容中的感觉意味着什么。—Caiwei Chen
12. Physical intelligence(物理智能)
你是否看到了今年早些时候那段催眠般的视频,视频中一个人形机器人正在一个阴郁的灰度厨房里收拾盘子?这几乎就体现了物理智能的概念:即AI的进步可以帮助机器人在物理世界中更好地移动。
确实,机器人学习新任务的速度比以往任何时候都快,应用范围从手术室到仓库。自动驾驶汽车公司在模拟道路方面也取得了改进。
话虽如此,对AI是否彻底改变该领域仍应持怀疑态度。例如,许多被称为家庭管家的机器人,其大部分任务实际上是借助菲律宾的远程操作员完成的。
物理智能的前景无疑也会很奇特。大型语言模型通过文本进行训练,文本在互联网上非常丰富,但机器人更多地从人们做事的视频中学习。这就是为什么机器人公司Figure在9月建议,他们将付钱给人们,让他们在自己的公寓里拍摄自己做家务的视频。你会报名吗?—James O'Donnell
13. Fair use(合理使用)
AI模型的训练方式是吞噬互联网上的数百万个单词和图像,其中包括艺术家和作家的受版权保护的作品。AI公司辩称这是“合理使用”——这是一项法律原则,允许你在未经许可的情况下使用受版权保护的材料,前提是你将其转换为不与原作竞争的新内容。法院开始进行裁决。6月,Anthropic在Claude AI模型训练中使用书籍库的行为被裁定为合理使用,因为该技术具有“极强的转换性”。
同月,Meta也取得了类似胜利,但原因仅仅是因为作者无法证明该公司的文学盛宴侵蚀了他们的收入。随着版权之战的酝酿,一些创作者正在从这场盛宴中获利。12月,迪士尼与OpenAI签署了一项轰动性的协议,允许Sora(AI视频平台)的用户生成包含迪士尼特许经营中200多个角色的视频。与此同时,世界各国政府正在重写内容饕餮机器的版权规则。用受版权保护的作品训练AI是合理使用吗?对于任何价值十亿美元的法律问题来说,情况都是复杂的。—Michelle Kim
14. GEO
就在几年前,整个行业都是围绕着帮助网站在搜索结果中获得高排名而建立起来的(好吧,主要是Google)。现在,搜索引擎优化(SEO)正让位于生成式引擎优化(GEO),因为AI的爆发式增长迫使品牌和企业争相最大化它们在AI中的可见度,无论是在谷歌的AI Overviews等AI增强搜索结果中,还是在LLM的回答中。他们感到恐慌也就不足为奇了。我们已经知道,新闻机构的搜索驱动的网络流量出现了巨大下降,而AI公司正在开发方法,允许其用户直接从其平台内访问网站,以削减中间商。现在是适应或灭亡的时候了。—Rhiannon Williams
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区