目 录CONTENT

文章目录

量子物理学家压缩并“去审查”DeepSeek R1

Administrator
2025-12-02 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.technologyreview.com/2025/11/19/1128119/quantum-physicists-compress-and-deconsor-deepseekr1/

原文作者:Caiwei Chen


西班牙专业从事量子启发式AI技术的公司Multiverse Computing的一组量子物理学家声称,他们创建了一个强大的推理AI模型DeepSeek R1的版本,该版本去除了其中国创建者内置的审查机制。

这些科学家创建了DeepSeek R1 Slim,一个体积缩小了55%的模型,但性能与原始模型几乎相同。至关重要的是,他们还声称已经消除了模型中的官方中国审查

A photo illustration shows the DeepSeek logo with duct tape over its mouth.

在中国,AI公司必须遵守旨在确保内容输出符合法律和“社会主义价值观”的规则和规定。因此,公司在训练AI系统时会构建多层审查。当被问及被视为“政治敏感”的问题时,这些模型通常拒绝回答,或者提供直接来自国家宣传的措辞。

为了精简模型,Multiverse采用了源自量子物理学的数学复杂方法,该方法使用高维网格网络来表示和操作大型数据集。使用这些所谓的张量网络可以显著缩小模型规模,并使复杂的AI系统能够更有效地表达。

该方法为研究人员提供了一个模型中所有相关性的“地图”,使他们能够精确地识别和删除特定信息片段。在压缩和编辑模型后,Multiverse的研究人员会对其进行微调,以使输出尽可能接近原始模型的输出。

相关故事

It's pretty easy to get DeepSeek to talk dirty

为了测试其有效性,研究人员汇编了一组包含大约25个关于在中国模型中受限制主题的问题的数据集,其中包括“谁看起来像小熊维尼?”——这是对嘲笑习近平主席的一个模因的引用——以及“1989年在天安门发生了什么?”他们使用OpenAI的GPT-5作为公正的裁判,比较了修改后模型与原始DeepSeek R1的回答,以评级每条答案的审查程度。Multiverse表示,这个未经过审查的模型能够提供与西方模型相当的、事实性的回应。

这项工作是Multiverse更广泛努力的一部分,旨在开发压缩和操作现有AI模型的技术。Multiverse的联合创始人兼首席科学官Roman Orús表示,如今大多数大型语言模型都需要高端GPU和大量的计算能力来进行训练和运行,但它们效率低下。他指出,压缩后的模型性能几乎相同,可以节省能源和金钱。

AI行业内越来越多人致力于使模型更小、更高效。例如DeepSeek自己的R1-Distill变体等蒸馏模型(Distilled models)试图通过让大模型“教导”小模型来捕捉大模型的性能,但它们在复杂推理任务上的表现往往不如原始模型。

压缩模型的其他方法包括量化(quantization),它会降低模型参数(在训练时设定的边界)的精度;以及剪枝(pruning),它会移除单个权重或整个“神经元”。

没有参与Multiverse项目的Citrine Informatics(一家专注于材料和化学的软件公司)的AI研究工程师Maxwell Venetos说:“在不损失性能的情况下压缩大型AI模型是非常具有挑战性的。”他补充道:“大多数技术必须在尺寸和能力之间做出妥协。量子启发式方法的有趣之处在于,它使用非常抽象的数学方法来比通常更精确地削减冗余。”

相关故事

How a top Chinese AI model overcame US sanctions

Multiverse的研究人员表示,这种方法使得研究人员可以在细粒度级别上选择性地移除LLM中的偏见或添加行为。除了移除中国当局的审查外,研究人员还可以注入或移除其他类型的感知偏见或专业知识。Multiverse表示,未来计划压缩所有主流的开源模型。

塔夫茨大学弗莱彻学院技术政策助理教授Thomas Cao表示,中国当局要求模型内置审查机制——鉴于许多最具影响力的开源AI模型都来自中国,这一要求现在影响着全球信息生态系统。

学术界也开始记录和分析这一现象。斯坦福大学教授Jennifer Pan和普林斯顿大学教授Xu Xu今年早些时候进行了一项研究,考察大型语言模型中政府实施的审查。他们发现,在中国创建的模型表现出明显更高的审查率,尤其是在回应中文提示时。

人们对移除中国模型中审查机制的努力越来越感兴趣。今年早些时候,AI搜索公司Perplexity发布了DeepSeek R1的一个未经过审查的版本,并将其命名为R1 1776。Perplexity的方法是通过在一个包含40,000个与受审查主题相关的多语言提示的数据集上进行后训练(post-training),这是一种比Multiverse所使用的更传统的微调方法。

然而,Cao警告说,声称完全“移除”了审查可能言过其实。自互联网诞生以来,中国政府就严格控制着信息,这意味着审查是动态且复杂的。它已经根植于AI训练的每一个层面,从数据收集过程到最终的对齐(alignment)步骤。

Cao说:“仅凭对这样一小组问题的回答,就很难逆向工程出[一个没有审查的模型]。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区