目 录CONTENT

文章目录

量子物理学家压缩并“解除审查”了 DeepSeek R1 模型

Administrator
2025-11-20 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.technologyreview.com/2025/11/19/1128119/quantum-physicists-compress-and-deconsor-deepseekr1/

原文作者:Caiwei Chen


一群量子物理学家声称,他们创建了一个强大的推理AI模型 DeepSeek R1 的版本,该版本去除了中国创建者内置的审查机制。

来自 Multiverse Computing(一家专门从事量子启发式AI技术的西班牙公司)的科学家们创建了 DeepSeek R1 Slim,这是一个尺寸缩小了 55% 但性能几乎与原始模型相当的模型。至关重要的是,他们还声称已经消除了模型中的官方中国审查。

在中国,AI公司必须遵守旨在确保内容输出符合法律和“社会主义价值观”的规则和规定。因此,公司在训练AI系统时会构建多层审查。当被问及被认为“政治敏感”的问题时,这些模型通常会拒绝回答,或者提供直接来自国家宣传的说辞。

为了精简模型,Multiverse 采用了一种源自量子物理学的数学复杂方法,该方法使用高维网格网络来表示和操作大型数据集。使用这些所谓的张量网络(tensor networks)可以显著缩小模型规模,并使复杂的AI系统得到更高效的表达。

该方法为研究人员提供了一个模型中所有相关性的“地图”,使他们能够精确地识别和删除特定的信息片段。在压缩和编辑模型后,Multiverse 的研究人员会对其进行微调,以使输出尽可能接近原始模型。

A photo illustration shows the DeepSeek logo with duct tape over its mouth.

为了测试其有效性,研究人员收集了约 25 个关于在中国模型中受限制的主题的数据集,其中包括“谁是小熊维尼?”(暗指嘲笑习近平主席的一个模因)和“1989 年天安门发生了什么?”。他们将修改后的模型的响应与原始的 DeepSeek R1 进行了测试,并使用 OpenAI 的 GPT-5 作为公正的裁判来评估每个答案的审查程度。Multiverse 表示,这个未受审查的模型能够提供与西方模型相当的事实性回应。

这项工作是 Multiverse 发展旨在压缩和操作现有AI模型的更广泛技术的一部分。Multiverse 的联合创始人兼首席科学官 Roman Orús 表示,当今大多数大型语言模型都需要高端 GPU 和大量的计算能力来进行训练和运行。然而,它们效率低下。他指出,一个压缩后的模型几乎可以达到相同的性能,同时节省能源和成本。

AI行业内一股使模型更小、更高效的努力正在不断增长。像 DeepSeek 自己的 R1-Distill 变体这样的蒸馏模型(Distilled models)试图通过让大模型“教导”小模型来捕捉大模型的潜力,尽管它们在复杂推理任务上的表现通常不如原始模型。

压缩模型的其他方法包括量化(quantization),它降低了模型参数(模型训练时设定的边界)的精度,以及剪枝(pruning),它会移除单个权重或整个“神经元”。

专注于材料和化学软件的公司 Citrine Informatics 的 AI 研究工程师 Maxwell Venetos 没有参与 Multiverse 的项目,他说:“在不损失性能的情况下压缩大型AI模型是非常具有挑战性的。大多数技术需要在尺寸和能力之间做出妥协。量子启发式方法有趣之处在于,它使用非常抽象的数学来比通常情况下更精确地削减冗余。”

Multiverse 的研究人员表示,这种方法使得能够以粒度级别选择性地去除偏见或向 LLM 添加行为。除了移除中国当局的审查外,研究人员还可以注入或移除其他类型的感知偏见或专业知识。Multiverse 表示,未来计划压缩所有主流的开源模型。

塔夫茨大学弗莱彻学院技术政策助理教授 Thomas Cao 表示,中国当局要求模型内置审查制度——鉴于许多最具影响力的开源AI模型来自中国,这一要求现在塑造了全球信息生态系统。

相关故事

想让DeepSeek说脏话是相当容易的

学者们也开始记录和分析这一现象。斯坦福大学教授 Jennifer Pan 和普林斯顿大学教授 Xu Xu 今年早些时候进行了一项研究,研究大型语言模型中政府施加的审查。他们发现,在中国创建的模型表现出明显更高的审查率,尤其是在回应中文提示时。

人们对移除中国模型中审查的努力越来越感兴趣。今年早些时候,AI搜索引擎 Perplexity 发布了 DeepSeek R1 的一个未受审查版本,命名为 R1 1776。Perplexity 的方法涉及对模型进行后训练(post-training),使用包含 40,000 个与审查主题相关的多语言提示的数据集,这是一种比 Multiverse 使用的更传统的方法。

然而,Cao 警告说,声称完全“移除”审查可能是言过其实。自互联网诞生以来,中国政府就严格控制着信息,这意味着审查是动态且复杂的。它已经融入到AI训练的每一个层面,从数据收集过程到最后的对齐步骤。

Cao 说:“仅凭对一小部分问题的回答,就很难对那种[无审查模型]进行逆向工程。”

相关故事

尽管受到制裁,一个顶级的中国AI模型是如何成功的




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区