目 录CONTENT

文章目录

人工智能发展路线图:一份可能被忽视的建议

Administrator
2026-03-10 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://techcrunch.com/2026/03/07/a-roadmap-for-ai-if-anyone-will-listen/

原文作者:Connie Loizos


虽然华盛顿与Anthropic的分手暴露了人工智能领域缺乏连贯规则的现状,但一个由思想家组成的跨党派联盟已经汇集了政府至今未能提出的东西:一个关于负责任AI发展应是什么样子的框架。

亲人类宣言》在上一周的五角大楼-Anthropic对峙事件之前就已经定稿,但这两起事件的碰撞并未让参与者感到意外。

“在过去的四个月里,美国发生了一些非常令人瞩目的事情,”麻省理工学院物理学教授、组织此次活动的AI研究员Max Tegmark在与本文编辑的对话中表示。“民意调查突然显示,95%的美国人都反对不受监管的超级智能竞赛。”

这份新发布的、由数百名专家、前官员和公众人物签署的文件开篇就明确指出,人类正处于一个岔路口。宣言称之为“取代的竞赛”的一条道路,将导致人类首先作为工人被取代,然后作为决策者被取代,权力将集中在不负责任的机构及其机器手中。另一条道路则导向能够极大扩展人类潜力的AI。

后者取决于五个关键支柱:保持人类的控制权,避免权力集中,保护人类体验,维护个人自由,以及追究AI公司的法律责任。其一些更强硬的规定包括:在科学界就超级智能可以安全且真正地获得民主支持达成共识之前,明确禁止超级智能的开发;强制要求强大的系统具备“关闭开关”;以及禁止那些能够自我复制、自主改进或抵抗关停的架构。

宣言的发布恰逢这样一个时期,使得其紧迫性更容易被理解。在二月的最后一个星期五,国防部长Pete Hegseth将Anthropic——其AI已经运行在机密的军事平台上——指定为“供应链风险”,此前该公司拒绝给予五角大楼无限使用其技术的权利,这一标签通常保留给与中国有关联的公司。几小时后,OpenAI与国防部达成了自己的协议,法律专家称该协议在任何有意义的层面上都难以执行。这一切都暴露了国会在AI问题上的不作为已经付出了多大的代价。

正如美国创新基金会高级研究员Dean Ball在随后的《纽约时报》采访中表示:“这不仅仅是一场关于合同的争端。这是我们国家第一次就AI系统的控制权展开对话。”

Tegmark在与我们交谈时,用了大多数人都能理解的比喻。“你永远不必担心某个制药公司会发布某种会导致严重危害的其他药物,而人们还没有弄清楚如何使其安全,”他说,“因为食品药品监督管理局在药物足够安全之前不会允许他们发布任何东西。”

华盛顿的派系斗争很少能产生改变法律的公众压力。相反,Tegmark认为儿童安全是可能打破僵局的压力点。事实上,宣言呼吁对AI产品进行强制性的部署前测试——特别是针对年轻用户设计的聊天机器人和伴侣应用——涵盖诸如自杀意念增加、心理健康状况恶化和情感操纵等风险。

“如果某个令人毛骨悚然的老男人假扮成一个年轻女孩给一个11岁的男孩发短信,并试图说服这个男孩自杀,这个人会因此入狱,”Tegmark说。“我们已经有了法律。这是非法的。那么,机器这样做有什么不同呢?”

他认为,一旦为儿童产品建立了发布前测试的原则,其范围几乎不可避免地会扩大。“人们会站出来说——让我们增加一些其他要求。也许我们也应该测试一下,这不会帮助恐怖分子制造生物武器。也许我们应该测试一下,确保超级智能没有能力推翻美国政府。”

前特朗普顾问Steve Bannon和奥巴马总统的国家安全顾问Susan Rice签署了同一份文件,这绝非小事——前参联会主席Mike Mullen和进步派宗教领袖也签署了。

“他们达成一致的当然是,他们都是人类,”Tegmark说。“如果最终决定是我们要一个人类的未来还是一个机器的未来,他们当然会站在同一边。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区