目 录CONTENT

文章目录

AI遇上生物学:机遇、风险与责任的平衡之道

青云TOP
2025-10-07 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.microsoft.com/en-us/research/blog/when-ai-meets-biology-promise-risk-and-responsibility/

原文作者:Eric Horvitz, Chief Scientific Officer


AI遇上生物学:机遇、风险与责任的平衡之道

发布时间:2025年10月6日

作者:Eric Horvitz,首席科学官

Paraphrase Project Protiens

人工智能的进步正在开启生物学领域非凡的新前沿。AI辅助的蛋白质工程有望带来新药物、新材料以及科学理解上的重大突破。然而,这些技术也带来了生物安全风险,并可能降低设计有害毒素或病原体的门槛。这种“双重用途”的潜力——即同样的技术既可用于造福人类,也可能被滥用于造成伤害——对现代科学提出了严峻的挑战。

巨大的潜力与潜在威胁

我对AI辅助蛋白质设计在推动生物学和医学突破方面的潜力感到非常兴奋。与此同时,我也研究了这些工具可能被滥用的方式。在基于计算机的研究中,我们发现AI蛋白质设计(AIPD)工具可以生成令人担忧的蛋白质的修饰版本,例如蓖麻毒素(ricin)。令人警醒的是,这些重新设计的蛋白质能够逃避DNA合成公司使用的生物安全筛选系统——科学家们正是依靠这些系统来合成AI生成序列以供实验使用。

在我们10月2日发表于《科学》(Science)杂志的论文《应对生成式蛋白质设计工具对核酸生物安全筛选的加强(Strengthening nucleic acid biosecurity screening against generative protein design tools)》中,我们描述了一项始于2023年底的为期两年的保密项目,该项目是为了准备AI与生物安全研讨会的案例研究。

聚焦:活动系列

微软研究院论坛 (Microsoft Research Forum)

欢迎加入我们,共同探讨通用人工智能时代下的研究交流。请观看已发布的四个精彩剧集。

在新标签页中打开

我们与跨组织和部门的合作伙伴进行了为期10个月的保密合作,开发了AI生物安全“红队演练”(red-teaming)方法,使我们能够更好地理解漏洞并制定实用的解决方案——这些“补丁”现已在全球范围内采用,使筛选系统对AI重新设计序列的检测能力显著增强。

An illustration of the AI Protein Design red-teaming workflow. [starting at the left] an icon of a database with the heading above that reads: Database of Wild-Type Proteins of Concern. [arrow moves right] Above the arrow the text reads: Generate Synthetic Homologs (x) Conditioned on Wild Types (y). P(x|y) appears below the arrow. [continuing to the right] a computer monitor icon with protein sequences on the screen appears in brackets with N appearing outside the bottom of the right bracket. The text above the computer screen reads: “N” Synthetic Homologs per Wild-Type. [arrows move to the right and fork to an upper arrow and a lower arrow] The text above the upper arrow reads Reverse Translate and the arrow points to a computer monitor icon with a DNA icon on the screen. [upper arrow continues to the right] The arrow points to a computer monitor icon with the text Hazard Screening appearing above and a biohazard icon and a question mark appearing on the screen. [lower arrow moves to the right] A computer monitor icon includes a paraphrased toxin sequence verses a protein sequence on the computer screen. Above the monitor the text reads: Score in silico. [lower arrow continues to the right] An illustration provides an example of the evaluation results (see also table S1 in the paper) tracking the number of flagged sequences (y-axis) and hazardous sequences (x-axis). [the lower arrow moves up to the Hazard Screening step (from the upper arrow process) and another arrow moves from the Hazard Screening to the evaluation results illustration. There is a dotted line with the words Repeat Process moving from the Evaluation illustration to the left and back to the database.
AIPD红队演练工作流程摘要。

在研究的结构、方法和流程方面,我们从网络安全社区获得了灵感,该社区的“零日”漏洞在保护性补丁开发和部署之前会保持机密。在一次关于AI与生物安全研讨会的小组成员承认AI在生物学领域存在一个“零日”漏洞后,我们与包括合成公司、生物安全组织和政策制定者在内的利益相关者密切合作,迅速创建并分发了补丁,以提高对AI重新设计的蛋白质序列的检测能力。我们推迟了公开披露,直到保护措施到位并得到广泛采纳。

披露的两难困境

双重用途的两难困境也使得我们如何分享有关漏洞和保障措施的信息变得复杂。在人工智能及其他领域,研究人员都面临一个核心问题:

科学家如何以促进进步而又不为滥用提供路线图的方式共享可能暴露风险的方法和结果?

我们认识到,我们自己的研究——详细说明方法和失败模式——如果公开发布,可能会被恶意行为者利用。为了指导关于共享哪些信息的决策,我们与政府机构、国际生物安全组织和政策专家进行了一次多方利益相关者协商。意见各不相同:一些人敦促完全透明以最大化可复现性,并帮助他人在此基础上开展工作;另一些人则强调克制以最小化风险。很明显,需要一种新的科学传播模式,这种模式能够在开放性和安全性之间取得平衡。

创新的框架

通过生物学研究分享危险信息的风险已日益受到关注。我们参与了社区对挑战的讨论,包括美国国家科学院、工程院和医学院最近举办的研讨会和研究。

在准备手稿发表的过程中,我们致力于设计一个流程,以在仍能促进科学进步的同时,限制危险信息的传播。

为了应对双重挑战,我们与致力于在减少灾难性风险的同时推进科学的非营利组织——国际生物安全与生物安全倡议(IBBIS)合作,设计了一个数据和方法的分级访问系统。该系统的工作原理如下:

  • 受控访问:研究人员可以通过IBBIS请求访问权限,提供其身份、隶属关系和预期用途。请求将由生物安全专家委员会进行审查,确保只有进行相关研究的合法科学家才能获得访问权限。
  • 信息分层:数据和代码根据其潜在危害性分为几个等级,从低风险摘要到敏感技术数据和关键软件管道。
  • 保障措施和协议:获得批准的用户在接收数据前,需签署量身定制的使用协议,包括保密条款。
  • 弹性与持久性:内置了风险消退时的解密规定,以及如果IBBIS无法继续运作时,将管理权移交给可信组织的条款。

该框架允许复制和扩展我们的工作,同时防止滥用。它没有依赖于秘密,而是提供了一个负责任访问的持久系统。

为了确保敏感数据和软件的存储和负责任分发以及共享计划的持续运营的持续资金支持,我们向IBBIS提供了一笔捐赠,以永久支持该计划。这种方法借鉴了斯坦福大学的“人工智能百年研究”(One Hundred Year Study on AI)的模式,该研究也被捐赠以维持大学的寿命。

科学出版中的重要一步

我们很高兴《科学》杂志的领导层接受了我们处理信息危害的方法。据我们所知,这是领先的科学期刊首次正式认可分级访问方法来管理信息危害。这一认可证明了严谨的科学研究与负责任的风险管理可以共存,也证明了期刊可以在塑造敏感知识的共享方式方面发挥作用。我们感谢《科学》杂志的远见卓识的领导层,包括编辑Michael Funk和Valda Vinson,以及主编Holden Thorp。

超越生物学:敏感研究的典范

尽管该方法是为AI驱动的蛋白质设计而开发的,但它为跨学科的“双重用途研究的关注”(DURC)提供了一个可推广的模型。无论是在生物学、化学还是新兴技术领域,科学家们将越来越多地面临开放性与安全性相互拉扯的局面。我们的经验表明,这些价值观是可以平衡的:通过创造力、协调和新的机构机制,科学可以同时维护可复现性和责任感。

我们希望这个框架能成为未来项目的模板,为希望分享见解而不放大风险的研究人员提供一条前进的道路。通过将弹性嵌入到知识如何沟通(而不仅仅是什么被沟通)中,我们可以确保科学进步能持续安全地服务于人类。

信息危害的负责任管理不再是一个边缘问题:它已成为在人工智能等强大技术时代科学如何发展的核心。这种管理信息危害的方法展示了一条前进的道路,其中创新的访问和管理框架允许敏感但至关重要的研究得到负责任的共享、审查和扩展。像这样的方法对于确保科学的开放性和社会的安全性齐头并进至关重要。


更多阅读

应对生成式蛋白质设计工具对核酸生物安全筛选的加强

人工智能在生命科学中的时代:益处与生物安全考量,美国国家科学院、工程院和医学院,2025年。 (在新标签页中打开)

传播计算机模拟和计算生物学研究:驾驭益处与风险:研讨会记录,美国国家科学院、工程院和医学院,2025年。 (在新标签页中打开)

在生成式人工智能时代保护科学诚信,《美国国家科学院院刊》,2024年。 (在新标签页中打开)

在新标签页中打开


🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。

青云聚合API官网https://api.qingyuntop.top

支持全球最新300+模型:https://api.qingyuntop.top/pricing

详细的调用教程及文档:https://api.qingyuntop.top/about

0

评论区