📢 转载信息
原文链接:https://www.bbc.com/news/articles/c7vme6rrqz5o?at_medium=RSS&at_campaign=rss
原文作者:BBC News
OpenAI 宣布成立一个新的安全与对齐委员会(Safety and Alignment Committee),旨在管理人工智能(AI)系统的潜在风险。
该委员会将由 OpenAI 首席执行官 Sam Altman 和 首席科学家 Ilya Sutskever 共同领导,并包括三名其他董事会成员:Adam D'Angelo、Nicole Seligman 和 Helen Toner。
委员会的职责
该委员会将负责评估和决策所有可能危及或可能导致 OpenAI 严重偏离其使命的关键安全决策。
其核心职责包括:
- 评估和决定有关 OpenAI 人工智能系统的安全风险。
- 评估和决定有关 超级智能 的开发与部署。
- 评估和决定有关 偏离使命 的风险。
- 评估和决定有关 资源部署 是否偏离使命。
- 评估和决定有关 新产品或服务 是否偏离使命。
此外,委员会还可以否决 OpenAI 董事会的决定,特别是涉及安全和对齐方面的决策。
对人工智能安全的影响
OpenAI 在其博客文章中表示,这是一个“更强大的安全工具”,旨在确保人工智能技术的进步与安全责任保持一致。
“我们相信,在开发强大的人工智能系统时,安全措施至关重要。这个委员会的成立是为了确保我们在快速发展的同时,始终将安全和对齐放在首位。”
此举是在 OpenAI 经历了一段内部动荡之后进行的,此前,首席执行官 Sam Altman 曾短暂被董事会解职。新的安全委员会的建立被视为公司试图重建信任和加强其治理结构的一部分,尤其是在人工智能技术快速进步的背景下。
随着 AGI(通用人工智能)日益临近,如何安全、负责任地开发和部署这些技术,一直是科技界关注的焦点。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区