📢 转载信息
原文链接:https://www.bbc.com/news/articles/c39prelx2mxo?at_medium=RSS&at_campaign=rss
原文作者:BBC News
一名在人工智能公司OpenAI工作了多年的研究员透露,他因对该公司处理人工智能安全问题的方式感到担忧而离职。
伊利亚·苏茨克维(Ilya Sutskever)是OpenAI的首席科学家,也是公司早期和最近的几位关键人物之一。
苏茨克维先生在去年年底对首席执行官萨姆·奥特曼(Sam Altman)提出罢免时,起到了关键作用。
苏茨克维先生与另一位研究员扬·莱克(Jan Leike)一起,曾在OpenAI成立了一个专注于“超级智能”安全性的“对齐”团队。
莱克先生于上周辞职,并在网上发表了一份严厉的声明,称OpenAI的“安全文化”已经让位于“闪亮的、令人兴奋的产品”。
苏茨克维先生也发表了类似的声明,称他现在对这项工作感到失望。
苏茨克维先生说:“我离开OpenAI,因为我认为,保护人类的未来比他们的当前产品路线图更重要。”
“我将很快启动一项新的秘密项目,专注于安全的超级智能。”
上周,莱克先生在社交媒体平台X上发表了严厉的评论,声称OpenAI已经优先考虑了“闪亮的产品”而不是安全性。
他说:“我一直担心,安全方面的文化和流程已经退居二线,让位于闪亮的产品。”
他写道:“我为OpenAI在安全方面的努力感到自豪,但现在我必须为安全尽我最大的努力。”
莱克先生在OpenAI工作了五年,在公司内部担任过高级职务,但在去年年底,他与奥特曼先生的冲突导致他辞去了联合领导人一职,并转到另一家公司。
两位研究员的离职对OpenAI构成了重大打击,因为他们是公司人工智能研究领域的核心人物。
苏茨克维先生在2015年与他人共同创立了OpenAI,并在2023年11月参与了对奥特曼先生的罢免行动,当时他声称奥特曼先生在沟通中不够坦诚。
他后来与董事会合作,为奥特曼先生的回归铺平了道路,但他的声明表明他对公司的方向仍持保留态度。
OpenAI在去年年底经历了一场内部动荡,奥特曼先生被董事会罢免,随后又在股东和员工的压力下复职。
据信,苏茨克维先生和莱克先生的离职与OpenAI的治理和优先事项有关。
OpenAI的竞争对手Anthropic也面临着类似的担忧。
据报道,该公司的一名早期员工在批评该公司在安全性方面的努力后离职。
这表明,在开发强大的人工智能系统时,安全和商业利益之间的紧张关系正在成为行业内的一个突出问题。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区