📢 转载信息
原文链接:https://openai.com/index/introducing-openai-safety-fellowship
原文作者:OpenAI
今日,我们正式开启了 OpenAI 安全奖学金计划 (OpenAI Safety Fellowship) 的申请通道。这是一个面向外部研究人员、工程师及从业者的全新试点项目,旨在支持针对先进 AI 系统安全性与对齐 (Alignment) 问题开展严谨且具有高影响力的研究。该项目将于 2026 年 9 月 14 日运行至 2027 年 2 月 5 日。
研究重点与方向
我们正在寻找对现存及未来 AI 系统相关安全课题感兴趣的申请者。优先考虑的研究领域包括但不限于:安全评估、AI 伦理、稳健性、可扩展的缓解措施、隐私保护安全方法、智能体监督 (Agentic Oversight) 以及高风险误用领域。我们特别欢迎那些基于实证、技术功底扎实,且对整个研究社区具有相关价值的研究工作。
支持与协作
入选的研究员将与 OpenAI 的导师紧密合作,并与同行组成的团队共同交流。我们将在加州伯克利的 Constellation 实验室提供办公空间(同时允许远程工作)。研究员需在项目结束时产出实质性的研究成果,例如论文、基准测试或数据集。该奖学金计划包含月度津贴、计算资源支持以及持续的导师辅导。
申请说明
我们欢迎来自计算机科学、社会科学、网络安全、隐私研究、人机交互 (HCI) 等相关背景的申请者。我们更看重研究能力、技术判断力与执行力,而非特定的资历。申请过程中需要提供推荐信。
关于申请资格、薪酬及福利的更多详细信息,请参阅官方申请表格。入选者将获得 API 配额及其他适用资源,但不会获得内部系统访问权限。
目前申请通道已开放,截止日期为 5 月 3 日。我们将审核所有申请,并于 7 月 25 日前通知成功入选的申请者。如有关于申请流程的任何疑问,请通过邮件联系:openaifellows@constellation.org。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区