AIPress.com.cn报道
4月7日消息,OpenAI近日宣布推出 OpenAI Safety Fellowship 计划,面向外部研究人员、工程师及相关领域从业者开放申请,支持开展人工智能安全与对齐(alignment)方向的研究。该项目为试点计划,预计于 2026年9月14日启动,持续至2027年2月5日。
根据官方介绍,奖学金项目将重点支持与当前及未来AI系统相关的安全研究领域,包括 安全评估、伦理问题、系统鲁棒性、可扩展安全缓解机制、隐私保护、安全监督机制以及高风险滥用场景研究 等。OpenAI表示,优先考虑具有技术深度、基于实证研究并对更广泛研究社区具有参考价值的项目。
入选学者将在项目期间与OpenAI导师合作,并与同期研究人员组成研究小组。项目提供位于 美国伯克利 的共享办公空间,也支持远程参与。参与者需要在项目结束前完成具有实质性的研究成果,例如论文、评测基准或数据集。
该项目将提供 每月津贴、算力支持以及持续的研究指导。OpenAI表示,研究人员将获得API额度等资源,但不会获得公司内部系统的访问权限。
OpenAI称,该项目欢迎来自 计算机科学、社会科学、网络安全、隐私保护、人机交互等领域 的申请者,并强调在评估申请时更看重研究能力、技术判断与执行能力,而非特定学历或机构背景。申请者需提交推荐信。
申请通道目前已开放,截止日期为2026年5月3日,入选结果预计于 7月25日 公布。(AI普瑞斯编译)











