AIPress.com.cn报道
3月17日消息,Anthropic发布招聘信息,寻求具备化学武器与高能爆炸物防御经验的专家,以强化其AI系统在高风险场景下的安全防护能力,防止模型被用于灾难性用途。
根据招聘要求,该岗位需具备至少五年相关领域经验,并熟悉放射性扩散装置(“脏弹”)等高敏感内容。公司表示,此类职位属于其既有安全体系的一部分,旨在持续完善AI模型的使用边界与防护机制。
这一举措的背景,是行业对AI潜在滥用风险的持续关注。研究显示,随着模型能力提升,部分系统在特定条件下可能被诱导提供涉及化学武器等敏感信息的辅助内容,尽管总体风险被认为较低但并非为零。因此,如何在提升能力的同时建立有效“护栏”,成为AI公司面临的核心挑战。
类似策略也出现在其他公司。OpenAI同样在招聘“生物与化学风险”研究人员,并提供较高薪酬水平,显示出头部厂商正在系统性加强安全与合规投入。
不过,这一方向也引发部分专家质疑。有观点认为,让AI系统接触更高敏感度的知识,本身可能带来新的安全隐患;同时,当前全球范围内尚缺乏针对AI与化学、生物及放射性武器结合的明确监管框架。(AI普瑞斯编译)











