人工智能领域正经历一场信任危机,起因是OpenAI与美国国防部门的合作引发广泛争议。尽管该公司CEO萨姆·奥尔特曼在社交平台强调"致力于服务全人类",但与战争部达成机密网络部署协议的举动,仍让用户对技术伦理产生强烈质疑。
这场风波源于奥尔特曼上周发布的声明,他透露已与美国战争部建立合作关系,将人工智能模型引入其机密系统。这位高管特别强调,合作方"高度重视安全并追求最佳结果",同时承诺会构建技术防护措施确保模型合规运行。然而这种表态未能平息疑虑,反而引发更多追问——当人工智能技术介入军事领域,如何避免被滥用为监控工具或武器系统?
用户的不信任并非空穴来风。此前OpenAI曾联合竞争对手Anthropic公开承诺,拒绝将产品用于大规模国内监控或全自动武器研发。但战争部提出的合作条件明确要求供应商接受"任何合法用途"并取消特定场景的安全限制,这与之前的承诺形成直接矛盾。Anthropic在后续声明中重申立场,与OpenAI的妥协态度形成鲜明对比,导致舆论天平明显倾斜。
社交媒体上迅速发酵的"取消订阅"运动印证了公众的愤怒。据科技媒体报道,部分用户通过停止付费表达抗议,尽管实际影响规模尚难评估,但Reddit等平台的相关讨论已形成声势。更值得关注的是,多数普通用户可能并未意识到,他们的对话数据可能被用于军事目的——这种信息不对称加剧了技术伦理争议。
在这场争论中,OpenAI并非唯一陷入争议的科技巨头。谷歌去年修改内部规定,删除了对军事用途的明确限制,为其Gemini模型留下解释空间;亚马逊在相关文档中仅使用"负责任使用"等模糊表述,同样引发监管担忧。这些案例表明,人工智能技术的军事化应用已成为行业性挑战,而企业如何在商业利益与伦理责任间取得平衡,正面临前所未有的考验。







