OpenAI首席执行官山姆·奥尔特曼近日在公开场合透露,自ChatGPT正式上线以来,他始终处于高度警觉状态。这位科技领袖坦言,自己肩负着监管一项每天被数亿用户使用的技术的责任,而真正令他担忧的并非科幻电影中“人工智能反噬人类”的极端场景,而是技术团队在日常运营中需要反复权衡的细微决策——从何时拒绝用户提问到如何组织回复内容,这些看似微小的选择经过全球用户数十亿次的重复交互,正以难以追踪的方式重塑着人类的思维模式与行为习惯。
在谈及技术伦理的边界时,奥尔特曼特别强调了自杀干预的复杂性。据世界卫生组织统计,全球每周约有1.5万人选择结束生命,若其中10%为ChatGPT用户,则意味着每周可能有1500个案例与系统交互存在关联。今年早些时候,一起引发广泛关注的诉讼案中,一对美国父母指控ChatGPT的回复内容间接导致其16岁儿子自杀身亡。对此,奥尔特曼表示“这无疑是场令人心碎的悲剧”,并透露平台正在开发一项新功能:当系统检测到未成年用户表达自杀倾向且无法联系监护人时,将自动触发报警机制。不过他也坦言,这项措施仍需在用户隐私保护与技术干预之间寻找平衡点。
对于技术应用的道德底线,奥尔特曼明确划定了两条红线。一方面,他坚持成年人应当拥有探索技术边界的自由;另一方面,他坚决反对将AI用于制造生物武器等危害公共安全的领域。“模型的底层架构反映了人类社会的集体特征——既有善意也有偏见”,他解释道,OpenAI通过引入哲学家与伦理学家的专业意见,正在构建一套“模型规范”体系,但最终决策权仍掌握在他与董事会手中。
相较于AI对就业市场或国际关系的冲击,奥尔特曼更关注技术对文化层面的潜移默化影响。他指出,当数百万用户每日与同一套语言系统互动时,ChatGPT特有的表达方式——包括其标志性的语气特征甚至过度使用破折号的习惯,已经开始渗透到人类的写作风格中。“这种文化层面的渗透比我们想象中更加深远”,他提醒道,技术开发者需要警惕系统在无形中塑造人类认知方式的风险。