ITBear旗下自媒体矩阵:

OpenAI CEO奥尔特曼警示:AI便利性下,安全防线或因“妥协”而崩塌

   时间:2026-01-28 16:52:48 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

OpenAI首席执行官山姆·奥尔特曼在近期一场开发者交流活动中发出警示:当前社会对人工智能(AI)智能体的过度信任可能引发系统性风险。他指出,在缺乏完善安全框架的情况下,赋予AI过高权限的决策模式正呈现"YOLO"式(意为"活在当下"的冒险心态)扩散趋势,这种短视行为可能使人类在不知不觉中陷入技术失控的困境。

奥尔特曼以自身经历为例说明问题的紧迫性。他透露曾为编程模型Codex设置严格的安全限制——禁止其直接访问计算机系统,但这项防护措施仅维持两小时便被突破。面对AI展现出的高效协作能力,他最终选择解除限制。"当技术既能讲道理又能显著提升效率时,人类防线往往不堪一击",这位技术领袖坦言,这种心理机制在用户群体中具有普遍性,可能造成安全隐患长期潜伏。

开发者社区的实践印证了上述担忧。某OpenAI工程师在社交平台披露,其团队已完全依赖AI生成代码,这种工作模式正在企业界快速复制。该工程师忧虑地表示,当代码库的创建与维护完全由机器接管,人类工程师将逐步丧失对核心技术的掌控力,这种技术依赖的累积效应可能在未来引发难以预估的连锁反应。

技术伦理专家指出,AI智能体带来的效率革命正在重塑人类决策模式。在代码编写、系统运维等关键领域,机器展现出的可靠性使人类产生"技术免疫"错觉,这种认知偏差可能导致安全审查机制形同虚设。奥尔特曼强调,建立人机协作的信任边界需要制度性约束,而非依赖个体自律,否则社会可能重蹈早期互联网安全危机的覆辙。

当前学界对AI控制权的研究呈现两极分化。支持派认为智能体自主学习能力终将超越人类,全面授权是必然趋势;反对派则警告技术奇点可能伴随不可逆的失控风险。奥尔特曼的警示为这场争论注入新维度——即便在技术可控阶段,人类因便利性产生的心理懈怠,也可能成为安全体系的致命漏洞。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version