AIPress.com.cn报道
12月22日消息,知名 AI 安全研究员 Sander Schulhoff 在近日的访谈中发出警告:全球企业正面临一场严重的 AI 安全危机,而现有的网络安全团队对此几乎束手无策。Schulhoff 指出,传统安全团队的思维模式是“修补代码漏洞”,但大语言模型(LLM)的失败逻辑完全不同,他形象地总结道:“你可以修补一个漏洞,但你无法修补一个大脑。”这种“大脑式”的系统属性意味着,AI 并不是因为代码写错了而犯错,而是被语言引导、诱导甚至“欺骗”而产生违规行为。
Schulhoff 强调,目前的网安人才储备与 AI 系统防御需求之间存在严重的断层。传统的网安专业人士习惯于扫描技术缺陷,却往往忽视了最核心的问题:如果有人通过巧妙的提示词(Prompt)诱导 AI 执行违规指令怎么办?他举例称,具备 AI 安全意识的专家会通过容器化运行 AI 生成的代码来隔离风险,但普通团队往往缺乏这种跨领域的系统性思维。他预言,未来最具竞争力的岗位将产生在 AI 安全与传统网络安全的交叉点。
针对当前火热的 AI 安全初创市场,Schulhoff 表达了极度辛辣的批评。他认为,许多宣称能提供“万能护栏(Guardrails)”或“自动化红队测试”的公司是在撒谎,因为 AI 被操纵的方式几乎是无穷尽的。他大胆预测,随着企业意识到这些自动化工具无法提供真实保护,该领域将迎来一轮惨烈的“市场修正”,许多依赖融资泡沫生存的安全初创公司将因收入枯竭而倒闭。尽管 Google 等巨头正通过收购(如 320 亿美元收购 Wiz)加强云安全布局,但底层人才架构的缺失仍是悬在所有企业头上的达摩克利斯之剑。(AI普瑞斯编译)







