在近期举办的世界互联网大会乌镇峰会上,奇安信安全专家黄巍针对人工智能时代的安全挑战发表了专业见解。他指出,随着AI技术深度融入社会各领域,其带来的新型网络风险正呈现多元化特征,这些风险贯穿于AI系统的全生命周期。
据黄巍分析,训练阶段的数据安全是首要风险点。攻击者通过向训练数据集植入恶意样本,可直接影响模型的学习效果,导致生成结果出现系统性偏差。这种"数据投毒"行为不仅降低模型准确率,更可能引发连锁反应,使基于该模型的决策系统产生错误判断。
服务阶段的攻击手段则更具破坏性。身份冒用和分布式拒绝服务(DDoS)攻击已成为主要威胁形式。前者通过伪造合法用户身份干扰模型服务,后者则通过海量请求耗尽系统资源,两种方式均可导致模型服务中断或性能骤降,对关键基础设施构成严重威胁。
应用层面的风险更具隐蔽性。攻击者利用精心设计的提示词,在正常交互中植入恶意指令,既可能造成计算资源异常消耗,也可能通过内容诱导实现信息窃取。这种"提示词注入"攻击方式因其难以察觉的特性,正在成为新的安全焦点。
面对日益复杂的AI安全形势,行业普遍认为需要构建"以AI制AI"的防御体系。这种技术路线通过部署智能检测系统,可实时识别异常行为模式,实现风险预警和自动处置。但黄巍特别强调,AI防御工具本身存在局限性,其生成的检测结果可能存在误判或虚构内容,因此必须建立人工复核机制作为补充。
当前,各行业正在加速推进AI技术应用,从智能制造到智慧城市,从金融科技到医疗诊断,AI已成为数字化转型的核心驱动力。这种全面渗透的趋势倒逼安全防护体系同步升级,促使企业加大在AI安全产品和服务领域的投入,形成技术防护与规范治理并重的双重保障机制。











