随着大模型在金融、政务、能源等关键行业加速落地,其带来的安全挑战正成为行业焦点。在近日举办的2025年世界互联网大会乌镇峰会上,360数字安全集团发布国内首份聚焦大模型安全的专业报告,系统梳理了这类智能系统从研发到应用全流程中的潜在风险,并创新提出“双轨制”安全治理方案,为AI技术规模化应用构建防护体系。
报告显示,大模型面临的安全威胁呈现立体化特征,形成覆盖技术栈各层级的攻击矩阵。在基础设施层面,训练集群遭受网络攻击可能导致模型被植入恶意代码或训练数据遭窃取;数据层则面临训练数据泄露、知识库污染等风险,直接威胁模型输出的可信度;内容生成环节可能产生虚假信息、违规内容甚至“AI幻觉”,引发社会层面的连锁反应。
智能体(Agent)的自主决策能力带来新型风险。当AI代理被恶意操控时,可能执行未经授权的金融交易、篡改政务系统数据等高危操作。用户端的安全漏洞同样不容忽视,攻击者可通过提示词注入、权限绕过等手段直接干预模型行为,形成“隔山打牛”式的攻击路径。
针对这些复合型威胁,360提出“外挂式+原生式”双重防护机制。前者通过部署独立的安全监测系统,在模型运行环境外构建防护网,包括内容合规审查、异常行为预警等模块;后者则将安全基因植入模型开发全周期,从数据采集阶段的脱敏处理,到训练过程的对抗样本防御,再到部署环节的访问控制,形成“安全即代码”的研发范式。
基于这套理论框架,该集团已打造包含七大核心能力的安全解决方案。方案涵盖数据隐私保护、模型鲁棒性增强、生成内容过滤、智能体行为审计、API接口防护、攻防演练平台及合规性验证等关键领域,并在银行、制造业、智慧城市等场景完成部署验证。某股份制银行通过引入该方案,成功拦截多起针对AI客服系统的深度伪造攻击,避免潜在经济损失超亿元。
报告特别强调,大模型安全需要构建产业共同体。360计划联合高校、研究机构及行业伙伴,共同推进安全标准制定、威胁情报共享和开源工具开发。目前,其主导的AI安全实验室已开放部分检测工具包,供开发者免费使用,助力提升行业整体防护水平。这种开放协作模式,正在重塑AI安全领域的生态格局。
业内专家指出,当大模型从实验室走向生产系统,安全防护已从技术选项变为必选项。360的实践表明,只有将安全能力深度融入AI技术栈,才能破解“智能度越高,风险面越大”的发展悖论。这场关乎AI技术可信度的保卫战,正在重新定义智能时代的生存法则。










