美国证券交易委员会(SEC)近期收到的企业年度文件显示,人工智能(AI)技术带来的潜在风险正引发越来越多上市公司的警惕。这些企业通过法定披露渠道向投资者发出明确信号:AI的广泛应用可能对业务运营、财务表现及企业声誉构成实质性威胁。据AlphaSense平台统计,今年已有418家市值超过10亿美元的上市公司在文件中提及AI相关风险因素,较2024年增长46%,是2023年数量的近九倍。
企业披露的风险类型呈现多样化特征。支付巨头Visa在最新文件中警告,其大规模部署的"智能体AI"可能导致支付错误率上升,进而引发客户信任危机;消费品制造商高乐氏(Clorox)则指出,AI工具的使用可能造成商业机密泄露;美妆品牌e.l.f. Beauty特别强调,快速演变的AI监管环境、技术标准及伦理要求可能对公司运营产生重大影响。这些案例表明,AI风险已突破单一行业边界,形成跨领域影响。
游戏开发商Take-Two的披露文件具有典型性。该公司在2024年首次将AI列为风险因素,2025年相关内容篇幅扩大逾一倍。首席执行官Strauss Zelnick解释称:"AI应用深度和广度的指数级增长,使得潜在风险同步放大。我们正在平衡技术创新与风险管控,这已成为战略决策的核心考量。"该公司通过AI生成手游关卡等实践,既提升了开发效率,也面临着内容准确性等新挑战。
芝加哥大学法学院教授M. Todd Henderson从制度层面解读这一趋势。他指出,SEC要求企业及时披露新出现或实质性变化的风险因素,旨在保护投资者知情权。当前企业将AI风险置于显著位置,反映管理层对该技术影响的重视程度已超过互联网兴起时期。"上世纪90年代末,企业披露普遍保持谨慎乐观,且认为互联网主要影响零售和出版行业。如今AI风险被描述为可能动摇企业根基的系统性威胁。"
具体风险场景引发特别关注。Henderson教授举例称,数据泄露固然严重,但AI"幻觉"导致的专业错误可能造成更大损害。医疗诊断失误、法律建议偏差或工程计算错误,都可能引发连锁反应。毕马威与墨尔本大学的联合调查为此提供佐证:在32,352名受访员工中,66%承认未经审核直接采用AI生成内容,72%表示使用AI降低了工作专注度,这些行为都可能间接放大企业运营风险。
尽管风险显著,企业对AI的投资热情持续高涨。贝恩咨询公司数据显示,2024年企业平均AI支出达1,030万美元,较2023年翻倍。这种矛盾现象在Take-Two的实践中得到体现:AI已承担手游关卡生成等重复性工作,使员工得以专注创造性任务。Zelnick坦言:"拒绝AI可能错失发展机遇,但过度依赖又可能引发风险,这种两难困境在SEC文件中得到充分体现。"企业正在探索在风险可控前提下最大化AI价值的实施路径。











