近日,游戏平台Steam的运营方Valve对平台上的AI内容披露规则进行了重要更新,明确了开发者在哪些情况下需要向玩家说明人工智能技术的应用。此次调整的核心在于聚焦玩家实际体验到的AI生成内容,而非开发团队内部使用的效率工具。
根据新规,Steam不再要求开发者披露后台使用的辅助性AI工具,例如编程辅助或自动化开发软件等。Valve方面表示,平台更关注的是玩家在游戏过程中直接接触到的内容,包括美术设计、音效制作、剧情文本、本地化翻译、商店页面介绍以及营销素材等。若这些内容由生成式AI参与制作,开发者必须在游戏商店页面的"关于本游戏"栏目中详细说明AI的具体用途,并可根据实际情况进行更新。
另一类需要重点披露的情形是游戏运行过程中动态生成的AI内容。这包括玩家在游戏时实时产生的图像、音频或文本等。由于这类内容具有动态生成的特点,无法在上线前进行全面审核,Valve要求开发者在游戏设计阶段就必须建立完善的安全管控机制,确保生成内容的合规性。
在责任划分方面,Valve明确指出,开发者对防止不当或违法AI生成内容负有直接责任。为配合这一要求,Steam平台将通过Overlay功能提供便捷的举报渠道。若开发者未能有效管理相关系统,导致违规内容出现,Valve保留将游戏从平台下架的权利。这一举措旨在维护平台内容的健康生态,保障玩家权益。









