今年以来,中央网信办持续推进“清朗”系列专项整治行动,重点打击自媒体虚假信息传播、短视频恶意营销、AI技术滥用以及恶意煽动负面情绪等网络乱象。这一系列举措在净化网络空间的同时,也引发了关于平台内容审查责任边界的广泛讨论。作为信息传播和社交互动的主要载体,不同类型平台在内容治理中面临的责任逻辑存在显著差异,而个人用户违规成本低、平台权责不对等、社会期待与治理能力不匹配等问题,使得内容审查工作陷入多重困境。
在数字时代,平台已成为信息获取的核心渠道,但不同类型平台的责任归属存在明显分化。以电商平台为例,其核心功能是商品交易,平台与商户形成直接契约关系,主要承担交易撮合和保障职责。商品真实性、合规性及售后服务的首要责任在于商户,平台则负有次要监管义务。这种模式下,责任链条清晰:先追责商户,再核查平台是否尽责。相比之下,内容平台的运作逻辑截然不同。其内容生产者是海量普通用户,行为属于个人表达,缺乏电商场景中明确的商业契约约束。面对分散、流动的个人用户,平台管控难度大幅增加。
从组织经济学视角分析,管控个体用户的难度远高于管控企业主体。企业具备法人资格、治理结构和责任链条,而个人用户呈现分散化特征,缺乏有效追责机制。电商平台商户数量通常以万计,而内容平台用户规模可达数亿级。平台对商户可通过封店、扣缴保证金等方式形成强约束,但对违规用户主要依赖“封号”措施,而用户可通过更换身份轻松规避处罚,违约成本极低。契约理论进一步印证了这种差异:电商平台与商户通过服务协议、保证金等构建强约束性商业契约,而内容平台与用户的协议趋于形式化,缺乏实际约束力。
内容平台传播的信息具有强外部性,一条不实内容可能迅速扩散并影响公众舆论,这使平台在公众期待中处于更高责任关联位置。然而作为商业主体,平台既无执法权,也难以通过契约约束海量用户。平台需在“内容合规”与“用户体验”间寻求平衡,过度审查可能损害表达活力。这种矛盾导致平台虽成为内容合规最直接的责任关联方,但其责任范畴与管控能力并不完全匹配。
现实困境在内容平台治理中愈发凸显。最高人民法院发布的《中国网络法治发展报告》显示,2024年全国法院一审审结侵害信息网络传播权纠纷案件达12万余件,同比增长15.71%。中央网信办举报中心数据则表明,同年全国受理网络违法和不良信息举报2.27亿件。这些数据折射出平台内容审查面临的深层矛盾。
信息洪流下的治理局限是首要挑战。内容平台每天产生数以亿计的视频、图文和评论,形成去中心化的传播网络。信息流速快、流向散,平台难以通过事前审核拦截所有违规内容。与电商平台面对有限商品库不同,内容平台的违规可能性涵盖色情低俗、虚假信息、人身攻击等多个维度,预设有效过滤体系几乎不可能。例如,平台难以在海量笔记中即时区分虚假宣传与真实分享,即便投入巨资审核,仍如用有限之网拦截整条河流,疏漏在所难免。
个体违规成本过低导致责任稀释现象严重。商户违规可能面临罚款、下架甚至声誉损失,而普通用户被封号后只需更换手机号即可重新注册,违规代价微乎其微。这种逆向激励使得“网暴马甲号”等批量违规行为频发,平台在追责时难以精准对应,最终承担全部监管压力。责任与权力的不对称进一步加剧了平台困境。平台被赋予守好舆论大门的重任,却缺乏强制取证、追责的司法权力,删帖、封号等措施难以从根本上解决问题。当违规内容广泛传播后,公众往往要求平台负责,却忽视其权力局限,使平台陷入“高责任、弱手段”的悖论。
审查尺度的两难境地同样困扰平台运营。过度严格可能引发“过度干预”指责,影响表达活力;过于宽松则会被批评纵容不良信息,甚至面临监管问责。算法推荐在追求用户停留时间的同时,可能推送“擦边”内容;人工审核则受价值观差异和主观判断影响,难以形成统一标准。这种摇摆调整本身即是困境的体现。
社会期待与平台承受力的落差构成另一重压力。公众希望平台“即时发现、即时处理”违规内容,但技术手段只能降低风险概率,无法保证零漏洞。平台因违规内容上热搜后,常面临舆论批评、监管约谈甚至股价波动。以直播领域为例,实时性与互动性决定内容生成不可回溯,海量直播间同时在线的特性使得技术审核只能依赖关键词识别等基础算法,对于隐性违规行为存在识别延迟。公众却普遍期待平台“秒级拦截”所有问题内容,一旦出现审核漏洞,舆论便会指责平台形同虚设。
面对这些挑战,探索破局路径成为共识。从“单点追责”转向“分层责任”是可行方向之一。欧盟《数字服务法》依据平台规模和风险设定不同义务,让超大平台承担系统性治理责任,中小平台履行基础性职责,这种模式打破了“平台负全责”的僵局。个人作为内容生产者应承担基础责任,平台提供技术过滤和提示措施,社会通过行业协会、媒体监督等提供纠偏机制,形成责任共担格局。
提高个人行为成本与可追溯性是另一关键。通过优化实名制与匿名制平衡,对公共传播内容建立分级权限体系。平台可利用算法识别用户活跃度和信用等级,信用高者获得更多推荐机会,违规率高者被限流或冻结。这种设计既保留匿名氛围,又增加违规代价。
技术赋能与算法透明同样重要。当前算法过度追求点击率,导致“劣币驱逐良币”现象。引入“多目标算法”可平衡信息质量、多样性与公共价值,算法部分透明化则能提升社会信任。若用户理解推荐逻辑,社会监督算法导向,平台可避免“黑箱效应”带来的质疑。
治理模式需从“事后救火”转向“前置预防”。利用自然语言处理和图像识别技术,对内容发布前进行风险分级:低风险自动通过,中风险人工审核,高风险限制发布。这种源头管控可显著降低违规内容扩散概率。
构建健康舆论生态是根本解决之道。平台应超越“删帖机器”角色,通过激励原创、提升内容质量、扶持正向价值,引导优质内容传播。当用户感受到“好内容更容易被看到”,违规内容自然边缘化,优质内容成为主流,平台也随之从“背锅者”转型为“价值引导者”。











