澳大利亚网络安全监管机构正酝酿对五家国际社交媒体平台发起法律诉讼,指控其未能有效落实未成年人使用限制措施。这一行动源于去年12月10日生效的《在线安全法案》修正案,该法案明确要求平台必须采取合理措施阻止16岁以下用户注册。
根据首份合规审查报告,尽管相关平台已关闭约500万个疑似未成年人账户,但监管机构发现仍有大量青少年通过虚假信息或技术漏洞持续使用服务。调查显示,部分平台允许用户无限次尝试年龄验证,甚至在用户主动声明未成年后仍引导其继续操作,这种系统性漏洞引发监管方强烈不满。
通信部长阿妮卡·韦尔斯公开批评某些企业存在"故意消极应对"行为,指出这些平台采用最低限度的合规策略,实质是希望新法律失效。她强调澳大利亚作为全球首个实施此类严格监管的国家,其立法实践正被十多个国家效仿,平台企业的抵触态度可能影响国际监管趋势。
目前监管机构已对十个主流平台中的五个启动深度调查,重点审查其年龄验证机制的有效性。若被认定存在系统性违规,涉事企业将面临最高4950万澳元(约合2.35亿元人民币)的巨额罚款。监管方预计在年中前完成证据收集并决定是否提起正式诉讼。
面对指控,各平台回应态度各异。meta公司承认年龄识别存在技术挑战,表示将持续优化验证系统;Snapchat披露已封禁45万个违规账户,并加强了人工审核力度;TikTok和谷歌母公司Alphabet则选择保持沉默,未就具体措施作出说明。
学术界对此存在争议。墨尔本皇家理工大学专家丽莎·吉文指出,当前生物识别技术尚未成熟,要求企业为技术缺陷承担全部责任并不合理。她强调法律裁决的关键在于界定"合理措施"的标准——企业是否在现有技术条件下尽了最大努力,而非追求绝对完美的防控效果。这场诉讼或将重新定义数字时代平台企业的责任边界。





