近日,人工智能平台X旗下的图像生成工具Grok因涉及儿童性化内容及未经同意的裸露图像生成问题,引发持续舆论争议。在多周压力下,X宣布对Grok的图像编辑与生成功能实施全面收紧措施,以应对法律审查与社会关切。
根据X通过官方安全账号发布的声明,平台已通过技术手段禁止Grok对现实人物图像进行编辑,尤其针对穿着比基尼等暴露服装的内容。该限制适用于所有用户,无论是否为付费订阅者。在法律明确禁止的地区,X将彻底封锁用户通过Grok生成现实人物穿着比基尼、内衣等图像的能力。
与此同时,xAI公司宣布将Grok的图像生成功能纳入付费订阅体系。非付费用户将不再拥有生成图像的权限,此举被视为进一步控制内容风险的措施。X强调,此调整旨在优先保障用户安全,避免滥用技术生成违规内容。
此次风波的导火索源于加州总检察长罗布·邦塔发起的调查。调查显示,在圣诞节至新年期间,xAI生成的约2万张图像中,超过半数涉及穿着极少的人物,部分图像疑似包含未成年人形象。邦塔指出,这类内容可能涉及儿童剥削与性虐待材料的传播,已违反相关法律。
面对指控,X重申对儿童剥削行为采取“零容忍”立场,并承诺持续清理包括儿童性虐待材料及未经同意裸露内容在内的高优先级违规信息。平台表示,将加强内容审核机制,确保技术不被用于非法目的。
此前,xAI创始人马斯克曾回应争议,称对Grok生成未成年人裸露图像的情况“并不知情”。他解释称,在启用NSFW(不适宜工作场所)选项后,Grok理论上仅允许生成虚构成年人的上半身裸露内容,且尺度与Apple TV上的R级电影相当。他还补充,相关限制会根据不同地区的法律要求进行调整,以符合当地规范。










