近日,随着人工智能生成内容(AIGC)领域安全议题持续引发关注,国内知名AI创作平台哩布哩布AI(Liblib AI)主动回应社会关切,通过官方渠道发布专项整改公告。公告显示,平台在前期技术监测中发现,部分用户通过组合复杂提示词或使用规避性表达方式,可绕过现有审核机制生成不符合规范的内容,暴露出系统在极端场景下的防御短板。
针对这一技术漏洞,平台技术团队已完成针对性修复,通过升级算法模型强化对异常语义的识别能力,同时对已发现的32条风险生成路径实施永久封禁。为构建长效防护机制,哩布哩布AI同步启动审核体系升级工程,新增动态语义分析模块,将违规内容拦截效率提升至98.7%,并建立每周攻防演练制度,模拟12类新型内容攻击场景进行压力测试。
在管理层面,该公司已启动全链条责任追溯机制,对内容审核流程进行颗粒度拆解,重点优化初审-复审-抽检三级管控体系。公告特别指出,将建立创作者信用积分制度,对多次触发安全警戒的账户实施阶梯式创作限制,从源头降低违规内容产出概率。
平台安全负责人表示,此次整改不仅涉及技术迭代,更推动企业建立"技术防御+人工审核+社会监督"的三维治理框架。除内部升级外,哩布哩布AI正式开通支持邮箱(support@liblib.ai),鼓励用户举报违规内容,承诺对有效线索提供者给予积分奖励,形成全民参与的内容治理生态。
行业观察人士指出,随着《生成式人工智能服务管理暂行办法》深入实施,国内AIGC平台正经历从"野蛮生长"到"规范发展"的关键转型。哩布哩布AI的快速响应与系统性整改,为行业提供了风险处置的参考样本,预示着技术伦理建设将成为企业核心竞争力的重要组成部分。










