近日,一项旨在规范人工智能生成内容的全新规定——《人工智能生成合成内容标识办法》正式生效。该办法由国家网信办等四个部门联合推出,其核心在于要求所有AI生成的文字、图片、视频等内容都必须附带明确的“数字身份证”,以此提升内容的透明度与可追溯性。
面对这一新规,部分网友表达了疑惑,认为仅为一个标识就专门出台文件似乎小题大做。然而,深入思考不难发现,若AI生成的内容缺乏明确标识,将带来一系列潜在问题。当前,AI内容创作已成为热门赛道,众多平台通过提供流量、补贴等方式吸引创作者。但与此同时,利用AI技术制作违规内容的现象也屡见不鲜,从假冒名人诈骗到虚假直播带货,这些行为不仅损害了公众利益,也扰乱了市场秩序。
因此,尽管标识看似微小,实则意义重大。它不仅是保护公民、法人及其他组织合法权益的重要手段,更是维护社会公共利益的关键一环。通过实施标识制度,能够以较低的合规成本有效解决AI生成内容带来的新问题,同时精准打击利用AI技术造假的新媒体营销号。
然而,标识办法的出台仅仅是第一步,如何贯彻落实并构建全链条治理框架,还需治理主体与治理对象的共同努力。回顾过去,尽管AI内容标识早已存在,但往往形同虚设,原因在于制度缺乏约束力,监管难以适应技术发展的速度。平台曾尝试通过技术手段识别AI内容,但因监测技术滞后于生成式AI技术的更新,效果并不理想。
作为直面用户的第一道安全防线,平台必须承担起主体责任,加强AI生成内容的识别与管控。受众期待的是平台不仅要有明确的规定和细则,更要有切实的行动。这包括升级技术手段以提高识别率,针对文字、图片、视频中的显示标识以及文件元数据中的隐式标识进行精准识别;同时,对于长期违规仿冒他人牟利的账号,应加大惩处力度,防止其死灰复燃。
实施AI生成内容的全生命周期治理,不仅有助于筑起信息真实性的屏障,还能为AI内容创作划定专用道,激发技术的潜能,提升内容创作的效率与创意。对于走上AI专用道的内容创作者而言,享受技术红利的同时,也应承担起相应的责任。在制作图片、视频时,需谨慎行事,避免侵犯他人的肖像权、声音权及版权,以免引发法律纠纷。
随着人工智能技术的广泛应用,发展与安全的平衡问题愈发凸显。AI技术让老照片中的人物动起来,让古诗词的内容以图片、视频的形式呈现,为各行各业注入新的活力。然而,一条小小的标识也可能成为内容安全管理的漏洞。因此,面对人工智能这把“双刃剑”,构建完备的安全治理体系刻不容缓。就AI生成内容而言,标识只是起点,如何在把控风险的前提下充分利用AI技术,是一个值得深入探讨的课题。