在近期举办的中国报业传媒行业人工智能应用研讨会上,多位专家聚焦人工智能技术在传媒领域的深度应用,同时对技术发展引发的伦理与监管问题展开深入探讨。这场行业盛会传递出明确信号:人工智能正以惊人速度重塑新闻生产流程,但技术狂飙突进中必须筑牢安全底线。
南开大学智能传播研究中心负责人指出,某主流媒体已实现新闻生产效率的革命性突破——常规快讯制作时间从1小时压缩至12分钟,重大突发事件的首条快讯生成速度突破30秒大关。这种效率跃升使权威媒体在信息传播竞赛中抢占先机,有效遏制了谣言扩散空间。但该专家同时强调,技术发展必须遵循"合规优先"原则,任何创新都不能突破伦理红线。
生成式人工智能的"双刃剑"效应在传媒领域日益显现。上海市网络安全技术专家解析了AI幻觉的生成机理:当训练数据存在偏差或算法存在缺陷时,系统可能输出看似合理实则错误的信息。这种技术缺陷已被不法分子利用,形成从虚假信息炮制到AI背书传播的完整黑色产业链。某金融科技公司负责人透露,网络自媒体发布的失实信息经AI抓取后,可能触发量化交易模型,造成资本市场异常波动。
技术滥用案例引发与会者高度关注。近期发生的虚拟主播盗用事件中,同一数字人形象同时出现在多个违规直播间,暴露出身份认证体系的漏洞。更令人担忧的是,深度伪造技术已能实现语音、视频的全方位造假,给公众认知带来严峻挑战。这些案例警示,人工智能技术若缺乏有效监管,可能成为危害社会稳定的工具。
针对这些挑战,行业正在构建多层次治理体系。中央网信部门推出的智能内容标识制度,通过隐形数字水印技术实现信息全流程追溯。某政务服务平台负责人介绍,其使用的智能问答系统准确率必须达到95%以上,否则将面临行政处罚。这种硬性约束正在推动技术提供商优化算法模型,提升输出质量。
可信AI生态建设需要多方协同。技术开发者被要求明确工具使用边界,内容创作者需对AI生成内容进行显著标识,平台运营商要建立多重审核机制。专家特别指出,提升公众媒介素养至关重要,每个信息接收者都应培养批判性思维,避免成为虚假信息的传播节点。
主流媒体正在发挥引领作用。上海多家媒体联合搭建的AI治理平台,通过技术手段实现谣言自动识别与拦截。全国范围内,数十家权威机构推出的智能辟谣工具,运用自然语言处理技术实时分析网络信息,构建起技术防护网。这些实践表明,技术创新与规范治理完全可以形成良性互动。











