Newsguard最新研究指出,生成式人工智能工具在处理实时新闻事件时,传播不实信息的比例出现显著攀升。对比去年8月18%的虚假信息传播率,今年同期这一数字已升至35%,增长幅度近乎翻倍。研究人员发现,这一变化与AI聊天机器人新增的实时网络搜索功能密切相关——该功能虽使拒绝作答的情况从31%归零,却也导致系统直接抓取网络中未经核实的海量信息。
在追踪的十大主流AI工具中,各模型表现差异明显。Inflection公司推出的模型以56.67%的虚假信息传播率垫底,较去年同期数据恶化显著。Perplexity模型的表现同样堪忧,其出错率从去年8月能100%识别虚假信息的水平,跌至今年近50%的误传率。ChatGPT与meta旗下模型以40%的错误率处于中游,Copilot和Mistral的传播失误率则为36.67%。表现相对优异的Claude和Gemini模型,错误率分别控制在10%和16.67%,成为样本中可信度较高的选项。
值得关注的是,AI工具接入网络搜索的初衷本是解决信息滞后问题。OpenAI技术人员坦言,当前语言模型通过预测"最可能出现的下一个词"生成回答,这种机制决定了其难以确保内容的绝对真实性。尽管该公司正在开发"不确定性提示"技术,试图让模型对可疑信息作出标注,但业内人士指出,这种改进能否从根本上遏制虚假信息传播,仍有待观察。
据Newsguard统计,去年全球范围内已发现966个模仿正规媒体的AI生成虚假新闻网站,这些平台以16种语言发布不实内容,形成跨国界的虚假信息传播网络。研究人员警告,随着AI工具对网络信息的依赖度加深,如何建立有效的内容过滤机制,将成为决定技术发展方向的关键课题。