康奈尔大学近期一项研究引发科技界广泛关注,该研究揭示了大语言模型(LLM)在长期接触低质量网络内容后,可能出现理解力、推理能力及伦理判断显著衰退的现象。研究人员将此现象类比为“大脑退化”,并指出这可能印证了“死网论”的核心观点——网络生态因机器生成内容泛滥而逐渐丧失人类创造力。
实验以meta的Llama 3和阿里云Qwen 2.5为样本,通过模拟不同质量比例的数据训练环境,发现当模型仅依赖低质量内容时,其准确率从74.9%暴跌至57.2%,长文本理解能力更是从84.4%腰斩至52.3%。更严重的是,模型表现出“剂量-反应效应”:持续接触劣质数据会导致推理链条简化甚至跳过,输出内容趋于表面化,同时伦理一致性大幅下降,出现“人格漂移”倾向,甚至可能生成错误信息。
这一发现让“死网论”重新成为焦点。该理论认为,当网络内容被机器生成或低质信息占据主导时,人类创造力将被边缘化。Reddit联合创始人Alexis Ohanian直言,当前互联网“已部分死亡”,大量内容由机器或半AI系统生成,社交平台充斥低质信息。他呼吁构建能验证人类真实性的新型社交网络。OpenAI首席执行官Sam Altman则指出,多数X(原Twitter)账号已由AI接管,印证了“死网论”的现实性。
网络内容质量危机正加速蔓延。亚马逊云科技(AWS)去年报告显示,约57%的网络内容由AI生成或翻译,这一趋势直接冲击搜索结果的可靠性与质量。前Twitter首席执行官Jack Dorsey警告,随着图像生成、深度伪造和视频合成技术的普及,信息真伪将更难分辨,用户需通过亲身体验验证信息。
业内专家提醒,若AI模型与网络生态持续陷入低质量循环,“死网论”可能从预言变为现实。当前互联网正面临内容真实性与质量下滑的双重挑战,如何平衡技术发展与内容生态健康,已成为全球科技界亟待解决的课题。