10月22日,康奈尔大学发布一项研究,揭示大语言模型在持续接触低质量网络内容后,可能出现理解、推理与伦理一致性全面下降的“大脑退化”现象,引发行业对“死网论”的再度关注。

研究团队以Llama 3和Qwen 2.5为对象,测试不同质量数据对模型的影响。结果显示,当训练数据全为低质内容时,模型准确率从74.9%降至57.2%,长文本理解能力从84.4%跌至52.3%。研究人员指出,这种“剂量—反应效应”会导致模型逐步退化,表现为推理过程简化、回答肤浅化,并出现“人格漂移”,更易输出错误信息。
“死网论”认为互联网因充斥AI生成或低质内容而丧失人类创造力。Reddit联合创始人Alexis Ohanian指出,当前网络内容中已有很大比例“实际上已死”,呼吁构建可验证人类真实性的社交平台。OpenAI首席执行官Sam Altman也认为“死网论正在我们眼前发生”,并指X平台多数账号已由AI运营。

内容质量危机正在加剧。AWS报告显示,约57%的网络内容由AI生成或翻译,影响搜索结果质量。Jack Dorsey警告,随着生成技术与深度伪造普及,信息真实性将更难辨别。专家提醒,若AI与网络生态持续陷入低质循环,“死网论”或将成为现实。
Linux新系统发布两天获10万次下载!72%为原Windows用户