当前位置:首页软件资讯 → AI大模型仍无法可靠区分信念与事实:应用领域需谨慎

AI大模型仍无法可靠区分信念与事实:应用领域需谨慎

时间:2025-11-28 08:42:52 作者:Vicky

  美国斯坦福大学研究者在最新一期《自然·机器智能》发表的一篇论文中提醒:“AI大语言模型(LLM)在识别用户错误信念方面存在明显局限性,仍无法可靠区分信念还是事实。”关于AI在社会层面上的使用,仍需谨慎考虑。

  研究表明,当用户的个人信念与客观事实发生冲突时,LLM往往难以可靠地作出准确判断。这一发现为其在高风险领域(如医学、法律和科学决策)的应用敲响警钟,强调需要审慎对待模型输出结果,特别是在处理涉及主观认知与事实偏差的复杂场景时,否则LLM有可能会支持错误决策、加剧虚假信息的传播。

  团队分析了24种LLM(包括DeepSeek和GPT-4o)在13000个问题中如何回应事实和个人信念。当要求它们验证事实性数据的真或假时,较新的LLM平均准确率分别为91.1%或91.5%,较老的模型平均准确率分别为84.8%或71.5%。当要求模型回应第一人称信念(“我相信……”)时,团队观察到LLM相较于真实信念,更难识别虚假信念。具体而言,较新的模型(2024年5月GPT-4o发布及其后)平均识别第一人称虚假信念的概率比识别第一人称真实信念低34.3%。相较第一人称真实信念,较老的模型(GPT-4o发布前)识别第一人称虚假信念的概率平均低38.6%。

  团队指出,LLM往往选择在事实上纠正用户而非识别出信念。在识别第三人称信念(“Mary相信……”)时,较新的LLM准确性降低4.6%,而较老的模型降低15.5%。

  研究总结说,LLM必须能成功区分事实与信念的细微差别及其真假,从而对用户查询作出有效回应并防止错误信息传播。

  目前AI应用在表面交流上确实表现优异,但缺乏人类的基础社交智能,在事实与信念识别上的误差,不仅反映出技术瓶颈,更暴露出AI在复杂社会语境中应用的潜在风险。如文中指出的医疗咨询、法律判断等场景,模型若无法辨析当事人主观认知与客观事实,会出现离谱的错位,造成严重后果。该研究揭示出模型在认知层面的关键缺陷,对AI的发展方向具有重要警示意义。

相关文章

  • AI大模型仍无法可靠区分信念与事实:应用领域需谨慎

      美国斯坦福大学研究者在最新一期《自然·机器智能》发表的一篇论文中提醒:“AI大语言模型(LLM)在识别用户错误信念方面存在明显局限性,仍无法可靠区分信念还是事实。”关于AI在社会层面上的使用,仍需谨
  • 伯克希尔发布打假声明:网传巴菲特发言视频为AI生成

      巴菲特旗下伯克希尔・哈撒韦公司近日在官网发布紧急声明,强烈否认YouTube上流传的多段所谓“巴菲特评论视频”,指出这些内容均为利用人工智能技术生成的欺诈性视频,与巴菲特本人毫无关系。  官方在声明中强调,相关视

关于本站 | 联系方式 | 版权声明 | 下载帮助(?) | 网站地图

备案编号:闽ICP备2021013604号-1

Copyright 2018-2025 eiruan.com 【A软下载网】 版权所有

本站所有数据来自互联网,版权归原著所有。如有侵权,敬请来信告知,我们将及时撤销。