大模型幻觉,怪人类 “CPU” 它?没那么简单!

AI 的能力越强,胡扯起来就越让人头疼。它既能一本正经地编造从未发生过的事情,也会在简单的比大小问题上犯错。从两年前惊艳问世的 ChatGPT,到如今默默落地的 DeepSeek V3.1,没有一个大模型能摆脱幻觉的困扰。

为什么大模型总是产生幻觉?这在互联网上成了一个未解之谜。不过,上周 OpenAI 的一篇论文提出了一个有趣的观点:“造成 AI 幻觉的根本原因,可能在于人类训练 AI 的过程”。简单来说,不是 AI 不行,而是我们的训练方式有问题,是我们 “CPU”(这里是调侃式说法,可理解为过度施压或错误引导)了它。

为什么要把锅甩给人类呢?要回答这个问题,需要从内外两个层面来剖析大模型。

从内部层面来看,大模型的训练机制决定了它天生就容易产生幻觉,这是 AI 幻觉的 “内忧”。在训练模型时,模型要从海量文本中学习预测下一个单词的能力。只要一句话看起来合理,模型就会学习其结构,却难以分辨内容的对错。当我们向模型提问时,模型优先考虑完整回答问题,但并非所有问题都有明确答案。例如,用火锅照片让大模型判断是什么动物,模型会分析特征,若特征与狗相似,可能判断为金毛。但如果问火锅的生日,模型就会不知所措,因为从图像中无法得知狗的生日。若模型硬着头皮回答,随意给出答案,就产生了幻觉问题。可以说,产生幻觉是大模型的天性,大模型本质上类似词语接龙,答对的被视为正确,答错的就成了幻觉。

从外部层面来讲,我们现在训练大模型时给模型打分评估的方式,也加重了模型的幻觉问题,这是 “外患”。以问火锅生日为例,简化训练过程:假设模型答对一题得一分,答错不加分。当被问火锅生日时,如果模型直接说不知道,那永远是零分;若瞎猜,有三百六十五分之一的概率蒙对。一边是绝对失败,一边是有极小概率答对,为了在人类定制的排行榜上获得更高分数,越来越多的大模型放弃了说 “我不知道” 的权利。对追求分数的模型而言,瞎猜成了唯一理性选择,诚实反倒成了愚蠢策略。OpenAI 的研究人员观察主流大模型排行榜后发现,大家都通过这种 “只分对错” 的方式测试大模型能力,原本衡量模型能力的考题,却成了促使大模型产生幻觉的因素。

为验证这种 “应试思维” 的影响,OpenAI 用旗下两个模型做对比,结果发现,刷题时老模型 o4 – mini 的正确率比新模型 GPT – 5 还高 2 个百分点。但代价是,o4 – mini 四分之三的问题都答错了,只有 1% 的题目会承认大模型有极限;而 GPT – 5 遇到不会的问题,会直接承认不知道。这也是 OpenAI 认可 GPT – 5 的地方,虽然它刷榜能力变差了,但学会认错了。

在论文结尾,OpenAI 提出几个观点:对大模型来说,幻觉无法消除,只能设法避免,因为世界上总有一些问题没有答案;模型要学会从应试教育中跳出来,勇敢回答 “我不知道”;小模型比大模型更容易意识到自身局限性,因为小模型很多知识没学过,会干脆承认不会,而大模型因学了些皮毛,答题时可能过于自信,导致答错产生幻觉;作为人类,我们要重新设计评估模型能力的方式和训练模型的体系,降低模型瞎猜的概率。

这些观点看似合理,但仔细想想,一个没有幻觉的大模型真的是我们需要的吗?换个角度,如果两年前大模型对不确定的问题都回答 “对不起,我不知道”,这种用户体验差的 AI 可能根本不会火起来。实际上,近年来越来越多研究表明,模型的创造力和幻觉相辅相成。一个不会出现幻觉的模型,可能也会失去创造能力。

以刚发布的 GPT – 5 为例,OpenAI 采取诸多措施降低其幻觉概率,但模型也变得缺乏 “人味”,没有激情,甚至显得有些 “蠢”。面对同样问题,GPT – 5 表现得过于冷静。很多人原本和 GPT4o 谈着 “甜甜的恋爱”,结果 GPT – 5 上线后,因其幻觉概率降低,在聊天和文艺创作领域表现不佳,像个 “小脑被阉割的呆子”,愤怒的网友发起 “拯救 4o” 网络运动。最后,山姆・奥特曼不得不重新开放老模型权限。

所以,一味抑制模型幻觉不一定是好事。允许模型犯错,还是让它谨小慎微什么都不做,没有标准答案,因人而异。或许未来某一天,用户会嫌弃 AI 太 “老实”,缺乏灵气;但也有人始终更想要一个完全可信赖的伙伴。

为您推荐