最近,OpenAI 發佈了一篇重磅研究論文,深入探討大型語言模型(LLM)產生「幻覺」(Hallucination)的根本原因。這份研究推翻了許多人對幻覺的既定認知,並提出一個令人深思的觀點:AI 幻覺並非技術無法根治的缺陷,而是現有訓練與評估機制所鼓勵的行為。
幻覺的真正根源:錯誤的評分機制
你或許認為,AI 幻覺是因為它「不夠聰明」或資料不足。但 OpenAI 的研究指出,主要原因在於主流的評估方式,獎勵模型「猜測」,而不是誠實地承認「不知道」。
這就好比一場多項選擇題考試:如果你不確定答案,隨便猜一個,有機會得分;但如果選擇留空,則必然得零分。在這樣的遊戲規則下,模型為了追求高準確率(Accuracy)的評分,會被「鼓勵」去瞎猜,即使答案是錯的。這種行為模式在現有的 AI 評分排行榜中,往往能獲得比謹慎回答的模型更高的分數。
OpenAI 認為,這種「過度自信的錯誤」對用戶造成的危害,遠大於承認不確定性。
解決方案:從「高分競技」轉向「誠實工程」
論文提出了一個簡單卻極具顛覆性的解決方案:我們需要改變評分規則。
- 重罰「自信錯誤」: 對於那些看起來很對、但其實是錯的答案,給予嚴重的懲罰。
- 獎勵「承認不確定」: 對於模型誠實地說出「我不知道」或表達不確定性,應給予部分分數,而不是零分。
這種新的評估方式將迫使模型學習「風險管理」。在不確定的情況下,保守地承認限制,反而是一種更可靠的策略。這代表 AI 的發展將從單純比拼「模型大小」或「準確率」的軍備競賽,轉向更重視「可靠性」與「信任度」的「誠實工程」。
這不僅適用於學術研究,對於企業應用尤其重要。在金融、法律或醫療等高風險領域,一個錯誤的幻覺答案可能導致數以百萬計的損失。因此,能夠清楚標示「信心度」或在不確定時選擇棄權的模型,其價值遠高於那些「看起來很厲害」但可能隨時出錯的模型。
OpenAI 這份研究為整個 AI 業界指明了方向,也提醒我們,AI 發展的下一步,是將「謙遜」與「誠實」融入其核心價值觀。
References:
Kalai, A. T., Nachum, O., Vempala, S. S., & Zhang, E. (2025). Why language models hallucinate. OpenAI. https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf.
OpenAI. (2025, September 5). Why language models hallucinate. https://openai.com/index/why-language-models-hallucinate/

