評論 > 動態 > 正文

AI大模型有個藏不住的致命傷

作者:

AI的記憶力可能根本不是你想像的那樣。

大模型有個藏不住的致命傷:它們分不清"新歡"和"舊愛"。

UVA和 NYU的研究人員剛發了篇論文,捅破了這層窗戶紙。

給你舉個例子:

病人剛入院,血壓120。

十分鐘後,血壓128。

出院時,血壓125。

你問 AI:"最後一次讀數是多少?"

正常人都會說125。

但測試了 GPT-4o、Claude、DeepSeek等35個模型後,結果讓人脊背發涼。

只要干擾信息一多,所有模型都會集體"斷片"。

準確率不是緩慢下降,而是呈對數線性直接跌向零。

注意,是100%報錯。

最諷刺的是,正確答案就擺在問題的正上方,連"搜索"都不用。

但模型就是死攥着舊數據不撒手。

在認知心理學裏,這叫"前攝抑制",即舊記憶干擾新記憶。

人類的大腦能自動過濾雜音,但 AI不行。

它們沒有所謂的"清理機制",只會讓垃圾信息無限堆積。

現在全行業都在卷 Context Window(上下文長度),賣更貴的 Token。

這篇論文直接掀了桌子:抗干擾能力和上下文長度根本沒關係。

128K的超長上下文,本質上只是一個 AI處理不了的巨大垃圾桶。

堆算力、加參數、搞提示詞工程,通通沒用。

這意味着什麼?

如果你在用 AI跑金融時序、處理動態醫療數據或者構建長程 Agent,你正踩在一個隨時會崩塌的地基上。

當舊數據積累到一定程度,哪怕正確答案就在眼皮底下,AI也會睜眼說瞎話。

這個硬傷不解決,AI永遠無法真正理解"現在"。

責任編輯: 李廣松  來源:墓碑科技X 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2026/0314/2359595.html