AI的記憶力可能根本不是你想像的那樣。
大模型有個藏不住的致命傷:它們分不清"新歡"和"舊愛"。
UVA和 NYU的研究人員剛發了篇論文,捅破了這層窗戶紙。
給你舉個例子:
病人剛入院,血壓120。
十分鐘後,血壓128。
出院時,血壓125。
你問 AI:"最後一次讀數是多少?"
正常人都會說125。
但測試了 GPT-4o、Claude、DeepSeek等35個模型後,結果讓人脊背發涼。
只要干擾信息一多,所有模型都會集體"斷片"。
準確率不是緩慢下降,而是呈對數線性直接跌向零。
注意,是100%報錯。
最諷刺的是,正確答案就擺在問題的正上方,連"搜索"都不用。
但模型就是死攥着舊數據不撒手。
在認知心理學裏,這叫"前攝抑制",即舊記憶干擾新記憶。
人類的大腦能自動過濾雜音,但 AI不行。
它們沒有所謂的"清理機制",只會讓垃圾信息無限堆積。
現在全行業都在卷 Context Window(上下文長度),賣更貴的 Token。
這篇論文直接掀了桌子:抗干擾能力和上下文長度根本沒關係。
128K的超長上下文,本質上只是一個 AI處理不了的巨大垃圾桶。
堆算力、加參數、搞提示詞工程,通通沒用。
這意味着什麼?
如果你在用 AI跑金融時序、處理動態醫療數據或者構建長程 Agent,你正踩在一個隨時會崩塌的地基上。
當舊數據積累到一定程度,哪怕正確答案就在眼皮底下,AI也會睜眼說瞎話。
這個硬傷不解決,AI永遠無法真正理解"現在"。
















