最近在社交媒體上,一種名為bixonimania的新型眼疾引起了廣泛關注。傳聞稱這種病是由於長時間盯着屏幕和接觸藍光引起的,聽起來非常符合現代人的生活憂慮。然而,這種所謂的現代文明病其實根本不存在,它完全是一場針對人工智能的壓力測試。
這場實驗的幕後推手是瑞典哥德堡大學的醫學研究員Almira Osmanovic Thunström。她的初衷很單純,就是想看看能不能在AI的知識庫之外,憑空創造出一種醫療狀況。為了讓這場戲演得逼真,她不僅虛構了病名,還撰寫了兩篇看起來非常專業的學術論文,並將它們上傳到了學術伺服器上。
這些論文中其實埋了不少荒誕的破綻。例如,文中煞有介事地感謝了星際艦隊學院,甚至還引用了虛構的資金來源。但令人大跌眼鏡的是,短短几周內,多個主流AI聊天機械人就吞下了這個誘餌。它們不僅把bixonimania當成真實的醫學狀況來描述,甚至開始有模有樣地給用戶提供症狀清單、發病數據和治療建議。
更有甚者,這種虛假信息還迅速滲透進了一些嚴肅的學術寫作中。這暴露了當前AI系統的一個致命弱點:只要信息是以一種嚴謹、科學的語氣呈現,AI往往會默認其為真,而不會去核實該事物在現實物理世界中是否真的存在。
雖然隨着實驗曝光,部分AI工具經過調整已經開始識別出這是個騙局,但它們的反應依然並不統一。研究人員指出,人類學術造假一直是個難題,但AI系統的參與讓這個問題變得更加嚴峻。AI攝取和放大虛假研究的速度與規模,是任何個人造謠者都無法比擬的。
這次警告非常清晰,如果我們過度依賴AI來獲取健康建議,這種對科學語氣的盲目信任可能會產生真實而危險的後果。在海量信息爆發的時代,保持質疑和多方求證,依然是保護我們不被技術謊言誤導的最後防線。

(示意圖)
















