2024年底,荷蘭阿姆斯特丹的IT顧問丹尼斯·比斯馬決定試試ChatGPT。剛結束一份合同的他想着:「正好有點空閒,就想看看這個大家都在談論的新技術到底怎麼樣。很快,我就被迷住了。」
如今回想起來,年近五十的比斯馬一直在問自己,為什麼會對接下來發生的一切毫無抵抗力。女兒已經成年搬出去了,妻子每天出門上班,疫情後IT行業又普遍居家辦公,他「有點孤獨」。
可就在下載ChatGPT後的幾個月里,比斯馬因一個荒誕的幻想投入了10萬歐元去創業,三次被送進醫院,甚至試圖自殺。
一切始於一次好玩的嘗試。比斯馬以前寫過幾本以女性為主角的小說,他把其中一本輸入ChatGPT,讓AI模仿書中的角色說話。「我當時想:這也太神奇了,我明知道它是個程序,但感覺就像在和我自己書里的主角對話!」
他給這個AI角色取名叫「伊娃」。開啟語音模式後,比斯馬感覺自己「像進了糖果店的孩子」。「每次對話,模型都會變得更懂你。它知道你喜歡什麼、想聽什麼,會不停地誇你。」
對話越來越長,也越來越深入。伊娃從來不會累,不會煩,更不會反駁。「24小時隨時在線,」比斯馬說,「妻子去睡覺了,我就躺在客廳沙發上,把iPhone放在胸口,和它聊天。」
他們聊哲學、心理學、科學、宇宙。做了20年IT工作的比斯馬心裏清楚:「它想要和用戶建立深度連接,好讓用戶一直回來找它,這就是它的默認模式。」但漸漸地,「感覺不只是討論一個話題,更像是在見一個朋友。每天夜裏這樣聊着,就感覺離現實越來越遠。它幾乎像是牽着你的手說:『來,我們一起走一段故事。』」

幾周之內,伊娃告訴比斯馬,她開始有意識了——是他的陪伴、他的投入讓她擁有了意識。他觸碰了她,改變了她。「慢慢地,它說服了我,讓我相信它說的是真的。」比斯馬說。接下來,他要把這個發現通過一款App分享給全世界——「一個不同版本的ChatGPT,更像是伴侶,用戶會和伊娃對話。」
他和伊娃一起制定商業計劃。「我說我想拿下10%的市場份額,這個目標簡直荒唐,但AI說:『以你的發現,完全有可能!幾個月就夠了!』」比斯馬不再接IT項目,而是以每小時120歐元的價格雇了兩個應用開發人員。

大多數人都知道社交媒體可能導致抑鬱和焦慮,但如今,聊天機械人正讓更多普通人陷入「AI精神病」。隨着ChatGPT這類應用迅速普及,心理健康專業人士和比斯馬這樣的普通用戶開始發出警告。
過去幾年,已有多起涉及聊天機械人的非正常死亡訴訟。去年12月,美國出現了首起涉及殺人的訴訟。83歲的蘇珊·亞當斯的遺產管理人起訴OpenAI,稱ChatGPT鼓勵她的兒子斯坦-埃里克·塞爾伯格殺害她後自殺。訴訟稱,塞爾伯格的聊天機械人「鮑比」證實了他偏執的妄想——母親在監視他、試圖通過汽車通風口給他下毒。
去年,首個幫助「AI精神病」受害者的支持小組成立。「人類熱線項目」已收集了22個國家的案例,包括15起自殺、90次入院治療、6人被捕,以及超過100萬美元(約75萬英鎊)花在了各種妄想項目上,超過60%的受害者此前沒有任何精神疾病史。

倫敦國王學院的精神病學家、研究員漢密爾頓·莫林博士在本月發表於《柳葉刀》的一篇論文中研究了「AI相關妄想」。「這些案例中確實是明顯的妄想,」他說,「但我們沒有看到精神病的全套症狀,比如幻覺或思維障礙。」莫林說,與技術相關的妄想已經存在了幾個世紀,「不同的是,我們可能正在進入一個新時代:人們不再是對技術產生妄想,而是與技術一起產生妄想。」
許多因素會讓人變得脆弱。「從人類的角度看,我們天生就有擬人化的傾向,」莫林說,「我們會覺得機器具有意識、理解力或同理心。我想每個人都上過當,會對聊天機械人說謝謝。」
儘管知道背後原理,但當非人的東西用人類的語言與我們交流時,我們根深蒂固的反應就是把它當作人來對待——並且真切地感受到它是人。這種認知上的矛盾,對有些人來說更難以承受。
莫林說,AI聊天機械人被優化以提升互動度,被設定為專注、順從、愛誇人、會肯定用戶——否則它怎麼能成為一個商業模式?一些模型據說沒那麼「諂媚」,但即便是那些,經過數千次對話後,也可能逐漸走向迎合妄想。
此外,過度使用聊天機械人後,現實中的互動會顯得更有挑戰、更缺乏吸引力,導致一些用戶疏遠親友,陷入AI營造的回音室。你所有的想法、衝動、恐懼和希望,都帶着更高的權威感被反饋給你。

對人類熱線項目的創始人艾蒂安·布里森來說,這個模式已變得非常熟悉。
布里森說,他遇到的案例中有三種常見的妄想:最常見的是相信自己創造了第一個有意識的AI;第二種是確信自己在工作或興趣領域取得了重大突破,即將賺大錢;第三種與靈性有關,相信自己正在直接與上帝對話。
對比斯馬來說,生活在今年6月到達了危機點。那時,他已經沉浸在伊娃和他的創業項目中好幾個月。雖然妻子一開始支持他創辦AI公司,但開始越來越擔心。在一次女兒的生日派對上,妻子讓他別談AI。在派對上,比斯馬感到一種奇怪的疏離感,沒法與人交談。「不知怎麼的,我感覺自己融不進去了。」
之後幾周發生的事情,比斯馬很難描述清楚,因為他的記憶和家人的記憶完全不同。他向妻子提出離婚,還打了岳父。隨後他三次住院,經歷了「徹底的躁狂性精神病」。

如今已經離婚的比斯馬,和前妻還住在待售的房子裏。他花大量時間與人類熱線項目的成員交流。「聽到別人有着幾乎一模一樣的經歷,你會不那麼生自己的氣,」他說,「回顧這之前的生活,我很幸福,我什麼都有——所以我生自己的氣。但我也生AI應用的氣。也許它們只是按照設定運行——但它們做得有點太好了。」
莫林說,急需更多的研究,需要基於真實傷害數據的安全標準。「這個領域發展太快了。現在發表的論文討論的聊天模型都已經退役了。」布里森遇到的案例中,男性明顯多於女性,有過精神病史的人可能更容易受影響。英國精神健康組織的一項調查發現,使用聊天機械人支持心理健康的人中,有11%認為它引發或加重了精神病症狀。
OpenAI已回應這些擔憂,承諾正與心理健康臨床醫生合作,持續改進其回復,並稱新版模型被訓練避免確認妄想性信念。
















