新聞 > 科教 > 正文

100年內AI消滅人類機率達99.9% 悲慘結局有3種

研究人工智能(AI)的美國知名大學教授揚波爾斯基(Roman Yampolskiy)近日表示,他估計AI在未來100年內導致人類滅絕的機率高達99.9%,原因是至今仍沒有一個AI模型是完全安全的,未來也很難創造出零缺陷的高度複雜模型。 不過,大多數AI研究者態度較為溫和,認為AI消滅人類的機率大約是1%到20%。

根據美媒《商業內幕》報道,揚波爾斯基在路易斯維爾大學(University of Louisville)教授計算機科學,專精網絡與AI安全方面研究。 近日他出版新書《人工智能:無法解釋、預測或控制》(AI: Unexplainable, Unpredictable, Uncontrollable.),並在一檔Podcast節目中談了2個多小時有關AI未來可能造成的風險,但所持態度相當悲觀。

人工智能帶來人類滅絕風險

揚波爾斯基認為,AI是否滅絕人類的關鍵取決於,人類能否在未來100年內創造出高度複雜並且零出錯(with zero bugs)的軟件。 但他估計這樣的可能性並不高,因為人們一直在試圖讓AI去做一些超出它原先設計範圍內的事情,因此迄今沒有任何一種AI模型是完全安全的。

揚波爾斯基說,它們已經釀成失誤,我們發生過意外,它們曾越獄(jailbroken)過。 我不認為現今存在一個單一的大型語言模型是可以成功防止它做一些開發者不想讓它做的事。」

AI發展的3種悲慘結局

揚波爾斯基認為,為了控制AI,需要一個永久的安全機制,「即使我們在接下來來幾個版本的GPT中做得很好,AI也會繼續改進、學習、自我修改,並與不同的玩家互動,同時有生存風險,這『只有一次機會』」。

揚波爾斯基警告,我們無法預測一個更聰明的系統會怎麼做。 他在通用人工智能(AGI)的背景下將人類比喻成松鼠,而AI卻能想出一些甚至人類還不知道存在的東西。 揚波爾斯基預測了3種結局,其一是每個人都會死,其二是每個人都很痛苦並渴望死亡,其三是AI系統比人類更具創造力,並能完成所有工作,導致人類無所事事並完全失去他們的追求。

其他人怎麼看?

揚波爾斯基受訪的Podcast節目主持人費里曼(Lex Fridman)表示,與他討論過的大多數AI工程師都認為,AI消滅人類的可能性約在1%到20%之間。 另外,最近一項針對2700名AI研究人員的研究結果顯示,此一機率只有5%。

ChatGPT開發公司OpenAI的CEO奧特曼(Sam Altman)建議設立一個「監管沙盒」(regulatory sandbox),讓人們能在其中對AI進行實驗,並根據實驗結果進行監管與調整。 奧特曼2015年曾半開玩笑地說,AI最有可能導致世界末日,但在此期間,會誕生許多偉大的公司。 特斯拉執行長馬斯克(Elon Musk)也曾預測,AI毀滅人類的機率為10%到20%。

另外,前Google CEO施密特(Eric Schmidt)曾經表示,AI的真正危險在於網絡與生物(生化)攻擊,但這些風險將在3到5年內顯現出來,若AI真的發展出意志,他認為最簡單的解決方法是:人類可以直接拔掉插頭。

阿波羅網責任編輯:李華

來源:ETtoday

轉載請註明作者、出處並保持完整。

AI
家在美國 放眼世界 魂系中華
Copyright © 2006 - 2024 by Aboluowang

投稿 投稿