新聞 > 科教 > 正文

霍金警告機械人叛亂: 潛藏威脅實驗室中悄悄醞釀

史蒂芬·霍金宣稱,如果沒有適當的防衛措施,人工智能將對人類造成難以控制的威脅。他警告稱,機械人會以比人類快得多的速度進化,它們的最終目標將無法預測。

隨着人工智能的發展,機器能獨立選擇並針對目標開火的可能性也逐漸增高。未來的自動武器或「殺人機械人」,或許很快就能從科幻電影(圖中為《終結者》電影畫面)走向現實。

這並不是霍金第一次警告機械人「起義」的危險。就在去年,他警告稱隨着人工智能逐漸學習着為自己考慮,並且更加適應環境,人類正面臨着不確定的未來。

北京時間7月9日消息,據國外媒體報道,按照史蒂芬·霍金教授的說法,一場潛藏的威脅正在矽谷的技術實驗室中悄悄醞釀。人工智能偽裝成數字輔助設備和自動駕駛的交通工具,正在人類社會中逐漸站穩腳跟,它們或許有朝一日將導致人類的終結。

這位世界知名的物理學家警告稱,機械人會以比人類快得多的速度進化,它們的最終目標將無法預測。在接受採訪時,霍金表達了對人類未來的擔憂,「我不認為人工智能領域的進步一定是有益的。」

霍金於近日參加了在加那利群島舉行的「斯塔爾慕斯節」(Starmus Festival),該活動的宗旨是使公眾更加接近科學。他在採訪中說:「一旦機器達到了能夠自我進化的關鍵步驟,我們就無法預測它們的目標是否會和我們一樣。人工智能具有比人類更快進化的潛力。我們需要確保人工智能的設計符合倫理,並且有到位的防護措施。」

這並不是霍金第一次警告機械人「起義」的危險。就在去年,他警告稱隨着人工智能逐漸學習着為自己考慮,並且更加適應環境,人類正面臨着不確定的未來。這位物理學家在參加倫敦的一次活動時說:「人工智能的全面發展可能意味着人類的終結。」

去年早些時候,霍金表示人工智能領域的成功「將是人類歷史上最重大的事件,不幸的是,這可能是最後一次。」他認為,數字個人助理如Siri、Google Now和Cortana等的發展,僅僅是一支數碼技術大軍的先兆,而這支大軍會在接下來幾十年裏湧現出來。

在談到電影《超驗駭客》(Transcendence)時,霍金表示將這部電影誤認為只是科幻故事將是「歷史上最嚴重的錯誤」。

2015年,伊隆·馬斯克將人工智能的發展比作「召喚惡魔」。這位特斯拉的創始人此前就發出警告,稱人工智能技術有朝一日會比核武器更加可怕。

霍金也不是唯一持有悲觀態度的人2015年,伊隆·馬斯克將人工智能的發展比作「召喚惡魔」。這位特斯拉的創始人此前就發出警告,稱人工智能技術有朝一日會比核武器更加可怕。

不過,在接受英國廣播公司的採訪時,霍金教授指出人工智能技術也會有巨大的潛在好處,能幫助人類消除戰爭、疾病和貧窮。在最近接受拉里·金的採訪中,他表示人類最大的威脅其實是自己的軟弱。早在2010年接受拉里·金的採訪時,霍金就提出人類兩個最大的危險是貪婪和愚蠢,而在最近的這次採訪中,他表示一切並沒有太大改變。

「我們當然沒有變得少點貪婪或少點愚蠢,」霍金說,「六年前,我曾經警告過污染和人口過度擁擠。在那之後,情況變得更糟。以這種速率,2100年時人口將達到110億。空氣污染在過去五年變得更加嚴重。」說到人類面臨的最嚴重問題,霍金表示,是「空氣污染的增加……以及二氧化碳水平的上升。」

責任編輯: 於飛  來源:新浪科技 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2016/0712/768534.html