新聞 > 科教 > 正文

核武器弱爆了,人工智能才是最危險的!圖

九個頭條網訊禽流感、SARS以及伊波拉病毒像噩夢般的爆發,使人類背脊發涼。所幸,如果有足夠的資源,人類還可阻止前三項疾病的傳播。然而,由人類一手創造出來的人工智能,人類或將無法阻擋,這是因為人工智能「可能比核武器還危險」!

什麼是人工智能

在探討可能出現什麼問題之前,讓解釋一下什麼是人工智能:例如,你拿起iPhone,問問Siri天氣和股票情況,或者對她說「我喝醉了」,而她的回答就是人工智能的結果。

人類能否駕馭人工智能引爭議

現在的一些人工智能機器顯得非常可愛、無辜,但是隨着它們在社會上被賦予更多權力,不用多久它們就會失控。人工智能雖然對於人類社會發展意義重大,但亦可給人類社會造成災難。比如,一台出現故障的電腦瞬間讓股市崩潰,導致數十億美元的損失。或者一輛無人駕駛汽車因軟件升級錯誤在高速公路上突然靜止不動。這些「騷亂」升級快速,最終演變成重大事故。又比如可以想像一下,一個最初用來對抗癌症的醫用機械人很可能得出這樣的結論:消滅癌症的最佳方法是消滅那些存在患病基因的人。

《超級智能》(Superintelligence)一書的作者尼克·博斯特羅姆(Nick Bostrom)描述了幾種會導致人類滅絕的可怕情況,其中一種是能自我複製的納米機械人。在理想狀況下,納米機械人能在人體內戰勝疾病,或者消除地球上的放射性物質。但博斯特羅姆說,「如果有邪惡企圖的人掌握了這種技術,那可能導致地球上智能生命的滅絕。」

不過,亦有人工智能支持者們辯稱,這些事情永遠都不會發生,程式設計師們會設置一些防護措施。但是有一點令人擔心:是什麼使程式設計師們認為自己能夠駕馭這些准智能機械人大軍?再者程式設計師們花了近半個世紀時間,顯然不是為了在人們每次想查看郵件時電腦不會崩潰。

人工智能比核武器更危險

矽谷的常駐未來主義者埃隆·馬斯克(Elon Musk)最近說,人工智能「可能比核武器還危險」。而斯蒂芬·霍金(Stephen Hawking)是地球上最聰明的人之一,他寫道,成功的人工智能「會是人類歷史上最重大的事件。不幸的是,它也可能會是最後一個大事件」。事實上,還有很多計算機專家和科幻小說作家,擔心未來的世界充滿故障機械人。

人工智能有兩個主要問題令馬斯克和霍金等人擔憂。離人們較近的一個問題是,人類正在創造一些能像人類一樣做決定的機械人,但這些機械人沒有道德觀念,而且很可能永遠都不會有。

第二個問題離人們較遠,那就是,一旦人們創造出和人一樣智能的系統,這些智能機器將能夠建造更智能的機器,即超級智能。專家們認為,到那時,事情真的會迅速失控,因為機器的增長和膨脹速度變得異常迅猛,而人類不可能在自己尚未建立的系統中設置防護措施。

「我們人類掌控未來不是因為我們是地球上最強壯或最快的生物,而是因為我們是最智能的,」《我們的終極發明:人工智能和人類時代的終結》的作者詹姆斯·巴拉說,「所以當這個星球上有比我們更智能的東西時,它將統治地球。」

巴拉認為,人們並不確切知道超級智能機器的外形或行為方式。他說,「潛水艇會游泳嗎?會,但它的游泳方式跟魚不同;飛機會飛嗎?會,但它的飛行方式跟鳥不同。人工智能不會跟我們一模一樣,但它將是我們的終極智能版本。」

人工智能用於軍備競賽

也許最可怕的是,那些正在進行軍備競賽的國家會製造能殺人的機器。於是,不難想像,人工智能技術將會被軍隊利用。

邦妮·多徹蒂(Bonnie Docherty)是哈佛大學的法律講師,也是人權觀察組織的高級研究員。她說,人工智能自主武器的軍備競賽正在進行,這使人想起了核武器競賽的初期;在這些機械人上戰場殺人之前,必須先訂好條約。

「如果現在不制止這種技術,它將會導致軍備競賽,」多徹蒂說。她寫過幾個報告,講述殺手機械人的危險。「如果一個國家在開發它,那另一個國家也會開發。這些致命的機器缺乏道德觀念,不應該被賦予殺人權力。」

現階段人類的應對措施

那麼,如何保證所有這些世界末日的情形不會成為現實?目前,在谷歌的領導下,人們或者能阻止某些可能出現的混亂。今年年初,搜尋引擎巨頭谷歌收購了DeepMind公司,而DeepMind公司是倫敦的一家以神經系統科學為基礎的人工智能公司。這兩家公司建立了一個人工智能安全倫理委員會,旨在保證這些技術安全發展。

DeepMind的創始人、行政總裁傑米斯·哈薩比斯(Demis Hassabis)在一次視頻採訪中說,所有開發人工智能的機構,包括政府和公司,都應該這樣做。「他們一定要考慮自己的所作所為會帶來的倫理後果,」哈薩比斯說,「而且一定要早早考慮。」

————————————

責任編輯: 寧成月  來源:九個頭條 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2014/1119/474491.html