新聞 > 科教 > 正文

人類滅絕 全球冷卻…世界最聰明25個人預測未來

過去5年來,

人工智能在全球範圍內爆髮式發展,

根據麥肯錫全球研究院的預測,

AI帶來的社會革命,

將比工業革命的速度快10倍,

規模大300倍,

影響幾乎大3000倍。

斯坦福2019年度全球AI指數報告》指出,

從2012年開始,

AI算力的提升速度已超過摩爾定律的預測,

平均每3.4個月翻一番。

人工智能何時將超過人類?

人類會被AI取代嗎?

智人僅僅是新一輪進化的起點嗎?

誰會因為AI失業,誰又會長生不老

數百萬「超人類」已經存在於我們身邊?

……

最近出版的《AI的25種可能》一書,

集合了全世界最聰明的25顆大腦

他們中有物理學家、生物學家、

計算機專家、哲學家、心理學家、藝術家,

諾貝爾獎獲得者,

也有人工智能的理論和技術奠基人。

他們預測了AI發展的種種前景,

也警示了AI給人類帶來的種種挑戰:

「進步未必一定給我們帶來美好的未來,

危險不在於機器變得像人類,

而是人類變得像機器。」

編輯石鳴

E

dge的創始人約翰·布羅克曼和他的妻子攝影:Ogata

Edge號稱全世界最聰明的網站。這個網站集合了進化生物學、遺傳學、計算機科學、神經學、心理學、宇宙學和物理學等諸多學科最前沿、最頂尖的研究者,每年選出一個「年度問題」討論,堅持了20年。

2016年,Edge提出的年度問題是「可能的心智」。討論從美國康涅狄格州華盛頓的五月花格瑞斯酒店的一次圓桌會議開始,之後又有多次研討會。Edge網站創始人約翰·布羅克曼向參加者約稿,最終收到25篇文章,彙集成我們今天看到的這本書。

《AI的25種可能》一書的撰稿者們

「我們人類作為一個物種,真的有能力控制具有完全意識、不受監管、能自我完善的人工智能嗎?」布羅克曼問道。

我們曾經把大腦比作計算機,互聯網誕生後,我們才發現,大腦不是一台計算機,而是一個計算機網絡。基於對人類神經網絡的模擬,過去十年,人工智能變得越來越「接近」人類,如果有一天,人工智能比我們更「優秀」,我們該怎麼辦?還是說,那一天其實已經到來?

實際上,最近幾年我們一直聽到AI替代人類的消息。2017年,李開復在《奇葩大會》上預測未來十年50%的工作將被人工智能取代。重複性的工作,如客服、收銀員等等,已經開始全方位淪陷。創造性的工作也頻頻傳來噩耗:

2015年,美聯社使用機械人寫作,年報道量超過15億條,領域涉及金融、房地產、體育等。

2016年里約奧運會,今日頭條新聞機械人13天內撰寫了457篇報道,每天30篇以上,發稿速度幾乎與電視直播同時。

2017年8月9日,四川九寨溝發生7.0級地震,機械人25秒出稿,共540字並配發4張圖片。

2018年,第一部AI撰寫的長篇小說《路》(The Road)誕生並推向市場。此前,AI已經可以寫短篇小說,詩歌和劇本。

2019年,虛擬偶像洛天依在演唱會上與郎朗同台

同年,第一張人機合作創作的流行音樂專輯《Songularity》誕生,此前已經有AI創作的單曲,AI創作的音樂變得越來越多。

商用客機巨頭空中客車公司使用人工智能而非人類設計師來設計飛機,製藥巨頭葛蘭素等公司使用人工智能來進行藥物研發,完成得比人類研究員更好。

2019年,AI已經可以拍電影,是一部黑白科幻短片《走神》(Zone Out)。劇本、導演、表演、配樂等一整套製作程序,大部分都由人工智能完成,做出來只花了兩天。

《走神》劇照

在斯坦福發佈的《2019年度AI指數報告》中,有一個「人類級表現里程碑」(Human-LevelPerformance Milestones)的清單。今年,AI又完成了兩項新的里程碑:在《星際爭霸2》中擊敗頂級人類專業玩家,以專家級的準確性檢測糖尿病視網膜病變。

科學家們曾經自信地宣稱,我們不用擔心機器的深度學習能力的威脅,雖然AI已經有了長足的發展,但是機械人「還是不會系鞋帶」。

然而,根據知名創投機構CB Insights2019年的報告,牛津大學和耶魯大學的研究人員認為到2022年(對,就是兩年後),AI會比人類疊衣服疊得更好。

「在過去10萬年里,整個世界一直處於人腦管理之中。一旦我們擁有超人類的人工智能,人類大腦的管理時代就將結束。環顧四周,你見證了千百年來人類大腦管理世界的最後幾十年。」物理學家揚·塔里安在這本書中寫道。

《西部世界》劇照

美劇《西部世界》還在討論,人應該把機械人當人。然而,加州大學伯克利分校人工智能研究實驗室的創立者安卡·德拉甘提出,我們現在面臨的最迫切的問題是要讓機械人把人當「人」,而且一開始就要這樣做,「而不是事後再考慮這件事」。

人類會被自己創造的產物——人工智能反噬嗎?本書中,不止一位專家提到關鍵的一點:一定要讓人工智能的目標和價值體系,與人類保持一致。

在物理定律中,沒有事先設定的意義,但是為了使人類的未來走向美好而不是黑暗,我們應該給自己賦予意義。

下面,我們從書中精選了10個人的預測,聽聽他們都說了些什麼:

弗蘭克·維爾切克,2004年諾貝爾物理學獎得主

今天的人類,也許只是未來更強大的智能生物的一個進化起點。

人工智能會有意識嗎?人工智能會有創造力嗎?人工智能會是邪惡的嗎?

基於生理心理學、神經生物學和物理學,答案如果不是「是」、「是」和「是」,那將是非常令人驚訝的。

原因很簡單,但也很深刻:根據這些領域的證據,自然智能和人工智能之間,極有可能沒有明顯的鴻溝。

甚至我們可以推論出,自然智能不過是人工智能的一個特例。

人類大腦目前和人工智能相比具有的優勢:三維、自我修復、神經元的連接能力、腦細胞的交互式發育、感覺器官的集成。

三維、自我修復這兩項能力,對於AI來說並不難,現在已經有了明確的前進道路。感覺器官的集成方面,人類的感知能力——視覺、聽覺、觸覺等——遠沒有達到任何物理極限,在這方面,機械人可以移動更快、身體更強。

所以人類剩下的最核心的優勢是連接性和交互式發育。當今的工程技術和神經元及其突觸的力量和多樣性相比,可以說是差遠了。這可能成為一個新的、偉大的研究前沿。

人工智能勝過自然智能的優勢是永久的,而自然智能擁有的優勢似乎只是暫時的。進化的先鋒將是機械人和超級頭腦,而不是微不足道的智人。

未來的人類,回頭看今天的我們,可能會覺得我們是他們「精神的始祖鳥」。始祖鳥是一種高貴的動物,它能進化成更高級的生物。

邁克斯·泰格馬可:麻省理工學院未來生命研究所所長

參觀完倫敦科學博物館,他在地鐵站流下了眼淚:所有這些人類取得的令人印象深刻的科技進步,難道都將歸於一場空嗎?

從物理學家的角度來看,沒有任何物理定律表明人類不能製造出在任何方面都比我們具有更高級智能的機器。

根據最近的一項調查,一半以上的人工智能專家認為AI有90%的可能性在2075年達到總體人類能力。在達到人類能力之後,它將在2年(10%的專家認為)到30年(75%的專家認為)內實現超級智能。

我們的宇宙誕生138億年後,開始有了自我意識。從數十億年的宇宙角度來看,究竟30年還是300年後實現通用人工智能幾乎沒什麼區別,所以讓我們把重點放在含義上,而不是時間上。

我們必須自問:我們希望創造什麼樣的社會?我們生活的意義和目的在哪裡?對於這個問題,我經常會得到以下巧妙的回答:「讓我們創造出比我們更聰明的機器,然後讓他們找到答案!」

這種回答錯誤地把智力與道德等同起來。智力沒有善惡之分,它只是一種完成複雜目標的能力,無論這個目標是好的還是壞的。我們不能斷定如果希特拉更聰明的話,情況就會更好一些。

事實上,如果我們先把比人類更聰明的機器製造出來,再考慮它們的道德問題,這是不負責任的,也是災難性的。為修建大壩,進行水力發電,需要淹沒蟻丘,人類不會對螞蟻的命運反覆三思,所以我們在發展人工智能時,不要把人類置於螞蟻的位置。

如果我們的技術超越了我們管理技術的智慧,那麼這樣的技術可能導致人類滅絕。據估計,地球上20%至50%的物種滅絕便是源於此。如果我們人類是下一個因此滅絕的物種,那可是夠諷刺的。

喬治·丘奇:哈佛大學教授,人類基因最早的編輯者之一

未來什麼樣的人可以算作「人」?機械人如果有意識,是不是也應該有權利?

1978年,世界首例試管嬰兒路易斯·布朗誕生之前,許多人擔心她「可能是個小怪物,在某些方面,可能是畸形」。但今天關於體外受精,很少有人有這種擔心。

全世界有超過2300項經批准的基因治療臨床試驗正在進行中。通常需要幾個月時間才能發生的過程,現在在實驗室通過使用正確的轉錄因子配方在4天內就能發生。

我們能創造出這樣的大腦,它具有越來越高的保真度,人工大腦器官超過了以前的亞微升限制,可能超過現在的1.2升現代人腦,甚至超過大象的5升大腦或抹香鯨的8升大腦。

我們認為永遠不會跨越的警戒線現在似乎離我們越來越近,也越來越瘋狂。人類與機器之間的界限變得模糊,機器變得更像人類,人類也變得更像機器。我們越來越盲目地遵循GPS腳本、反射式推特和精心設計的營銷。

在遺傳學領域,警戒線使我們禁止或避免使用轉基因食品,但我們卻可以接受改造了基因的細菌來製造胰島素,或者接受轉基因人類——歐洲已批准將線粒體療法用於成人和胚胎。

地球上已經有超人類了嗎?如果我們把「超人類」定義為我們對他們的技術和文化不能理解的那些人,那麼肯定有數百萬人已經是超人類。而且我們大多數人還盼望着有更多人是超人類。

「什麼是人類」的問題,其實已經轉化為「各種超人類是什麼?他們的權利是什麼?」的問題。

未來已來,只是分佈不均。

揚·塔里安:Skype的開發者,最早的電腦遊戲的開發者之一

人工智能是所有風險中最極端的,事關人類的生死存亡。

2009年3月,在熱鬧的加利福尼亞高速公路旁的一家連鎖餐館,我要在那裡見一個年輕人,我一直在關注他的博客。為了讓自己方便被認出來,他戴着一枚紐扣,上面寫着:即使你的聲音顫抖,也要說出真相。

我從他的博客接觸到了一個革命性的信息:人工智能的持續發展會造成宇宙規模的變化,這個失控的過程可能會殺死每一個人。

人工智能有風險,這一點還沒有成為常識。人工智能研究者們還沒有充分認識到這個風險的嚴重性。

目前關於人工智能風險的爭論,主要集中在技術性失業或者對機器學習的偏見上。雖然這樣的討論是有價值的,也能解決迫在眉睫的短期問題,但是,「詢問機器超級智能對傳統勞動力市場的影響,就像詢問月球撞擊地球會對美中貿易模式有什麼影響。確實會有影響,但你沒有抓住要點。」

一個嚴酷的現實是:宇宙不是為我們而生的例如,我們需要地面上的大氣大致保持在室溫,維持大約100千帕的壓力,並有足夠的氧氣濃度。這種不穩定的平衡出現任何紊亂,哪怕只是暫時的,我們都會在幾分鐘內死去。

基於硅的智能並沒有這種對環境的擔憂。而地球目前的環境,對於AI最關心的高效計算來說,幾乎肯定不是最佳選擇。我們可能會發現我們的星球突然從人為的全球變暖轉為機械化的全球冷卻。

人工智能安全研究需要解決的一個重大挑戰,是如何使未來的超級智能AI——一種比我們人類的碳足跡大得多的人工智能,不要把我們的環境變得不適合生物生存。

丹尼爾·丹尼特:人工智能領域最優秀的哲學家

他曾經建立了一個人類意識模型,這個模型使得計算機也可以發展出人類意識。

大多數哺乳動物都能合成自己的維生素C,但是靈長類動物自從選擇以水果為主的飲食後,便失去了這種先天的能力。

現在我們必須從外界攝取維生素C。除此之外,我們人類現在還依賴於衣服、熟食、維生素、疫苗、信用卡、智能手機和互聯網,以及人工智能。

事情的不確定性就源於此。當出現極具吸引力的機會時,我們往往願意花一點錢,為獲得新的能力接受一些小的、甚至是微不足道的代價。很快地,我們對新工具如此依賴,沒有它們我們便無法發展。原本只是選項,現在卻成了必需品。

我們不需要有意識的人工主體。有自然意識的人類的數量已經太多了,我們需要的是智能工具。

這些工具沒有權利,也沒有會被傷害的感情,亦不會憤憤不滿於笨拙的用戶對它們的「虐待」。

不讓人工主體有意識的原因之一是,不管它們變得多麼有自主性,如果沒有特殊規定的話,它們不會像我們這些有自然意識的人類一樣,有弱點,會死亡。

數字記錄和傳輸是一種重大突破,使得軟件和數據實際上可以永遠存在,依靠它,機械人獲得了永生。如果這還不明顯,那麼想想假入我們每周都能製造一些「備份」人,人類的道德會受到怎樣的影響。

我們不應該努力創造強大的人工智能,而應該極其謹慎地對待我們能夠創造和已經創造的人工智能系統。

塞思·勞埃德:量子計算機之父

如果摩爾定律的增長可以持續,那麼只需600年時間,就能把整個宇宙變成一個巨大的量子計算機。

最近,我問現代神經科學先驅托馬索·波焦,是否擔心隨着計算機處理能力的快速提高,計算機將很快趕上人腦,「絕不可能,」他回答。

1950年以來,幾乎每隔兩年,計算機的性能便會提升一倍,這種現象便是「摩爾定律」。

然而,沒有任何一種指數式增長能夠一直持續下去,摩爾定律的指數式增長近來開始進入基礎物理所設定的極限之中。最終,摩爾定律驅動的各種存儲器和處理器的指數式增長都將停止。

很多人擔心,深度學習和算法的發展,會讓人工智能的能力超過人類大腦。但機器學習的真實情況恰恰相反:當它們的學習能力變得越來越強時,它們的學習方式會變得越來越像人類。

許多事例表明,機器的學習是在人類和機器老師的監管下進行的。對計算機進行教育就像對青少年進行教育一樣困難、緩慢。

它們帶來的學習技能不是「優於」而是「補充」人類學習:計算機學習系統可以識別人類無法識別的模式,反之亦然。

世界上最好的國際象棋棋手既不是計算機,也不是人類,而是與計算機合作的人。

朱迪亞·珀爾:UCLA認知系統實驗室主任

1980年代他發明了貝葉斯網絡,這是當今AI能夠進行深度學習的基礎,AlphaGo正是憑藉深度學習能力,打敗了圍棋世界冠軍李世石

深度學習有自己的動力學機制,一旦你餵給它大量的數據,它就活躍起來,還能自我修復,找出最優化組合,絕大多數時候都會給出正確的結果。可一旦結果錯了,你不會知道哪裡出了問題。

有些人認為,我們為什麼不利用深度學習系統,建造一種不用了解它們工作原理的智能呢?不透明的系統也能做出色的工作,我們的大腦就是這樣的奇蹟。

但這種觀點有其局限性。我們可以原諒自己不了解人類大腦的運作原理,因為我們都是人,無須這種了解我們也可以與他人交流。但如果我們的機械人都像AlphaGo一樣不透明,我們便無法與它們進行有意義的交流。

尤瓦爾·赫拉利(《人類簡史》作者——編者注)等研究「智人」的歷史學家們一致認為,人類祖先4萬年前能統治地球的決定性因素是:他們擁有一種將客觀外在事物進行內化的能力,他們能反覆回味這種內化的結果,用想像力扭曲它,最終能夠回答「如果……會怎樣?」

比如他們會問一些介入性的問題:「如果我這樣做了,會怎樣?」還會問一些回顧性或反事實的問題:「如果我沒那樣做,會怎樣?」

今天沒有一台學習機器能回答得了這樣的問題。而且,大多數學習機器也不具有這種內化的心理能力,去提出這樣的問題。

如果AI的因果模型始終是黑匣子狀態,那麼我的結論是,不可能從中誕生出堪與人類媲美的人工智能。

文卡·拉馬克里希南:2009年諾貝爾化學獎獲得者,英國皇家學會現任主席

我思故我在。我們恐懼人工智能,是因為我們相信正是智能才使得我們與眾不同。

到目前為止,我一直關注人工智能帶來的實用後果。作為一名科學家,困擾我的是我們可能會失去理解力。

在我自己的實驗室里,一個實驗每天產生超過1T位元組的數據,我們對這些數據進行處理、分析和簡化。我們知道程序在做什麼,因為程序算法的核心是我們設計的。因此,當計算機產生結果時,我們感覺是我們在智力上掌握了它。

新的機器學習程序是完全不同的。通過深層神經網絡識別出模式後,它們會得出結論,而我們完全不知道這是怎麼回事。如果有人問我們如何知道某事,我們只會說,因為機器分析了數據,機器得出了結論。

有一天,計算機很可能會得到一個全新結果,例如得到一個數學定理,關於這個數學定理的論證,甚至對它的描述,都沒有人能理解。我覺得這種理解能力的潛在缺失令人不安。

許多進化論科學家都指出,人腦是幾十億年進化的結果。人類智能並不是像我們認為的那樣是人類所有的特殊特徵,它只是另一種生存機制。世界上已經有好幾個國家已經啟動了神經科學的登月計劃,看看我們是否可以破解大腦的運作。

如果我們後退一步,看看地球上的生命,就會發現我們遠不是最具彈性的物種。如果在某個時候我們人類會被取代,那取代我們的將是地球上最古老的生命形式,比如細菌,它們可以生活在任何地方,從南極洲到深海熱液噴口,或者生活在酸性環境中,在這樣的環境里你和我都會被融化。

我不知道人工智能會帶來怎樣的未來,但無論是哪種未來,我都可以相當肯定地說,計算機永遠不會是細菌的霸主。

喬治·戴森:科技史學家

他沒有完成高中學業,但卻被授予維多利亞大學榮譽博士學位。

關於人工智能,我們有三條定律。第一定律是阿什比定律,該定律認為任何有效的控制系統必須與它控制的系統一樣複雜。

第二定律由馮·諾依曼提出。該定律指出,一個複雜系統的定義特徵一定包含對其行為的最簡單描述。生物體最簡單的完整模型是生物體本身。

第三定律指出,任何一個簡單到可以理解的系統都不會複雜到可以智能化行事,而任何一個複雜到足以智能化行事的系統,都會太過於複雜而無法理解。

第三定律安慰了我們,在理解智能之前,我們不用擔心機器會產生超人類的智能。但第三定律存在漏洞。我們完全有可能在不理解時構建某個東西。

「好的」人工智能是個神話。我們與真正的人工智能之間的關係將永遠是一個信仰問題,而不是證據問題。

對那些相信他們能製造機器來控制一切的人,大自然對此的反應將是允許他們建造一台機器,來控制他們自己。

斯蒂芬·沃爾弗拉姆:「神童」、科學家、發明家

他發明了人類和AI溝通的第一種真正的語言——Wolfram語言。

與機器交流和與人類交流有何不同?在大多數人與人的交流中,我們堅持使用純語言,而在計算機與人的交流中,大多數人想要的是視覺顯示,顯示這個或那個的信息圖。這是一種非人類的交流方式,比傳統的口頭交流或打字交流更豐富。

500年前的人類需要解決的大問題是識字。今天,是某種編程。我們正處在這樣一個時刻,任何人都可以學會基於知識的編程。現在編程的實際機制很簡單,大批程序員所做的許多事情平淡無奇,困難的是學會以計算的方式去思考和想像。

我感興趣的一個問題是,當大多數人都能編寫代碼時,這個世界會變成什麼樣?

很明顯,很多瑣碎的事情都會發生改變:合同用代碼起草,餐廳菜譜用代碼書寫,等等。編碼是一種表達方式,就像用自然語言寫作是一種表達方式一樣。

自然語言給我們帶來了文明,那基於知識的編程會給我們帶來什麼呢?一個糟糕的答案是,它會給我們帶來人工智能的文明。

這是我們不希望發生的事情,因為人工智能會彼此溝通得極為順暢,這樣我們就將被排除在外,因為沒有中間語言,沒有與我們大腦的連接口。在人工智能彼此溝通的這個層次上,知識交流會帶來什麼?如果你是穴居人,如果你剛剛意識到有了語言,你能想像得出文明的出現嗎?我們現在應該想像什麼?

以高中教育為例。如果我們有了計算思維,這會如何影響我們學習歷史學?答案是,影響極大。

通常來說,學生無法輕易地創造出新知識。但如果學生對編寫代碼有所了解,他們就可以訪問所有數字化的歷史數據,從而找出新東西。基於知識的編程,自己可以不斷繁衍。

這是哥白尼故事的另一部分:我們曾經認為地球是宇宙的中心。現在我們認為我們很特別,因為我們有智慧,而其他的東西卻沒有智慧。恐怕壞消息就是這不是什麼特別之處。

我們今天的許多目標都是由某種稀缺造成的。世界上資源稀缺,人們想得到更多的東西。在我們的生命中,時間本身就是稀缺品。

然而,最終這些稀缺都將不復存在。長生不老總有一天會實現,不論是在生物學上還是在數碼上。那麼,我們今天的動機都不再存在之後,未來人類的後代最終會選擇做什麼?一個可能的壞結果就是他們總是玩電子遊戲。

假設有一天我們能很輕易將人類意識以數字形式上傳,將其虛擬化,那麼我們很快就有了裝着一萬億個靈魂的盒子。在這個盒子里,分子計算將一直繼續進行。每個靈魂本質上都在玩一個電子遊戲。

你可以想像,這就是我們未來文明的終點。

責任編輯: 夏雨荷   來源:一條 轉載請註明作者、出處並保持完整。

科教熱門

相關新聞

➕ 更多同類相關新聞