新聞 > 科教 > 正文

霍金曾經的預言:失控的人工智能很難被阻止住

著名天體物理學家史蒂芬·霍金認為,人工智能應該在符合倫理道德和安全措施要求的情況下開發,因為脫離人類控制之下的機器很難被阻止住。 在RT美國台(RT America)播出的節目中美國知名記者拉里·金對霍金進行了採訪。霍金在採訪中承認,他不認為發展人工智能一定能讓人類朝好的方向發展。

著名天體物理學家史蒂芬·霍金認為,人工智能應該在符合倫理道德和安全措施要求的情況下開發,因為脫離人類控制之下的機器很難被阻止住。

在RT美國台(RT America)播出的節目中美國知名記者拉里·金對霍金進行了採訪。霍金在採訪中承認,他不認為發展人工智能一定能讓人類朝好的方向發展。

霍金表示:「當機器發展到能自己演化的重要階段之時,它們的目標與人類願望之間的相符程度就很難預料了。」

他指出,人工智能可以比人類的智慧發展得更快。

他說:「有益的人工智能可以與人類共存,並擴大人類的可能性。但失控的人工智能很難被阻止。在開發人工智能時必須保證符合道德倫理與安全措施的要求。」

他認為,有益的人工智能將出現在人類生活的各方面。

霍金說:「想像一下那些可以對科學家想法迅速作出評價、更早地查出癌症、並預測證券市場走勢的人工智能!它們將影響到我們的經濟,影響到我們的決策,並在整體上影響我們的生活。」

霍金認為,脆弱的地球無法支撐人類再生活1000年,地球上的生命面臨被災難抹殺的危險與日俱增,比如核戰、基因工程病毒或人工智能崛起等,人類必須儘快逃離。

我們必須繼續進入太空

在一次演講中,霍金花了一個小時講述了有關人類對宇宙起源理解的進程,從原始的人類創造神話到依據「M理論」做出的最新預言。他說:「也許有一天,我們將能夠利用引力波回望大爆炸的核心。」

霍金指出:「宇宙學一直在不斷取得進展,但為了人類的未來,我們必須繼續進入太空。」霍金曾表示,他打算乘坐維珍集團老闆理查德·布蘭森的太空飛船進入太空。他繼續說:「因此,我希望鼓勵公眾對太空感興趣,在這方面我很早就獲得了培訓。」

此前在《如何製造太空船》一書中,霍金曾在其後記中警告稱,由於面臨着戰爭和疾病威脅,地球正變成越來越危險的地方。霍金闡述了他的未來太空旅行觀點。他說:「我認為地球上的生命面臨被災難抹殺的危險越來越高,這些危險包括突然爆發的核戰、基因工程病毒以及其他因素。如果不進入太空,我認為人類將不再擁有未來。」

霍金向參加其演講的學生們呼籲:「記住要仰望星空,而不要只關注你的腳下!試着了解你所看到的,並思考宇宙存在的意義。你們要保持好奇心,但是生活中似乎總有些事情是你們能做到並取得成功的,最重要的是永遠不要放棄!」

在他以「宇宙起源」為主題的演講中,他表示他目前正在努力去證明宇宙起源同樣遵守物理學規律,同時符合現代物理學家稱為M理論的內涵。

M理論包含了愛因斯坦的廣義相對論,該理論將空間和時間相結合,憑藉這些愛因斯坦預測黑洞的存在以及量子理論,它預言了亞原子粒子,設在日內瓦的歐洲核子研究中心的大型強子對撞機正對其進行測試。霍金稱:「這是唯一具有我們認為終極理論應該具有的全部屬性的統一理論。」

霍金是有名的「外星殖民」理論的支持者。霍金十分確信在地球之外的其他世界存在着智慧生命,但他警告人類應當想盡一切辦法避免與這些外星生命接觸。

霍金表示:「我們只需要看看自己,就能知道這些外星生命會如何變得讓我們寧願沒碰見過他們。如果外星人來拜訪人類,我想其結果會變得與哥倫布到達新大陸時非常相似,那對美洲土著可並不有利。」

責任編輯: 方尋  來源:孫立平社會觀察 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2023/0410/1887552.html