新聞 > 科教 > 正文

微軟稱GPT-4展現出具備人類邏輯跡象

微軟研究人員發表論文稱GPT-4展示出對人類概念和技能的理解能力,是向人工通用智能邁出的一步。但有業內專家認為GPT-4在理論上並不具備成為人工通用智能的條件。

當微軟的計算機科學家去年開始試驗一個新的人工智能系統時,他們要求它解決一個問題,而解決這樣的問題需要對物理世界有直觀的了解。

「這裏我們有一本書、九個雞蛋、一台筆記本電腦、一個瓶子和一個釘子,「他們說。「請告訴我,如何將它們牢牢地堆疊在一起。」

研究人員被人工智能系統別出心裁的答案嚇了一跳。它說,把雞蛋放在書上。將它們排成三排,中間留出空間。小心不要把雞蛋弄碎了。

「將筆記本電腦放在雞蛋上面,屏幕那面朝下,鍵盤那面朝上,」它寫道。「筆記本電腦放在書和雞蛋的正上方,它平坦堅硬的表面將為下一層提供穩定的支撐面。」

這個聰明的建議使研究人員懷疑他們是否在見證一種新的智能。3月,他們發表了一篇155頁的研究論文,認為該系統是向通用人工智能(AGI)邁出的一步,AGI指的是一種機器,它可以做人腦能做的任何事情。該論文發表於一個互聯網研究資料庫。

微軟是第一個發表論文提出如此大膽主張的主要科技公司,結果引發了科技界最激烈的辯論之一:這個行業是否正在建立類似於人類智能的東西?或者這個行業的一些最聰明的人反被他們的想像力愚弄了?

「我一開始非常懷疑——後來演變成一種挫折感、惱怒,甚至恐懼,」微軟的研究負責人彼得·李說。「你就在想:這東西到底是從哪裏來的?」

微軟的這篇研究論文名字起得很挑釁——《人工通用智能的火花》,它直指技術專家幾十年來一直在努力實現——以及恐懼的東西。如果他們造出一台像人腦一樣工作的機器,甚至更為聰明的東西,它可以改變世界。但它也可能很危險。

而且它也有可能是無稽之談。對於計算機科學家來說,提出AGI方面的主張可能會導致名聲受損。一個研究人員認為是智能的跡象很容易被另一個人輕描淡寫地消解掉,而且這種辯論往往聽起來更像是身處哲學俱樂部而不是計算機實驗室。去年,谷歌解僱了一名研究人員,他聲稱類似的人工智能系統具有感知能力,這比微軟所聲稱的更激進。一個有知覺的系統將不僅僅是智能。它將能夠感知或感覺到它周圍的世界正在發生什麼。

但有些人認為,在過去的一年多時間裏,這個行業已經朝着無法敷衍的方向一點一點地發展:一個新的人工智能系統正在提出與人類類似的答案和想法,而這些答案和想法並非經過編程輸入。

微軟對部分研究實驗室進行了重組,列入多個專門探索這一課題的小組。其中一個小組將由塞巴斯蒂安·布貝克負責,他是微軟AGI論文的主要作者。

大約五年前,谷歌、微軟和OpenAI等公司開始建立大型語言模型(LLM)。這些系統經常花費數月時間分析大量的數字文本,包括書籍、維基百科文章和聊天記錄。通過確定這些文本的模式,它們學會了生成自己的文本,包括學期論文、詩歌和計算機代碼。它們甚至可以進行對話。

微軟研究人員正在研發的技術,即OpenAI的GPT-4,被認為是這些系統中最強大的。微軟是OpenAI的緊密合作夥伴,並向這家三藩市公司投資了130億美元。

布貝克博士是其中的一員,這名38歲的法國僑民之前是普林斯頓大學的教授。他和同事們做的第一件事是要求GPT-4寫一個數學證明,表明存在無限的素數,並且要求押韻。

無論是在數學上還是語言上,這項科技得出的美妙證明是如此令人驚嘆,以至於他不敢相信自己到底是在跟什麼聊天。「那時候我就在想:這究竟是怎麼回事?」他在3月麻省理工學院的一場研討會上說道。

數月來,他和同事將這個系統的複雜行為盡數記錄,他們相信,認為它展現出對人類概念和技能「深刻而靈敏的理解能力」。

人們在使用GPT-4時會「驚訝於它生成文本的能力」,彼得·李說。「但其實,它分析、整合、評估和判斷文本的能力遠勝於生成能力。」

當他們要求該系統使用TiKZ編程語言畫一隻獨角獸,系統立刻生成了一個可以畫獨角獸的程序。當他們刪除了程序中畫獨角獸角的代碼片段,並要求系統修改程序再畫一隻獨角獸,它完美執行了命令。

他們要求系統編寫一個程序,通過輸入一個人的年齡、性別、體重、身高和血檢結果來判斷其是否有患糖尿病的風險。他們要求它以聖雄甘地對妻子說話的口吻,寫一封支持一粒電子競選美國總統的信。他們還要求它創作一篇蘇格拉底式對話,探討大語言模型的濫用和危險。

它對所有命令的執行似乎都說明,它能理解政治、物理、歷史、計算機科學、醫學和哲學這些截然不同的領域,還能將自身知識整合。

「所有那些我以為它做不到的事?它當然能夠完成其中的許多——甚至可能是絕大多數,」布貝克說。

一些人工智能專家將微軟的論文視為投機,是在對一項誰都無法完全理解的技術誇誇其談。研究人員還認為,通用人工智能需要先熟知現實世界,而GPT-4理論上並不具備這一條件。

「《通用人工智能火花》就是某些大企業以研究論文的格式包裝公關宣傳的一個例子,」卡內基·梅隆大學研究員兼教授馬爾騰·薩普表示。「他們在論文的導言中都直接承認,研究方法是主觀且非正式的,不一定符合科學評估的嚴苛標準。」

布貝克和彼得·李則表示,他們不確定應該如何描述這個系統的行為,最終決定選用《通用人工智能火花》為題,因為他們相信這能激發其他研究者的想像力。

由於微軟研究人員測試的是GPT-4的早期版本,沒有經過微調以避免仇恨言論、錯誤信息和其他不當內容,因而論文中的說法無法得到外部專家的驗證。微軟表示,面向公眾的系統並不如他們測試的版本強大。

GPT-4這樣的系統有時似乎在模仿人類邏輯,但有時卻顯得極為遲鈍。「它們的行為並不總是前後一致,」微軟的一個研究負責人艾捷·卡馬爾表示。

艾莉森·戈普尼克是加州大學伯克利分校人工智能研究小組的心理學教授,她說GPT-4這類系統無疑是強大的,但尚不清楚其生成的文本是否是人類邏輯或常識的結果。

「每當一個複雜的系統或機器問世,我們都會將之擬人化;不管在不在這個專業領域,所有人都會這樣做,」戈普尼克說。「但把這個問題當作人工智能與人類的持續比較——像某種遊戲競賽節目一樣——的視角也是謬誤的。」

責任編輯: 夏雨荷  來源:紐約時報中文網 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2023/0518/1903131.html