新聞 > 科教 > 正文

4年虧損250億,打敗柯潔的「神話」終於盈利

因此,當他們公佈自己的人工智能模型AlphaFold通過蛋白質數據庫的數據訓練,已經預測出蛋白質3D形狀時,這個系統不僅被紐約時報福布斯等雜誌稱為「一流的科學成就」,還被看作是「一個歷史性的時刻」。

圖片來自福布斯

當然,雖然行業人士認為有朝一日 Deepmind科學家有可能獲得諾貝爾獎。但就像大部分諾貝爾獎獲得者一樣,這只是一種開創性的「基本見解」。

而將基本見解轉化為現實世界中創造商業與社會價值的產品,還需要幾十年的時間。

因此,短期來看,我們有權利向Deepmind提出質疑:是否思考過3~5年內有效的商業化路徑?谷歌是如何看待它持續的研究貢獻和與之不匹配的商業貢獻?

實際上,早在2017年Deepmind CEO哈薩比斯帶領技術團隊來到中國烏鎮對戰中國圍棋國手們時,我們有幸在現場親眼見證了歷史。而谷歌當時,就曾明確提及了關於強化深度學習的兩個技術應用方向——

一個是遊戲設計;而另一個,則是醫療領域的特定疾病預測與篩檢。

Deepmind創始人兼CEO,現年45歲的哈薩比斯

但由於當時大眾未受到技術啟蒙,人工智能本身還在散發着巨大的輿論威力。因此,那時極少有人會關注它們發表的一系列關於強化與深度學習的論文,究竟能夠給企業帶來什麼不菲的收入。

而實際上,這項技術其實僅能應用於非常狹窄的特定環境。

Wired曾披露,Deepmind開發的參與《星際爭霸》遊戲的AI選手,能力非常有限。如果說在一張地圖上啟用某單一角色,它的效果可能會比人類好。但在不同地圖上啟用不同角色,效果就會差很多。

如果要切換角色,你需要從頭訓練系統。

「在某種程度上,深度強化學習有點像是『死記硬背』記憶法,使用它的系統能產生很棒的結果,但他們對自己正在做的事情只有一個膚淺理解。

因此,體系缺乏靈活性,無法在世界發生變化時進行補償,有時甚至是微小變化都無法應對。」

而這樣的結果,也同樣阻礙了他們的醫療實際應用進程。

在2019年8月,Deepmind曾經在《自然》雜誌上發表了一篇論文,聲稱自己在疾病預測方面取得重大突破——人工智能能夠在急性腎損傷(AKI)發生兩天前做出預測。

但實際情況是,它沒有任何實操性預測。

公司只是獲得了一個相關的病人數據集,使用神經網絡找出了AKI與病人之間的模式。此外,這種預測模式只在某些時候起作用,總體準確率為55.8%,預測越早,準確率越低。

更重要的一點是,這項研究幾乎完全針對男性,更確切地說,是一組90%以上為男性的退伍軍人數據。這對於具有數據偏見和歧視性的人工智能來說,很明顯存在極大漏洞。

當然,由於醫療數據必然會涉及到病人私隱,從2016年開始,DeepMind就被捲入了一場關於合法數據應用的「社會與機構審判」中。2017年,英國的數據監管機構曾裁定,DeepMind在幾個主要方面侵犯了病人的權利。

以上便是Deepmind在醫療健康領域奮戰至少5年,但商業化收效甚微的關鍵原因。當然,運行極其隱蔽、規整且很有自己一套作風的英國國家醫療體系,也是技術公司難以撼動的客觀因素之一。

總的來說,2016~2017年大部分人工智能公司之所以最喜歡用遊戲來搞噱頭,是因為遊戲有嚴格邊界設定的特質;

而現實世界中,卻少有存在明確邊界的問題。

谷歌保持沉默,但行動告訴了我們結果

站在市值萬億,每年收入高達千億美金的谷歌角度,每年撥出5億美元並不是一個巨大的賭注。但是,如果通往商業生存能力的道路比預期時間更長,超過5年風險仍有攀升趨勢,那麼,就不可能有任何一家企業會冒這樣的風險。

譬如,於今年1月正式被谷歌關停的互聯網氣球項目Google Loon,曾在2011年成立時發出「讓全球最貧窮偏遠的最後10億人用上互聯網」的壯志豪言。然而,他們在2016年時就已被大幅削減開支,最終沒能挺過疫情肆虐,收入來源歸零的2020年。

對了,2017年Loon項目組穿着卡通鯊魚拖鞋的谷歌工程師們,也曾表示機器學習幫了他們一個大忙——系統可以根據風向來操控氣球移動的角度,讓它們能夠在某一地區小範圍盤旋。

Loon實驗室的工程師

Loon並不是特別的,谷歌每年虧損幾十億美元的登月業務Other bets,每年都會有很多創新項目或無疾而終,或被CFO和投資者殺人般的眼神不斷「凌遲」。

而近幾年來,人工智能給谷歌帶來的技術聲譽,逐漸被前者涉及到的數據私隱、道德倫理問題所掩埋。

特別是在谷歌去年開除人工智能倫理研究員後,大眾對谷歌這家商業組織的質疑和道德批判,達到了歷史的最巔峰狀態。

而相比之下,Deepmind今年從「發佈蛋白質3D形狀預測算法平台」再到「不惜一切代價改寫財報收入數字」,像是在試圖說服谷歌和投資者的同時,想重新燃起過去幾年世人被逐漸澆滅的對人工智能的熱情。

圖片來自華爾街日報

值得注意的是,華爾街日報曾在今年5月爆料,Deepmind多年來一直在與母公司Alphabet談判,希望獲得更多自主權,特別是重新建立一套「非盈利組織使用的法律架構」,而原因就在於,他們認為自己做的人工智能研究不應由單一企業實體控制。

這一說法並非沒有緣由。

譬如,2020年在美國Darpa(國防高級研究計劃局)的一次演示中,一架AI控制的F16戰鬥機輕鬆擊敗了一名人類飛行員。而這家軍用技術公司採用的強化學習算法靈感,便來自於Deepmind。

而在2020年12月,美國空軍利用人工智能程序控制了一架 U-2間諜飛機上的雷達系統,靈感也來自於DeepMind。這一算法通過數千次模擬任務學會了如何引導雷達,以便識別地面上的敵方導彈系統,這在實際任務中對防禦至關重要。

因此,我們不難發現,這家早在2015年便發表公開聲明,敦促世界各國政府禁止研發致命性人工智能武器的公司,其實陷入了一種兩難的境地——

堅持基礎研究和無歧視、道德感更強的崇高願望,與「不得不尋找商業化路徑,靠Alphabet續命才得以繼續研究工作」之間的矛盾。

但Deepmind最終在「爭取更多獨立權」的談判中失敗了。哈薩比斯親自將這個結果在今年4月告訴了員工們。

而外媒對此結果並不驚訝,甚至觀點大體一致:「Alphabet如何會放棄一個輸血超過數十億美元,並且將全球最聰明的人掌握在自己手裏的機會呢?」

我還記得,2017年,在烏鎮AlphaGo的結束致辭上,氣氛其實有點壓抑。哈薩比斯說了很少的話,他一直用一種很慈祥的目光望着流淚的柯潔,並擁抱了他。但對於人工智能的能力邊界,目光卻溫和而堅定:

「我也不清楚人工智能會走向何方,但它的強大會超乎想像。人類科學家不可能在所有數據中正確導航並找到洞察力。我們需要機器學習和人工智能幫我們在這些領域找到突破。

但所有的技術本質上都是中性的,它們可以用於好的或壞的方面,所以,我們必須確保它被負責任地使用。」

祝福Deepmind。細微且長期的影響終會迎來變革性的一天。

責任編輯: 李韻  來源:虎嗅科技組 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2021/1008/1656700.html