新聞 > 科教 > 正文

馬斯克正式起訴OpenAI及奧特曼 大量細節被曝

摘要:馬斯克OpenAI的故事就像,捐款給一個聲稱其使命是保護亞馬遜雨林的非盈利組織,但然後非盈利組織創建了一個盈利的亞馬遜伐木公司,使用捐款的成果清除雨林。

2024年3月1日——一場法律風暴正在矽谷醞釀,馬斯克將 OpenAI CEO&聯合創始人 Sam Altman告上法庭。馬斯克在一份詳細的訴訟文件中指控 Altman和其他被告違反了 OpenAI的創立協議,該協議旨在開發對全人類有益的非營利性 AI技術。

根據這份文件,馬斯克和其他原告指控 OpenAI的管理層在2023年背離了其非營利的使命,轉而與微軟建立了獨家合作關係,並將先進的 AI技術 GPT-4的秘密化,以服務於微軟的商業利益。這一轉變被描述為對 OpenAI非營利性質的公然背叛,違背了其創立的初衷。

馬斯克在訴訟中聲稱,他與 Altman和 Greg Brockman共同創立 OpenAI時,是基於對 AI技術潛在風險的共同擔憂,以及對確保 AI技術發展能夠惠及全人類的承諾。然而,隨着 OpenAI在AI領域的領先地位日益鞏固,尤其是在開發出被認為可能是早期 AGI的 GPT-4模型後,公司的方向發生了根本性轉變。

訴訟文件詳細描述了 OpenAI的成立過程,包括馬斯克在公司早期的資金投入、研究方向的建議,以及招募頂尖科學家和工程師的努力。這些努力被認為是 OpenAI能夠迅速崛起的關鍵因素。然而,現在馬斯克認為,他的這些貢獻被用於了與他的初衷相悖的目的。

以下為這份訴訟文件中的主要內容:

馬斯克對 AGI的擔憂

在2012年,Elon Musk遇到了 DeepMind的聯合創始人 Demis Hassabis,一家以盈利為目的 AI公司。大約在這個時候,Musk和 Hassabis在 SpaceX位於加利福尼亞州霍索恩的工廠會面,並討論了面臨社會的最大威脅。在這次對話中,Hassabis強調了 AI進步對社會可能帶來的潛在危險。

與 Hassabis的這次交談之後,Musk對 AI變得超智能、超越人類智能並威脅人類的潛力越來越感到擔憂。事實上,Musk並不是唯一一個對 DeepMind進行的 AI研究和 AI的危險感到害怕的人。據報道,在與 Hassabis及 DeepMind的投資者會面後,一位投資者評論說,他對人類所能做的最好的事情就是當場射殺 Hassabis。

Musk開始與他的圈子內的人,如當時的 Google母公司 Alphabet, Inc.的 CEO Larry Page討論 AI和 DeepMind。Musk經常在與 Page的對話中提起 AI的危險,但令 Musk震驚的是,Page對此並不擔心。例如,在2013年,Musk與 Page激烈交流了 AI的危險。他警告說,除非採取安全措施,「 AI系統可能會取代人類,使我們的物種變得無關緊要甚至滅絕。」Page回應說,這只是「進化的下一個階段」,並聲稱 Musk是一種「物種主義者」——即偏愛人類物種而不是智能機器。Musk回應說:「是的,我支持人類。」

到2013年末,Musk非常擔心 Google計劃收購 DeepMind。當時,DeepMind是行業中最先進的 AI公司之一。因此,Musk深切關注 DeepMind的 AI技術將掌握在如此輕率看待其力量並可能在封閉的門後隱藏其設計和能力的人手中。

為了防止這一強大技術落入 Google手中,Musk和 PayPal的聯合創始人 Luke Nosek試圖籌集資金購買 DeepMind。這一努力最終導致了一次長達一小時的通話,Musk和 Nosek做出了最後努力,試圖說服 Hassabis不將 DeepMind賣給 Google。Musk告訴 Hassabis:「AI的未來不應該被 Larry[Page]控制。」

Musk和 Nosek的努力未能成功。2014年1月有報道稱 DeepMind將被 Google收購。然而,這並沒有阻止 Musk繼續確保 AI的安全開發和實踐。

Google收購 DeepMind後,Musk開始「主持自己的一系列晚餐討論,探討對抗 Google和促進 AI安全的方法。」Musk還聯繫了美國總統 Barack Obama討論 AI和 AI安全問題。2015年,Musk和 Obama會面,向其解釋 AI的危險並主張監管。Musk認為 Obama理解 AI的危險,但監管從未實現。

儘管遇到這些挫折,Musk繼續倡導安全的 AI實踐。2015年,Musk似乎找到了一個理解他對 AI的擔憂和他希望將第一個 AGI保持在像 Google這樣的私人公司之外的人:被告 Sam Altman。

當時,Altman是矽谷創業加速器 Y Combinator的總裁。在此之前,Altman參與了各種創業企業。

Altman似乎分享了 Musk對 AI的擔憂。在2014年回溯的公開博客帖子中,Altman聲稱如果製造出 AGI,「將是技術上有史以來最大的發展。」Altman指出,許多公司正在朝着實現 AGI的方向邁進,但承認「好的公司對此非常保密。」

2015年2月25日,Altman還表達了他對「超人類機器智能」發展的擔憂,他認為這「可能是對人類持續存在的最大威脅」,並強調「作為一個被編程為生存和繁衍的人類,我覺得我們應該對抗它。」此外,Altman批評那些認為「超人類機器智能」危險但又將其視為「永遠不會發生或肯定非常遙遠」的人,他指責他們「思考鬆懈、危險。」

事實上,2015年初,Altman讚揚政府監管作為確保安全創造 AI的手段,並建議「一群非常聰明的人,擁有大量資源」的團體可能涉及「以某種方式的美國公司」,將是最有可能首先實現「超人類機器智能」的團體。

當月晚些時候,Altman聯繫 Musk,詢問他是否有興趣起草一封致美國政府的公開信,討論 AI問題。兩人開始準備信件,並接觸技術和 AI領域的有影響力的人士簽名。很快,整個行業的人都聽說了這封信的傳聞。

例如,2015年4月,Hassabis聯繫 Musk,表示他從多個來源聽說 Musk正在起草一封致總統的信,呼籲監管 AI。Musk向 Hassabis辯護 AI監管的想法,表示:「如果做得好,這可能會在長期內加速 AI的發展。如果沒有監管監督提供的公眾安心,很可能會出現 AI造成巨大傷害之後,AI研究被禁止的情況,因為它對公共安全構成危險。」

在 Hassabis關於公開信聯繫 Musk五天後,Hassabis宣佈了 Google DeepMind AI倫理委員會的首次會議,這是 Google和 DeepMind在兩年前 Google收購 DeepMind時承諾成立的。Musk被邀請成為委員會成員,並提議首次會議在加利福尼亞州霍索恩的 SpaceX舉行。Musk在第一次會議後明確感到,這個委員會不是一個認真的努力,而是試圖減緩 AI監管的幌子。

公開信後來於2015年10月28日發佈,由超過一萬一千人簽名,包括 Musk、Stephen Hawking和 Steve Wozniak。

OpenAI成立之初的協議

2015年5月25日,Sam Altman給 Elon Musk發送了一封電子郵件,表達了他對是否可能阻止人類開發 AI的深思。Altman認為答案幾乎肯定是否定的。如果 AI的發展不可避免,那麼最好讓谷歌以外的某個組織首先實現這一目標。Altman有一個想法:讓 Y Combinator啟動一個 AI領域的「曼哈頓計劃」(這個名稱可能非常恰當)。他提議可以通過某種非盈利組織的形式,讓技術屬於全世界,同時如果項目成功,參與其中的人可以獲得類似創業公司的報酬。顯然,他們將遵守並積極支持所有監管。Musk回應說,這「很值得一談」。

經過進一步的交流,2015年6月24日,Altman向 Musk發送了一份關於這個新「AI實驗室」的詳細提案。「其使命將是創造第一個通用 AI,並將其用於個人賦能——即,分佈式的未來版本看起來是最安全的。更一般來說,安全應該是一個一流的要求。」「技術將由基金會擁有,並用於『全世界的利益』。」他提議從一組7-10人開始,並從那裏擴展。他還提出了一個治理結構。Musk回應說,「在所有方面都同意。」

此後不久,Altman開始招募其他人幫助開發這個項目。值得注意的是,Altman向 Gregory Brockman尋求幫助。2015年11月,Altman通過電子郵件將 Brockman與 Musk聯繫起來。關於該項目,Brockman告訴 Musk,「我希望我們作為一個中立團體進入這個領域,尋求廣泛合作,並將對話轉向關於人類取勝而不是任何特定團體或公司取勝。(我認為這是讓我們自己成為一個領先研究機構的最佳方式。)」對於一個專注於人類而不是任何特定個人或團體的利益的中立 AI研究團隊的可能性持樂觀態度,Musk告訴 Brockman他將承諾資金。

Musk提出了新實驗室的名稱,反映了成立協議:「Open AI Institute」,或簡稱「OpenAI」。

以成立協議的原則為指導,Musk與 Altman和 Brockman聯手正式啟動並推進該項目。Musk在項目公開宣佈之前就積極參與其中。例如,Musk在員工薪酬包方面向 Brockman提供建議,分享了他關於薪酬和保留人才的策略。

2015年12月8日,OpenAI, Inc.的成立證書在特拉華州州務卿處提交。該證書以書面形式記錄了成立協議:「本公司是一家僅為慈善和/或教育目的而組織的非盈利公司,符合1986年修訂的內部收入法典第501(c)(3)節或任何未來美國內部收入法的相應條款。本公司的具體目的是為與 AI相關的技術研發和分發提供資金。所產生的技術將惠及公眾,公司將尋求在適用的情況下將技術開源以利公眾。」

OpenAI, Inc.在2015年12月11日對外公佈。在公告中,Musk和 Altman被命名為聯合主席,Brockman被命名為首席技術官。公告強調,OpenAI旨在「惠及人類」,其研究「不受財務義務的約束」:「OpenAI是一家非盈利的 AI研究公司。我們的目標是以最有可能惠及整個人類的方式推進數字智能,不受生成財務回報需求的限制。由於我們的研究不受財務義務的約束,我們可以更好地專注於對人類的積極影響。」

馬斯克對 OpenAI的早期貢獻

Elon Musk在 OpenAI, Inc.成功啟動中扮演了關鍵角色。在公開宣佈的當天,Musk通過電子郵件寫道,「我們最重要的考慮是招募最優秀的人才。」他承諾,幫助招聘工作將是他「全天候的絕對優先事項」。他承認,「我們在人手和資源上被你們所熟知的組織以荒謬的優勢超越,但我們站在正義這一邊,這意味着很多。我喜歡這樣的賠率。」Musk利用他的人脈、地位和影響力助力招聘工作。OpenAI, Inc.是由 Elon Musk贊助的項目,Musk擔任聯合主席,這一事實對 OpenAI, Inc.的招聘工作起到了關鍵作用,尤其是面對 Google/DeepMind的反招聘工作。如果沒有 Musk的參與、大量的支持努力和資源——他對成立協議的重視——OpenAI, Inc.很可能永遠無法起步。

最重要的初期聘用之一是首席科學家的職位。Altman、Brockman和 Musk都希望 Google的研究科學家 Ilya Sutskever擔任這一角色。Sutskever在是否離開 Google加入該項目上猶豫不決,但最終是在 OpenAI, Inc.公開宣佈的當天,Musk的一通電話說服了 Sutskever承諾加入項目,成為 OpenAI, Inc.的首席科學家。

接下來的幾個月里,Musk積極為 OpenAI, Inc.招聘。Google/DeepMind對 OpenAI, Inc.的招聘人員提出了越來越豐厚的反擊報價,試圖扼殺這個新興企業。在2月底,Musk給 Brockman和 Altman發送了電子郵件,重申「我們需要做必要的事情來獲得頂尖人才。讓我們提高報價。如果在某個時候,我們需要重新考慮現有人員的薪酬,那也沒關係。我們要麼獲得世界上最好的人才,要麼就會被 Deepmind打敗。不惜一切代價吸引頂尖人才對我來說都是可以的。Deepmind給我帶來了極大的精神壓力。如果他們贏了,對於他們想要統治世界的哲學來說,這將是非常糟糕的消息。鑑於那裏的人才水平,他們顯然在取得重大進展。」

Musk不僅僅是利用他的人脈和影響力代表 OpenAI, Inc.招聘,當他告訴 Brockman和 Altman提高報價並「做必要的事情來獲得頂尖人才」時,他就是在資助那些更高的報價。僅在2016年,Musk就為 OpenAI, Inc.貢獻了超過1500萬美元,比任何其他捐贈者都多。他提供的資金使 OpenAI, Inc.能夠組建一個頂尖人才團隊。同樣,在2017年,Musk又向 OpenAI, Inc.貢獻了近2000萬美元,再次超過任何其他捐贈者。總的來說,從2016年到2020年9月,Musk為 OpenAI, Inc.貢獻了超過4400萬美元。

此外,通過 Musk Industries LLC,Musk為 OpenAI, Inc.的初始辦公空間在三藩市的 Pioneer Building承租,並支付每月租金費用。Musk定期訪問 OpenAI, Inc.,並出席重要的公司里程碑活動,如2016年第一台 DGX-1 AI超級計算機捐贈給 OpenAI, Inc.時。Musk會收到 OpenAI, Inc.進展的更新,並提供他的反饋和建議。

Altman和 Brockman多次重申成立協議

在2017年,Greg Brockman和其他人提議將 OpenAI, Inc.從一個非盈利組織轉變為一個盈利性公司。經過幾周的溝通後,Elon Musk告訴 Brockman、Ilya Sutskever和 Sam Altman,「要麼自己去做點什麼,要麼繼續將 OpenAI作為一個非盈利組織。在你們做出留下的堅定承諾之前,我將不再為 OpenAI提供資金,否則我就是一個傻瓜,基本上是在為一家初創公司提供免費資金。討論結束。」

作為回應,Altman告訴 Musk他「仍然對非盈利結構充滿熱情!」最終,Brockman和 Sutskever向 Musk表明,他們也決心繼續保持非盈利結構,並將在接下來的一年致力於為非盈利組織籌集資金。

2018年2月21日,Musk辭去了 OpenAI, Inc.聯合主席的職務。儘管如此,Musk依然根據成立協議,繼續向 OpenAI, Inc.提供資助。例如,在2018年,Musk向 OpenAI, Inc.捐贈了大約350萬美元。他還繼續從 Brockman、Sutskever和 Altman那裏接收關於 OpenAI, Inc.的更新。

2018年4月,Altman向 Musk發送了一份 OpenAI憲章草案,並徵求他的反饋。草案宣稱 OpenAI的使命是確保 AGI「惠及全人類」。它聲明,「我們承諾使用我們對 AGI部署的任何影響力,確保它用於全人類的利益,並避免啟用可能傷害人類或不當集中權力的 AI或 AGI的使用。我們的首要受託責任是對人類。我們預計需要動員大量資源來實現我們的使命,但將始終努力最小化可能妥協廣泛利益的利益衝突。」

2019年3月11日,OpenAI, Inc.宣佈將創建一個盈利子公司:OpenAI, L.P.。潛在投資者在摘要條款表的頂部被告知一個「重要警告」,即盈利實體「存在是為了推進 OpenAI Inc.(非盈利組織)確保安全的 AGI被開發並惠及全人類的使命。普通合伙人對這一使命和 OpenAI Inc.憲章中推進的原則的義務優先於任何盈利義務。」因此,明確建議投資者「將對 OpenAI LP的任何投資視為捐贈。」

宣佈後,Musk聯繫 Altman,要求他「明確我對 OpenAI盈利部門沒有任何財務利益。」然而,Musk繼續支持 OpenAI, Inc.這個非盈利組織,在2019年再次捐贈了348萬美元。

2020年9月22日,OpenAI宣佈它已將其某些預 AGI技術獨家授權給 Microsoft。與成立協議一致,OpenAI的網站聲明 AGI,「一個在大多數經濟價值工作中超越人類表現的高度自治系統」「被排除在與 Microsoft的知識產權許可和其他商業條款之外,這些僅適用於預 AGI技術。」然而,OpenAI的董事會「決定我們何時達到 AGI。」

OpenAI的發展,AI到 AGI

OpenAI在初期工作上大量借鑑了 DeepMind的做法。不同於下棋,OpenAI在 Dota2這個策略性視頻遊戲上進行了競爭,該遊戲比國際象棋有着更多的活動部分。OpenAI的團隊迅速構建了一個新模型,擊敗了世界冠軍隊伍,展示了「自我對弈的強化學習能夠在困難任務上達到超人的表現」。

與此同時,在 Google,一個名為 Transformer的算法解決了深度學習在理解長文本序列中遇到的許多問題。這個算法是「大型語言模型」的一個例子,它通過在源語言中的單詞之間形成連接,並將這些連接映射到目標語言來翻譯文本。

OpenAI的研究人員繼續這項研究,並很快產生了另一個驚人的結果:通過使用 Google的 Transformer架構的前半部分,一個深度神經網絡可以在大量文本語料上進行預訓練,用於生成新文本。2018年1月,OpenAI發佈了這個生成預訓練 Transformer(GPT)的原始碼和訓練模型,以及一篇詳細描述模型及其能力的論文。

2019年,OpenAI發佈了第二代模型,GPT-2。這次發佈同樣附帶了一篇詳細論文,指出與之前的模型不同,這個模型無需針對特定任務進行訓練,"當一個大型語言模型在足夠大且多樣的數據集上進行訓練時,它能夠在許多領域和數據集上表現良好"。這些模型證明了它們與以往的 AI系統非常不同。與其訓練系統執行特定任務,不如簡單地「請求」它們以自然語言執行新任務。

正如成立協議所預期的那樣,OpenAI公開發布了 GPT-2的完整版本。值得注意的是,儘管「人類發現 GPT-2的輸出令人信服」,「GPT-2可以被微調用於濫用」,且「檢測(由 GPT生成的文本)具有挑戰性」,OpenAI仍然決定發佈。當時,OpenAI聲明,希望這樣做「將對未來強大模型的開發者有用」。這次發佈伴隨着一篇由 OpenAI科學家以及獨立的社會和技術科學家共同撰寫的詳細論文,解釋了公開發布模型而不是保持封閉所帶來的許多好處。

他們的出版物證明對未來、強大模型的開發者確實有用。完整的社區出現了,以增強和擴展 OpenAI發佈的模型。這些社區擴展到了開源、草根努力和商業實體。

2020年,OpenAI宣佈了其模型的第三版,GPT-3。它使用了「1750億參數,是之前所有非稀疏語言模型的10倍」。OpenAI再次通過發佈研究論文宣佈了這一模型的開發,論文描述了其完整的實現,供其他人構建。

2022年,Google的研究人員採用這些結果,並展示了一個名為連鎖思考提示的小改動,能使「大型語言模型執行複雜推理」。東京大學和 Google的研究人員迅速擴展了 Google的結果,並展示了 OpenAI的 GPT-3能夠以逐步的方式推理出一個全新的問題,就像人類一樣,「只需在每個答案前添加『讓我們一步一步地思考』」。

AI的路徑變得可見。並且,達到這一點的時間線正在顯著壓縮。

2023年3月14日,OpenAI發佈了其模型的新一代,GPT-4。這一代不僅能進行推理,而且在推理方面比一般人類做得更好。GPT-4在統一律師考試中得分位於第90百分位,在 GRE口語評估中得分位於第99百分位,甚至在高級侍酒師考試中得分為77%。根據 OpenAI自己的客觀衡量標準,GPT-4已經能夠在廣泛的經濟有價值的任務上展現出優於人類的智能。

這一發展沒有被研究社區忽視。在一篇題為「 AGI的火花:GPT-4的早期實驗」的詳細分析中,Microsoft的研究人員指出,「GPT-4能夠解決跨數學、編程、視覺、醫學、法律、心理學等多個領域的新穎且困難的任務,而無需任何特殊提示。而且,在所有這些任務中,GPT-4的表現與人類水平驚人地接近,通常遠遠超過之前的模型,如基於[GPT-3.5]的 ChatGPT。」

他們將 GPT-4的表現與基於 GPT-3的系統的表現進行了比較,發現「與 GPT-4的輸出相比,沒有任何可比性」。在數學問題上,他們展示了「GPT-4給出的解決方案是正確的,論證是合理的,而基於 GPT-3的 ChatGPT產生了錯誤的解決方案,如果是人類的話,這將反映出對函數反轉概念的理解缺失」。在另一個例子中,他們展示了「GPT-4給出了正確的解決方案,而 ChatGPT開始無目的地重新排列術語,最終得出了一個錯誤的解決方案。」

Microsoft自己的科學家承認 GPT-4「達到了一種通用智能的形式」,並且「鑑於 GPT-4的能力的廣度和深度,我們相信它可以合理地被視為 AGI系統的早期(儘管仍不完整)版本」。

違反OpenAI成立協議

達到 AGI的閾值後,根據成立協議,他們本應為了人類的利益而非任何盈利公司或個人利益開發 AGI,被告卻從其使命中根本性偏離,違反了成立協議。GPT-4是一個完全封閉的模型。GPT-4的內部設計仍然是秘密,沒有任何代碼被發佈。OpenAI沒有發佈描述其內部設計的任何方面的論文;它只是發佈了吹噓其性能的新聞稿。GPT-4的內部細節只有 OpenAI和據信是 Microsoft知道。因此,GPT-4與「開放的 AI」完全相反。它因商業專有原因而被封閉:Microsoft通過向公眾銷售 GPT-4而獲利頗豐,如果 OpenAI如其所需那樣使技術免費向公眾開放,則不可能實現。與成立協議相反,被告選擇使用 GPT-4不是為了人類的利益,而是作為專有技術來為世界上最大的公司最大化利潤。此外,OpenAI的整個開發現在被保密,公眾只能通過謠言和零散的通信片段來了解下一步可能發佈的內容。

媒體報道稱,OpenAI正在開發一個名為 Q*的秘密算法。儘管 Q*的具體內容尚不清楚,但據媒體報道,幾名 OpenAI員工寫了一封信,警告 Q*的潛在力量。看來 Q*現在或將來可能是 OpenAI開發的更清晰、更顯著的 AGI的一部分。作為 AGI,它將明確不在 OpenAI與 Microsoft的許可範圍內,並且必須為了廣泛的公眾利益而提供。

對於與 Microsoft的許可協議,OpenAI, Inc.的董事會決定 OpenAI是否已達到 AGI,在下面更詳細描述的一系列令人震驚的事件中,OpenAI, Inc.的大多數董事會成員於2023年11月22日被迫辭職,他們的替代者據信是由 Altman和 Microsoft親自挑選的。

2023年11月17日,OpenAI, Inc.的董事會解僱了 Altman。OpenAI在一篇博客文章中宣佈,Altman被解僱,「他的離職是在董事會進行了深思熟慮的審查過程之後,得出結論他在與董事會的溝通中並不總是坦率,妨礙了其行使職責的能力。董事會不再對他繼續領導 OpenAI持有信心。」

Brockman也被董事會移除,但被告知他將保留在 OpenAI的角色。

當時,董事會由 Helen Toner、Adam D』Angelo、Tasha McCauley、Sutskever博士、Brockman和 Altman組成。Toner女士除了在董事會任職外,還是 AI治理中心(GovAI)的研究員和顧問,以及喬治城大學安全與新興技術中心的戰略總監。McCauley女士是蘭德公司的高級管理科學家,該公司是一家專門從事公共政策決策的非盈利機構。她還是 GovAI的顧問。D』Angelo——在 Altman返回後唯一留下的董事會成員——是一位技術 CEO和企業家。

選擇在 OpenAI, Inc.的董事會中包括多位具有深厚 AI政策經驗的學者和公共政策專家,他們大多數人在公司中沒有財務利益,這是有意為之。這種財務上無利害關係的董事會成員結構,他們有着強烈的公共服務記錄,確保了董事會會將非盈利的主要受益者——人類——置於財務成功之前。這種保障措施是為了進一步實現 OpenAI, Inc.的非盈利使命和成立協議:安全地創造能惠及人類的 AGI,而不是盈利公司的金錢利益。

據信,Altman被解僱部分是因為 OpenAI在實現 AGI方面取得了突破。事實上,新聞報道表明,OpenAI董事會成員和高管之間在安全問題和 OpenAI下一代 Q*可能構成的潛在威脅上存在分歧。

Altman被解僱的消息迅速傳開。在董事會宣佈 Altman被解僱後,Brockman宣佈他將與 Altman一起離開 OpenAI。

當微軟 CEO Satya Nadella得知 Altman被解僱時,據報道他非常憤怒。作為 OpenAI盈利部門的49%股東,Nadella認為在解僱 Altman之前應該諮詢微軟。然而,當時,除了 Altman,OpenAI, Inc.的董事會與微軟沒有任何聯繫,也沒有對盈利部門投資者的受託責任。據信,Altman是微軟和 OpenAI, Inc.之間的主要聯絡人。

Nadella邀請 Altman和 Brockman領導一個新的微軟 AI研究實驗室,不受 OpenAI, Inc.人道主義使命的限制。Nadella明確表示,離開 OpenAI的員工將以相同的薪水歡迎加入微軟的新實驗室。

微軟確信,通過其在 OpenAI盈利部門的大量所有權,如果公司停止存在,它可以完全隔離 OpenAI, Inc.的研究。事實上,在 Altman被解僱後不久的一次採訪中,Nadella說:「我們對自己的能力非常有信心。我們擁有所有的知識產權和所有的能力。如果 OpenAI明天消失了,我真的不希望我們的任何客戶感到擔心,因為我們擁有繼續創新的所有權利。不僅僅是為了提供產品,我們還可以繼續我們在合作中所做的事情。我們有人才,我們有計算能力,我們有數據,我們擁有一切。」

儘管微軟就其在沒有 OpenAI的情況下繼續運作的能力發表了聲明,微軟從未放棄確保 Altman重新成為 OpenAI, Inc.的 CEO的計劃。在 Altman被解僱的幾天後,OpenAI, Inc.的董事會面臨來自律師和主要股東(包括微軟)的壓力,要求恢復 Altman的職位。

Toner女士在努力恢復 Altman的過程中受到了特別的針對。在這些努力中,一名代表 OpenAI的律師告訴 Toner女士,如果因為 Altman被解僱而導致 OpenAI失敗,她和董事會可能面臨違反對投資者受託責任的指控。

然而,OpenAI, Inc.的董事會從未對投資者承擔受託責任。實際上,所有投資盈利部門的投資者都被告知,公司對其使命的責任優先於對其投資者的責任,OpenAI, Inc.的網站明確指出它只對人類承擔受託責任。

Toner女士,她將律師的行為描述為一種恐嚇策略,認為 Altman繼續被移除實際上將通過提升人類的安全而非利潤來推進公司的使命。然而,這一切都沒有阻止股東和 Altman推動他的復職。

此外,微軟對 OpenAI, Inc.及其董事會擁有相當大的強制力。在 Altman被解僱的期間,Nadella談到微軟與 OpenAI的關係時說:「我們就在那裏。我們在他們下面,在他們上面,圍繞着他們。我們進行內核優化,我們構建工具,我們構建基礎設施。所以這就是為什麼我認為很多工業分析師都在說,『哦哇,這真的是微軟和 OpenAI之間的聯合項目。』實際上,正如我所說,我們在所有這些方面都非常自給自足。」

此外,在解僱發生時,微軟只支付了它對 OpenAI承諾的100億美元投資中的一小部分,給了微軟對「獨立」非盈利董事會嚴重的影響力。此外,如果微軟撤回其雲計算系統——OpenAI依賴的系統,該公司將無法運作。

據信,在 Altman先生返回後,他親自挑選了一個新的董事會,這個董事會缺乏與之前董事會設計時類似的技術專長或在 AI治理方面的任何實質性背景。D'Angelo先生,一位技術 CEO和企業家,是 Altman先生返回後唯一留下的前董事會成員。新董事會包括在以利潤為中心的企業或政治方面比在 AI倫理和治理方面有更多經驗的成員。他們也被報道是「Altman的忠實粉絲」。新董事會成員中有 Bret Taylor和 Larry Summers。Taylor先生在矽谷並不陌生,並且深度參與了灣區各種以盈利為驅動的企業。2024年2月14日,Taylor先生和前谷歌高管 Clay Bavor啟動了一家專注於為企業構建 AI聊天機械人的初創公司。Summers博士是一位經濟學家,據信在2023年11月之前沒有在基於 AI的企業中工作過的經驗。微軟還在董事會上獲得了一個觀察員席位,從中可以密切關注其表面上的非盈利搖錢樹。

隨着 Altman先生的重新任命和董事會的重組,OpenAI的公司結構——原本被設計為非盈利部門、盈利部門、董事會和 CEO之間的平衡系統,以確保非盈利使命得以執行——一夜之間崩潰。OpenAI, Inc.曾經精心打造的非盈利結構被純粹以盈利為驅動的 CEO和在 AGI及 AI公共政策方面技術專長較差的董事會所取代。董事會現在為微軟保留了一個觀察員席位。通過這種重組,OpenAI, Inc.放棄了其為了廣泛人類利益開發 AGI的非盈利使命,從而使其遠離了一個巨大的盈利公司,其中巨大的權力將不當集中。

OpenAI, Inc.董事會在 AI技術專長、中立性和對 OpenAI, Inc.非盈利使命的承諾對 OpenAI, Inc.的使命尤為重要,因為正是董事會決定 OpenAI是否已達到微軟許可協議目的 AGI。這意味着董事會的任務是確定 OpenAI最強大和最先進的技術是否實際上被排除在微軟的獨家許可範圍之外。考慮到微軟對於將大門關閉以阻止公眾進入的巨大財務利益,OpenAI, Inc.的新董事會,因其被俘獲、衝突和順從,將有充分的理由永遠不做出 OpenAI已達到 AGI的發現。相反,OpenAI的 AGI成就,就像《安妮》中的「明天」,總是遙遙無期,確保微軟將獲得 OpenAI最新技術的許可,而公眾則被排除在外,這與成立協議完全相反。

OpenAI的行為可能對矽谷產生重大影響,如果被允許存在,可能代表技術初創公司的範式轉變。重要的是要反思這裏發生了什麼:一個非盈利初創公司收集了數千萬美元的捐款,明確目的是為了公共利益開發 AGI技術,而就在實現該公司創建目的里程碑之前不久,該公司變成了世界上最大的公司的閉環、盈利合作夥伴,從而使被告人個人獲利。如果這種商業模式有效,它將徹底重新定義加利福尼亞州及其他地方的風險投資實踐方式。與其從一開始就作為一個盈利實體,聰明的投資者會建立非盈利組織,使用稅前捐款來資助研究和開發,然後一旦他們的技術被開發出來並證明有效,就會將產生的知識產權資產轉移到一個新的盈利企業中,以此來豐富自己和他們的盈利最大化的企業夥伴。這不應該是加利福尼亞州或這個國家的法律如何運作的方式,這也不應該是第一個持相反意見的法院。

為了進一步理解這為什麼重要,如果 OpenAI的新商業模式有效,對於每一美元投資者通過向非盈利組織的「投資」獲得的,投資者將從州和聯邦政府那裏以減少的所得稅形式獲得大約50美分回報,因此他們每1美元投資的淨成本只有50美分。然而,通過 OpenAI的新商業模式,他們獲得與那些以傳統方式投資於盈利公司並因此沒有立即獲得稅收減免的人相同的「盈利」上升空間,由政府和最終由公眾資助。從投資的角度來看,與採用新 OpenAI商業模式的實體競爭就像打籃球比賽,對方的籃筐得分是你的兩倍。如果這個法院認可 OpenAI在這裏的行為,任何希望在矽谷保持競爭力的初創公司基本上都將被要求遵循這種 OpenAI戰略,這將成為初創公司的標準操作程序,對合法的非盈利組織、政府的稅收收入和最終加利福尼亞州及其他地區的人民造成損害。值得注意的是,OpenAI的盈利部門最近的估值接近800億美元。

11月至今:Altman的 OpenAI

公眾仍然對董事會的「審議性審查過程」揭示了什麼導致 Altman最初被解僱一事一無所知。然而,對於 Musk先生和廣大公眾來說,一件事是清楚的:OpenAI放棄了其「不可撤銷」的非盈利使命,轉而追求利潤。許多領袖和知識分子已經公開評論了 OpenAI變成「封閉的、盈利的 AI」這一諷刺和悲劇。

例如,2023年11月29日,MIT的經濟學家在《洛杉磯時報》上發表了一篇意見文章,表達了對 OpenAI新的盈利驅動指令的擔憂。用他們的話說,「顛覆和不受控制的增長已成為科技行業的宗教,而 Altman一直是其最忠誠的高級牧師之一。」經濟學家強調,新董事會更有可能允許 Altman儘可能快地擴大 OpenAI的規模,不管社會成本有多嚴重。

公民權益組織 Public Citizen的主席今年早些時候給加利福尼亞州檢察長 Rob Bonta寫了一封公開信,提出了關於 OpenAI的盈利子公司是否對非盈利機構施加了不適當的控制,或者非盈利機構的目的在 Altman和微軟的領導下是否轉向了盈利的擔憂。信中建議,如果非盈利機構放棄了其原始使命,它應該被解散,其資產應轉給另一個慈善企業。

WIRED在2024年1月的一項調查發現,OpenAI近期也關閉了公眾訪問以前可用的「關鍵文件」。根據 OpenAI最初的透明度承諾,OpenAI的 IRS文件自成立以來就表明,任何公眾成員都可以查看其治理文件、財務報表和利益衝突規則的副本。然而,當 WIRED請求這些文件時,OpenAI表示它已更改了政策。因此,儘管 OpenAI長期以來一直宣揚其對透明度的承諾,公眾卻無法獲得揭示2023年11月事件的信息。

訪問 OpenAI的文件可以讓公眾了解它是否已改變其治理結構以取悅微軟和其他股東。至少,為了適應微軟在董事會上的席位,必須做出改變,現在 Altman正在與中東投資者進行討論,以籌集高達7萬億美元的資金,旨在開發一個全球 AI晶片製造廠網絡。如果微軟的100億美元就足以讓它獲得董事會席位,那麼可以想像這些新的潛在投資可能會給投資者帶來多大的影響力。當一個潛在的捐贈者是阿拉伯聯合酋長國的國家安全顧問,而美國官員因為阿拉伯聯合酋長國與中國的聯繫而感到擔憂時,這尤其令人不安。此外,Altman被引述討論了讓阿拉伯聯合酋長國成為一個「監管沙盒」,在那裏測試 AI技術的可能性。

此外,訪問 OpenAI的利益衝突政策對於揭示董事會控制 Altman使用 OpenAI促進其個人經濟利益的能力至關重要,到目前為止,這似乎還未受到制約。例如,在2019年 Altman擔任 CEO時,OpenAI簽署了一份意向書,購買價值5100萬美元的晶片,這些晶片來自 Altman大量投資的一家初創公司。

雖然 OpenAI, Inc.曾是基於公開與公眾溝通的安全、負責任的 AGI開發的先驅,但現在它已經關閉了大門,將其盈利子公司的最大投資者帶到了唯一對人類負有受託責任的董事會,並繼續秘密地朝着以利潤為中心的未來前進,可能對人類產生災難性的後果。

Musk與 Altman以及 Brockman共同創立並資助了 OpenAI, Inc.,交換的是依靠成立協議以確保 AGI將惠及人類,而不是盈利公司。隨着2023年的事件發展,他對 OpenAI, Inc.的貢獻被扭曲,以造福被告和世界上最大的公司。這是對成立協議的明顯背叛,將該協議顛倒並扭曲了 OpenAI, Inc.的使命。想像一下捐款給一個聲稱其使命是保護亞馬遜雨林的非盈利組織,但然後非盈利組織創建了一個盈利的亞馬遜伐木公司,使用捐款的成果清除雨林。這就是 OpenAI, Inc.的故事。

責任編輯: 李華  來源:華爾街見聞 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2024/0302/2024934.html