新聞 > 科教 > 正文

OpenAI等數十家AI公司聯合「圍剿」英偉達

新一輪人工智能(AI)熱潮引發大模型算力需求大增,使得英偉達AI晶片供不應求,加之算力成本不斷攀升,讓AI巨頭們或將選擇「圍剿」英偉達。

北京時間2月2日,科技巨頭Meta Platforms對外證實,該公司計劃今年在其數據中心部署最新的自研定製晶片,並將與其他GPU晶片協調工作,旨在支持其AI大模型發展。

研究機構SemiAnalysis創始人Dylan Patel表示,考慮到Meta的運營規模,一旦大規模成功部署自研晶片,有望將每年節省數億美元能源成本,以及數十億美元晶片採購成本。

更早之前,OpenAI持續推進「造芯」計劃。公司CEO薩姆·奧爾特曼(Sam Altman)日前到訪韓國,與晶片巨頭三星、SK海力士探討合作。據報道,雙方會議討論的主要話題之一是高帶寬存儲(HBM)晶片,有消息稱,若合作達成三星和SK海力士可能會為OpenAI定製開發以及生產存儲晶片。

不止是Meta和OpenAI,據The Information統計,截至目前,全球有超過18家用於AI大模型訓練和推理的晶片設計初創公司,包括Cerebras、Graphcore、壁仞科技、摩爾線程、d-Matrix等,融資總額已超過60億美元,企業整體估值共計超過250億美元(約合1792.95億元人民幣)。

這些公司背後的投資方包括紅杉資本、OpenAI、五源資本、字節跳動等。如果加上微軟、英特爾、AMD等科技巨頭和晶片龍頭的「造芯」行動,對標英偉達的AI晶片企業數量最終就將超過20家。

如今,即使「殺不死」市值達1.63萬億美元的GPU(圖形處理器)晶片龍頭英偉達,全球也要有數十家AI公司全力「圍剿」它。

不僅加速造AGI,奧爾特曼還要投資百億下場「造芯」

目前在大模型領域,AI算力主要受限於兩個方面:AI模型訓練需求暴增,以及算力成本越來越高。

首先是需求增長。

據OpenAI開發平台服務狀態顯示,1月29日,ChatGPT平台的應用編程接口(API)出現斷鏈,時長近20分鐘,並且導致ChatGPT回答的錯誤率飆升。OpenAI表示,這主要是由於應用訪問量激增,進而導致伺服器「宕機」。

有消息稱,目前ChatGPT平台主要使用英偉達A100和H100 GPU卡,訓練一次大約需要2.5萬塊A100晶片。如果訓練GPT-5,則還需要5萬張H100。市場分析認為,隨着GPT模型的不斷疊代升級,未來GPT-5或將出現無「芯」可用的情況。

除了需求之外,算力成本也是AI晶片採購的核心要素之一。

公開數據顯示,英偉達H100的價格已經飆升至2.5萬-3萬美元,這意味着ChatGPT單次查詢的成本將提高至約0.04美元。如果要把ChatGPT能力與谷歌搜索對抗的話,不僅約481億美元的AI晶片投入,而且每年還需要約160億美元的晶片才能維持運作。

如今,英偉達已經成為了AI大模型訓練當中必不可少的關鍵合作方。

據富國銀行統計顯示,目前,英偉達在數據中心AI市場擁有98%的市場份額,而AMD公司的市場份額僅有1.2%,英特爾則只有不到1%。

據Counterpoint Research,2023年,英偉達的營收將飆升至303億美元,比2022年的163億美元增長86%,躍升為2023年全球第三大半導體廠商。富國銀行則預計,英偉達2024年將會在數據中心市場獲得高達457億美元的營收,或創下歷史新高。

富國銀行在報告中提到,儘管AMD在2023年的AI晶片營收僅為4.61億美元,但是2024年將有望增長到21億美元,屆時市場份額將攀升至4.2%,英特爾也可能拿到將近2%的市場份額,而這將導致英偉達份額下降至94%。

對於OpenAI而言,作為大模型廠商,成本和滿足需求是兩個核心要素,而這兩點卻被「卡脖子」,受制於英偉達,因此,我們就不難理解奧爾特曼非得「自己造晶片」的原因——更安全和更長期可控的成本,減少對英偉達的依賴。

奧爾特曼曾多次「抱怨」AI晶片短缺問題,稱目前英偉達的晶片產能已不足以滿足未來的需求。

去年10月的WSJ Live活動上,奧爾特曼首次回應傳聞稱:不排除自研晶片這一選項。

「對於是否採用定製硬件(晶片),我們還在評估中。我們正努力確定如何擴大規模以滿足世界的需求。雖然有可能不會研發晶片,但我們正在與做出卓越成果的夥伴保持良好合作。」奧爾特曼表示。

那麼,OpenAI如何「造芯」?就目前來看,奧爾特曼手裏的牌主要有三個:找投資人建廠、與頭部晶片製造商合作、投資給其他初創公司聯合「造芯」。

今年1月20日,彭博報道稱,奧爾特曼正在與中東阿布扎比G42基金、日本軟銀集團等全球投資者籌集超過80億美元資金,成立一家全新AI晶片公司,目標是利用資金建立一個工廠網絡來製造晶片,直接對標英偉達。但目前談判仍處於早期階段,完整名單尚不確定。

不僅推進融資事宜,奧特曼也在加緊聯繫頭部晶片製造商合作。1月25日,奧爾特曼與韓國存儲晶片龍頭SK海力士的CEO,以及SK集團董事長會面,重點提及構建「AI晶片聯盟」,雙方或將在AI晶片設計、製造等方面與三星和SK集團合作。

早前《金融時報》報道稱,在接觸SK和三星之前,奧爾特曼就已接觸英特爾,而且和台積電討論過合作成立一家新的晶片工廠。

英特爾CEO基辛格(Pat Gelsinger)日前宣佈,奧爾特曼將出席2月21日舉辦的首屆英特爾代工業務IFS Direct Connect活動,奧爾特曼將作為嘉賓發表演講,雙方或將公佈合作事項。

事實上,除了建廠以外,奧爾特曼還至少投資了3家晶片公司。其中一家是美國知名的算力晶片公司Cerebras。

據悉,Cerebras曾推出過打破世界紀錄的超大晶片產品,其第二代AI晶片WSE-2已達到2.6萬億個電晶體,AI核心數量也達到85萬個。

第二家奧爾特曼投資的公司,是基於RISC-V開源架構、模仿大腦工作方式的晶片初創企業Rain Neuromorphics。據報道,該公司既能訓練算法,又能在部署時運行。儘管第一批硬件尚未向客戶交付,但OpenAI早已向該公司下單了價值5100萬美元的晶片。

最後一家是Atomic Semi,由晶片大神Jim Keller和Sam Zeloof共同創立,前者曾是AMD K8的首席架構師,還參與了蘋果A4/A5晶片的開發。Atomic Semi目標是簡化晶片製造流程,實現在快速生產,以期降低晶片成本。去年1月,Atomic Semi宣佈完成OpenAI的1億美元估值下的一輪融資。

隨着大模型持續爆火,AI算力需求將不斷攀升。奧爾特曼曾透露,OpenAI希望保證到2030年有足夠的晶片供應。

「圍剿」英偉達,新老守衛者能否脫穎而出?

除了OpenAI之外,此次「圍剿」英偉達的隊伍主要包括三類:

一是英特爾、AMD這類晶片巨頭,與英偉達「亦敵亦友」很久的時間,對於GPU技術也有非常多的了解,如今希望「挑戰」英偉達;

二是Meta、亞馬遜、微軟這類互聯網和雲服務廠商,他們對於雲端大模型技術很了解,希望能藉此降低成本且減少對英偉達的依賴;

三是近五年內成立的晶片設計初創企業,如Tenstorrent、Cerebras、Graphcore、Etched、Extropic和MatX等公司,因此其藉助新一輪AI浪潮,或將推動其產品銷售迅速增長。

不過,The information並不看好這麼多AI晶片公司未來都持續存在。

該報道指出,上一輪2015年崛起的多個與AI、自動駕駛晶片初創公司,最終卻隨着大公司入局和大規模並且而倒閉消失。「這凸顯了科技行業的一個模式:人才和資本流向火熱的地方。」

那麼,企業如何構建AI晶片技術、產品和商業化壁壘,是這場「圍剿」英偉達之戰的重要因素。

黃仁勛近期公開表示,華為、英特爾以及美國政府的出口管制,已經對英偉達在AI晶片市場的主導地位構成了嚴峻挑戰。

2月1日,有消息傳出,英偉達針對美國最新出口管制新規而研發的三款中國「特供版」晶片HGX H20,將於2024年第一季度開始小批量預定和交付,預計二季度開始大批量交付。據悉,H20晶片性能還不到H100的20%,而整體價格H20定價為每張卡1.2萬美元至1.5萬美元,最終銷售價格約為11萬元人民幣(約合15320美元),與華為Ascend910B定價基本持平。

另據經銷商公開信息,配置8顆AI晶片的英偉達H20伺服器售價為140萬元。相比之下,採用8顆H800晶片伺服器去年售價高達200萬元左右。

對於英偉達將要發佈的特定AI晶片新品,阿里巴巴、騰訊、新華三等公司早在2023年11月就開啟測試。但多個消息顯示,這些企業對於今年向英偉達訂購的晶片數量或將遠遠少於此前的計劃。

英偉達在中國銷售高端顯卡變得越來越難,而後面還有更多廠商進行「追趕」,比如OpenAI「造芯」。因此,隨着AI晶片市場競爭加劇,新老守衛者當中,誰會從這場AI炒作浪潮中脫穎而出成為贏家,未來這一重要市場如何變化,這都將值得期待。

「很多人認為算力會迅速下降,商業模式會隨着算力下降而成立,但我們判斷,未來算力成本不會下降,很長時間算力成本仍將持續位於高位。」小冰公司CEO李笛近日對鈦媒體App表示。

責任編輯: 李冬琪  來源:鈦媒體 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2024/0204/2013755.html