新聞 > 中國經濟 > 正文

英偉達不賣中國GPU,車圈為什麼先慌了?

缺芯的事還沒整明白,美國又向中國汽車產業拋出了一顆雷:禁止英偉達/AMD對中國客戶出售高端GPU。

理由還是老三樣:暗藏後門(比如之前的華為通訊設備禁令),可能被用作軍事目的,存在國家安全風險。

真實的原因想必不用猜,這些年,中國科技和經濟水平發展迅猛,美國自覺牆角被挖。針對技術實施的出口禁令,也是屢試不爽。

這一次,主角輪到了先進算力領域的GPU。

GPU是什麼?

GPU有一個俗名:顯卡,屏幕顯示的畫面通通離不開它。

一個強悍的顯卡,所能提供的不僅僅是高清精美、不卡頓的畫面。作高清視頻編輯,GPU轉碼的速度也十分迅捷。

準確地講,GPU是顯卡的心臟,是其主要組成部件。近幾年,GPU從電腦硬件發展成為「挖礦專家」,每一份火爆的挖礦成績背後,少不了它的功勞。

不過,美國此次的禁令並不是所謂的顯卡」,而是通用GPU(或者說GPGPU),因此不會傷及遊戲黨和礦工的快樂。首當其衝的其實是,超算和雲服務。

超級計算機是「國之重器」,比如「神威·太湖之光」、「天河」等就算力驚人,在航空航天、氣候氣象、石油勘探等數十個領域應用廣泛。自2015年的美國禁令後,中國超算正在逐步實現晶片的國產替代。

雲服務指的是通過互聯網訪問本地數據,信息隨用隨拿,例如阿里雲和騰訊雲。雲和數據中心像一對連體嬰兒,數據中心(Internet Data Center)是託管所,集中管理各類數據,以便後續在「雲」上計算。

以上兩大領域,GPU類似於「礦卡」,扮演「加速器」的角色。

英偉達不賣中國GPU,車圈為什麼先慌了?

這一概念是英偉達2007年提出的。由於數據之多,計算之龐雜,CPU的能力捉襟見肘,而GPU是並行計算(同時執行多條指令)的高手,既能讓雲端程序加速運行,又能讓數據中心的伺服器一台多用。

這一次,英偉達被限制出口的A100和H100,AMD被禁的MI100和MI200,就是超算、雲端數據中心所需的加速卡。

既如此,那為何車企先慌了?

何小鵬的一條朋友圈,把本該雲服務商擔心的事拉回到了車圈的視線範圍。

在自動駕駛系統中,感知模型的訓練需依據大量數據,進行深度學習。這也是,為什麼Robotaxi和特斯拉等車企都在累積輔助駕駛的行駛里程。

研發階段,如果按照10台測試車,全年300天的行駛里程估算,單車每天約產生10TB的數據,每年產生的總數據量在30PB左右;

而到商用階段,隨着車隊規模不斷擴大,車企面臨的數據量將朝着ZB級發展(1PB = 1024TB,1EB=1024PB ,1ZB=1024EB)。傳統增設伺服器、擴大機房的方法已不能滿足數據膨脹對算力的要求。

因而這些工作,大部分轉移到了雲端。

簡單理解,車輛採集到的、對實時性要求高的信息會在車載計算平台(英偉達Orin、華為MDC、高通Snapdragon Ride等)作本地處理,即邊緣計算,同時一部分信息在邊緣層進行預處理,把沒用的先丟掉;

其餘數據,會直接傳輸至雲端,用作AI算法模型的深度學習訓練。

AI時代,算力的邊界幾乎決定了模型訓練的成果。這也使得,雲端所需的GPU往往是大算力、高帶寬的。

這個市場,英偉達的份額穩定在8成左右,今年第一季度,英偉達數據中心業務的收入首次超過遊戲業務,A100是極大貢獻者;而其餘部分由AMD把持。

NVIDIA H100 CNX

H100還沒有投入商用,不過這款GPU晶片採用的是英偉達最新發佈的Hopper架構,據稱相較A100,可將AI計算性能提高30 倍。

對於強調把數據掌握在自己手中的車企來說,這次的禁令尤其令人慌張。

比如,蔚來正使用英偉達的A100構建數據中心基礎設施;小鵬基於阿里雲在內蒙古建成了自動駕駛智算中心「扶搖」。

要知道,阿里雲、百度雲、谷歌雲和AWS等國際主要雲服務商都是A100的大客戶。儘管美國政府給了英偉達一年的緩衝時間,但這項GPU禁令如芒在背。

那麼國產高端GPU晶片是否有替代的可能?通過下方視頻,我們可以了解一下

就像黑芝麻(參數丨圖片)智能CMO楊宇欣對每日汽車電訊說的那樣,「美國限制了英偉達(的技術出口),不論是什麼產品線,車企都會擔心。對所有車企來講,只有要10%的可能性,都得做100%的備份。」

可以預見,汽車晶片的國產化一定會加速進行。

責任編輯: zhongkang  來源:每日汽車電訊 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2022/1029/1822907.html