新聞 > 科教 > 正文

蘋果終於亮出了下一個「iPhone」

新年伊始,科技圈熱鬧非凡,一波未平,數波並起

當大家還在討論 iPhone17e的時候,彭博社又拋出一枚重磅炸彈,蘋果正在加速一系列 AI硬件,具體為以下三種:

智能眼鏡 N50:代號 N50,對標 Meta Ray-Ban但要更高端。無顯示屏,靠揚聲器、麥克風和雙攝像頭實現功能——一顆拍照錄像,一顆專門用於計算機視覺。計劃2027年發售;

可穿戴吊墜:AirTag大小,可袷衣服或掛項鍊上。配備低解像度攝像頭和麥克風,被內部員工稱為 iPhone的「眼睛和耳朵」,依賴手機進行大部分處理;

攝像頭 AirPods:在現有 AirPods基礎上加入攝像頭,主要為 AI提供視覺信息,而非拍攝照片視頻。進展最快,最早可能今年亮相。

這也或許是蒂姆·庫克職業生涯謝幕前,最後一筆投注,不同於我們熟悉的「燒掉舊世界」的激進,這位供應鏈出身的掌舵者,在站好最後一班崗時,選擇了一條更符合蘋果財報邏輯的演進路線:擁抱 AI硬件,但絕不背刺作為萬億市值基石的 iPhone。

這場新舊交替的博弈,庫克沒有做選擇題,他全都要。

假想圖由 Gemini生成

攝像頭,為 AI而生

如果你足夠敏銳,已經從剛剛的簡短介紹里捕捉到了關鍵詞——三款設備,都有攝像頭。

如果用傳統消費電子的邏輯看,iPhone上的攝像頭已經基本滿足人們的拍照需求,但對於不需要搞攝影的 AI硬件來說,攝像頭的角色發生了質的轉變——這是被動且持續接收信息的「輸入」入口。

不需要高畫質,200萬像素甚至更低就夠了,甚至可以是紅外成像,畢竟 AI不需要欣賞風景,只要能通過這些低像素畫面,計算出空間定位與物體識別,就能正常運轉。

假想圖由 Gemini生成

與之呼應的是,蘋果在這方面的技術積累。2025年夏天,蘋果開源了一個能在 iPhone上直接運行的高效視覺語言模型——FastVLM。

這個模型並不像其他 AI巨頭那樣「刷分」,而是朝着小型化、端側化、低延遲的方向做了極致優化,將視覺處理所需的 Token降到傳統 ViT的1/16,極大降低延遲,可以根據攝像頭捕捉到的內容實時給出判斷,反應速度非常快。

可以預料到的是,蘋果在視覺為核心的 AI硬件上,將會利用 FastVLM及其衍生模型技術。

但在如何消化視覺數據流時,蘋果給出的方案,是對 Humane Ai Pin、Rabbit R1等「先烈」的一次無情嘲諷。

Ai Pin的死因,可以總結為一種脫離物理規律、使用場景,以及用戶接受程度的「狂妄」,在一個火柴盒大小的設備里,硬塞進高通驍龍晶片和複雜的散熱系統,還有一整套攝像頭和投影儀。

小馬拉大車的結果顯而易見:高喊着取代 iPhone的 Ai Pin續航崩盤、發熱燙人,最終隨着服務停止、公司出售,產品也淪為昂貴且無用的電子垃圾。

蘋果吸取教訓,選擇了一套讓 AI硬件們各司其職,且相對務實的「共生」路線。

蘋果曾申請過一款腦電波 AirPods專利

在蘋果的這套架構里,這三款硬件不需要高性能晶片,不需要大電池。它們存在的目的純粹且單一:全感官的數據採集。

通過獨立且輕便的小型設備,源源不斷地獲取外界信息。畢竟人類又不可能24小時舉着手機,所以為了獲取這些連續不斷的視覺流,攝像頭必須搶佔人體感知器官的「高地」——也就是我們的耳朵和鼻樑。

在蘋果的這套 AI新硬件體系中,三款硬件分工明確:

代號 N50的高端智能眼鏡佔據了「第一視角(FPV)」,看你所看,負責鎖定和記錄你當下的注意力;帶攝像頭的 AirPods利用頭動即眼動的特性,負責掃描側向視覺,補全了環境感知;AI掛飾則像一隻掛在胸口的「眼睛」,負責廣角記錄,構建長期記憶。

圖|Tim's Guide

它們就像是 iPhone伸出來的三根觸角,瘋狂地從物理世界汲取信息。

同時,蘋果也能在低像素高密度的信息流中,實施一貫的私隱策略:「閱後即焚」。

所有攝像頭捕捉的數據,僅供 AI在完成環境理解,不留任何存檔。這樣一來,既餵飽了 AI,又最大程度地消解了用戶對私隱的顧慮。

蘋果的魔法:語音無聲輸入

從信息輸入角度分析,我們大致能了解三款 AI硬件的設計思路和運行方式,但想要這套 AI硬件系統好用,還有一個比技術更棘手、甚至可以說決定生死的難題——交互。

現有 AI硬件的最大痛點在於社交壓力,在嘈雜的地鐵里,對着胸口的 Ai Pin大喊「嘿,幫我查查我該在哪個站下車」,無論 AI回答有多智能,都十足社死。

由此,我甚至可以得出一個暴論:只要還需要小聲自言自語,AI硬件就很難走出小圈子。

先烈 Ai Pin

蘋果顯然深知這種喃喃自語帶來的社交壓力,它的解決方案是「說話無聲」——就在上個月底,蘋果斥資20億美元,快速而隱秘地收購了以色列公司 Q.ai,將這項技術納入囊中。

這筆收購,在十年前就已埋下線索。

Q.ai的創始人 Aviad Maizels,這個名字你可能陌生,但自 iPhone X開始使用的 Face ID,就源自他創立的上一家公司 PrimeSense。

Q.ai的核心技術是肌電圖(EMG)與微表情分析,這聽起來像賽博朋克小說里的設定,但原理其實非常生物學:當我們想要說話時,大腦會向發聲器官發送神經電信號。即使我們最終壓低聲音、甚至根本沒有發出聲音,喉嚨、下頜和臉頰的肌肉依然會產生微弱的生物電波動。

Q.ai的算法,可以捕捉並翻譯這些沉默的波動。

用於情感識別的面部肌電圖信號採集

用戶不需要像呼叫 Siri那樣字正腔圓,甚至不需要張開嘴,只需要在喉嚨里「默讀」指令,眼鏡腿上的傳感器就能精準識別。

沒有聲音,沒有動作。在旁人眼中,你只是短暫地停頓,便獲取了信息。

正如多點觸控讓 iPhone告別物理鍵盤,Q.ai的無聲交互,賦予了無屏設備高帶寬、高私隱的輸入能力。

如果類比 iPhone的成功經驗,這可能就是 AI硬件的「多點觸控」。

讓所有人在十年後,仍然需要 iPhone

在去年鬧得轟轟烈烈的 Google反壟斷案當中,有一封電子郵件證據,來自蘋果的互聯網服務高級副總裁 Eddy Cue放過的狠話:

十年後,可能我們都不需要 iPhone了。

Eddy Cue與 Tim Cook

這句話曾被無數媒體解讀為蘋果的自我革命,也側面傳遞出在 AI浪潮里蘋果的焦慮,但隨着 N50眼鏡、掛飾和 AI AirPods的拼圖逐漸浮出水面,蘋果的新思路也昭然若揭——

將 AI硬件這個新品類,牢牢綁住 iPhone這個生態完善、用戶成熟的大船。

若是講得更明白些,我們可以試着將蘋果的路子分為兩個步驟:體驗升級,然後拆解。

2016年秋天,蘋果拿掉 iPhone7的3.5mm接口,隨之而來的,是 AirPods的橫空出世。蘋果通過無線連接、入耳檢測、空間音頻等技術,對聽覺體驗進行了一波大升級,雖然 EarPods沒有被立刻拋棄,還能正常使用,但實際上,你需要購買 AirPods,才能獲得升級後的體驗。

「聽」這個動作,被成功地從手機上剝離,獨立成了一條數十億美元的配件產線。

Apple Watch走的也是這條路——將健康與通知兩個功能一邊升級、一邊剝離出來,用戶需要購買額外的配件,才能解鎖 iPhone更全面的體驗。

現在,AI硬件,蘋果也打算這麼幹了。

按照蘋果的設想,未來你的設備可能是這樣的:

手腕:Apple Watch(健康監控+通知中心);

耳朵:AirPods(聽覺增強+語音助理);

鼻樑:N50眼鏡(視覺增強+隱形屏幕);

胸口:掛飾(全天候記錄儀+記憶外掛);

口袋:iPhone(算力核心+網關)。

放眼這個星球,目前最有可能在你身上同時塞進五個電子設備的公司,恐怕也只有蘋果一家。

這也就不難理解,為什麼 OpenAI CEO Sam Altman會在紐約的一場午餐會上,拋開 Google,直言不諱地警告:

大家別盯着 Google了,OpenAI真正的宿敵,是蘋果。

當然,即便這個爆料傳聞完全屬實,我們也不會真的把這些硬件全都一股腦戴在身上。你會發現,眼鏡、耳機、掛飾都有攝像頭,它們的能力和角色大體相同。

蘋果對於可穿戴設備的定義,從來不會讓它們存在感過於強烈,而是以無感的方式存在。

但無論如何,如果這條路跑通,蘋果最恐怖的「生態護城河」將順勢流淌進 AI時代,與之相隨的,是數十億用戶的肌肉記憶和操作習慣。這對於任何一家致力於打造 AI硬件的廠家來說,都是致命威脅。

在這場 AI硬件的寒武紀大爆發中,蘋果看似反應遲鈍,也確實在大模型、AI落地上表現不太讓人滿意,可如果這套陽謀最終跑通,Eddy Cue當年的那句豪言,或許真的需要微調幾個字,才能跟上蘋果的野心:

十年後,我們可能不止需要 iPhone了。

責任編輯: 時方  來源:愛范兒 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2026/0220/2350533.html