訂閱
糾錯
加入自媒體

熱點(diǎn)丨谷歌 Meta聯(lián)手,用TPU+PyTorch擊打英偉達(dá)軟肋

前言

谷歌與Meta宣布深化合作,讓PyTorch更好地原生支持Google TPU。

這是一次繞開英偉達(dá)CUDA生態(tài)、直擊其護(hù)城河根基的系統(tǒng)性動作。

這不是一次簡單的[反英偉達(dá)聯(lián)盟],而是一次云廠商×超級應(yīng)用廠商,對算力話語權(quán)的再分配嘗試。

圖片來源 |  網(wǎng) 絡(luò) 

英偉達(dá)的CUDA護(hù)城河與行業(yè)集體焦慮

市場普遍認(rèn)為,英偉達(dá)的優(yōu)勢在于GPU性能領(lǐng)先、制程先進(jìn)、HBM和NVLink技術(shù)強(qiáng),但這些都是表層優(yōu)勢。

英偉達(dá)真正不可替代的核心只有一個:CUDA生態(tài)鎖定。

CUDA做了三件事:綁定開發(fā)者心智、綁定軟件工具鏈、綁定模型與代碼資產(chǎn)。

結(jié)果是:用英偉達(dá)=開發(fā)成本最低,換平臺=重寫代碼+不確定風(fēng)險。

這是一種生態(tài)稅,而不是硬件溢價。

自2016年P(guān)yTorch發(fā)布以來,這款由Meta主導(dǎo)的開源框架迅速成為AI開發(fā)者的通用語言,而英偉達(dá)的工程師們始終確保PyTorch開發(fā)的模型在其GPU上實現(xiàn)最優(yōu)性能。

大量的性能優(yōu)化、算子實現(xiàn)和工程經(jīng)驗沉淀在CUDA+PyTorch組合中,形成了極高的遷移成本。

在硅谷,幾乎沒有開發(fā)者會為特定芯片逐行編寫底層代碼,PyTorch這樣的框架成為連接開發(fā)者與硬件的默認(rèn)抽象層,而CUDA則成為這層抽象背后的技術(shù)基石。

這種壟斷格局讓整個行業(yè)陷入集體焦慮,對于Meta這樣的巨頭而言,2025年GPU采購預(yù)算高達(dá)720億美元,卻仍面臨高價搶貨的困境,推理成本居高不下。

行業(yè)對替代方案的渴求日益強(qiáng)烈,當(dāng)AI推理成本持續(xù)飆升,OpenAI 2024年推理支出已達(dá)23億美元,是GPT-4訓(xùn)練成本的15倍。

谷歌與Meta的聯(lián)手,正是在這樣的行業(yè)痛點(diǎn)下應(yīng)運(yùn)而生。

圖片

TorchTPU計劃的技術(shù)破局與戰(zhàn)略深意

Meta并不是英偉達(dá)的敵人,事實上,Meta是英偉達(dá)最大的客戶之一,LLaMA、推薦系統(tǒng)、廣告模型都深度依賴GPU。

那為什么Meta要推動PyTorch×TPU?原因只有一個:算力主權(quán)。

Meta的AI規(guī)模意味著任何10%的成本波動,都是天文數(shù)字,任何算力瓶頸都會影響產(chǎn)品節(jié)奏。

通過PyTorch,Meta可以降低[非CUDA平臺]的使用門檻,為自己保留更多算力選擇權(quán),迫使英偉達(dá)在談判中失去絕對優(yōu)勢,這是一種長期議價權(quán)布局。

近日,谷歌正式推進(jìn)代號為[TorchTPU]的戰(zhàn)略行動,核心目標(biāo)直指TPU與PyTorch的原生級兼容,讓全球最主流的AI框架能在谷歌自研芯片上高效運(yùn)行。

與過往對PyTorch的零星支持不同,谷歌此次投入了前所未有的組織關(guān)注度和戰(zhàn)略資源,甚至考慮將部分軟件開源,以加速客戶遷移進(jìn)程。

而作為PyTorch的創(chuàng)建者和守護(hù)者,Meta的深度參與讓這場技術(shù)突圍更具顛覆性。

TorchTPU計劃的本質(zhì),是消除橫亙在TPU硬件與PyTorch生態(tài)之間的技術(shù)壁壘。

谷歌第七代TPU Ironwood在硬件上已具備強(qiáng)大競爭力,F(xiàn)P8精度下峰值算力達(dá)4614 TFLOPS,配備192GB高帶寬內(nèi)存,能效比遠(yuǎn)超英偉達(dá)B200。

圖片

但長期以來,軟件生態(tài)的缺失讓這些硬件優(yōu)勢難以發(fā)揮。

通過與Meta的合作,谷歌正在重構(gòu)TPU的軟件棧。開發(fā)者無需大幅改寫代碼,即可實現(xiàn)PyTorch模型向TPU的無縫遷移,谷歌推出的TPU指揮中心更進(jìn)一步降低了部署門檻。

這種高性價比硬件+主流生態(tài)的組合,直接沖擊了英偉達(dá)的核心優(yōu)勢。

據(jù)測試,在LLM推理、圖像生成等張量密集型任務(wù)中,TPU的性價比是英偉達(dá)H100的四倍,運(yùn)行BERT服務(wù)等任務(wù)的速度比A100 GPU快2.8倍,同時節(jié)能60-65%。

這場合作對谷歌與Meta而言,是一場精準(zhǔn)的戰(zhàn)略互補(bǔ)。

對谷歌來說,TPU早已不是單純的內(nèi)部工具,2022年谷歌云部門獲得TPU銷售主導(dǎo)權(quán)后,其銷量已成為谷歌云營收增長的重要引擎。

2025年起,谷歌更開始將TPU直接出售給客戶的數(shù)據(jù)中心,組織架構(gòu)也隨之調(diào)整,老將Amin Vahdat被任命為AI基礎(chǔ)設(shè)施負(fù)責(zé)人,直接向CEO皮查伊匯報。

TorchTPU計劃的成功,將徹底打開TPU的商業(yè)化空間,據(jù)摩根士丹利預(yù)測,到2027年TPU產(chǎn)量將達(dá)500萬塊,2028年增至700萬塊,每賣出50萬塊即可為谷歌帶來130億美元營收。

對Meta而言,合作的戰(zhàn)略價值同樣顯著。作為英偉達(dá)最大的客戶之一,Meta長期受困于對GPU的過度依賴。

通過推動PyTorch與TPU的適配,不僅能獲得更便宜的推理算力,更能實現(xiàn)硬件基礎(chǔ)設(shè)施多元化,在與英偉達(dá)的采購談判中掌握更多籌碼。

據(jù)悉,Meta計劃2026年通過谷歌云租賃TPU,2027年斥資數(shù)十億美元采購硬件部署自有數(shù)據(jù)中心,用于Llama模型微調(diào)等算力密集型任務(wù)。

TorchTPU計劃最具革命性的一點(diǎn),在于其開源導(dǎo)向。谷歌考慮將部分軟件棧開源,這與英偉達(dá)CUDA的封閉生態(tài)形成鮮明對比。

PyTorch作為全球超半數(shù)AI開發(fā)者的首選框架,本身就具備強(qiáng)大的開源社區(qū)基礎(chǔ),其與TPU的深度融合,將形成首個真正由開源生態(tài)驅(qū)動、直接沖擊英偉達(dá)軟件護(hù)城河的挑戰(zhàn)者。

過去,英偉達(dá)通過CUDA生態(tài)鎖定開發(fā)者和客戶,形成越用越依賴的路徑依賴。

而TorchTPU計劃則以開源為武器,降低了開發(fā)者的遷移成本,讓更多企業(yè)有機(jī)會擺脫[英偉達(dá)稅]。

TPU+PyTorch的象征意義在于,AI算力正在從[芯片中心主義],走向[生態(tài)與系統(tǒng)博弈]。

圖片

巨頭加入或?qū)⒓铀偈袌鲛D(zhuǎn)移

形象地說,GPU就像一位多才多藝的運(yùn)動員,精通多項運(yùn)動;而TPU則像一位奧運(yùn)短跑冠軍,在特定領(lǐng)域做到極致。

隨著AI算力需求從訓(xùn)練向推理轉(zhuǎn)移,據(jù)預(yù)測,到2030年推理將消耗75%的AI計算資源,市場規(guī)模達(dá)2550億美元,這種技術(shù)路線的對決將直接決定行業(yè)的未來走向。

在AI推理成為算力需求主流的未來,這種[專精]往往比[全能]更具競爭力。

這場技術(shù)對決已經(jīng)開始影響市場格局,摩根士丹利預(yù)測,2026年ASIC出貨量將首次超過GPU,AI數(shù)據(jù)中心市場將從GPU一家獨(dú)大轉(zhuǎn)向多極制衡。

目前,已有多家巨頭開始向TPU遷移,圖像生成器Midjourney 2024年轉(zhuǎn)向TPU后,推理成本驟降65%,從每月200萬美元降至70萬美元,吞吐量提升3倍。

Claude的開發(fā)商Anthropic與谷歌達(dá)成數(shù)百億美元交易,承諾采用多達(dá)一百萬個TPU,到2026年將釋放超過1GW的計算容量。

蘋果也已開始使用TPU訓(xùn)練AI模型,成為谷歌云TPU的重要客戶。

據(jù)谷歌云高管預(yù)測,僅TPU的采用就可能占到英偉達(dá)10%的收入,這意味著每年將有數(shù)十億美元的市場份額轉(zhuǎn)移。

而隨著Meta等巨頭的加入,這種市場轉(zhuǎn)移可能會加速。

除了谷歌TPU,亞馬遜的Trainium、微軟的Maia以及Cerebras、Groq等初創(chuàng)公司的專用芯片也在涌入市場,進(jìn)一步加劇了市場的多元化。

野村證券預(yù)測,2030年AI數(shù)據(jù)中心潛在市場規(guī)模將達(dá)1.2萬億美元,足夠容納多家參與者共同發(fā)展。

谷歌與Meta的這次聯(lián)手,不會立刻改變市場格局,卻已經(jīng)改變了長期敘事。

英偉達(dá)不再是唯一的AI時代基礎(chǔ)設(shè)施,算力開始像云計算一樣,走向多供應(yīng)、多生態(tài),

超級平臺正在收回底層控制權(quán)。

圖片

結(jié)尾:

這不是一場短期的勝負(fù)之爭,而是一場未來十年AI基礎(chǔ)設(shè)施主導(dǎo)權(quán)的慢變量戰(zhàn)爭。

真正值得關(guān)注的不是英偉達(dá)是否被挑戰(zhàn),而是當(dāng)算力不再被一家定義,AI的創(chuàng)新速度和成本結(jié)構(gòu),將被重新改寫。

而這,才是TPU+PyTorch背后,最具殺傷力的部分。

部分資料參考:頭部科技:《谷歌TPU讓黃仁勛[慌了神]》,不慌實驗室:《谷歌聯(lián)手Meta挑戰(zhàn)英偉達(dá)!打響算力突圍戰(zhàn)?》,差評X.PIN:《谷歌憋了十年的大招,讓英偉達(dá)好日子到頭了?》,新智元:《英偉達(dá)危,谷歌聯(lián)手Meta要讓TPU支持PyTorch,擊穿CUDA護(hù)城河》,半導(dǎo)體行業(yè)觀察:《難怪高通急了》

       原文標(biāo)題 : 熱點(diǎn)丨谷歌 Meta聯(lián)手,用TPU+PyTorch擊打英偉達(dá)軟肋

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號