侵權(quán)投訴
訂閱
糾錯
加入自媒體

WEWA、VLA、世界模型,輔助駕駛進(jìn)入GPT時代

作者 | 德新

編輯 | 王博

2025年的車市即將邁入「金九銀十」,各家頭部車企在關(guān)鍵的輔助駕駛競爭上也摩拳擦掌,醞釀各自年度的大版本更新。

華為ADS4即將推送,并升級到WEWA架構(gòu);小鵬、理想、元戎選擇了VLA,已經(jīng)或者馬上在新車推出新版大模型;地平線、Momenta則更強(qiáng)調(diào)強(qiáng)化學(xué)習(xí),前者HSD新車馬上要量產(chǎn)了,后者正準(zhǔn)備R6大模型上車。

圖片華為ADS4 WEWA架構(gòu), 圖片來源:HiEV拍攝

如果用一句話來總結(jié)輔助駕駛在今年的趨勢,那就是全面進(jìn)入了「GPT時代」。這一代的輔助駕駛系統(tǒng),普遍在車端的模型參數(shù)規(guī)模上已經(jīng)超過了十億參數(shù)門檻(1B),云端模型參數(shù)規(guī)模更是接近千億級(100B)。

當(dāng)然,與大語言模型相比,今天輔助駕駛「大模型」還在非常早期的階段。但針對模型訓(xùn)練所需的數(shù)據(jù)規(guī)模,以及算力投入已經(jīng)在顯著地增長。頭部的車企,包括吉利、理想、奇瑞等在內(nèi),云端算力儲備已經(jīng)超過10EFlops,各大車企加碼云端算力以EFlops計算;頭部公司今年增加的輔助駕駛里程,將以10億公里計算。

在輔助駕駛的研發(fā)上,大模型主導(dǎo)的技術(shù)路線已經(jīng)非常明確,車企的挑戰(zhàn)從路線的摸索,轉(zhuǎn)向?qū)π路妒较卵邪l(fā)組織的變革以及效率打磨。

一、輔助駕駛進(jìn)入GPT時代

在整個大AI領(lǐng)域,Scaling Law模型參數(shù)規(guī)模帶來的算法性能收益仍在持續(xù),輔助駕駛也追隨這一定律。

OpenAI剛剛在8月初發(fā)布了GPT-5,其早前歷代的大版本——GPT-2是15億參數(shù),GPT-3躍升至1750億,而GPT-4達(dá)到了1.8萬億。歷代模型隨著參數(shù)加大,每代模型的能力都令人刮目相看,模型的訓(xùn)練成本也是直線飆升。

我們沒有最新的GPT-5的數(shù)據(jù),但是據(jù)此前Deep Trading創(chuàng)始人Yam Peleg爆料:GPT-4大約在2.5萬張A100上訓(xùn)練了90 - 100天,利用率在32%到36%之間。業(yè)界估算訓(xùn)練算力成本將近8000萬美元,耗電超過2億度。

目前,就輔助駕駛的模型參數(shù)規(guī)模,進(jìn)到端到端大模型后有顯著的提升,車端參數(shù)規(guī)模在10億級(幾B),云端參數(shù)規(guī)模已經(jīng)達(dá)到百億級(幾十B)。頭部公司小鵬公布其在訓(xùn)練的云端輔助駕駛基座模型參數(shù)規(guī)模為72B,理想VLA的VL基座模型達(dá)到32B。

純從參數(shù)規(guī)模角度,輔助駕駛云端大模型現(xiàn)在的發(fā)展階段,介于GPT-2和GPT-3之間。

圖片圖片來源:X

模型參數(shù)規(guī)模的增長,在車企的研發(fā)上是全鏈路的挑戰(zhàn)。

車端視角下,過去BEV + Transformer的范式,需要的車端算力規(guī)模大概在100 Tops,現(xiàn)在需要數(shù)百甚至1000 Tops級的車端算力;典型的11V 800萬像素攝像頭,每天采集到的數(shù)據(jù)是數(shù)個TB。

云端投入也在高速增長期。吉利的星睿智算目前算力規(guī)模超過23 EFlops,理想最近公布云端算力超13 EFlops,奇瑞的天穹智算算力也超過了13 EFlops。光這3家加起來就接近50 EFlops,之前有行業(yè)預(yù)測稱2028年國內(nèi)車企總算力規(guī)模達(dá)到100 EFlops,如今看已經(jīng)太保守。

除了資源上的壓力,頭部公司也在面臨新的問題,比如MPI的增速放緩,又比如在超過10億級里程積累后挖到有價值數(shù)據(jù)的難度越來越大,模型訓(xùn)練的周期也在被拉長。

總之,輔助駕駛在從70、80分,向100分挺進(jìn)的路上,車企開始踏上最難的一段坡

二、車企破局「大模型」開發(fā)

在2025年轟轟烈烈的「全民輔助駕駛」運動里,保守估計國內(nèi)市場至少50%以上的新車會搭載L2輔助駕駛系統(tǒng),也就是一年1000萬臺級的增量。

尤其對傳統(tǒng)廠商來說,今年會壓力陡增,一個是車企的用戶基數(shù)大,另一個是因為今年他們的輔助駕駛配置率拉得很快。比如長安汽車現(xiàn)在大概有2000多萬的車主,奇瑞有超過1600萬,長安預(yù)期今年會有數(shù)百萬臺的增量,而奇瑞則談到今年輔助駕駛里程增加在20億公里以上

除了堆更高的車端算力,大模型帶來的挑戰(zhàn)大部分聚焦在云端的工作,比如訓(xùn)練算力、數(shù)據(jù)挖掘、模擬仿真等等。

以長安汽車為例,長安今年選了華為云CloudMatrix384超節(jié)點來做輔助駕駛的云端模型訓(xùn)練;前不久的智能汽車大會2025上,搭載華為云 CloudMatrix384超節(jié)點的長安天樞智駕重磅發(fā)布。

華為云CloudMatrix384超節(jié)點首創(chuàng)將384顆昇騰NPU和192顆鯤鵬CPU,通過全新高速網(wǎng)絡(luò)MatrixLink全對等互聯(lián),形成一臺「超級 AI服務(wù)器」,單卡推理吞吐量躍升到2300 Tokens/s。針對今年汽車行業(yè)大模型的趨勢,華為云專門跟主流車企做了專項深度的優(yōu)化,尤其是針對端到端和VLA的大模型。

前面我們提到過GPT-4在訓(xùn)練時,2.5萬張A100利用率是32 - 36%,什么意思呢?這實際上是說,此時GPU的算力是夠的,但因為一些原因沒有「喂飽」浪費掉了,可能的瓶頸包括顯存帶寬、通信帶寬等等。

而華為云CloudMatrix384超節(jié)點將算子從CPU向NPU下發(fā),使用的不是傳統(tǒng)的PCIe,而是華為自建的UB(Unified Bus),可以大幅加快算子的下發(fā)速度;而在顯存帶寬上,CM384是GB200 NVL72的2.1倍。

顯存高就是在模型的訓(xùn)練過程中,可以喂得更快、算得更快,模型的參數(shù)規(guī)模也可以更大;對車企來說,就是同樣電費,迭代更快,訓(xùn)得的模型更大。

在模型訓(xùn)練,除了計算之外,還有一大瓶頸是存儲。

華為云在CloudMatrix384超節(jié)點的機(jī)柜中部署了AI-Native智算存儲節(jié)點,是專為AI 全生命周期設(shè)計的存儲解決方案,也是輔助輔助駕駛開發(fā)的加速器。

通過向量檢索,其每次檢索能返回的條數(shù)高達(dá)10萬條;AI-Native智算存儲還提供大模型訓(xùn)練所需的高緩存容量和帶寬,到年底,其高性能緩存容量將增長到128PB,高性能緩存帶寬將提升到12TB/s。

所謂「向量檢索」,比如高速場景中會搜集海量數(shù)據(jù),想找到「 前車車尾伸出了一根長長的鋼管」,要從海量的場景中找到對應(yīng)的數(shù)據(jù)堪稱「大海撈“幀”」;使用傳統(tǒng)的檢索方法每次只能反饋一千條的結(jié)果,而華為云通過AI存儲和向量檢索結(jié)合,一次可以返回十萬條的結(jié)果,大幅提高數(shù)據(jù)挖掘的效率。

目前,長安與華為云開展深度合作,基于華為云CloudMatrix384超節(jié)點及華為云高帶寬、大容量的存儲集群,成功實現(xiàn)了長安汽車自動駕駛模型的高效訓(xùn)練。雙方已進(jìn)行了VLA、端到端等多種自動駕駛模型的適配。

華為云通過AI上飽和式的投入,以及CouldMatrix384超節(jié)點、AI-Native存儲等核心技術(shù)的創(chuàng)新,正在成為車企布局大模型的首選伙伴。

三、輔助駕駛,如何駛向更安全的未來?

伴隨著開年的「全民輔助駕駛」運動,今年對輔助駕駛安全的關(guān)注也是空前的。

前不久在貴陽,華為云發(fā)布了全國首個具備大規(guī)模超節(jié)點的汽車專區(qū) —— 華為云貴安汽車專區(qū)。

圖片華為云貴安汽車專區(qū)發(fā)布,圖片來源:企業(yè)官方

華為云貴安汽車專區(qū)是專為汽車行業(yè)打造的云基礎(chǔ)設(shè)施,依托分布式接入架構(gòu)與全國高可用布局,實現(xiàn)低時延就近接入,保障用戶在自駕游等跨區(qū)域出行場景中,都能享受到一致的智能輔助駕駛體驗。

同時,多專區(qū)多活架構(gòu)讓系統(tǒng)可靠性大幅提升,實行車云時延降低60%,可用性達(dá)99.999%,讓智能輔助駕駛體驗更流暢、更可靠。

此前,華為云已建成業(yè)內(nèi)首個 「 三可用區(qū)(3AZ)」烏蘭察布專區(qū),此次貴安專區(qū)上線標(biāo)志著其第二大汽車專區(qū)落地。后續(xù)蕪湖汽車專區(qū)上線后,華為云即將完成業(yè)內(nèi)首個三專區(qū)上線

未來,三大專區(qū)協(xié)同聯(lián)動,將為智能輔助駕駛技術(shù)研發(fā)提供安全合規(guī)、低時延、高可用的基礎(chǔ)設(shè)施保障,支持分布式全國就近接入,顯著提升用戶體驗。

據(jù)了解,中國最大的智能駕駛輔助企業(yè)引望跑在昇騰云上,引望使用云上算力已支持100萬輛車智能飛馳。

華為云在輔助駕駛的體驗上還有一個重要的創(chuàng)新思路是,以云助車

「 以云助車」方案為復(fù)雜的智能輔助駕駛場景提供澎湃動力,已幫助車企落地泊車與低速巡航場景:一方面將難例泊車成功率提升15%,另一方面借助云端大模型輔助優(yōu)化端到端泊車效率,讓準(zhǔn)備出行的用戶享受更輕松的駕駛過程。

真正「大模型」時代對車企的挑戰(zhàn)是日新月異的,用華為云中國區(qū)Marketing與解決方案銷售部部長劉飛的話「華為云幫助車企造更智能的車」。目前,已有5000萬輛智能網(wǎng)聯(lián)汽車由華為云提供服務(wù)。

       原文標(biāo)題 : WEWA、VLA、世界模型,輔助駕駛進(jìn)入GPT時代

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號