国产无码免费,人妻口爆,国产V在线,99中文精品7,国产成人无码AA精品一,制度丝袜诱惑av,久久99免费麻辣视频,蜜臀久久99精品久久久久久酒店
        侵權投訴
        訂閱
        糾錯
        加入自媒體

        輔助駕駛從VLM與VLA:2025年下半年的核心轉變

        2025-04-28 15:11
        芝能科技
        關注

        芝能科技出品

        輔助駕駛技術正從基于規則和模塊化的傳統范式,邁向由視覺語言模型(VLM)和視覺-語言-動作模型(VLA)驅動的新階段。

        ● VLM作為車輛的“認知核心”,通過統一處理多模態感知數據和自然語言信息,使車輛能夠理解復雜的交通場景、遵守抽象的交通規則并響應人類指令。

        ● VLA則在VLM的理解基礎上,深度融合感知、理解與車輛控制,實現端到端、擬人化的駕駛行為。

        01

        從VLM到VLA

        傳統的自動駕駛依賴精確的環境建模和規則編程,難以應對現實世界的復雜性與模糊性。

        視覺語言模型(VLM)旨在解決這一問題,構建車輛的“認知核心”。

        VLM的關鍵在于能夠統一處理來自攝像頭、激光雷達等傳感器的感知數據,以及交通規則文本、導航信息、自然語言指令等語言數據。通過強大的模型架構,VLM能將這些異構信息編碼到共同的特征空間,實現跨模態的關聯與推理

        這使得車輛不僅僅是識別障礙物,更能理解場景的深層含義,例如識別特定標志牌并結合交通法規判斷當前行為是否合法,或理解用戶“靠邊停車”的語音指令并規劃執行。

        ● VLM的應用廣泛,例如:

        ◎ 場景語義解析: 識別并理解“潮汐車道”、“施工繞行”等復雜交通語境,生成符合規則的駕駛決策。

        ◎ 智能人車交互: 理解自然語言指令(如“切換駕駛模式”),或識別視覺興趣點(如充電樁)并與之關聯。

        ◎ 高階安全判斷: 分析復雜場景(如無保護左轉)下潛在風險,輔助決策。

        實現這些能力需要強大的計算支持,VLM的出現,讓自動駕駛系統從“看清”邁向“看懂”,是實現更高層級自主性的前提。理解世界僅僅是第一步,將理解轉化為恰當的行動是自動駕駛的最終目標。

        視覺-語言-動作模型(VLA)正是負責這一轉化過程,實現從感知、理解到車輛控制的端到端連接。VLA將來自VLM或其他感知模塊的環境理解,與車輛的轉向、加速、制動等控制指令深度耦合,學習直接從輸入到輸出的映射。

        它形成了一個端到端(End-to-End)的閉環:接收感知和語言輸入,內部進行決策,直接輸出控制信號。這種模式簡化了傳統系統的復雜層級,有望提升系統整體響應速度和魯棒性。

        采用Diffusion模型生成駕駛軌跡,并結合ODE采樣器優化規劃過程,顯著提升了軌跡生成質量和復雜路況下的博弈能力,這代表了VLA在行為生成層面的重要進展。

        VLM和VLA并非孤立工作,而是緊密協同, VLM理解場景、規則和指令,為VLA提供宏觀的駕駛意圖和策略指導(例如:根據導航規劃變道、識別危險需避讓)。 

        VLA根據VLM的指導和實時的感知信息,生成并執行精確的車輛軌跡和控制動作。VLA的執行結果(成功或失敗)可作為反饋,反向優化VLM對場景的理解和決策邏輯,形成持續學習的閉環。

        02

        VLA+英偉達Thor,

        “空間智能體”

        在導入VLA的狀態中,理想汽車是很快的。MindVLA(視覺-語言-行動模型)開始向融合空間智能、語言智能和行為智能的物理人工智能邁進。

        圍繞3D空間理解、高效模型架構、增強邏輯推理、優化軌跡生成、高精度仿真以及卓越泛化能力,讓車輛具備感知、思考和自主行動的能力。

        ● 3D高斯(3D Gaussian)作為核心中間表征,這是其空間智能的基礎。

        與傳統的點云或體素表示相比,3D高斯能同時捕捉物體的幾何形狀和外觀信息,具有更強的語義表達能力和多粒度、多尺度的幾何表達靈活性。這使得系統能更全面、高效地感知和理解復雜的3D環境。

        結合海量數據上的自監督學習,系統能自動從無標注數據中提取有效的3D特征,大幅提升環境感知的精度和效率,為后續決策奠定堅實基礎。

        為了在計算資源有限的車端環境運行大規模模型,采用了MoE(Mixture of Experts)架構并引入稀疏注意力(Sparse Attention)

        MoE允許模型在擁有龐大參數量的同時,針對特定輸入只激活部分“專家”網絡,實現計算的稀疏化,從而在不犧牲模型規模的前提下,維持較高的端側推理效率。

        ● 邏輯推理能力是提升的核心,通過訓練LLM基座模型學習人類思考模式,并有機結合**“快思考”(實時響應)和“慢思考”(深度推理),模型能根據不同駕駛情境靈活切換決策模式,提升決策的安全性和合理性。

        同時,為了最大化利用NVIDIA Drive AGX算力,小詞表、投機推理和并行解碼等技術,結合英偉達的推理優化,實現了高達7倍的推理效率提升,確保復雜推理也能滿足實時性要求。

        ● 擴散模型(Diffusion Model)優化駕駛軌跡,以生成高質量復雜數據聞名,應用于軌跡生成有望生成更平滑、更自然、更具博弈性的駕駛路徑。通過自車行為生成與他車軌跡預測的聯合建模,系統能更好地預測交通參與者的行為并進行合理應對。

        通過構建人類偏好數據集并引入RLHF(基于人類反饋的強化學習)微調,能更好地對齊人類駕駛習慣,顯著提升復雜和極端場景下的安全底線。

        NVIDIA Drive AGX平臺和生態的支撐,在世界模型、NRE、模型訓練加速以及端側優化部署等領域的技術進展。

        小結在2025年,我們看到VLA通過3D高斯表征、MoE架構和Diffusion模型,實現了高效的空間理解、邏輯推理和軌跡生成,英偉達的Thor芯片、NVIDIA Cosmos世界模型和NRE引擎為VLA提供了強大的算力支持和仿真環境,加速了技術從實驗室到量產的轉化。

               原文標題 : 輔助駕駛從VLM與VLA:2025年下半年的核心轉變

        聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

        發表評論

        0條評論,0人參與

        請輸入評論內容...

        請輸入評論/評論長度6~500個字

        您提交的評論過于頻繁,請輸入驗證碼繼續

        暫無評論

        暫無評論

          文章糾錯
          x
          *文字標題:
          *糾錯內容:
          聯系郵箱:
          *驗 證 碼:

          粵公網安備 44030502002758號

          主站蜘蛛池模板: 宁强县| 夜夜爽影院| 广汉市| 91人人干| av高清无码在线观看| 亚洲日韩AV无码专区影院| 一区二区三区精品| 美女黄区| 99精品视频在线观看| 1024在线免费观看| 伊人福利导航| 91人人草| 丁香婷婷社区| 久久精品亚洲| 四虎永久在线精品无码| 岛国精品| 亚洲人?拳交?残酷?业余| xxxx欧美| 若尔盖县| 老司机69| 探花AV| 97福利| 澜沧| 亚洲最大成人在线| 欧美福利视频导航| 任丘市| 精久视频| 一本色道久久综合狠狠| 久久久久久AV无码免费网站动漫| 澎湖县| 九九国产在线观看| 亚洲AV第二区国产精品| 扎鲁特旗| 美女91美女视频网站| 波多野在线影院| 亚洲无码在线免费观看| 六枝特区| 人妻无码一区二区三区| 探花无码| 日本精品一区二区| 南丹县|