說話就能控制左右快慢!理想汽車MindVLA大模型實測視頻發布
時間:2025-03-21 19:23 來源:未知 作者:admin 閱讀:次
快科技3月21日消息,今天下午,理想汽車詳細介紹了MindVLA大模型與現有端到端+VLM大模型的區別,并公布了相關實測視頻。按能力表現來看,MindVLA 模型加持下的汽車就像一個助手,能與用戶溝通、理解用戶意圖,幫用戶做更多事情。
比如,它可以在陌生車庫漫游找車位直至自主完成泊車;可以按照駕駛員的“開快點、開慢點、左拐、右拐”等語音指令進行行動;可以在你發給它地標照片后,按圖索驥找到你等等。理想汽車還表示,MindVLA是理想汽車下一代自動駕駛核心架構,使用了MindGPT作為語言基座,demo中的語音通過座艙的ASR后變成文字,輸入給 MindVLA。
這一設計繼承自 MindGPT 在語言理解與交互領域的優勢能力(如語義解析、邏輯推理等),并針對自動駕駛場景進行了專項優化。這體現了智艙與智駕在功能層的協同創新,而非系統層的完全融合。未來,我們將持續探索多模態交互與駕駛決策的深度耦合,為用戶提供更自然的“人車共駕”體驗。

說話就能控制左右快慢!理想汽車MindVLA大模型實測視頻發布
【本文結束】出處:快科技
(責任編輯:admin)
最新內容
推薦內容
熱點內容