1 方案背景與目標
(1)方案背景
現階段,具身智能商業化應用剛起步,但已在多領域初顯成果,全球主要經濟體紛紛布局,呈現差異化發展格局:美國依托DARPA等機構強化基礎研究,2024年新版“國家機器人路線圖”重點部署具身智能通用平臺;日本推行“社會5.0”戰略,構建人機共融社會基礎設施;我國則通過《機器人+應用行動實施方案》等政策,將具身智能列為新質生產力培育重點。產業層面,頭部企業加速技術融合,華為推出“盤古大模型+Atlas機器人”協同系統,宇樹科技H1仿人機器人實現動態雙足行走,特斯拉Optimus完成工廠分揀任務。具身智能有望成為邁向通用人工智能的重要驅動力。
根據國際汽車制造商協會(OICA)數據,2023年中國汽車產量占據全球份額的32%,穩居世界第一,遠高于位居第二位的美國(11.34%),成為我國經濟核心支柱產業?。作為智能汽車的核心,智慧座艙的新車滲透率達到70.2%,標志著智能化已成為汽車座艙“標配”。智慧座艙在給用戶帶來極大便捷性的同時,也放大了智能座艙對生產生活的影響。
在工業領域,具身智能的應用基礎研究較早,主要通過仿真和預設規則化任務來實現智能。早期的汽車測試及仿真工具有Tesla Dojo虛擬驗證體系、Vector CANoe自動化協議棧、dSpace ASM功能安全測試平臺、華為MDC智能駕駛平臺、百度Apollo“昆侖”測試云和德賽西威自動化工具等。
近年來,隨著汽車智能化發展,智慧座艙扮演著至關重要的角色,傳統座艙測試方式已難以滿足高效、精準、全面的測試要求。智慧座艙智能化測試越來越被產業界重視,AI人工智能、智能體、多模態交互等概念和技術相繼被業界提出并推廣,希望借助智能化技術,實現智慧座艙測試從“自動化”向“智能化”躍遷。
利用具身智能構建用戶需求與智慧座艙實時鏡像,可增強座艙測試智能化,搭建具身智能平臺以快速應對多樣性車型、復雜功能及測試流程優化等挑戰。將其應用于智慧座艙測試,借生成式大模型等,對多車型和多版本迭代實現柔性測試,平臺還能為智慧座艙協同交互測試提供更高效精準全面的服務保障。
(2)方案目標
① 項目主要目標:
· 建立全方位、立體式的新一代解決智能座艙穩定性、安全性和用戶交互體驗問題的輕量化具身智能協同交互管理平臺;
· 建設基于多模態大模型的智能算法中樞引擎;
· 構建一整套智能座艙測試量化評價及決策體系。
② 實現的成果:
該項目已經積累了49件專利申請,其中,PCT國際申請1件,國內發明申請48件;獲得國內授權發明專利22件。該項目關鍵技術經江蘇省科技查新咨詢中心查新,綜合分析并對比國內所檢文獻。該項目形成了整車測試大模型平臺、基于人工智能的智數平臺、Howso@LINK機器視覺識別軟件、華蘇科技瓊觀算法中樞平臺等產品,相關產品在優化升級過程中,及時對迭代版本,針對重點功能模塊(檢測、分析、評估、預警、規劃、優化等)進行了計算機軟件著作權登記,并通過了中國軟件評測中心檢測。
2 方案詳細介紹
(1)項目內容及主要功能
該項目是華蘇科技自主研發的基于具身智能技術適用于針對汽車智慧座艙的功能和流程,進行全方位、立體式的新一代解決智能座艙穩定性、安全性和用戶交互體驗問題的輕量化具身智能協同交互管理平臺。該系統最底層融合AI大模型平臺、自動化測試云平臺、流媒體服務平臺和云邊協同平臺技術,打造華蘇數字技術基座。中間層搭建基于人工智能的智能算法中樞引擎,建立生成式大模型算法、多模態感知算法以及認知計算和決策算法等一系列引擎智能體,為上層應用提供場景化的智能模型。上層是智慧座艙應用生態場景解決方案,如基于具身智能的人機交互界面HMI測試系統、基于具身智能的信息娛樂系統IVI測試系統、智能車載終端T-BOX測試系統和智能駕駛輔助ADAS測試等場景化測試產品及解決方案。該系統使得用戶可以針對車書、行業規范、設計、需求和相關測試數據,根據智慧座艙的開發場景快速搭建測試方案。提升智慧座艙系統的安全性、合規性和用戶感知體驗的同時,該系統可直接嵌入業務系統為客戶提供基于具身智能的感知、理解、決策、控制、反饋的量化支持服務,填補了國內空白,技術處于國內領先、國際一流水平。

圖 1 華蘇數字平臺架構圖
基于具身智能的智慧座艙協同交互系統實現“1+N”的平臺架構體系。“1”為一個基礎的高性能輕量化智能體,即華蘇數字平臺底座;智能算法中樞引擎為中間層,建立一系列生成式大模型、多模態感知、認知和決策等算法,為上層應用提供場景化智能算法模型;“N”為基于具身智能的人機交互界面HMI測試系統、基于具身智能的信息娛樂系統IVI測試系統、智能車載終端T-BOX測試系統和智能駕駛輔助ADAS測試等場景化測試產品及解決方案,有效提高智能座艙穩定性、安全性和用戶交互體驗的智能化能力。
(2)關鍵技術方案
本項目立足于基于具身智能技術提高智能座艙測試效能、交互協同和質量的智能化系統,研發一套高性能輕量化具身智能智慧座艙協同交互管理平臺,并基于具身智能技術突破和攻克多項關鍵技術,在此技術基礎上開發多個場景化應用產品或解決方案,形成華蘇科技具身智能的核心能力。
① 建設基于多模態大模型的智能算法中樞引擎
在行業內率先創新性采用預訓練大語言模型與領域知識圖譜的深度協同機制,深度融合當前流行的生成式大模型、多模態技術等如DeepSeekR1、Qwen等,結合汽車領域多車型車書、多模態感知、設計規范、歷史缺陷等數據構建結構化和非結構化知識圖譜,如應用于語音交互、計算機視覺、OCR等大批需要人工進行推理分析的測試用例編寫、任務編排、執行計劃的過程中,可以大大提升測試效率,降低測試成本。

圖 2 智能算法中樞引擎架構
智能算法中樞引擎基于Transformer架構和多模態學習框架,結合強化學習(RL)和生成對抗網絡(GAN),實現自適應協同交互測試能力。將傳統微調(Fine-tuning)與提示工程(Prompt Engineering)融合創新,使LLM在生成過程中實現語義理解精度提升,運用檢索增強生產(RAG)與規則引擎聯合優化策略,消除語義偏差與邏輯沖突。引擎可針對不同座艙場景封裝視覺識別(如基于YOLO)、語音交互(如基于Whisper)、用戶行為分析(如基于BERT)等模型,形成模塊化、可擴展的測試子系統。自學習機制確保引擎隨測試數據增長持續優化,支持零樣本學習(Zero-shot Learning)和少樣本學習(Few-shot Learning)以應對多樣化車型協同交互驗證測試需求。
② 構建一整套智能座艙測試量化評價及決策體系
從汽車物理層包括人機交互界面、信息娛樂系統、車載終端、車輛控制系統和用戶終端等數據的物理統一,并且在邏輯上與車型車書、設計規范、歷史缺陷等數據,通過全局路徑特征提取實現閉環關聯統一。建立基于循環神經網絡的一系統智能分析及決策模型,如測試用例驗證評價模型,中控操作與物理控制對應關系;操作響應時長及流暢度評價模型,有效提高測試的全面性和準確性。通過評估結果,采用增量學習和強化學習算法建立自進化決策模型,最終形成執行方案,使用測試任務和流程達到最優。

圖 3 智能座艙測試量化評價及決策體系架構
智能座艙測試量化評價及決策體系是基于Ray RLlib框架創新性集成課程學習與因果推理算法實現動作空間探索。通過循環神經網絡和Transformer對數據進行處理,采用交叉熵損失、XGBoost模型回歸分析缺陷影響等級和排序,并關聯歷史缺陷數據,實現測試結果決策方案。采用深度Q網絡(DQN)或PPO算法,構建測試結果、決策評判和潛在隱患逐漸呈現狀態跟蹤的評分矩陣,動態調整決策閾值。
③ 構建一套智能體與物理實體深度融合的具身智能系統
需解決智慧座艙多模態感知技術、多模態協同交互技術、語音交互技術和信息安全等技術協同。如將物理實體數據與智能體數據關聯映射,不僅實現數據與物理實體的統一,并且實現物理實體與智能體的統一。如基于具身智能的多模態感知,其核心在于時空同步與語義關聯,對齊攝像頭畫面、語音指令、機械臂觸控及CAN總線信號的時序,并通過Transformer模型解析復合操作意圖,確保交互一致性。

圖 4基于具身智能的智慧座艙協同交互系統架構
本系統是基于最新的云原生架構設計,融合Kubernetes容器編排、Serverless無服務器計算和分布式微服務體系。前端采用React 18、TypeScript和Three.js實現高性能交互界面與三維可視化呈現,確保座艙虛擬模型的低延遲、高保真渲染。采用自適應決策與動態測試Movelt運動規劃執行框架,由三軸或六軸機械臂模擬人體實現對待操作對象的坐標校正,執行單擊、滑動、拖拽等觸控操作,通過ROS系統中間件協調機械臂、語音交互和CAN信號總線的動作時序,模擬真實用戶多任務操作。
(3)主要技術指標
① 基于生成式大模型生成的測試用例算法
按照功能設計和場景分析,測試用例對功能點和應用場景的覆蓋率≥95%,測試用例冗余率≤10%,平均生成每條測試用例的時間≤5秒/條。
② 基于人工智能技術的測試腳本智能編排算法
將AI生成的測試用例交由算法模型智能編排,并生成供自動化測試平臺執行的腳本,編排后的測試腳本要符合自動測試平臺腳本格式,智能編排的測試腳本準確率≥99%,智能編排的效率相對于人工編排的效率提升超過100倍。
③ 基于具身智能的測試腳本自動化執行操作
機械臂和機械手接收到自動化測試平臺的操作指令后,對中控屏進行空間定位,觸發點擊、滑動、拖拽等操作,以及語音交互等操作執行,交互驗證測試執行準確率≥99%;執行效率相對于人工執行提升3倍以上,可按照7*24小時執行,工作時間是人工的3倍(人工每天工作8小時),相對于人工工作量產出提升9倍。
④ 基于多模態融合技術的測試結果評估和決策算法
測試結果量化評估和決策的準確率≥90%。
⑤ 計算機視覺目標檢測算法
可以中控屏圖標、手勢、車輛狀態等圖像目標,并將檢測后的視頻進行實時視頻流推送;平臺支持用戶自定義訓練私有目標檢測模型,支持百萬級訓練樣本,識別準確率98%。
⑥ OCR檢測算法
可以中控屏、儀表盤等文字目標,平臺支持用戶自定義訓練私有目標檢測模型,支持百萬級訓練樣本,識別準確率98%。
⑦ 性能指標
數據呈現響應時間≤1秒,測試用例生成時間 ≤ 3 秒;測試執行與結果判定響應時間 < 0.5 秒;異常檢測與預警響應時間 < 0.3 秒;測試報告生成時間 < 2 秒,單類指標查詢響應時間 < 1 秒。
(4)系統架構
該系統采用三層架構設計“技術基座-中樞引擎-應用生態”,底層華蘇數字技術基座融合AI大模型平臺、自動化云測試平臺、流媒體服務平臺、云邊協同平臺等數據平臺及技術打造;提供AI大模型訓練、自動化云測試、流媒體服務及云邊協同交付能力,支持云端資源彈性調度與邊緣計算協同,保障高并發、低延遲的測試需求。中間層為智能算法中樞引擎,該層基于生成式大模型算法生成測試用例并對測試腳本進行智能編排;整合計算機視覺、語音識別、OCR等感知技術,通過多模態感知算法模型實現跨模態數據融合分析,對測試結果的量化評估和決策。最上層為生態應用層,基于測試場景組合“身體”實現虛實結合的閉環測試;可覆蓋智慧座艙的HMI人機交互、IVI信息娛樂、T-BOX車載終端、ADAS駕駛輔助等應用場景產品及解決方案。該系統可以通過車型車書、設備及動作等形成的知識圖譜進行推理,快速形成測試方案并進行測試。系統架構圖如下:

圖 5 系統架構
① 系統架構簡介:
數字平臺基座技術架構:基于最新的云原生架構設計,融合 Kubernetes 容器編排、Serverless 無服務器計算和分布式微服務體系,集成大數據分析平臺、物聯網管理平臺、實時流媒體服務和邊緣智能網關。前端采用 React 18、TypeScript 和 Three.js(基于 WebGL 的最新版本)實現高性能交互界面與三維可視化呈現,確保座艙虛擬模型在瀏覽器中實現低延遲、高保真渲染。大數據處理依托 Apache Flink 和 Apache Kafka 實現流式數據處理,支持實時采集和分析 TB/PB 級座艙數據;結構化數據存儲于分布式數據庫 TiDB,復雜多維數據則由 Apache Doris 處理,調度任務通過 Airflow 完成動態管理。
智能算法中樞引擎:深度融合當前流行的生成式大模型、多模態技術等如DeepSeekR1、Qwen等,基于 Transformer 架構和多模態學習框架,結合強化學習(RL)和生成對抗網絡(GAN),實現自適應協同交互測試能力。引擎的生成式大模型負責自然語言理解與生成,解析測試需求并生成測試策略;決策模型負責執行測試任務并動態優化測試流程。通過預訓練和微調,引擎可針對不同座艙場景封裝視覺識別(如基于YOLO)、語音交互(如基于Whisper)、用戶行為分析(如基于BERT)等模型,形成模塊化、可擴展的測試子系統。自學習機制確保引擎隨測試數據增長持續優化,支持零樣本學習(Zero-shot Learning)和少樣本學習(Few-shot Learning)以應對多樣化車型協同交互驗證測試需求。
協同交互與優化決策:交互決策模塊解讀測試用例,通過車載傳感器(如攝像頭、拾音器、力反饋等傳感器)的感官數據,持續優化感知、決策和行動方案。協同交互測試過程與結果判定:多傳感器數據融合技術結合大模型分析,實時監測測試過程中的系統響應、用戶體驗和異常狀態,自動判定測試是否通過。測試報告生成:基于測試結果,通過大模型生成結構化測試報告,包括詳細的性能指標、問題描述及優化建議。測試決策基于大數據分析與專家系統,結合人類知識庫和實時數據,通過邏輯推理優化智能座艙功能,確保測試覆蓋率和準確性達到行業領先水平。
平臺采用Three.js三維呈現技術,結合Python(支持PyTorch和TensorFlow)、Rust(高性能計算)和Node.js,基于Apache Flink + Spark Streaming + Kubernetes架構構建,利用分布式并行計算框架整合核心算法,支持準實時處理海量數據。
② 平臺性能指標要求:
·支持智能座艙全場景數據采集(包括CAN總線、LiDAR、毫米波雷達、用戶交互數據等);兼容主流供應商數據接入,支持國產智能測試設備對接;
·數據呈現響應時間 ≤ 1 秒,測試用例生成時間 ≤ 3 秒;
·測試執行與結果判定響應時間 < 0.5 秒;
·異常檢測與預警響應時間 < 0.3 秒;
·測試報告生成時間 < 2 秒,單類指標查詢響應時間 < 1 秒;
·測試覆蓋率 ≥ 98%,誤報率 ≤ 1%,漏報率 ≤ 0.5%。
通過上述技術架構與智能測試能力,智能座艙測試平臺實現從需求解析到結果輸出的全流程自動化,為下一代智能座艙系統的研發與驗證提供高效、精準的技術支持。
(5)難點及技術創新點
① 基于多模態大模型的測試用例智能生成與編排技術
當前通用大模型在汽車垂直領域存在顯著知識偏差、領域知識融合存在較大瓶頸,據中國汽車工程學會《2023智慧座艙白皮書》顯示,汽車主機廠反饋嘗試用AI生成的測試用例與ISO 26262功能安全需求匹配度不足半數,導致大量無效用例堆積。現亟待構建汽車領域多模態知識圖譜,融合設計規范、歷史缺陷等多方面數據庫,采用GNN圖神經網絡關聯映射算法模型、改進LoRA技術、分層低秩適配算法(HLoRA),實現大模型分場景精準對齊,提升垂直領域適配效率。
l 基于實體關系聯合抽取的知識圖譜構建方法
垂直領域知識圖譜,是行業知識智能生成的基礎,本項目創新性提出基于實體關系聯合抽取的知識圖譜構建方法,引入了注意力機制學習詞語之間的句內語義依存關系,能夠有效提高實體及關系識別的精確性及速度,能夠加快提高知識圖譜的構建,為行業知識圖譜建設提供有效的理論和實踐基礎。
圖 6自注意力機制模型結構
實體關系聯合抽取模型是將輸入文本變成字符序列,通過預訓練模型Bert轉化為對應的嵌入向量獲取語義信息更豐富的詞嵌入。為了提取句子當中的詞依賴關系,引入了注意力機制學習詞語之間的句內語義依存關系,使用BiLSTM層設計用來提取豐富的上下文語義特征,最后引入CRF層和Sigmoid層用來執行實體識別任務和關系抽取任務。此外,BiLSTM層的隱藏狀態輸出到CRF層和Sigmoid層,加強了任務之間的聯系。實體識別的目標就是識別出實體信息并進行分類,這項任務是知識圖譜技術之中最基本的一項任務。實體識別的正確與否直接對后續的圖譜構建、智能問答、信息分類等應用領域起著重要的影響作用,因此這項任務也是極其重要的一環。命名實體識別隨著技術的發展實現了從基于規則和字典的方法,到基于機器學習的方法,再到基于深度學習的方法。
基于AIGC大模型和知識圖譜的測試用例生成引擎
本項目創新性采用AIGC大模型和知識圖譜的測試用例生成、驗證和進化三位一體的雙驅動架構,突破傳統驗證測試用例生成模式的技術邊界,在行業內率先構建預訓練大語言模型與領域知識圖譜的深度協同機制。采用動態約束解碼技術,基于知識圖譜構建多模態領域約束矩陣(覆蓋功能參數、業務規則、交互時序等多類工程要素),將傳統微調與提示工程融合創新,使LLM在生成過程中實現語義理解精度提升,運用檢索增強生產與規則引擎聯合優化策略,消除語義偏差與邏輯沖突;構建驗證測試用例強化學習框架,將PPO算法與反事實因果推理結合,驅動生成策略迭代優化。系統平衡生成內容的創造性與工程約束的嚴謹性,實現驗證測試用例從“人工設計”到“AI生成”的測試范式升級。

圖 7 AIGC大模型和知識圖譜生成測試用例架構
常見的基于AI生成的測試用例存在邊界條件缺失,生成的對抗文本與真實場景存在分布偏移、多模態對抗樣本生成缺乏邏輯可解釋性、模型對抗魯棒性不足問題。本項目基于Automotive SPICE過程模型構建對抗樣本生成器,設計基礎和高階雙層獎勵函數機制,進一步使生成用例的邏輯合理性提升。

圖 8 AIGC大模型生成測試用例流程圖
基于跨模態融合的測試任務智能編排技術
智慧座艙嵌入了大量的軟件系統,包括娛樂信息、導航、安全監測、車手互聯和多屏互動等多個模塊。系統的復雜性使得測試任務編排變得越來越困難。本項目創新性基于跨模態融合技術,通過分階段解耦降低測試任務編排復雜度,采用多頭注意力機制實現跨模態特征對齊,達到復雜測試任務拼接,從而提高測試任務的合理性和覆蓋完整性。

圖 9 跨模態融合算法流程
智慧座艙測試涉及通信協議、視覺、聽覺和觸覺等模態交互測試,智能測試任務編排算法采用分階段解耦降低測試復雜度。研發協議自適應解析引擎并基于強化學習驅動協議特征匹配,采用多頭注意力機制實現計算機視覺、OCR和語音交互等跨模態跨模態特征對齊,從而完成測試任務從單模態任務逐步向多模態任務融合的進化。進一步通過強化學習算法實現多目標優化調度。提高測試任務編排的合理性和科學性,提升測試效率。
② 基于多模態融合的量化評價及決策體系
多模態感知及量化評價
量化評價是一個多階段、多模態融合的復雜過程,其核心在于模擬人類認知機制對測試結果進行量化評價,包括認識準確率和效率等評價。本項目創新性采用認知結果、狀態跟蹤和指令時序等數據評分矩陣,動態評價單任務及復雜任務量化指標。

圖 10多模態感知及量化評價
量化評估系統首先通過多模態感知層獲取協同交互驗證測試過程和結果的異構數據,包括視覺(攝像頭/傳感器)、聽覺(語音交互)、文本(用戶指令)及結構化(如CAN總線信號)等結果數據。采用卷積神經網絡(CNN)處理圖像特征(如觸控軌跡識別),循環神經網絡(RNN)建模時序數據(如語音指令序列),并通過對比學習對齊跨模態語義。將驗證測試用例、歷史缺陷案例等非結構化數據轉化為圖結構,建立實體關系網絡。結合結構因果模型(SCM)和動態貝葉斯網絡,分析決策評判錯誤的根因,并通過Shapley值量化各因素影響權重。
研發智能測試決策系統
通過大模型和策略中心相結合,應用于多模態生成技術,構建邏輯推理幫助解決復雜問題的決策系統。

圖 11研發智能測試決策系統
將測試知識庫、數據分析、大模型推理建模和數據倉庫等結合起來形成策略中心。策略中心數據庫不同于一般數據庫,是具備高性能存儲和計算能力要求,是在原數據庫基礎上建立起來的專用數據庫。采用數據倉庫來充當策略中心數據庫。數據多樣性和豐富性為具身智能提供數據和知識能力。基于大模型的智能體是為決策提供分析能力的模塊,智能體能力是通過多模感知數據和機器人(如機械臂、機械手、工業相機等)相結合,建立一系列應用不同場景的算法模型,為決策提供策略方案能力。執行中心提供會話接口,是機器人和策略中心的交互接口。?
③ 具身智能功能實現技術
基于人工智能的視覺感知方法
為了提高視覺識別和分類的準確度,創新性借鑒目標檢測的思想,采用細粒度圖像分類中的多區域檢測方法,通過弱監督學習方法獲得每一張訓練圖像的辨別性區域,通過Navigator network生成圖像預選框列表,以提取更細粒度的特征。通過注意力機制捕獲更加詳細的特征信息,建立圖像上兩個有一定距離的像素之間的聯系,從而解決大范圍里的特征依賴關系。將雙注意力和多區域檢測融合有效提高視覺識別和分類的準確度。

圖 12 視覺識別和分類流程及方法
基于人工智能的語音感知方法
語音檢測識別方法,語音交互技術在復雜環境下的自適應性較差,如噪音干擾、多說話者環境等問題影響語音識別準確性。本項目創新性提出基于深度學習的語音分離方法,通過短時傅里葉變換將得到的時域信號分解成二維的時頻信號;提取時頻單元級別的聽覺特征短時傅里葉對數能量譜,并進行歸一化;利用純凈的短時傅里葉變換幅度譜和噪聲的傅里葉變換幅度譜計算出分離目標。將分離目標進行深層模型訓練,再利用得到的估計的分離目標時頻信號,通過逆短時傅里葉變換得到分離后語音的時域信號,并得到最終分離后的語音。解決復雜環境下語音識別難題,顯著提高語音識別效率。

圖 13 語音分離流程及方法
3 代表性及推廣價值
(1)代表性
該解決方案的代表性體現在國家戰略契合、產業升級引領、企業轉型標桿三個核心維度,兼具政策適配性、行業普適性與實踐示范性,具體如下:
① 契合國家未來產業戰略導向,引領技術發展方向
作為響應國家具身智能產業戰略的典型實踐,精準契合2025年政府工作報告中培育壯大具身智能等未來產業的要求,順應中國從“數字技術賦能”向“智能+實體”融合的戰略轉型趨勢。其成功落地可推動國內具身智能在智慧座艙協同交互驗證測試領域實現從“自動化”到“智能化”的關鍵性躍遷,助力提升區域產業競爭力,為全國范圍內具身智能技術與汽車場景的融合應用提供可復制的發展路徑,具備鮮明的政策導向性與行業引領價值。
② 聚焦智能汽車產業共性痛點,助力產業結構優化
針對當前智能汽車產業中智能座艙測試效率低、研發成本高、迭代速度慢等共性難題,通過創新具身智能及大模型相關算法模型,提供了覆蓋測試效率提升、系統可靠性強化、用戶體驗優化、安全保障升級的全鏈條解決方案。其技術與方案具備廣泛適配性,可幫助各類車企降本增效、加速產品迭代,有效推動智能汽車產業向高質量、智能化方向轉型,是破解產業發展瓶頸的代表性技術方案。
③ 樹立企業戰略轉型標桿,示范業務升級路徑
作為華蘇科技深耕汽車領域十年后,推進“兩個相當X”2.0戰略轉型的首發攻堅項目,其重構智能座艙協同交互測試產品與服務模式的實踐,為同類深耕垂直行業的科技企業提供了前沿技術落地與業務模式升級的示范樣本。項目成功可助力企業確立行業領先地位,其“前沿技術研發+行業需求深挖”的轉型路徑,對科技企業布局未來產業、提升核心競爭力具有重要的借鑒意義。
(2)推廣價值
本項目的研發不僅對智能座艙質量保障管理有著顯著優勢,基于本項目逐步實現“一腦多形”并在其他領域,諸如:通信、電力、智慧城市管理、智慧交通、企業智能化升級和安全生產等領域都有著廣泛應用,助力具身智能應用普及,推動具身智能朝著更加健康、可持續的方向大步邁進,真正融入人類社會發展的每一個細微之處,成為我們生活、工作、探索未知不可或缺的親密伙伴。
具體應用方向包括以下幾個方面?:

圖 14 主要應用方向
通信運維
通信運維場景作為典型的高危復雜作業場景,環境惡劣、設備密集、空間狹小,操作精度要求嚴苛。基于本項目的多模態協同交互和具身執行可突破復雜環境下的移動與操作難題,高效完成通信設備的巡檢和操作任務。例如:在通信機房,設備出現故障時具身智能可以通過集成的傳感器立即獲取設備的狀態數據,迅速判斷是否需要修復,不僅節省人工成本,也提高了問題處理的速度,減少了因設備故障帶來的服務中斷。
工業分揀裝配
工業生產場景中存在大量無序、散亂堆疊等復雜的料框揀選工況,基于視覺定位系統可通過對工件的快速掃描、結合點云處理及AI技術,獲取工件最佳抓取位置的空間坐標,引導機器人合理規劃抓取路徑,高效完成分揀。同時通過視覺定位技術,可對工件對位放置、螺栓鎖付等內容重復性強、勞動強度大、工藝完成質量高等裝配工作進行智能化改造,提高品控管理。
自動充電機器人
在車輛自動化充電場景中,通過多模態感知與定位及多源數據的融合處理,實現汽車充電口高精準定位,并自動完成充電槍與車輛充電接口的無縫連接,車主無需下車,也無需手動插槍充電,只需坐在車內等待即可完成整個充電過程。自動充電機器人可極大地方便車主,提升充電便利性。該應用場景涵蓋城市公共充電站、高速公路服務區、商業中心、寫字樓停車場、物流園區、公交場站等多種充電場所。
用戶終端測試
隨著用戶終端軟件系統變得越來越復雜,傳統的人工操作測試方法已經難以滿足需求。基于具身認知的圖像識別、NLP和ASR等感知技術,可以有效解決界面圖片屬性、理解測試腳本指令和反饋,提高測試的效率、準確性和靈活性。通過用戶行為分析和歷史數據來預測測試結果,從而提前發現潛在的問題并進行修正。不僅可以提高測試效率,還可增強測試的全面性和深度。本項目在用戶終端軟件測試領域的應用也具有巨大的潛力。
(3)應用推廣情況
本項目已在一汽奔騰、長安、中汽研等企業應用推廣,應用地市有重慶、寧波、天津、杭州、長春等。近三年,本項目累計實現銷售1.15億元。





資訊頻道