從自動駕駛看汽車數(shù)字化轉(zhuǎn)型
2023年10月,全國首條滿足車路協(xié)同式自動駕駛等級的全息感知智慧高速公路測試路段在蘇州投入使用。
2023年12月,寶馬集團搭載L3級別自動駕駛功能的車輛在上海市正式獲得高快速路自動駕駛測試牌照。
2023年12月16日,《北京市智能網(wǎng)聯(lián)汽車政策先行區(qū)有條件自動駕駛功能汽車道路測試管理細則(試行)》出臺。
2023年12月18日,智己汽車宣布,在上海市正式獲得高快速路自動駕駛測試牌照。
2023年12月22日,極狐宣布將正式在北京指定道路開展有條件的自動駕駛系統(tǒng)實際道路測試。
2023年12月27日,據(jù)比亞迪官方消息,2023年7月21日,比亞迪在深圳拿到全國第一張有條件自動駕駛(L3 級)測試牌照。
2023年12月29日,賽力斯汽車發(fā)文宣布,2023年11月,華為和賽力斯聯(lián)合打造的產(chǎn)品成功獲得 L3 級自動駕駛測試牌照。
種種跡象表明:自動駕駛時代,開始了?。。?
什么是自動駕駛?
L1解放雙腳
有限地干預(yù)車輛行駛系統(tǒng),有少量的控制權(quán),只有單一功能且駕駛員可隨時接管車輛。功能包括自適應(yīng)巡航和緊急制動功能等。
L2解放雙手
能夠完成某些駕駛?cè)蝿?wù),但駕駛員需要監(jiān)測環(huán)境,完成剩余部分。假如行駛過程中出現(xiàn)問題,隨時進行接管,比如:低速自動跟車、高速路快速行車和駕駛員在車內(nèi)的自動泊車等。在這個層級,自動系統(tǒng)的錯誤感知和判斷需要有駕駛員隨時糾正。
L3解放雙眼系統(tǒng)可以接管駕駛,駕駛員可以“開個小差”。當(dāng)系統(tǒng)檢測到駕駛環(huán)境不妥時駕駛員就需要重新介入了,所以在該層級下駕駛者仍無法進行睡覺或者深度的休息人類駕駛員需要保持注意力以備不時之需。
L4解放大腦在一定條件下,系統(tǒng)完全接管汽車。駕駛員此時可以放任自由且無需擔(dān)憂重新接管車輛。系統(tǒng)可以完成車輛駕駛?cè)蝿?wù)并實時監(jiān)控駕駛環(huán)境作出反應(yīng)。
L5解放駕駛員完全不需要駕駛員的自動駕駛終極形態(tài)——在這個等級,駕駛者不需要執(zhí)行任何操作,只需要告訴車輛目的地,動動嘴,就可以出發(fā)。Amazing!腦補一下那些天馬行空的科技感畫面吧!
如何實現(xiàn)自動駕駛

要實現(xiàn)自動駕駛,需要做到這四點:地圖、感知、決策、控制 。
地圖:北斗衛(wèi)星導(dǎo)航系統(tǒng)大家都知道,這是自動駕駛不可或缺的技術(shù),另外有通信技術(shù)V2X(Vehicle To Everything),保證了車輛與外界網(wǎng)絡(luò)信息的高效交換。另外一項技術(shù),叫做慣性測量單元(IMU), 可以彌補GPS的誤差,并且根據(jù)加速度來判斷自身的運動方向。
感知:被定義為環(huán)境信息和車內(nèi)信息的采集與處理,涉及道路邊界檢測、車輛檢測、行人檢測等多項技術(shù),可認(rèn)為是一種先進的傳感器技術(shù),所采用的傳感器包括激光雷達、攝像頭、毫米波雷達、超聲波雷達、速度和加速度傳感器等。由于單一傳感器存在感知的局限性,并不能滿足各種工況下的精確感知,自動駕駛汽車要實現(xiàn)在各種環(huán)境下平穩(wěn)運行,需要運用多傳感器融合技術(shù),該技術(shù)也是感知層的關(guān)鍵技術(shù)。
決策:可以理解為依據(jù)感知信息來進行決策判斷,確定適當(dāng)工作模型,制定相應(yīng)控制策略,替代人類駕駛員做出駕駛決策。這部分的功能類似于給自動駕駛汽車下達相應(yīng)的任務(wù)。例如在車道保持、車道偏離預(yù)警、車距保持、障礙物警告等系統(tǒng)中,需要預(yù)測本車及相遇的其他車輛、車道、行人等在未來一段時間內(nèi)的狀態(tài)。先進的決策理論包括模糊推理、強化學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)和貝葉斯網(wǎng)絡(luò)技術(shù)等。由于人類駕駛過程中所面臨的路況與場景多種多樣,且不同人對不同情況所做出的駕駛策略應(yīng)對也有所不同,因此類人的駕駛決策算法的優(yōu)化需要非常完善高效的人工智能模型以及大量的有效數(shù)據(jù)。這些數(shù)據(jù)需要盡可能地覆蓋到各種罕見的路況,而這也是駕駛決策發(fā)展的最大瓶頸所在。
控制:是指系統(tǒng)在做出決策后,按照決策結(jié)果對車輛進行控制。車輛的各個操控系統(tǒng)都需要能夠通過總線與決策系統(tǒng)相連接,并能夠按照決策系統(tǒng)發(fā)出的總線指令精確地控制加速程度、制動程度、轉(zhuǎn)向幅度、燈光控制等駕駛動作,以實現(xiàn)車輛的自主駕駛。
人工智能
智能網(wǎng)聯(lián)
利用多目視覺、激光雷達、毫米波雷達等傳感器件及識別算法,可以實現(xiàn)對實際道路環(huán)境中多曲面物體的準(zhǔn)確識別;利用基于先進傳感器的地圖采集技術(shù)可以提取道路的詳細標(biāo)注(標(biāo)志、標(biāo)線、信號燈等)和高精度位置(經(jīng)度、緯度、高度等)等信息,從而實現(xiàn)自動駕駛汽車對道路平面特征的提取,同時基于深度學(xué)習(xí)可實現(xiàn)對道路可行駛、不可行駛區(qū)域的認(rèn)知識別。
結(jié)合通訊技術(shù)的發(fā)展,運用車與車、車與路、車與人、車與云之間的實時通訊技術(shù),可為人工智能技術(shù)在自動駕駛技術(shù)應(yīng)用過程中的數(shù)據(jù)、計算與算法等三大要素提供進一步支持,還可面向多車型、多場景智能駕駛需求,提供解決群體智能駕駛系統(tǒng)協(xié)同駕駛所面臨的問題。
大模型與自動駕駛
關(guān)注Talk2Drive機器人實驗
如果基于大型語言模型(LLM)能實現(xiàn)理解和執(zhí)行自動駕駛汽車的口頭指令,將不再局限于簡單的“你好XX,打開天窗、關(guān)閉空調(diào)”之類的指令,而是涉及到真正操縱汽車在道路上行駛的復(fù)雜指令,那將是一種何等神奇的體驗。
論文Large Language Models for Autonomous Driving: Real-World Experiments介紹了自動駕駛框架Talk2Drive,該框架利用 LLM 來解釋和回復(fù)人類的各種指令,尤其是那些抽象或具有情感色彩的指令,同時利用歷史互動數(shù)據(jù)來實現(xiàn)個性化的駕駛體驗。與傳統(tǒng)系統(tǒng)需要精確輸入的情況不同,Talk2Drive 框架允許與車輛進行更自然和直觀的交流。


與傳統(tǒng)系統(tǒng)相比,LLM 在自動駕駛方面具有以下優(yōu)勢:
- 對抽象表達的理解:傳統(tǒng)系統(tǒng)在理解人類的抽象指令方面存在困難,而 LLM 能夠理解和適應(yīng)各種人類情緒和上下文線索。
- 個性化駕駛體驗:LLM 能夠根據(jù)人類的歷史偏好和命令提供個性化的駕駛模式,從而提高駕駛體驗。
- 實時性和安全性:LLM 在處理復(fù)雜人類指令時有較低的延遲,這對于實時應(yīng)用和安全關(guān)鍵場景至關(guān)重要。
-
旭化成發(fā)布新型傳感解決方案,無需攝像頭即可檢
2025-09-16 -
從 VinFast 到保時捷:西門子為汽車智造按下“
2025-09-11 -
京東工業(yè)發(fā)布汽車等九大行業(yè)場景采購解決方案手
2025-08-26 -
京東集團與東風(fēng)汽車達成戰(zhàn)略合作 打造汽車行業(yè)
2025-08-15
編輯推薦
最新資訊
-
“京采組合”創(chuàng)領(lǐng)變革 —— 一站式商
2025-09-16 17:53
-
旭化成發(fā)布新型傳感解決方案,無需攝
2025-09-16 15:53
-
電裝中國以創(chuàng)新助力“雙碳”目標(biāo) 推
2025-09-12 15:42
-
汽車新零售又出黑馬,久車GO百城聚力
2025-09-12 15:25
-
思看科技走進浙大課堂,產(chǎn)教融合賦能
2025-09-11 20:45