自動駕駛研究方法(自動駕駛研究方法論文)
本篇文章給大家談談自動駕駛研究方法,以及自動駕駛研究方法論文對應的知識點,希望對各位有所幫助,不要忘了收藏本站喔。
本文目錄一覽:
自動駕駛技術基本知識介紹
自動駕駛車,是一種無須人工干預而能夠感知其周邊環境和導航的車輛。它利用了包括雷達、激光、超聲波、GPS、里程計、計算機視覺等多種技術來感知其周邊環境,通過先進的計算和控制系統,來識別障礙物和各種標識牌,規劃合適的路徑來控制車輛行駛。
美國汽車工程師協會(SAE,Society of Automotive Engineers),則將自動駕駛劃分為 0~5 共六級。
Level 0:無自動化(No Automation)
沒有任何自動駕駛功能或技術,人類駕駛員對汽車所有功能擁有絕對控制權。駕駛員需要負責轉向、加速、制動和觀察道路狀況。任何駕駛輔助技術,例如現有的前向碰撞預警、車道偏離預警,以及自動雨刷和自動前燈控制等,雖然有一定的智能化,但是仍需要人來控制車輛,所以都仍屬于 Level 0。
Level 1:駕駛輔助(Driver Assistance)
駕駛員仍然對行車安全負責,不過可以授權部分控制權給系統管理,某些功能可以自動進行,比如常見的自適應巡航(Adaptive Cruise Control,ACC)、應急剎車輔助(Emergency Brake Assist,EBA)和車道保持(Lane-Keep Support,LKS)。Level 1 的特點是只有單一功能,駕駛員無法做到手和腳同時不操控。
Level 2:部分自動化(Partial Automation)
人類駕駛員和汽車來分享控制權,駕駛員在某些預設環境下可以不操作汽車,即手腳同時離開控制,但駕駛員仍需要隨時待命,對駕駛安全負責,并隨時準備在短時間內接管汽車駕駛權。比如結合了 ACC 和 LKS 形成的跟車功能。Level 2 的核心不在于要有兩個以上的功能,而在于駕駛員可以不再作為主要操作者。
Level 3:有條件自動化(Conditional Automation)
在有限情況下實現自動控制,比如在預設的路段(如高速和人流較少的城市路段),汽車自動駕駛可以完全負責整個車輛的操控,但是當遇到緊急情況,駕駛員仍需要在某些時候接管汽車,但有足夠的預警時間,如即將進入修路的路段(Road work ahead)。Level 3 將解放駕駛員,即對行車安全不再負責,不必監視道路狀況。
Level 4:高度自動化(High Automation)
自動駕駛在特定的道路條件下可以高度自動化,比如封閉的園區、高速公路、城市道路或固定的行車線路等,這這些受限的條件下,人類駕駛員可以全程不用干預。
Level 5:完全自動化(Full Automation)
對行車環境不加限制,可以自動地應對各種復雜的交通狀況和道路環境等,在無須人協助的情況下由出發地駛向目的地,僅需起點和終點信息,汽車將全程負責行車安全,并完全不依賴駕駛員干涉,且不受特定道路的限制。
注釋:DDT(Dynamic driving task):動態駕駛任務,指汽車在道路上行駛所需的所有實時操作和策略上的功能,不包括行程安排、目的地和途徑地的選擇等戰略上的功能。
無人駕駛系統的核心可以概述為三個部分:感知(Perception),規劃(Planning)和控制(Control),這些部分的交互以及其與車輛硬件、其他車輛的交互可以用下圖表示:
感知是指無人駕駛系統從環境中收集信息并從中提取相關知識的能力。其中,環境感知(Environmental Perception)特指對于環境的場景理解能力,例如障礙物的位置,道路標志/標記的檢測,行人車輛的檢測等數據的語義分類。 一般來說,定位(Localization)也是感知的一部分,定位是無人車確定其相對于環境的位置的能力。
為了確保無人車對環境的理解和把握,無人駕駛系統的環境感知部分通常需要獲取周圍環境的大量信息,具體來說包括:障礙物的位置,速度以及可能的行為,可行駛的區域,交通規則等等。無人車通常是通過融合激光雷達(Lidar),相機(Camera),毫米波雷達(Millimeter Wave Radar)等多種傳感器的數據來獲取這些信息。
車載雷達傳感器功能及優缺點各有不同,相關比較如下表所示:
激光雷達 是一類使用激光進行探測和測距的設備,它能夠每秒鐘向環境發送數百萬光脈沖,它的內部是一種旋轉的結構,這使得激光雷達能夠實時的建立起周圍環境的3維地圖。
通常來說,激光雷達以10Hz左右的速度對周圍環境進行旋轉掃描,其掃描一次的結果為密集的點構成的3維圖,每個點具備(x,y,z)信息,這個圖被稱為點云圖(Point Cloud Graph),如下圖所示,是使用Velodyne VLP-32c激光雷達建立的一個點云地圖:
激光雷達因其可靠性目前仍是無人駕駛系統中最重要的傳感器,然而,在現實使用中,激光雷達并不是完美的,往往存在點云過于稀疏,甚至丟失部分點的問題,對于不規則的物體表面,使用激光雷達很難辨別其模式,另一個比較大的挑戰是一個比較大的挑戰是激光雷達感知范圍比較近,感知范圍平均在 150m 左右,這取決于環境和障礙物的不同。激光雷達在角分辨度上也遠遠不及照相機。激光雷達對環境的敏感度也是比較大的,例如雨天中,車輛行駛中濺起來的水花,在激光雷達上都是有噪點的。
毫米波雷達 通過發射電磁波并通過檢測回波來探測目標的有無、距離、速度和方位。由于毫米波雷達技術相對成熟,成本較低,并且在不良天氣下表現良好,因此成為感知設備中重要的一環。但由于其分辨率較低,因此不能作為激光雷達的替代品,而是激光雷達的重要補充設備。
攝像機 根據鏡頭和布置方式的不同主要有以下四種:單目攝像機、雙目攝像機、三目攝像機和環視攝像機。
單目攝像機 模組只包含一個攝像機和一個鏡頭。由于很多圖像算法的研究都是基于單目攝像機開發的,因此相對于其他類別的攝像機,單目攝像機的算法成熟度更高。但是單目有著兩個先天的缺陷。一是它的視野完全取決于鏡頭。焦距短的鏡頭,視野廣,但缺失遠處的信息。反之亦然。因此單目攝像機一般選用適中焦距的鏡頭。二是單目測距的精度較低。攝像機的成像圖是透視圖,即越遠的物體成像越小。近處的物體,需要用幾百甚至上千個像素點描述;而處于遠處的同一物體,可能只需要幾個像素點即可描述出來。這種特性會導致,越遠的地方,一個像素點代表的距離越大,因此對單目來說物體越遠,測距的精度越低。
雙目攝像機 由于單目測距存在缺陷,雙目攝像機應運而生。相近的兩個攝像機拍攝物體時,會得到同一物體在攝像機的成像平面的像素偏移量。有了像素偏移量、相機焦距和兩個攝像機的實際距離這些信息,根據數學換算即可得到物體的距離。雖然雙目能得到較高精度的測距結果和提供圖像分割的能力,但是它與單目一樣,鏡頭的視野完全依賴于鏡頭。而且雙目測距原理對兩個鏡頭的安裝位置和距離要求較多,這就會給相機的標定帶來麻煩。
三目攝像機 由于單目和雙目都存在某些缺陷,因此廣泛應用于無人駕駛的攝像機方案為三目攝像機。三目攝像機其實就是三個不同焦距單目攝像機的組合。根據焦距不同,每個攝像機所感知的范圍也不盡相同。對攝像機來說,感知的范圍要么損失視野,要么損失距離。三目攝像機能較好地彌補感知范圍的問題。因此在業界被廣泛應用。正是由于三目攝像機每個相機的視野不同,因此近處的測距交給寬視野攝像頭,中距離的測距交給主視野攝像頭,更遠的測距交給窄視野攝像頭。這樣一來每個攝像機都能發揮其最大優勢。三目的缺點是需要同時標定三個攝像機,因而工作量更大。其次軟件部分需要關聯三個攝像機的數據,對算法要求也很高。
環視攝像機, 之前提到的三款攝像機它們所用的鏡頭都是非魚眼的,環視攝像機的鏡頭是魚眼鏡頭,而且安裝位置是朝向地面的。某些高配車型上會有“360°全景顯示”功能,所用到的就是環視攝像機。安裝于車輛前方、車輛左右后視鏡下和車輛后方的四個魚眼鏡頭采集圖像,魚眼攝像機為了獲取足夠大的視野,代價是圖像的畸變嚴重。環視攝像機的感知范圍并不大,主要用于車身5~10米內的障礙物檢測、自主泊車時的庫位線識別等。
為了理解點云信息,通常來說,我們對點云數據進行兩步操作:分割(Segmentation)和分類(Classification)。其中,分割是為了將點云圖中離散的點聚類成若干個整體,而分類則是區分出這些整體屬于哪一個類別(比如說行人,車輛以及障礙物)。分割算法可以被分類如下幾類:
在完成了點云的目標分割以后,分割出來的目標需要被正確的分類,在這個環節,一般使用機器學習中的分類算法,如支持向量機(Support Vector Machine,SVM)對聚類的特征進行分類,最近幾年由于深度學習的發展,業界開始使用特別設計的卷積神經網絡(Convolutional Neural Network,CNN)對三維的點云聚類進行分類。
實踐中不論是提取特征-SVM的方法還是原始點云-CNN的方法,由于激光雷達點云本身解析度低的原因,對于反射點稀疏的目標(比如說行人),基于點云的分類并不可靠,所以在實踐中,我們往往融合雷達和相機傳感器,利用相機的高分辨率來對目標進行分類,利用Lidar的可靠性對障礙物檢測和測距,融合兩者的優點完成環境感知。
無人駕駛系統中,我們通常使用圖像視覺來完成道路的檢測和道路上目標的檢測。道路的檢測包含對道路線的檢測(Lane Detection),可行駛區域的檢測(Drivable Area Detection);道路上路標的檢測包含對其他車輛的檢測(Vehicle Detection),行人檢測(Pedestrian Detection),交通標志和信號的檢測(Traffic Sign Detection)等所有交通參與者的檢測和分類。
車道線的檢測涉及兩個方面: 第一是識別出車道線,對于彎曲的車道線,能夠計算出其曲率,第二是確定車輛自身相對于車道線的偏移(即無人車自身在車道線的哪個位置) 。一種方法是抽取一些車道的特征,包括邊緣特征(通常是求梯度,如索貝爾算子),車道線的顏色特征等,使用多項式擬合我們認為可能是車道線的像素,然后基于多項式以及當前相機在車上掛載的位置確定前方車道線的曲率和車輛相對于車道的偏離。
可行駛區域的檢測目前的一種做法是采用深度神經網絡直接對場景進行分割,即通過訓練一個逐像素分類的深度神經網絡,完成對圖像中可行駛區域的切割。
交通參與者的檢測和分類目前主要依賴于深度學習模型,常用的模型包括兩類:
傳感器層將數據以一幀幀、固定頻率發送給下游,但下游是無法拿每幀的數據去進行決策或者融合的。因為傳感器的狀態不是100%有效的,如果僅根據某一幀的信號去判定前方是否有障礙物(有可能是傳感器誤檢了),對下游決策來說是極不負責任的。因此上游需要對信息做預處理,以保證車輛前方的障得物在時間維度上是一直存在的, 而不是一閃而過。
這里就會使用到智能駕駛領域經常使用到的一個算法 卡爾曼濾波。
卡爾曼濾波(Kalman filter) 是一種高效率的遞歸濾波器(自回歸濾波器),它能夠從一系列的不完全及包含噪聲的測量中,估計動態系統的狀態??柭鼮V波會根據各測量量在不同時間下的值,考慮各時間下的聯合分布,再產生對未知變數的估計,因此會比只以單一測量量為基礎的估計方式要準。
卡爾曼濾波在技術領域有許多的應用。常見的有飛機及太空船的導引、導航及控制??柭鼮V波也廣為使用在時間序列的分析中,例如信號處理及計量經濟學中??柭鼮V波也是機器人運動規劃及控制的重要主題之一,有時也包括在軌跡最佳化??柭鼮V波也用在中軸神經系統運動控制的建模中。因為從給與運動命令到收到感覺神經的回授之間有時間差,使用卡爾曼濾波有助于建立符合實際的系統,估計運動系統的目前狀態,并且更新命令。
信息融合是指把相同屬性的信息進行多合一操作。
比如攝像機檢測到了車輛正前方有一個障礙物,毫米波也檢測到車輛前方有一個障礙物,激光雷達也檢測到前方有一個障礙物,而實際上前方只有一個障礙物,所以我們要做的是把多傳感器下這輛車的信息進行一次融合,以此告訴下游,前面有輛車,而不是三輛車。
坐標轉換在自動駕駛領域十分重要。
傳感器是安裝在不同地方的比如超聲波雷達(假如當車輛右方有一個障礙物,距離這個超聲波雷達有3米,那么我們就認為這個障礙物距離車有3米嗎?并不一定,因為決策控制層做車輛運動規劃時,是在車體坐標系下做的(車體坐標系-般以后軸中心為O點)所以最終所有傳感器的信息,都是需要轉移到自車坐標系下的。因此感知層拿到3m的障礙物位置信息后,必須將該章礙物的位置信息轉移到自車坐標系下,才能供規劃決策使用。 同理,攝像機一般安裝在擋風玻璃下面,拿到的數據也是基于攝像機坐標系的,給下游的數據,同樣需要轉換到自車坐標系下。
在無人車感知層面,定位的重要性不言而喻,無人車需要知道自己相對于環境的一個確切位置,這里的定位不能存在超過10cm的誤差,試想一下,如果我們的無人車定位誤差在30厘米,那么這將是一輛非常危險的無人車(無論是對行人還是乘客而言),因為無人駕駛的規劃和執行層并不知道它存在30厘米的誤差,它們仍然按照定位精準的前提來做出決策和控制,那么對某些情況作出的決策就是錯的,從而造成事故。由此可見,無人車需要高精度的定位。
目前使用最廣泛的無人車定位方法當屬融合 全球定位系統(Global Positioning System,GPS)和慣性導航系統(Inertial Navigation System)定位方法 ,其中,GPS的定位精度在數十米到厘米級別之間,高精度的GPS傳感器價格也就相對昂貴。融合GPS/IMU的定位方法在GPS信號缺失,微弱的情況下無法做到高精度定位,如地下停車場,周圍均為高樓的市區等,因此只能適用于部分場景的無人駕駛任務。
地圖輔助類定位算法是另一類廣泛使用的無人車定位算法, 同步定位與地圖構建(Simultaneous Localization And Mapping,SLAM) 是這類算法的代表,SLAM的目標即構建地圖的同時使用該地圖進行定位,SLAM通過利用已經觀測到的環境特征確定當前車輛的位置以及當前觀測特征的位置。這是一個利用以往的先驗和當前的觀測來估計當前位置的過程,實踐上我們通常使用貝葉斯濾波器(Bayesian filter)來完成,具體來說包括卡爾曼濾波(Kalman Filter),擴展卡爾曼濾波(Extended Kalman Filter)以及粒子濾波(Particle Filter)。SLAM雖然是機器人定位領域的研究熱點,但是在實際無人車開發過程中使用SLAM定位卻存在問題,不同于機器人,無人車的運動是長距離的,大開放環境的。在長距離的運動中,隨著距離的增大,SLAM定位的偏差也會逐漸增大,從而造成定位失敗。
在實踐中,一種有效的無人車定位方法是改變原來SLAM中的掃描匹配類算法,具體來說,我們不再在定位的同時制圖,而是事先使用傳感器如激光雷達對區域構建點云地圖,通過程序和人工的處理將一部分“語義”添加到地圖中(例如車道線的具體標注,路網,紅綠燈的位置,當前路段的交通規則等等),這個包含了語義的地圖就是我們無人駕駛車的 高精度地圖(HD Map) 。實際定位的時候,使用當前激光雷達的掃描和事先構建的高精度地圖進行點云匹配,確定我們的無人車在地圖中的具體位置,這類方法被統稱為掃描匹配方法(Scan Matching),掃描匹配方法最常見的是迭代最近點法(Iterative Closest Point ,ICP),該方法基于當前掃描和目標掃描的距離度量來完成點云配準。
除此以外, 正態分布變換(Normal Distributions Transform,NDT) 也是進行點云配準的常用方法,它基于點云特征直方圖來實現配準?;邳c云配準的定位方法也能實現10厘米以內的定位精度。雖然點云配準能夠給出無人車相對于地圖的全局定位,但是這類方法過于依賴事先構建的高精度地圖,并且在開放的路段下仍然需要配合GPS定位使用,在場景相對單一的路段(如高速公路),使用GPS加點云匹配的方法相對來說成本過高。
拓展閱讀: L4 自動駕駛中感知系統遇到的挑戰及解決方案
淺析自動駕駛的重要一環:感知系統發展現狀與方向
無人車的規劃模塊分為三層設計:任務規劃,行為規劃和動作規劃,其中,任務規劃通常也被稱為路徑規劃或者路由規劃(Route Planning),其負責相對頂層的路徑規劃,例如起點到終點的路徑選擇。 我們可以把我們當前的道路系統處理成有向網絡圖(Directed Graph Network),這個有向網絡圖能夠表示道路和道路之間的連接情況,通行規則,道路的路寬等各種信息,其本質上就是我們前面的定位小節中提到的高精度地圖的“語義”部分,這個有向網絡圖被稱為路網圖(Route Network Graph),如下圖所示:
這樣的路網圖中的每一個有向邊都是帶權重的,那么,無人車的路徑規劃問題,就變成了在路網圖中,為了讓車輛達到某個目標(通常來說是從A地到B地),基于某種方法選取最優(即損失最?。┑穆窂降倪^程,那么問題就變成了一個有向圖搜索問題,傳統的算法如迪科斯徹算法(Dijkstra’s Algorithm)和A 算法(A Algorithm)主要用于計算離散圖的最優路徑搜索,被用于搜索路網圖中損失最小的路徑。
行為規劃有時也被稱為決策制定(Decision Maker),主要的任務是按照任務規劃的目標和當前的局部情況(其他的車輛和行人的位置和行為,當前的交通規則等),作出下一步無人車應該執行的決策,可以把這一層理解為車輛的副駕駛,他依據目標和當前的交通情況指揮駕駛員是跟車還是超車,是停車等行人通過還是繞過行人等等。
行為規劃的一種方法是使用包含大量動作短語的復雜有限狀態機(Finite State Machine,FSM)來實現,有限狀態機從一個基礎狀態出發,將根據不同的駕駛場景跳轉到不同的動作狀態,將動作短語傳遞給下層的動作規劃層,下圖是一個簡單的有限狀態機:
如上圖所示,每個狀態都是對車輛動作的決策,狀態和狀態之間存在一定的跳轉條件,某些狀態可以自循環(比如上圖中的循跡狀態和等待狀態)。雖然是目前無人車上采用的主流行為決策方法,有限狀態機仍然存在著很大的局限性:首先,要實現復雜的行為決策,需要人工設計大量的狀態;車輛有可能陷入有限狀態機沒有考慮過的狀態;如果有限狀態機沒有設計死鎖保護,車輛甚至可能陷入某種死鎖。
通過規劃一系列的動作以達到某種目的(比如說規避障礙物)的處理過程被稱為動作規劃。通常來說,考量動作規劃算法的性能通常使用兩個指標:計算效率(Computational Efficiency)和完整性(Completeness),所謂計算效率,即完成一次動作規劃的處理效率,動作規劃算法的計算效率在很大程度上取決于配置空間(Configuration Space),如果一個動作規劃算法能夠在問題有解的情況下在有限時間內返回一個解,并且能夠在無解的情況下返回無解,那么我們稱該動作規劃算法是完整的。
配置空間:一個定義了機器人所有可能配置的集合,它定義了機器人所能夠運動的維度,最簡單的二維離散問題,那么配置空間就是[x, y],無人車的配置空間可以非常復雜,這取決于所使用的運動規劃算法。
在引入了配置空間的概念以后,那么無人車的動作規劃就變成了:在給定一個初始配置(Start Configuration),一個目標配置(Goal Configuration)以及若干的約束條件(Constraint)的情況下,在配置空間中找出一系列的動作到達目標配置,這些動作的執行結果就是將無人車從初始配置轉移至目標配置,同時滿足約束條件。在無人車這個應用場景中,初始配置通常是無人車的當前狀態(當前的位置,速度和角速度等),目標配置則來源于動作規劃的上一層——行為規劃層,而約束條件則是車輛的運動限制(最大轉角幅度,最大加速度等)。顯然,在高維度的配置空間來動作規劃的計算量是非常巨大的,為了確保規劃算法的完整性,我們不得不搜索幾乎所有的可能路徑,這就形成了連續動作規劃中的“維度災難”問題。目前動作規劃中解決該問題的核心理念是將連續空間模型轉換成離散模型,具體的方法可以歸納為兩類:組合規劃方法(Combinatorial Planning)和基于采樣的規劃方法(Sampling-Based Planning)。
運動規劃的組合方法通過連續的配置空間找到路徑,而無需借助近似值。由于這個屬性,它們可以被稱為精確算法。組合方法通過對規劃問題建立離散表示來找到完整的解,如在Darpa城市挑戰賽(Darpa Urban Challenge)中,CMU的無人車BOSS所使用的動作規劃算法,他們首先使用路徑規劃器生成備選的路徑和目標點(這些路徑和目標點事融合動力學可達的),然后通過優化算法選擇最優的路徑。另一種離散化的方法是網格分解方法(Grid Decomposition Approaches),在將配置空間網格化以后我們通常能夠使用離散圖搜索算法(如A*)找到一條優化路徑。
基于采樣的方法由于其概率完整性而被廣泛使用,最常見的算法如PRM(Probabilistic Roadmaps),RRT(Rapidly-Exploring Random Tree),FMT(Fast-Marching Trees),在無人車的應用中,狀態采樣方法需要考慮兩個狀態的控制約束,同時還需要一個能夠有效地查詢采樣狀態和父狀態是否可達的方法。
自動駕駛汽車的車輛控制技術旨在環境感知技術的基礎之上,根據決策規劃出目標軌跡,通過縱向和橫向控制系統的配合使汽車能夠按照跟蹤目標軌跡準確穩定行駛,同時使汽車在行駛過程中能夠實現車速調節、車距保持、換道、超車等基本操作。
互聯網科技公司主要做軟件,以工程機上層為主;而車廠其實以下層的組裝為主,也就是OEM,也不是那么懂車。像制動、油門和轉向等這些領域,話語權依然集中在博世、大陸這樣的Tier 1身上。
自動駕駛控制的核心技術是車輛的縱向控制和橫向控制技術??v向控制,即車輛的驅動與制動控制;橫向控制,即方向盤角度的調整以及輪胎力的控制。實現了縱向和橫向自動控制,就可以按給定目標和約束自動控制車運行。所以,從車本身來說,自動駕駛就是綜合縱向和橫向控制。
車輛縱向控制是在行車速度方向上的控制,即車速以及本車與前后車或障礙物距離的自動控制。巡航控制和緊急制動控制都是典型的自動駕駛縱向控制案例。這類控制問題可歸結為對電機驅動、發動機、傳動和制動系統的控制。各種電機-發動機-傳動模型、汽車運行模型和剎車過程模型與不同的控制器算法結合,構成了各種各樣的縱向控制模式,典型結構如圖所示。
此外,針對輪胎作用力的 滑移率控制 是縱向穩定控制中的關鍵部分?;坡士刂葡到y通過控制車輪滑移率調節車輛的縱向動力學特性來防止車輛發生過度驅動滑移或者制動抱死,從而提高車輛的穩定性和操縱性能。制動防抱死系統(antilock brake system)簡稱 ABS,在汽車制動時,自動控制制動器制動力的大小,使車輪不被抱死,處于邊滾邊滑(滑移率在 20%左右)的狀態,以保證地面能夠給車輪提供最大的制動作用力值。一些智能滑移率控制策略利用充足的環境感知信息設計了隨道路環境變化的車輪最有滑移率調節器,從而提升輪胎力作用效果。
智能控制策略,如模糊控制、神經網絡控制、滾動時域優化控制等,在縱向控制中也得到廣泛研究和應用,并取得了較好的效果,被認為是最有效的方法。
而傳統控制的方法, 如PID控制和前饋開環控制 ,一般是建立發動機和汽車運動過程的近似線形模型,在此基礎上設計控制器,這種方法實現的控制,由于對模型依賴性大及模型誤差較大,所以精度差、適應性差。從目前的論文和研究的項目看,尋求簡單而準確的電機-發動機-傳動、剎車過程和汽車運動模型,以及對隨機擾動有魯棒性和對汽車本身性能變化有適應性的控制器仍是研究的主要內容。
車輛橫向控制指垂直于運動方向上的控制,對于汽車也就是轉向控制。目標是控制汽車自動保持期望的行車路線,并在不同的車速、載荷、風阻、路況下有很好的乘坐舒適性和穩定性。
車輛橫向控制主要有兩種基本設計方法,一種是基于駕駛員模擬的方法;另一種是給予汽車橫向運動力學模型的控制方法?;隈{駛員模擬的方法,一種策略是使用較簡單的運動力學模型和駕駛員操縱規則設計控制器;另一策略是用駕駛員操縱過程的數據訓練控制器獲取控制算法?;谶\動力學模型的方法要建立較精確的汽車橫向運動模型。典型模型是所謂單軌模型,或稱為自行車模型,也就是認為汽車左右兩側特性相同。橫向控制系統基本結構如下圖??刂颇繕艘话闶擒囍行呐c路中心線間的偏移量,同時受舒適性等指標約束。
研究自動駕駛技術的算法需要哪些知識?
自動駕駛最重要的是視野技術。這就需要AI去從前后左右,四個方向去查看,實時判斷四周的人,物,汽車等等一系列東西的距離和移動速度,移動方向等等。打個比方,其他駕駛汽車始終在一個合理的速度內朝著一個方向或者幾個方向合理運動的。你們只要把距離精確,速度范圍確認,到達汽車附近的合理變化時間就可以被確認和算出來 。然后,交通燈附近它們會停車,你也可以看到,并通知身后的無人汽車。計算機那么高的算力,城市道路都是死的??!它汽車速度朝著無數個方向運動,能超過二百三百米每秒嗎?不能吧。在城市開車,它車速限制在一個固定的區域內。按照AI去計算,預測,它停留的位置就是死的。那對你們來說,超車,什么的有技術可言嗎?就是速度再快,車速也是有上限的。那它就不是無窮無盡的數值,那還不是任由你們拿捏。又不是造航天飛機有那么難嗎?二貨們。
自動駕駛汽車涉及哪些技術?
最近,有一位對技術一竅不通的朋友對我說想買特斯拉,因為它配備了“你站著不動,讓車來找你”的自動駕駛功能。這使我很意外,自動駕駛雖然暫時還只是從業者關注的話題,但也許用不了幾年,就很有可能成為影響普通群眾購車決策的關鍵因素。甚至可以說,自動駕駛已經成為汽車發展的熱點和今后必然的趨勢。那么,自動駕駛汽車涉及哪些技術呢?
簡單概括基于自動駕駛系統的組成便是這三點:環境感知、行為決策與車輛控制系統的執行技術。
首先,什么是自動駕駛?就是全部或部分替代這些本來由人來執行的功能。那么,所謂的感知是指車的傳感器“看”到了什么、決策是指車的大腦思考怎么去處理、執行是指車的控制系統去執行相應的操作。
但是要實現自動駕駛,僅僅依靠這三大系統是遠遠不夠的,自動駕駛和未來的智慧交通系統還需要一些基礎的共性技術進行支撐,也可以概括為三點。
其中最主要的兩點便是“自動駕駛的大腦”——高性能運算處理器平臺以及“能讓汽車心靈感應”——車與外部設施通信的C-V2X技術。前者能為傳感器的識別算法和系統的決策算法提供巨量的運算能力支持,是與傳統汽車最為基本的區別;后者讓汽車與交通標志。行人、其他車輛、云端等參與交通的所有對象通信,讓汽車不再是一個單一的個體,而成為智慧交通中一個有機的組成部分。比如,與紅綠燈進行通信,便能讓汽車提前知道紅綠燈的狀態,提前進行減速慢行操作;與其他車輛通信,便能將車輛緊急剎車、變道、轉彎狀態及時告知其他車輛,讓其他車輛有足夠的時間進行預判和處理。最后,“自動駕駛開天眼”——VEPP高精度定位技術在實現自動駕駛中也不可或缺。
除了環境感知和C-V2X技術準確探知車輛周圍的環境,為了更可靠精確的提高感知結果的精確性和可靠性,還需要能準確知道汽車的實時位置,才能更安全實現自動駕駛。
比如,只有在亞米級(0.1m級)的精度下,才能準確判斷車輛所處的車道,并與本條車道內的車輛建立聯系;或者只有準確知道車輛與交通信號燈與路口的距離,才能進行更為精確的預判和準備,就好像給汽車開了天眼。
---本文圖片來源自網絡
實現完全的自動駕駛和智慧交通是一個注定艱難的過程,無論是人工智能、環境感知、智能決策這類新技術,還是運動控制、遠程通信這些基礎技術,甚至基礎設施建設、法律法規等,自動駕駛領域有太多技術等待我們去突破,太多山峰等待我們去翻越。這一未來必將造福全人類的技術正在各行各業的努力下快速發展著,我們一起期待吧。
本文來源于汽車之家車家號作者,不代表汽車之家的觀點立場。
自動駕駛研究方法的介紹就聊到這里吧,感謝你花時間閱讀本站內容,更多關于自動駕駛研究方法論文、自動駕駛研究方法的信息別忘了在本站進行查找喔。