只用1個攝像頭實現(xiàn)汽車防碰撞系統(tǒng) (下)

2012年07月23日 15:35 來源:技術在線 作者:自由頻率 我要評論(0)

  軟件是關鍵,根據(jù)三個特征判定車輛

  EyeQ2實際上能夠同時處理汽車預防式安全系統(tǒng)和防撞輔助系統(tǒng)所必須的以下檢測(圖6):(1)前方車輛、(2)車道線、(3)與前方車輛的距離、(4)與前方車輛的相對速度和相對加速度、(5)車道內的前方車輛、(6)彎道、(7)行人。

  

  圖6:檢測車輛和車道線

  通過檢測車輛和車道線提高了報警精度,可區(qū)分同一車道內的車輛及其他車道的車輛。

  關于(1)車輛檢測,識別車輛依照的是對三個特征的檢測,分別是車輛后部的矩形檢測、后輪檢測、2個尾燈的檢測(圖7)。系統(tǒng)將通過比對預先保存的幾十種車輛形狀的圖案,判斷前方物體是否為汽車。如果是汽車,系統(tǒng)可以判斷出后輪輪胎的位置。而尾燈則是夜晚重要的檢測要素。

  

  圖7:捕捉車輛后方的特征

  通過檢測長方形或正方形的車輛后部以及2個輪胎、尾燈,判斷前方物體為車輛。

  在識別車輛時,CMOS傳感器上的車寬需要達到13個像素以上,這相當于與車寬為1.6m的車輛相距115m。從CMOS傳感器的性能來看,前方的識別限度約為90m。

  單眼攝像頭也能測量距離

  (2)車道線的檢測數(shù)據(jù)將用于車距監(jiān)測及警示、前方車輛碰撞警示。50m遠的寬度為10cm的車道線在CMOS傳感器上相當于2個像素。系統(tǒng)將從攝像頭圖像中識別出車道線,根據(jù)攝像頭的視野和在前窗上安裝的位置等信息計算出車道線的寬度及其與車輛的相對位置,利用卡爾曼濾波器推測車道線。

  (3)與前方車輛的距離是利用“遠近法原理”計算得出的(圖8)。其原理如下,因為攝像頭的地面高度(H)已知,所以,路面上前方車輛接觸地面的位置比水平面上無限遠的一點(延伸焦點,F(xiàn)OE:focusof expansion)略低幾度。

  

  圖8:車距檢測的原理

  單眼攝像頭檢測車距利用“遠近法原理”。事先測量出攝像頭的地面高度H,根據(jù)關系公式計算出距離Z。

  映射到攝像頭內部的CMOS傳感器上的圖像的高度(y)隨與前車(后輪輪胎與道路的接觸面)的距離而變化。攝像頭的焦距(f)同樣為已知條件。按照“H:Z=y(tǒng):f”計算,即可求出與前車的距離Z。而且,距離碰撞的時間也可以根據(jù)“Z/相對速度”的公式求出。

  攻克檢測行人這一難題

  與車輛的識別相比,(7)行人檢測的難度要大得多。行人不同于車輛,動作、服裝、身體各部分的變化要素很多,而且還需要與街上的建筑、汽車、電線桿、樹木等背景圖案區(qū)分開來。

  為了在有人走向行駛車道時盡可能縮小檢測延遲,對于車道外行人的檢測必不可少。因此可以容許出現(xiàn)某種程度的誤判。

  提高行人檢測的精度依靠的是“單幀分類”和“多幀認證”兩個步驟。首先通過“單幀分類”判斷出“好像是行人”,然后再轉入“多幀認證”,當檢測到行人進入車道內時提高等級,采取立即發(fā)出報警等處理方式。

  在行人識別中,系統(tǒng)將把推測為行人的圖像分成9個區(qū)域提取特征(圖9),結合多幀的動態(tài)變化提高精度。識別到的VGA分辨率的縱長長方形行人圖像將在調整到12×36像素后進入“單幀分類”處理。根據(jù)匯總了3~25m范圍內15萬個廣泛的行人事例(考慮到了動作和停頓、照明、背景圖案、氣象條件、天氣下的可視條件等)的測試數(shù)據(jù)集進行分類(注3)。

  

  圖9:提取行人特征

  把拍攝的圖像分成9個區(qū)域提取特征,識別其是否為行人。

 ?。ㄗ?)數(shù)字依照Mobileye發(fā)表的論文,與現(xiàn)在的產(chǎn)品參數(shù)可能存在差異。

  測試數(shù)據(jù)集根據(jù)在日本、德國(慕尼黑)、美國(底特律)、以色列各國的市區(qū)行駛50個小時獲得的數(shù)據(jù)制成。這種方法在誤判率為5.5%的情況下,檢測率可達90%??紤]到檢測率與誤判率的均衡,最終采用的檢測率為93.5%,此時誤判率約為8%。

  對于“單幀分類”無法檢測出的情況,在“多幀認證”這一步中,考慮到了動態(tài)步伐和移動檢測、再檢測、腳部位置檢測,目的是區(qū)分行人與背景中的靜止物體(電線桿、樹木、護欄)的辦法。借助以上改進,系統(tǒng)在白天能夠識別出30m前方身高在1m以上的行人。

  攝像頭方式特有的弱點

  我們的防碰撞報警系統(tǒng)也存在弱點。因為是基于攝像頭進行圖像識別,所以人眼看不到的東西無法識別。在識別車道線時,掉色的車道線、在雨雪覆蓋下難以辨識的車道線可能無法識別。

  在隧道的入口和出口附近,前方車輛與隧道影像重疊也可能造成誤報;前方車輛映照在被雨水淋濕的道路上的倒影也有可能造成誤報;當太陽位于靠近地平線的正前方時,攝像頭有時會無法正確識別前方車輛;而且,當攝像頭正前方的前窗上有水滴時,系統(tǒng)有可能發(fā)生魚眼鏡頭效應,對前方車輛的大小判斷錯誤(注4)。

  (注4)以上是Mobileye技術部門列舉的可能發(fā)生誤判的場合和條件。

  未來將把自動駕駛也納入視野

  為了改善這些弱點,我們已經(jīng)著手開始改進圖像處理SoC。目前正在與意法合資意法半導體合作開發(fā)名為“EyeQ3”的第3代產(chǎn)品。計劃在2014年開始供應配備該SoC的產(chǎn)品。

  EyeQ3內嵌4個支持多線程的“MIPS32內核”,每個CPU內核都配備了我們的VMP(vector microcode processor)。我們計劃通過靈活分配控制與數(shù)據(jù)處理,使其性能達到EyeQ2的6倍。

  而且,我們還計劃實現(xiàn)支持多攝像頭輸入等大容量影像數(shù)據(jù)處理。如果除了前方之外,攝像頭還能安裝在后方和側面用以獲取信息,應該能實現(xiàn)更可靠的防碰撞報警系統(tǒng)。

  隨著攝像頭與汽車的融合,自動駕駛也已經(jīng)進入了我們的視野,現(xiàn)在此技術已經(jīng)著手開發(fā)。需要解決的課題雖然很多,但我們每天都在積極地迎接挑戰(zhàn)。在今后,Mobileye依然將全力開發(fā)更加方便大眾的汽車技術。