99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

ml8z_IV_Technol ? 來源:工程師李察 ? 2019-01-05 09:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

對(duì)于智能車輛來說,多傳感器融合對(duì)于高精度和魯棒性的感知交通環(huán)境至關(guān)重要。在這篇論文中,我們提出了兩種有效的方法,即時(shí)空證據(jù)生成和獨(dú)立視覺通道,以改善多傳感器跟蹤水平對(duì)車輛環(huán)境感知的影響。時(shí)空證據(jù)包括即時(shí)證據(jù)、跟蹤證據(jù)和跟蹤匹配證據(jù),以改進(jìn)存在融合。

獨(dú)立視覺通道利用視覺處理在物體識(shí)別上的特殊優(yōu)勢(shì)來改進(jìn)分類融合。利用從實(shí)際交通環(huán)境中采集的多傳感器數(shù)據(jù)集對(duì)所提出的方法進(jìn)行了評(píng)估。實(shí)驗(yàn)結(jié)果表明,該方法在檢測(cè)精度和分類精度方面均可顯著提高多傳感器軌道級(jí)融合。

Ⅰ.介紹

交通環(huán)境中的物體感知的魯棒性對(duì)于自動(dòng)駕駛和高級(jí)駕駛輔助系統(tǒng)( ADAS )都具有重要意義。物體感知可以通過不同類型的傳感器來實(shí)現(xiàn),例如激光雷達(dá)、雷達(dá)和攝相機(jī)。激光雷達(dá)和雷達(dá)是有源傳感器,可以測(cè)量物體的精確距離,但物體分類的能力較差。而攝像機(jī)在物體識(shí)別方面表現(xiàn)出優(yōu)異的性能,但是測(cè)量物體距離的能力較差。雷達(dá)對(duì)測(cè)量物體的速度更敏感,激光雷達(dá)更適合于感知物體的形狀。總之,這些傳感器各有優(yōu)缺點(diǎn)[ 1 ]。因此,融合不同的傳感器有望實(shí)現(xiàn)物體感知的高精度和魯棒性。

傳感器融合系統(tǒng)已經(jīng)被研究了幾十年。通常,傳感器融合方法可分為三類:低級(jí)、特征級(jí)和高級(jí)融合方法。

低級(jí)融合架構(gòu)不需要在傳感器級(jí)對(duì)原始數(shù)據(jù)進(jìn)行預(yù)處理。盡管低級(jí)融合[ 2 ]對(duì)物體有很強(qiáng)的描述能力,但它需要很高的數(shù)據(jù)帶寬,并且在實(shí)踐中實(shí)施起來可能很復(fù)雜。

特征級(jí)融合[ 3 ]試圖在進(jìn)行數(shù)據(jù)融合之前,通過預(yù)處理步驟從原始數(shù)據(jù)中提取某些特征。特征級(jí)融合可以降低復(fù)雜性,但在實(shí)踐中仍然難以實(shí)現(xiàn)。

在高級(jí)融合[ 4 ]中,每個(gè)傳感器獨(dú)立地執(zhí)行跟蹤算法并生成目標(biāo)列表。高級(jí)融合可以產(chǎn)生最佳的感知性能,因?yàn)樗哂心K化、實(shí)用性和可擴(kuò)展性。

因此,在本文中,我們將重點(diǎn)放在高級(jí)融合上,也稱為軌道級(jí)融合。軌道級(jí)融合的一個(gè)潛在缺點(diǎn)是它對(duì)物體的描述能力較差。因此,在軌道級(jí)融合設(shè)計(jì)中,我們應(yīng)該更加關(guān)注物體的完整描述,如分類、形狀等。

許多軌道級(jí)融合方法[ 5 ]–[ 7 ]已經(jīng)被提出,并對(duì)目標(biāo)感知做出了巨大貢獻(xiàn)。在跟蹤目標(biāo)時(shí),我們主要關(guān)注三種信息:1 )目標(biāo)的存在概率;2 )目標(biāo)狀態(tài)的準(zhǔn)確性,包括位置、速度和方向,反映在目標(biāo)的全局軌跡上;3 )其他描述信息的完整性,如分類、形狀等。

因此,軌道級(jí)融合主要包括存在融合、軌道間融合和分類融合。參考文獻(xiàn)[ 5 ]和[ 6 ]使用基于證據(jù)理論(DST)的存在融合方法來估計(jì)物體的存在概率。然而,它們的存在證據(jù)只考慮瞬時(shí)的空間證據(jù),而忽略了時(shí)間證據(jù),因此會(huì)產(chǎn)生相對(duì)高的誤報(bào)率和誤報(bào)率,特別是在高度動(dòng)態(tài)的交通環(huán)境下。參考[ 5 ]和[ 7 ]提出了使用信息矩陣融合( IMF )來估計(jì)物體狀態(tài)的軌道間融合方法。然而,它們像其他主動(dòng)傳感器一樣融合圖像對(duì)象,同時(shí)忽略圖像對(duì)象的不準(zhǔn)確位置,這導(dǎo)致相對(duì)高的假陰性率、檢測(cè)的假陽(yáng)性率和相對(duì)低的正確識(shí)別率。

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

圖1 :最新軌道級(jí)融合的框架

為了解決上述兩個(gè)問題,我們提出了兩種方法,即時(shí)空證據(jù)生成( STEG )和獨(dú)立視覺通道( IVC ),以改進(jìn)多傳感器軌道級(jí)融合。STEG方法提高了存在估計(jì)的準(zhǔn)確性,從而提高了軌道級(jí)融合的檢測(cè)精度。IVC方法不僅提高了軌道融合的檢測(cè)率,而且提高了軌道融合的正確分類率。利用從實(shí)際交通環(huán)境中收集的多傳感器數(shù)據(jù)集對(duì)所提出的方法進(jìn)行了評(píng)估。實(shí)驗(yàn)結(jié)果清楚地證明了所提方法在軌道級(jí)融合中的有效性。與沒有STIG的方法相比,所提出的STIG方法在相似誤報(bào)率的情況下將目標(biāo)檢測(cè)的誤報(bào)率降低了0.06,并且在相似誤報(bào)率的情況下與沒有STIG的方法相比將誤報(bào)率降低了0.08。同時(shí),所提出的IVC方法將目標(biāo)檢測(cè)的假陰性率降低了0.01,并將目標(biāo)識(shí)別的正確分類率提高了0.19。

Ⅱ.軌道級(jí)融合的背景

為了正確檢測(cè)室外環(huán)境中的目標(biāo),并且大多數(shù)情況下不會(huì)因?yàn)檫M(jìn)入和離開視場(chǎng)而丟失物體信息,多傳感器數(shù)據(jù)應(yīng)該在軌道級(jí)融合。如圖1所示,軌道級(jí)融合的框架包括傳感器級(jí)處理、融合級(jí)處理和應(yīng)用級(jí)處理。在傳感器級(jí)處理中,我們獨(dú)立地從每個(gè)傳感器獲得傳感器局部對(duì)象列表:

其中t是時(shí)間戳,Si表示傳感器i,Oj是對(duì)檢測(cè)對(duì)象的描述,包括狀態(tài)xˇ、狀態(tài)協(xié)方差Pˇ、存在概率p和分類c。在融合級(jí)處理中,來自不同傳感器的對(duì)象列表首先在空間和時(shí)間上與公共坐標(biāo)系對(duì)齊。跟蹤到跟蹤關(guān)聯(lián)后,傳感器級(jí)對(duì)象會(huì)列出DtS1...SN通過存在融合、軌道融合和分類融合融合在一起,形成全局目標(biāo)列表DtG。在應(yīng)用程序級(jí)處理中,全局對(duì)象列表DtG與特定應(yīng)用程序的其他數(shù)據(jù)源相結(jié)合。

存在融合是從獨(dú)立的傳感器級(jí)估計(jì)中融合目標(biāo)存在概率,生成全局目標(biāo)存在概率估計(jì)。這對(duì)提高目標(biāo)跟蹤的魯棒性非常重要。對(duì)于單傳感器目標(biāo)跟蹤,存在概率主要通過歸一化創(chuàng)新平方( NIS )來估計(jì)。最近還提出了幾種更先進(jìn)的方法。例如,[ 8 ]提出了一種利用立體視覺和跟蹤過程中的幾個(gè)線索來估計(jì)物體存在概率的方法。對(duì)于多傳感器目標(biāo)跟蹤,在綜合概率數(shù)據(jù)關(guān)聯(lián)( IPDA )框架中開發(fā)了目標(biāo)存在概率估計(jì),作為檢測(cè)目標(biāo)的質(zhì)量度量[ 9 ]。參考文獻(xiàn)[ 6 ]提出了一種基于DST的目標(biāo)存在概率估計(jì)的融合方法,其中組合了由每個(gè)傳感器估計(jì)的目標(biāo)存在。

軌道間融合來自獨(dú)立傳感器級(jí)估計(jì)的目標(biāo)狀態(tài)及其協(xié)方差,以生成全局目標(biāo)狀態(tài)估計(jì)。參考[ 10 ]提出了目標(biāo)軌道融合( OTF )方法,其中傳感器級(jí)軌跡被視為對(duì)全局目標(biāo)軌跡的測(cè)量,忽略了相關(guān)性和信息冗余。參考文獻(xiàn)[ 11 ]介紹了軌道到軌道融合( T2T )方法,該方法通過近似技術(shù)計(jì)算互相關(guān)度,這種方法存在缺陷。IMF在用于將多傳感器各自的目標(biāo)軌跡融合成全局軌跡,并顯示出出色的性能?;贗MF的方法在[ 7 ]中提出,該方法使用IMF來處理速度相關(guān)性,實(shí)現(xiàn)了集中式架構(gòu)的可比性能。[ 12 ]對(duì)現(xiàn)有的用于物體狀態(tài)估計(jì)的軌道間融合方法進(jìn)行了精度比較。它表明IMF對(duì)過程噪聲最魯棒,在過程模型偏差期間最準(zhǔn)確和一致。

分類融合旨在改進(jìn)全局對(duì)象的分類估計(jì)。大多數(shù)分類融合方法基于證據(jù)理論,這是一種基于不完全和不確定信息的決策工具。對(duì)于全局對(duì)象分類融合,找到合適的證據(jù)至關(guān)重要。參考[ 13 ]–[ 15 ]使用基于DST的方法來估計(jì)全局目標(biāo)軌跡的分類。[ 13 ]提議的基于DST的融合方法依賴于兩個(gè)主要證據(jù):瞬時(shí)融合證據(jù),從當(dāng)前每個(gè)物體的單個(gè)傳感器提供的證據(jù)組合中獲得;以及動(dòng)態(tài)融合證據(jù),其將來自先前結(jié)果的證據(jù)與瞬時(shí)融合結(jié)果相結(jié)合。在[ 14 ]中,作者提出了一種基于證據(jù)理論的目標(biāo)柵格地圖融合,以決定是否占據(jù)柵格。提出了一種基于DST的分類方法[ 15 ]來融合全局軌跡的瞬時(shí)分類結(jié)果和先前的分類結(jié)果。參考[ 16 ]和[ 17 ]使用Yager規(guī)則組合來自不同傳感器的物體分類證據(jù),進(jìn)一步用于關(guān)聯(lián)來自不同傳感器的物體。

III.軌道級(jí)融合

A.總體框架

圖2示出了我們所提出的軌道級(jí)融合的框架。整體框架非常類似于最先進(jìn)的軌道級(jí)融合框架。特別是,對(duì)于時(shí)間和空間對(duì)齊,我們采用了我們先前工作[ 8 ]中介紹的相同方法,將獨(dú)立的傳感器級(jí)對(duì)象列表同步并校準(zhǔn)到公共坐標(biāo)系。然后,我們使用匈牙利算法來關(guān)聯(lián)來自多個(gè)傳感器的時(shí)間和空間對(duì)齊的對(duì)象列表。我們將DST用于存在融合和分類融合,以及IMF用于軌道到軌道融合。主要原因是DST和IMF分別是最有效的方法。

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

圖2 :軌道級(jí)融合框架

本文提出的框架和最新框架之間的主要區(qū)別可以描述如下。

我們提出了一種基于DST的存在融合時(shí)空證據(jù)生成方法。我們同時(shí)考慮空間瞬時(shí)證據(jù)、時(shí)間跟蹤證據(jù)和跟蹤匹配證據(jù),以改進(jìn)存在融合。

我們使用獨(dú)立的視覺通道將圖像對(duì)象信息融合到全局軌道中。IVC的使用不僅可以改進(jìn)分類融合,還可以避免對(duì)航跡融合的負(fù)面影響。

B.時(shí)空證據(jù)生成

1 )即時(shí)證據(jù)生成:當(dāng)一個(gè)物體出現(xiàn)在感知范圍內(nèi)時(shí),我們需要證據(jù)來即時(shí)支持存在融合。單個(gè)傳感器存在估計(jì)的魯棒性實(shí)際上非常低。因此,直接使用單傳感器存在估計(jì)[ 6 ]進(jìn)行存在融合是不合適的。為了提高目標(biāo)檢測(cè)的魯棒性,我們使用瞬時(shí)測(cè)量的匹配信息作為證據(jù)來支持目標(biāo)存在估計(jì)。我們使用匈牙利算法從不同傳感器獲取不同目標(biāo)列表的瞬時(shí)匹配信息,其中我們計(jì)算不同列表中目標(biāo)之間的歐氏距離作為權(quán)重矩陣。

我們將臨界距離定義為d1max,并將兩個(gè)獨(dú)立傳感器的距離定義為di,j。如果di,j小于d1max且對(duì)象i與對(duì)象j匹配,則定義瞬時(shí)證據(jù)質(zhì)量,利用Sigmod函數(shù)將di,j映射到質(zhì)量集[a,b]。Sigmod函數(shù)定義為

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

其中ε是接近于零的正常量。

2 )跟蹤證據(jù)生成:當(dāng)一個(gè)物體在一段時(shí)間內(nèi)只被一個(gè)傳感器檢測(cè)到時(shí),我們無法從多個(gè)傳感器獲得證據(jù)。由于單個(gè)傳感器對(duì)目標(biāo)的瞬時(shí)測(cè)量不穩(wěn)定,我們將目標(biāo)跟蹤歷史作為存在融合的證據(jù)。

我們計(jì)算一段時(shí)間內(nèi)同一軌道上當(dāng)前幀和前一幀的對(duì)象之間的平均歐氏距離,以獲得支持存在估計(jì)的質(zhì)量。大量證據(jù)被定義為

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

其中ε是如B1小節(jié)中提到的常數(shù),d2max是與物體速度相關(guān)聯(lián)的臨界距離。davg由軌道的長(zhǎng)度和平滑度估計(jì),定義為

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

其中k是當(dāng)前時(shí)間戳,n - 1是軌道的選定長(zhǎng)度。

3 )跟蹤匹配證據(jù)生成:如果一個(gè)物體在一段時(shí)間內(nèi)被幾個(gè)傳感器同時(shí)觀察到,這意味著這個(gè)物體幾乎肯定存在。這是物體存在融合的有力證據(jù)。

在本文中,我們計(jì)算來自不同傳感器的兩個(gè)目標(biāo)軌道的平均歐幾里德距離,以獲得支持存在估計(jì)的質(zhì)量。大量有力的證據(jù)被定義為

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

其中ε是接近零的正常數(shù),dt2t是兩條軌道之間的平均距離。Dt2t定義為

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

其中ki是時(shí)間戳,而i,j代表不同的傳感器,n是軌道長(zhǎng)度。

4 )基于DST的存在融合:對(duì)于目標(biāo)存在概率融合,我們獲得了上述三種證據(jù),即瞬時(shí)證據(jù)、跟蹤證據(jù)和跟蹤匹配證據(jù)。

存在概率識(shí)別框架定義為

其中彐代表存在。實(shí)際上,我們計(jì)算質(zhì)量m(彐 )和質(zhì)量m(θ),其中θ是未知的命題。在[ 6 ]中,如果一個(gè)物體在傳感器的范圍內(nèi),而傳感器未能檢測(cè)到該物體,它們定義了m(彐 )的質(zhì)量。由于遮擋問題和傳感器的不可靠性,這是不合適的。因此,假設(shè)A代表存在或未知的命題,我們有三個(gè)質(zhì)量值來支持如上計(jì)算的命題A、m1(A )、m2(A )和m3(A )。我們使用[ 6 ]中提出的組合和判別規(guī)則計(jì)算融合存在概率,該規(guī)則定義為

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

其中K定義為

C.獨(dú)立視覺通道

在所有傳感器中,攝像機(jī)傳感器的識(shí)別能力是最出色的。因此,必須融合圖像信息,以實(shí)現(xiàn)全面的物體感知。然而,由圖像傳感器檢測(cè)到的物體的真實(shí)位置并不像其他有源傳感器那樣精確,因?yàn)閿z像機(jī)校準(zhǔn)參數(shù)不能適應(yīng)室外交通環(huán)境的所有條件。例如,安裝在車輛上的攝像機(jī)可能會(huì)隨著車輛在不平的道路上行駛而晃動(dòng)。如果IMF方法使用與其他傳感器相同的圖像對(duì)象列表,將導(dǎo)致相對(duì)較高的對(duì)象檢測(cè)假陰性和假陽(yáng)性率,從而導(dǎo)致相對(duì)較低的對(duì)象識(shí)別正確分類率。參考[ 19 ]指出了圖像對(duì)象的不準(zhǔn)確位置,因此提出了一種融合圖像信息的方法。然而,該方法要求其他傳感器必須獲得幾何信息以匹配圖像對(duì)象的形狀,這對(duì)于沒有感知形狀信息能力的傳感器來說通常是不可用的。

為了解決上述問題,我們提出了一種獨(dú)立的視覺通道方法來更恰當(dāng)?shù)厝诤蠄D像對(duì)象信息。提出的獨(dú)立視覺通道獨(dú)立處理圖像對(duì)象列表,避免了對(duì)軌道融合的負(fù)面影響。此外,獨(dú)立的視覺通道將圖像信息傳遞給有源傳感器的目標(biāo),因此也可以改進(jìn)軌道級(jí)融合的分類估計(jì)。我們首先使用A3小節(jié)中提到的軌道匹配算法將圖像對(duì)象的軌道與其他傳感器的軌道進(jìn)行匹配。當(dāng)當(dāng)前時(shí)間戳或先前時(shí)間戳的dt2t小于d3max時(shí),我們將圖像對(duì)象信息(如分類)傳輸?shù)搅硪粋€(gè)活動(dòng)傳感器的對(duì)象。之后,我們首先使用DST作為等式( 12 ),將轉(zhuǎn)移的分類c~i和自含分類cSj融合為c~Sj。然后,我們使用DST作為等式( 13 ),將當(dāng)前分類和先前分類進(jìn)行融合。

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

Ⅳ.實(shí)驗(yàn)結(jié)果

A.實(shí)驗(yàn)裝置

所有物體感知實(shí)驗(yàn)都在西安交通大學(xué)開發(fā)的“發(fā)現(xiàn)號(hào)”自動(dòng)駕駛車輛研究平臺(tái)上進(jìn)行。該平臺(tái)旨在滿足一般自主駕駛研究的要求,同時(shí)也在努力應(yīng)對(duì)環(huán)境感知的挑戰(zhàn)?!鞍l(fā)現(xiàn)”在2017年贏得了中國(guó)智能車輛未來挑戰(zhàn)( IVFC )。如圖3 ( a )所示,“發(fā)現(xiàn)號(hào)”安裝有一臺(tái)德爾菲ESR MMW雷達(dá)、一臺(tái)單目點(diǎn)灰色攝像機(jī)和一臺(tái)ibeo LUX - 8L。圖3 ( b )示出了三個(gè)傳感器的具體感知范圍。表I列出了這三種傳感器的類型、視場(chǎng)( FOV )、范圍和更新速率。

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

實(shí)驗(yàn)中使用的數(shù)據(jù)集是由安裝在西安市城市道路“發(fā)現(xiàn)號(hào)”上的多個(gè)傳感器收集的。攝像機(jī)和雷達(dá)的捕獲速率為10fps,激光雷達(dá)的捕獲速率為6.25fps。我們已經(jīng)同時(shí)捕獲了45287幀的同步數(shù)據(jù)集,包括相機(jī)、激光雷達(dá)和雷達(dá)數(shù)據(jù)。從數(shù)據(jù)集中,我們選擇4個(gè)會(huì)話來測(cè)試建議的方法,如表所示

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

圖3 : XJTU自動(dòng)駕駛車輛研究平臺(tái)“發(fā)現(xiàn)號(hào)”的傳感器配置

我們已經(jīng)預(yù)處理了4個(gè)選定的會(huì)話。MMW雷達(dá)目標(biāo)直接從雷達(dá)傳感器讀取,圖像目標(biāo)由單鏡頭多盒檢測(cè)器( SSD ) [ 20 ]模型檢測(cè),激光雷達(dá)數(shù)據(jù)由基于密度的帶噪聲應(yīng)用空間聚類( DBSCAN ) [ 21 ]處理。雷達(dá)和激光雷達(dá)的目標(biāo)分別被卡爾曼濾波器跟蹤。

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

B.時(shí)空證據(jù)生成的結(jié)果

與文獻(xiàn)[6]中提出的時(shí)空證據(jù)生成方法相比,本文提出的時(shí)空證據(jù)生成方法從目標(biāo)檢測(cè)的假陰性率和假陽(yáng)性率兩方面對(duì)該方法進(jìn)行了評(píng)價(jià)。如果存在一個(gè)對(duì)象,則將其與全局軌道相融合。因此,為了評(píng)估存在性融合的性能,我們分別計(jì)算了目標(biāo)檢測(cè)的全局假陰性率和假陽(yáng)性率。

在我們的工作中,我們?yōu)镾teg方法選擇了一組參數(shù),d1max=d2max=d3max=2.2m;ε=0:0001。該方法可以通過改變目標(biāo)檢測(cè)的參數(shù)來調(diào)整目標(biāo)檢測(cè)的假陰性率和假陽(yáng)性率。因此,我們選擇了兩組參數(shù),即不帶STEG 1的參數(shù),與STEG方法相似的假陽(yáng)性率參數(shù)和不帶步驟2的參數(shù),與STEG方法的假陰性率相似。表三列出了前面方法的兩組參數(shù)。雷達(dá)信任度是激光雷達(dá)傳感器的感知范圍。在感知范圍內(nèi),如果雷達(dá)傳感器檢測(cè)到目標(biāo),而激光雷達(dá)傳感器出現(xiàn)故障,則導(dǎo)致目標(biāo)的不存在。

如圖4所示,在類似假陽(yáng)性率的情況下,所提出的STEP方法比不帶STG的方法降低了目標(biāo)檢測(cè)的假陰性率0.06;在類似假陰性率的情況下,與沒有STIG的方法相比,該方法降低了0.08%的假陽(yáng)性率。

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

圖4:STEG檢測(cè)精度比較

C.獨(dú)立視覺通道的結(jié)果

圖5 :對(duì)象ID變化比較的示例

較高的誤檢率會(huì)導(dǎo)致全局目標(biāo)軌跡的識(shí)別號(hào)(ID)發(fā)生較大的變化。IVC方法可以減少假陰性率和ID變化次數(shù)。圖5(A)示出交通場(chǎng)景,其中正面汽車(標(biāo)記為紅色邊框)正在移動(dòng)。圖5(B)分別示出了該方法與IVC提供的汽車軌道的ID變化比較,以及不使用IVC的方法,其中每種顏色代表一個(gè)ID。所提出的IVC方法提供的軌跡ID在20秒內(nèi)不發(fā)生變化,但在沒有IVC的情況下,該方法提供的ID變化了兩次。圖6示出了目標(biāo)檢測(cè)的假陰性率和假陽(yáng)性率的比較。比較結(jié)果表明,與不含IVC的方法相比,采用IVC的方法可使假陰性率降低0.01。雖然對(duì)目標(biāo)檢測(cè)的假陰性率的提高相對(duì)較小,但可以減少ID的平均變化次數(shù),從而有效地提高了分類融合的效果。

本文采用基于DST的分類融合方法,利用現(xiàn)有的傳感器證據(jù)和以往的全局分類證據(jù)來確定目標(biāo)的分類。因此,當(dāng)對(duì)象ID發(fā)生變化時(shí),會(huì)丟失以前的分類證據(jù),從而導(dǎo)致分類正確率較低。圖7示出了對(duì)象id的平均變化時(shí)間和正確的分類率。結(jié)果表明,該方法的平均變化次數(shù)為0.67,比無IVC的方法低3倍以上。該方法的正確分類率為0.78,比不含IVC的方法高0.19。

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

圖6:IVC檢測(cè)精度比較

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

圖7 : IVC分類精度比較

V.結(jié)論

在這篇論文中,我們提出了兩種方法來改進(jìn)用于目標(biāo)感知的軌道級(jí)融合。首先,我們提出了一種時(shí)空證據(jù)生成方法,用于目標(biāo)存在概率融合,以降低誤報(bào)率和誤報(bào)率。其次,我們提出了一種獨(dú)立的視覺通道方法來改進(jìn)跟蹤-跟蹤融合和分類融合。最后,通過從實(shí)際交通環(huán)境中采集的多傳感器數(shù)據(jù)集對(duì)所提出的方法進(jìn)行了評(píng)估。實(shí)驗(yàn)結(jié)果表明,該方法在檢測(cè)精度和分類精度方面均可顯著提高多傳感器軌道級(jí)融合。在未來的工作中,我們將考慮使用攝像機(jī)對(duì)道路場(chǎng)景的理解來幫助物體融合感知。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2565

    文章

    52971

    瀏覽量

    767139
  • 智能
    +關(guān)注

    關(guān)注

    8

    文章

    1732

    瀏覽量

    120098
  • 軌道
    +關(guān)注

    關(guān)注

    0

    文章

    40

    瀏覽量

    11153

原文標(biāo)題:利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

文章出處:【微信號(hào):IV_Technology,微信公眾號(hào):智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    隧道管廊振動(dòng)溫度傳感器:構(gòu)筑地下空間安全感知網(wǎng)絡(luò)

    傳感器的出現(xiàn),通過技術(shù)融合與智能感知,為隧道管廊構(gòu)建起立體化的安全防護(hù)體系。技術(shù)原理:雙模態(tài)感知與數(shù)據(jù)融合振動(dòng)溫度
    的頭像 發(fā)表于 06-11 10:45 ?237次閱讀
    隧道管廊振動(dòng)溫度<b class='flag-5'>傳感器</b>:構(gòu)筑地下空間安全<b class='flag-5'>感知</b>網(wǎng)絡(luò)

    AGV機(jī)器人如何實(shí)現(xiàn)毫秒級(jí)避障?深度解析傳感器融合的核心技術(shù)

    整合,彌補(bǔ)單一傳感器的局限,最終構(gòu)建出對(duì)環(huán)境的一致性感知。該技術(shù)既能融合源數(shù)據(jù)的互補(bǔ)優(yōu)勢(shì)(如精準(zhǔn)測(cè)距與物體識(shí)別),又能通過智能算法優(yōu)化信息
    的頭像 發(fā)表于 05-28 14:21 ?274次閱讀
    AGV機(jī)器人如何實(shí)現(xiàn)毫秒級(jí)避障?深度解析<b class='flag-5'>多</b><b class='flag-5'>傳感器</b><b class='flag-5'>融合</b>的核心技術(shù)

    仿生傳感器:讓機(jī)器擁有“生命感知”的神奇科技

    在科幻電影中,機(jī)器人通過皮膚感知溫度、用“鼻子”識(shí)別氣味、用“耳朵”捕捉聲音的場(chǎng)景曾令人驚嘆。如今,這些“超能力”正通過仿生傳感器逐漸走進(jìn)現(xiàn)實(shí)。仿生傳感器,這一融合生物學(xué)與工程學(xué)的創(chuàng)新
    的頭像 發(fā)表于 04-28 17:25 ?344次閱讀

    融合視覺傳感器廠商銳思智芯完成B輪融資

    近日,融合視覺傳感器研發(fā)商銳思智芯(AlpsenTek)宣布完成B輪融資,本輪投資方包括智慧互聯(lián)產(chǎn)業(yè)基金、浦耀信曄、中車時(shí)代投資、智宸投資、毅嶺資本等多家機(jī)構(gòu)。 「銳思智芯」是一家新型融合
    的頭像 發(fā)表于 04-16 18:21 ?354次閱讀

    從安防到元宇宙:RK3588如何重塑視覺感知邊界?

    示例: 模態(tài)AI融合:支持TensorFlow、PyTorch等主流框架模型部署,可應(yīng)用于智能零售中的行為識(shí)別系統(tǒng),通過攝像頭+紅外傳感器數(shù)據(jù)融合,精準(zhǔn)分析顧客停留熱點(diǎn)。 七屏異顯
    發(fā)表于 04-07 16:11

    BEVFusion —面向自動(dòng)駕駛的多任務(wù)傳感器高效融合框架技術(shù)詳解

    豐富的語義信息,激光雷達(dá)提供精確的空間信息,而雷達(dá)提供即時(shí)的速度估計(jì)。 因此,傳感器融合對(duì)于準(zhǔn)確可靠的感知具有重要意義。**來自不同傳感器
    的頭像 發(fā)表于 02-26 20:33 ?3849次閱讀
    BEVFusion —面向自動(dòng)駕駛的多任務(wù)<b class='flag-5'>多</b><b class='flag-5'>傳感器</b>高效<b class='flag-5'>融合</b>框架技術(shù)詳解

    如何利用傳感器融合改進(jìn)工業(yè) 4.0 生產(chǎn)的流程和物流

    作者:Jeff Shepard 投稿人:DigiKey 北美編輯 傳感器融合將來自多個(gè)傳感器的數(shù)據(jù)匯集在一起,讓用戶更詳細(xì)、更細(xì)致地了解系統(tǒng)運(yùn)行情況或環(huán)境。許多情況下,某種
    的頭像 發(fā)表于 01-26 21:32 ?601次閱讀
    如何<b class='flag-5'>利用</b><b class='flag-5'>傳感器</b><b class='flag-5'>融合</b>改進(jìn)工業(yè) 4.0 生產(chǎn)的流程和物流

    通道傳感器接入集中控制頻率溫度 傳感器集線器帶來更多方便

    通道傳感器接入集中控制頻率溫度 傳感器集線器帶來更多方便 現(xiàn)場(chǎng)傳感器太多,編號(hào)容易混亂?傳感器
    的頭像 發(fā)表于 01-08 11:18 ?364次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>通道</b><b class='flag-5'>傳感器</b>接入集中控制頻率溫度 <b class='flag-5'>傳感器</b>集線器帶來更多方便

    如何用SS1系列顏色傳感器示教通道顏色?

    基于白色LED光源的特性,深視智能SS1系列顏色傳感器突破了傳統(tǒng)單色RGB、融合光RGB的波長(zhǎng)限制,將發(fā)射波長(zhǎng)的范圍覆蓋到整個(gè)可見光譜,最大支持檢測(cè)16種顏色。那么,我們?nèi)绾?b class='flag-5'>利用SS1系列顏色
    的頭像 發(fā)表于 12-23 08:17 ?667次閱讀
    如何用SS1系列顏色<b class='flag-5'>傳感器</b>示教<b class='flag-5'>多</b><b class='flag-5'>通道</b>顏色?

    傳感器融合在自動(dòng)駕駛中的應(yīng)用趨勢(shì)探究

    自動(dòng)駕駛技術(shù)的快速發(fā)展加速交通行業(yè)變革,為實(shí)現(xiàn)車輛自動(dòng)駕駛,需要車輛對(duì)復(fù)雜動(dòng)態(tài)環(huán)境做出準(zhǔn)確、高效的響應(yīng),而傳感器
    的頭像 發(fā)表于 12-05 09:06 ?1338次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>傳感器</b><b class='flag-5'>融合</b>在自動(dòng)駕駛中的應(yīng)用趨勢(shì)探究

    感知融合為自動(dòng)駕駛與機(jī)器視覺解開當(dāng)前無解場(chǎng)景之困

    昱感微的“雷視一體融合感知方案”將可見光攝像頭、紅外攝像頭以及雷達(dá)的探測(cè)數(shù)據(jù)在前端(數(shù)據(jù)獲取時(shí))融合,將各傳感器的探測(cè)數(shù)據(jù)“坐標(biāo)統(tǒng)一、時(shí)序?qū)R”,圖像與雷達(dá)數(shù)據(jù)完成像素級(jí)實(shí)時(shí)“
    的頭像 發(fā)表于 10-29 14:21 ?975次閱讀
    <b class='flag-5'>感知</b><b class='flag-5'>融合</b>為自動(dòng)駕駛與機(jī)器<b class='flag-5'>視覺</b>解開當(dāng)前無解場(chǎng)景之困

    只有一個(gè)uart串口,如何接多個(gè)傳感器

    因?yàn)榘遄邮莿e人的,那上面只留了一個(gè)uart串口,i2c之類的都沒有,現(xiàn)在要實(shí)現(xiàn)環(huán)境感知,我估計(jì)得接幾個(gè)傳感器。我查詢到幾種方式,有用rs485,但這需要
    發(fā)表于 10-10 14:32

    精密制造的革新:光譜共焦傳感器與工業(yè)視覺相機(jī)的融合

    在現(xiàn)代精密制造領(lǐng)域,對(duì)微小尺寸、高精度產(chǎn)品的檢測(cè)需求日益迫切。光譜共焦傳感器憑借其非接觸、高精度測(cè)量特性脫穎而出,而工業(yè)視覺相機(jī)則以其高分辨率、實(shí)時(shí)成像能力著稱。兩者的融合,不僅解決了傳統(tǒng)檢測(cè)方式在
    的頭像 發(fā)表于 09-26 11:47 ?637次閱讀

    計(jì)算機(jī)視覺中的圖像融合

    。模態(tài)融合則是將來自不同傳感器的圖像結(jié)合起來,也稱為傳感器融合。其主要應(yīng)用包括醫(yī)學(xué)影像、監(jiān)控
    的頭像 發(fā)表于 08-01 08:28 ?1139次閱讀
    計(jì)算機(jī)<b class='flag-5'>視覺</b>中的圖像<b class='flag-5'>融合</b>

    人形機(jī)器人感知系統(tǒng)的特點(diǎn):模態(tài)感知、高精度、實(shí)時(shí)性

    優(yōu)必選、小米科技、宇樹科技等。 ? 人形機(jī)器人感知系統(tǒng)包括哪些傳感器和算法 ? 人形機(jī)器人感知系統(tǒng)包括各種傳感器,如視覺
    的頭像 發(fā)表于 07-30 01:05 ?5694次閱讀