99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動(dòng)駕駛多模態(tài)傳感器融合

智駕最前沿 ? 來源:計(jì)算機(jī)視覺深度學(xué)習(xí)和自 ? 作者:計(jì)算機(jī)視覺深度學(xué) ? 2022-04-20 09:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

多模態(tài)融合是感知自動(dòng)駕駛系統(tǒng)的一項(xiàng)基本任務(wù),最近引起了許多研究人員的興趣。然而,由于原始數(shù)據(jù)噪聲大、信息利用率低以及多模態(tài)傳感器的無對(duì)準(zhǔn),達(dá)到相當(dāng)好的性能并非易事。本文對(duì)現(xiàn)有的基于多模態(tài)自動(dòng)駕駛感知任務(wù)方法進(jìn)行了文獻(xiàn)綜述。分析超過50篇論文,包括攝像頭和激光雷達(dá),試圖解決目標(biāo)檢測(cè)和語義分割任務(wù)。與傳統(tǒng)的融合模型分類方法不同,作者從融合階段的角度,通過更合理的分類法將融合模型分為兩大類,四小類。此外,研究了當(dāng)前的融合方法,就潛在的研究機(jī)會(huì)展開討論。

最近,用于自動(dòng)駕駛感知任務(wù)的多模態(tài)融合方法發(fā)展迅速,其從跨模態(tài)特征表示和更可靠的模態(tài)傳感器,到更復(fù)雜、更穩(wěn)健的多模態(tài)融合深度學(xué)習(xí)模型和技術(shù)。然而,只有少數(shù)文獻(xiàn)綜述集中在多模態(tài)融合方法本身的方法論上,大多數(shù)文獻(xiàn)都遵循傳統(tǒng)規(guī)則,將其分為前融合、深度(特征)融合和后融合三大類,重點(diǎn)關(guān)注深度學(xué)習(xí)模型中融合特征的階段,無論是數(shù)據(jù)級(jí)、特征級(jí)還是提議級(jí)。首先,這種分類法沒有明確定義每個(gè)級(jí)別的特征表示。其次,它表明,激光雷達(dá)和攝像頭這兩個(gè)分支在處理過程中始終是對(duì)稱的,模糊了激光雷達(dá)分支中融合提議級(jí)特征和攝像頭分支中融合數(shù)據(jù)級(jí)特征的情況。綜上所述,傳統(tǒng)的分類法可能是直觀的,但對(duì)于總結(jié)最近出現(xiàn)的越來越多的多模態(tài)融合方法來說卻很落后,這使得研究人員無法從系統(tǒng)的角度對(duì)其進(jìn)行研究和分析。

如圖是自動(dòng)駕駛感知任務(wù)的示意圖:

2edefab0-c03e-11ec-bce3-dac502259ad0.png

深度學(xué)習(xí)模型僅限于輸入的表示。為了實(shí)現(xiàn)該模型,需要在數(shù)據(jù)輸入模型之前,通過一個(gè)復(fù)雜的特征提取器對(duì)原始數(shù)據(jù)進(jìn)行預(yù)處理。

至于圖像分支,大多數(shù)現(xiàn)有方法保持與下游模塊輸入的原始數(shù)據(jù)相同的格式。然而,激光雷達(dá)分支高度依賴于數(shù)據(jù)格式,這種格式強(qiáng)調(diào)不同的特性,并對(duì)下游模型設(shè)計(jì)產(chǎn)生巨大影響。因此,這里將其總結(jié)為基于點(diǎn)、基于體素和基于二維映射的點(diǎn)云數(shù)據(jù)格式,以適應(yīng)異構(gòu)深度學(xué)習(xí)模型。

數(shù)據(jù)級(jí)融合或前融合方法,通過空間對(duì)齊直接融合不同模式的原始傳感器數(shù)據(jù)。特征級(jí)融合或深度融合方法通過級(jí)聯(lián)或元素相乘在特征空間中混合跨模態(tài)數(shù)據(jù)。目標(biāo)級(jí)融合方法將各模態(tài)模型的預(yù)測(cè)結(jié)果結(jié)合起來,做出最終決策。

一種新的分類法,將所有融合方法分為強(qiáng)融合和弱融合,如圖展示了二者之間的關(guān)系:

2eff8ac8-c03e-11ec-bce3-dac502259ad0.png

為性能比較,KITTI benchmark的3D檢測(cè)和鳥瞰目標(biāo)檢測(cè)。如下兩個(gè)表分別給出BEV和3D的KITTI測(cè)試數(shù)據(jù)集上多模態(tài)融合方法的實(shí)驗(yàn)結(jié)果。

2f16012c-c03e-11ec-bce3-dac502259ad0.png

2f2e7e64-c03e-11ec-bce3-dac502259ad0.png

根據(jù)激光雷達(dá)和攝像頭數(shù)據(jù)表示的不同組合階段,將強(qiáng)融合再分為前融合、深度融合、后融合和非對(duì)稱融合四類。作為研究最多的融合方法,強(qiáng)融合近年來取得了許多杰出的成就。

如圖所示:強(qiáng)融合的每個(gè)小類都高度依賴于激光雷達(dá)點(diǎn)云,而不是攝像頭數(shù)據(jù)。

2f5c7c6a-c03e-11ec-bce3-dac502259ad0.png

前融合。數(shù)據(jù)級(jí)融合是一種通過原始數(shù)據(jù)級(jí)的空間對(duì)齊和投影直接融合每個(gè)模態(tài)數(shù)據(jù)的方法,與之不同的是,前融合在數(shù)據(jù)級(jí)是融合激光雷達(dá)數(shù)據(jù),在數(shù)據(jù)級(jí)或特征級(jí)則融合攝像頭數(shù)據(jù)。一個(gè)例子如圖所示:

2f73d158-c03e-11ec-bce3-dac502259ad0.png

在激光雷達(dá)分支,點(diǎn)云可以是有反射圖、體素化張量、前視圖/距離視圖/鳥瞰視圖以及偽點(diǎn)云等形式。盡管所有這些數(shù)據(jù)都具有不同的內(nèi)在特征,與激光雷達(dá)主干網(wǎng)高相關(guān),但除了偽點(diǎn)云之外,大多數(shù)據(jù)通過基于規(guī)則的處理生成。此外,與特征空間嵌入相比,該階段的數(shù)據(jù)仍然具有可解釋性,因此所有這些激光雷達(dá)數(shù)據(jù)表示都直觀可視。

對(duì)于圖像分支,嚴(yán)格的數(shù)據(jù)級(jí)定義應(yīng)該只包含RGB或灰度等數(shù)據(jù),缺乏通用性和合理性。與前融合的傳統(tǒng)定義相比,攝像頭數(shù)據(jù)放松為數(shù)據(jù)級(jí)和特征級(jí)數(shù)據(jù)。特別是,這里將有利于三維目標(biāo)檢測(cè)的圖像語義分割任務(wù)結(jié)果作為特征級(jí)表示,因?yàn)檫@些“目標(biāo)級(jí)”特征與整個(gè)任務(wù)的最終目標(biāo)級(jí)提議不同。

深度融合。深度融合方法在激光雷達(dá)分支的特征級(jí)對(duì)跨模態(tài)數(shù)據(jù)融合,但在圖像分支的數(shù)據(jù)級(jí)和特征級(jí)做融合。例如,一些方法使用特征提取器分別獲取激光雷達(dá)點(diǎn)云和攝像頭圖像的嵌入表示,并通過一系列下游模塊將特征融合到兩種模式中。然而,與其他強(qiáng)融合方法不同,深度融合有時(shí)以級(jí)聯(lián)方式融合特征,這兩種方法都利用原始和高級(jí)語義信息。深度融合的一個(gè)例子如圖所示:

2f8cc398-c03e-11ec-bce3-dac502259ad0.png

后融合。后融合,也稱為目標(biāo)級(jí)融合,指的是融合每個(gè)模態(tài)中流水線結(jié)果的方法。例如,一些后融合方法利用激光雷達(dá)點(diǎn)云分支和攝像頭圖像分支的輸出,并基于兩種模式的結(jié)果進(jìn)行最終預(yù)測(cè)。請(qǐng)注意,兩個(gè)分支提議的數(shù)據(jù)格式應(yīng)與最終結(jié)果相同,但在質(zhì)量、數(shù)量和精度上有所不同。后融合是一種多模態(tài)信息優(yōu)化最終提議的集成方法(ensemble method)。如圖是后融合的一個(gè)例子:

2fa8a7c0-c03e-11ec-bce3-dac502259ad0.png

非對(duì)稱融合。除了早融合、深度融合和后融合外,一些方法以不同的權(quán)限處理跨模態(tài)分支,因此融合一個(gè)分支的目標(biāo)級(jí)信息和其他分支的數(shù)據(jù)級(jí)或特征級(jí)信息,定義為非對(duì)稱融合。強(qiáng)融合的其他方法將兩個(gè)分支視為似乎相等的狀態(tài),非對(duì)稱融合至少有一個(gè)分支占主導(dǎo)地位,而其他分支提供輔助信息來執(zhí)行最終任務(wù)。如圖是非對(duì)稱融合的一個(gè)例子:可能具有提議的相同提取特征,但非對(duì)稱融合只有來自一個(gè)分支的一個(gè)提議,而后融合有來自所有分支的提議。

2fbd49fa-c03e-11ec-bce3-dac502259ad0.png

與強(qiáng)融合不同,弱融合方法不會(huì)以多種方式直接從分支融合數(shù)據(jù)/特征/目標(biāo),而是以其他方式操作數(shù)據(jù)。基于弱融合的方法通常使用基于規(guī)則的方法來利用一種模態(tài)數(shù)據(jù)作為監(jiān)督信號(hào),以指導(dǎo)另一模態(tài)的交互。如圖展示了弱融合模式的基本框架:

2fd2ec88-c03e-11ec-bce3-dac502259ad0.png

有可能圖像分支中CNN的2D提議導(dǎo)致原始激光雷達(dá)點(diǎn)云出現(xiàn)截錐體(frustum)。然而,與圖像特征組合非對(duì)稱融合不同,弱融合直接將選擇的原始激光雷達(dá)點(diǎn)云輸入到激光雷達(dá)主干網(wǎng),以輸出最終提議。

有些工作不能簡單地定義為上述任何類型的融合,在整個(gè)模型框架中采用多種融合方法,例如深度融合和后融合的結(jié)合,也有將前融合和深度融合結(jié)合在一起。這些方法從模型設(shè)計(jì)看存在冗余,這不是融合模塊的主流。

待解決的問題有一些分析。

當(dāng)前的融合模型面臨著錯(cuò)對(duì)齊和信息丟失的問題。此外,平融合(flat fusion)操作也阻止了感知任務(wù)性能的進(jìn)一步提高??偨Y(jié)一下:

錯(cuò)對(duì)齊和信息丟失:傳統(tǒng)的前融合和深度融合方法利用外部標(biāo)定矩陣將所有激光雷達(dá)點(diǎn)直接投影到相應(yīng)的像素,反之亦然。然而,由于傳感器噪聲,這種逐像素對(duì)齊不夠精確。因此,可以采取周圍的信息作為補(bǔ)充,會(huì)產(chǎn)生更好的性能。此外,在輸入和特征空間的轉(zhuǎn)換過程中,還存在其他一些信息損失。通常,降維操作的投影不可避免地會(huì)導(dǎo)致大量信息丟失,例如,將3-D激光雷達(dá)點(diǎn)云映射到2-DBEV圖像。將兩個(gè)模態(tài)數(shù)據(jù)映射到另一個(gè)專門為融合設(shè)計(jì)的高維表示,可以有效地利用原始數(shù)據(jù),減少信息損失。

更合理的融合操作:級(jí)聯(lián)和元素相乘這些簡單的操作可能無法融合分布差異較大的數(shù)據(jù),難以彌合兩個(gè)模態(tài)之間的語義鴻溝。一些工作試圖用更復(fù)雜的級(jí)聯(lián)結(jié)構(gòu)來融合數(shù)據(jù)并提高性能。

前視圖單幀圖像是自動(dòng)駕駛感知任務(wù)的典型場(chǎng)景。然而,大多數(shù)框架利用有限的信息,沒有詳細(xì)設(shè)計(jì)輔助任務(wù)來進(jìn)一步理解駕駛場(chǎng)景??偨Y(jié)一下:

采用更多的潛在信息:現(xiàn)有方法缺乏對(duì)多維度和來源信息的有效利用。其中大多數(shù)都集中在前視圖的單幀多模態(tài)數(shù)據(jù)上。其他有意義的信息還有語義、空間和場(chǎng)景上下文信息。一些模型試圖用圖像語義分割任務(wù)結(jié)果作為附加特征,而其他模型可能利用神經(jīng)網(wǎng)絡(luò)主干中間層的特征。在自動(dòng)駕駛場(chǎng)景中,許多明確語義信息的下游任務(wù)可能會(huì)極大地提高目標(biāo)檢測(cè)任務(wù)的性能。例如車道檢測(cè)、語義分割。因此,未來的研究可以通過各種下游任務(wù)(如檢測(cè)車道、交通燈和標(biāo)志)共同構(gòu)建一個(gè)完整的城市場(chǎng)景的認(rèn)知框架,幫助感知任務(wù)的表現(xiàn)。此外,當(dāng)前的感知任務(wù)主要依賴于忽略時(shí)間信息的單一框架。最近基于激光雷達(dá)的方法結(jié)合了一個(gè)幀序列來提高性能。時(shí)間序列信息包含序列化的監(jiān)控信號(hào),與單幀方法相比,它可以提供更穩(wěn)健的結(jié)果。

表征學(xué)習(xí)的自監(jiān)督:相互監(jiān)督的信號(hào)自然地存在于從同一個(gè)真實(shí)世界場(chǎng)景但不同角度采樣的跨模態(tài)數(shù)據(jù)中。然而,由于缺乏對(duì)數(shù)據(jù)的深入理解,目前無法挖掘出各模態(tài)之間的協(xié)同關(guān)系。未來的研究可以集中在如何利用多模態(tài)數(shù)據(jù)進(jìn)行自監(jiān)督學(xué)習(xí),包括預(yù)訓(xùn)練、微調(diào)或?qū)Ρ葘W(xué)習(xí)。通過實(shí)施這些最先進(jìn)的機(jī)制,融合模型將加深對(duì)數(shù)據(jù)的理解并取得更好的結(jié)果。

域偏差和數(shù)據(jù)分辨率與真實(shí)場(chǎng)景和傳感器高相關(guān)。這些缺陷阻礙了自動(dòng)駕駛深度學(xué)習(xí)模型的大規(guī)模訓(xùn)練和實(shí)施。

域偏差:在自主駕駛感知場(chǎng)景中,由不同傳感器提取的原始數(shù)據(jù)伴隨著域相關(guān)特征。不同的攝像頭系統(tǒng)有其光學(xué)特性,而激光雷達(dá)可能因機(jī)械激光雷達(dá)和固態(tài)激光雷達(dá)而不同。更重要的是,數(shù)據(jù)本身可能是有域偏差的,例如天氣、季節(jié)或地理位置。因此,檢測(cè)模型無法順利適應(yīng)新的場(chǎng)景。由于泛化失敗,這些缺陷妨礙大規(guī)模數(shù)據(jù)集的收集和原始訓(xùn)練數(shù)據(jù)可重用性。

分辨率沖突:來自不同模式的傳感器通常具有不同的分辨率。例如,激光雷達(dá)的空域密度明顯低于圖像的空域密度。無論采用何種投影方法,由于無法找到對(duì)應(yīng)關(guān)系,一些信息被消除。這可能導(dǎo)致模型被一個(gè)特定模態(tài)的數(shù)據(jù)所主導(dǎo),無論是特征向量的分辨率不同還是原始信息的不平衡。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2565

    文章

    52962

    瀏覽量

    767094
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    971

    文章

    4232

    瀏覽量

    192809
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    788

    文章

    14310

    瀏覽量

    170555

原文標(biāo)題:一文讀懂自動(dòng)駕駛多模態(tài)傳感器融合

文章出處:【微信號(hào):Zidonjiashi,微信公眾號(hào):Zidonjiashi】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)駕駛傳感器數(shù)據(jù)融合方法

    文章來源:雅名特自動(dòng)駕駛 近年來,深度學(xué)習(xí)技術(shù)在涉及高維非結(jié)構(gòu)化數(shù)據(jù)領(lǐng)域展現(xiàn)出了最先進(jìn)的性能,如計(jì)算機(jī)視覺、語音、自然語言處理等方面,并且開始涉及更大、更復(fù)雜的模態(tài)信息問題。 不同傳感器
    的頭像 發(fā)表于 10-09 16:23 ?2849次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>多</b><b class='flag-5'>傳感器</b>數(shù)據(jù)<b class='flag-5'>融合</b>方法

    未來已來,傳感器融合感知是自動(dòng)駕駛破局的關(guān)鍵

    駕駛的關(guān)鍵的是具備人類的感知能力,傳感器融合感知正是自動(dòng)駕駛破局的關(guān)鍵。昱感微的雷視一體
    發(fā)表于 04-11 10:26

    #硬聲創(chuàng)作季 自動(dòng)駕駛傳感器數(shù)據(jù)融合(1):什么是傳感器融合?

    傳感器自動(dòng)駕駛自動(dòng)駕駛汽車
    Mr_haohao
    發(fā)布于 :2022年10月12日 15:02:02

    自動(dòng)駕駛的到來

    的攻擊方式有幾種,一是攻擊自動(dòng)駕駛的外部傳感器,科恩實(shí)驗(yàn)室對(duì)于特斯拉的模擬攻擊實(shí)驗(yàn)是一個(gè)很好的例子。在這方面,使用傳感器融合,綜合決策,而
    發(fā)表于 06-08 15:25

    自動(dòng)駕駛汽車的定位技術(shù)

    手段有多種,多個(gè)傳感器可根據(jù)定位方法進(jìn)行隨意組合。融合方案的定位精度會(huì)優(yōu)于單一傳感器,一個(gè)傳感器在某種環(huán)境失效,補(bǔ)充傳感器能頂上。例如市面上
    發(fā)表于 05-09 04:41

    自動(dòng)駕駛系列報(bào)告大放送了涉及傳感器,芯片,執(zhí)行控制等

    自動(dòng)駕駛系統(tǒng):量產(chǎn)導(dǎo)向還是性能導(dǎo)向, 自動(dòng)駕駛系列報(bào)告三:車載芯片篇,自動(dòng)駕駛芯片,GPU的現(xiàn)在和ASIC的未來, 自動(dòng)駕駛系列報(bào)告之四:傳感器
    發(fā)表于 08-09 17:14

    自動(dòng)駕駛汽車中傳感器的分析

    特斯拉在五月份發(fā)生的自動(dòng)駕駛事故,和最近在Defcon上演示的如何干擾傳感器,都充分說明了傳感器自動(dòng)駕駛中的重要性:環(huán)境感知是自動(dòng)駕駛實(shí)現(xiàn)
    發(fā)表于 05-14 07:34

    這些自動(dòng)駕駛傳感器,你了解多少?

    傳感器技術(shù)發(fā)展本身來說,要在接下來十年里保證自動(dòng)駕駛車安全地上路,硬件性能與背后的軟件算法,以及不同傳感器之間的數(shù)據(jù)融合,都是需要提升的地方。
    發(fā)表于 05-18 06:11

    傳感器自動(dòng)駕駛“硬實(shí)力” 有哪些

    隨著自動(dòng)駕駛等前沿科技領(lǐng)域發(fā)展加速,傳感器的重要性和普及率也獲得了持續(xù)提升。面對(duì)傳感器在未來愈發(fā)廣闊的藍(lán)?!罢T惑”,國內(nèi)企業(yè)亟需加強(qiáng)各領(lǐng)域合作,并積極引進(jìn)高端人才、完善培養(yǎng)體系,以獲得突破性的創(chuàng)新
    發(fā)表于 07-29 07:54

    傳感器融合自動(dòng)駕駛領(lǐng)域的應(yīng)用

    自動(dòng)駕駛的安全事故原因絕大多數(shù)出現(xiàn)在傳感器這個(gè)重要環(huán)節(jié),將各類傳感器融合在一起,能否就能起到1+1>2的效果呢?
    發(fā)表于 07-27 10:53 ?2119次閱讀

    傳感器融合技術(shù)在自動(dòng)駕駛中的應(yīng)用

    干貨時(shí)間:本文將跟隨iMotioner Ting一起走進(jìn)傳感器融合技術(shù),結(jié)合具體方案,分享自動(dòng)駕駛相關(guān)技術(shù)。
    的頭像 發(fā)表于 06-14 16:27 ?2750次閱讀

    自動(dòng)駕駛汽車的未來趨勢(shì):集中式傳感器融合

    現(xiàn)如今,大多數(shù)自動(dòng)駕駛汽車都依靠傳感器融合,即將毫米波雷達(dá)、激光雷達(dá)和攝像頭的傳感器數(shù)據(jù)以一定的準(zhǔn)則進(jìn)行分析和綜合來收集環(huán)境信息。正如
    的頭像 發(fā)表于 11-16 09:05 ?2987次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b>汽車的未來趨勢(shì):集中式<b class='flag-5'>傳感器</b><b class='flag-5'>融合</b>

    自動(dòng)駕駛深度模態(tài)目標(biāo)檢測(cè)和語義分割:數(shù)據(jù)集、方法和挑戰(zhàn)

    深度學(xué)習(xí)推動(dòng)了自動(dòng)駕駛感知技術(shù)的最新進(jìn)展。為了實(shí)現(xiàn)魯棒和準(zhǔn)確的場(chǎng)景理解,自動(dòng)駕駛汽車通常配備不同的傳感器(如相機(jī)、激光雷達(dá)、雷 達(dá)),多種傳感模式可以
    發(fā)表于 06-06 10:37 ?0次下載
    <b class='flag-5'>自動(dòng)駕駛</b>深度<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>目標(biāo)檢測(cè)和語義分割:數(shù)據(jù)集、方法和挑戰(zhàn)

    自動(dòng)駕駛“加速”,車載紅外熱像儀在傳感器融合中的應(yīng)用

    傳感器融合自動(dòng)駕駛的必由之路。實(shí)現(xiàn)高級(jí)別的輔助駕駛、自動(dòng)駕駛,需要多種
    的頭像 發(fā)表于 08-18 16:51 ?1337次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b>“加速”,車載紅外熱像儀在<b class='flag-5'>多</b><b class='flag-5'>傳感器</b><b class='flag-5'>融合</b>中的應(yīng)用

    傳感器融合自動(dòng)駕駛中的應(yīng)用趨勢(shì)探究

    自動(dòng)駕駛技術(shù)的快速發(fā)展加速交通行業(yè)變革,為實(shí)現(xiàn)車輛自動(dòng)駕駛,需要車輛對(duì)復(fù)雜動(dòng)態(tài)環(huán)境做出準(zhǔn)確、高效的響應(yīng),而傳感器融合技術(shù)為提升
    的頭像 發(fā)表于 12-05 09:06 ?1337次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>傳感器</b><b class='flag-5'>融合</b>在<b class='flag-5'>自動(dòng)駕駛</b>中的應(yīng)用趨勢(shì)探究