99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

LSD中的激光點(diǎn)云/單目3D目標(biāo)檢測(cè)和多目標(biāo)跟蹤算法

新機(jī)器視覺(jué) ? 來(lái)源:新機(jī)器視覺(jué) ? 2023-05-19 09:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

LSD (LiDAR SLAM & Detection) 是一個(gè)開(kāi)源的面向自動(dòng)駕駛/機(jī)器人的環(huán)境感知算法框架,能夠完成數(shù)據(jù)采集回放、多傳感器標(biāo)定、SLAM建圖定位和障礙物檢測(cè)等多種感知任務(wù)。

本文將詳細(xì)講解LSD中的激光點(diǎn)云/單目3D目標(biāo)檢測(cè)和多目標(biāo)跟蹤算法。

LSD(LiDAR SLAM & Detection) github.com/w111liang222/lidar-slam-detection

3D目標(biāo)檢測(cè)跟蹤

3D目標(biāo)檢測(cè)

目標(biāo)檢測(cè)是自動(dòng)駕駛/機(jī)器人環(huán)境感知系統(tǒng)中的一項(xiàng)基本任務(wù),常見(jiàn)的目標(biāo)檢測(cè)算法可以分為兩大類:

基于圖像的2D目標(biāo)檢測(cè),輸出圖像坐標(biāo)下的2D Box(x, y, l, w, c),由于缺少目標(biāo)的深度和朝向信息,難以用于機(jī)器人的規(guī)劃和控制

基于激光點(diǎn)云/相機(jī)的3D目標(biāo)檢測(cè)算法,輸出以自車(chē)為原點(diǎn)坐標(biāo)系下的3D Box (x, y, z, l, w, h, yaw, c)

LSD采用了改進(jìn)的PointPillar和RTM3D算法,能夠?qū)崿F(xiàn)激光點(diǎn)云/單目相機(jī)的3D目標(biāo)檢測(cè)功能,在推理時(shí)轉(zhuǎn)換成TensorRT FP16引擎運(yùn)算,支持在x86 PC, Xavier NX, Xavier AGX和Orin平臺(tái)上實(shí)時(shí)運(yùn)行。相關(guān)實(shí)現(xiàn)代碼位于sensor_inference目錄。整體框架如下圖所示:

79476278-f5b6-11ed-90ce-dac502259ad0.png框架流程圖

點(diǎn)云3D目標(biāo)檢測(cè)

自2017年以來(lái),點(diǎn)云3D目標(biāo)檢測(cè)涌現(xiàn)了很多經(jīng)典算法,下圖是按時(shí)間排序的檢測(cè)算法:

7979c542-f5b6-11ed-90ce-dac502259ad0.png算法一覽

跟圖像2D目標(biāo)檢測(cè)算法類似,3D目標(biāo)檢測(cè)算法也可以分類為"單階段"/"多階段"、"Anchor base"/"Anchor free"、"Point base"/"Voxel base"等,其中APTIV提出的PointPillar由于其部署簡(jiǎn)單、計(jì)算效率和檢測(cè)精度較高等優(yōu)勢(shì),在實(shí)際的工程項(xiàng)目中應(yīng)用廣泛。

LSD基于原版PointPillar網(wǎng)絡(luò)結(jié)構(gòu),對(duì)模型結(jié)構(gòu)進(jìn)行了優(yōu)化:

在PillarVFE結(jié)構(gòu)中刪除了xyz的均值特征,保留了每個(gè)點(diǎn)的x,y,z,i及其voxel中心offset特征

SSD backbone替換為基于CSPNet結(jié)構(gòu)的backbone

Anchor based檢測(cè)頭替換為CenterPoint網(wǎng)絡(luò)的Anchor free檢測(cè)頭,并添加了IOU aware分支

Voxelize

由于PointPillar網(wǎng)絡(luò)的輸入是Voxel(z軸方向只有1維,也叫作Pillar),因此我們需要將原始點(diǎn)云[n, 4]體素化,其中n為點(diǎn)云個(gè)數(shù)和每個(gè)點(diǎn)的特征(x,y,z,intensity)。在LSD中,我們?cè)O(shè)置每個(gè)voxel的尺寸為[0.32, 0.32, 6],單位為米,且每個(gè)voxel最多包含32個(gè)點(diǎn),通過(guò)將點(diǎn)云投影到其對(duì)應(yīng)的voxel中,可以得到:

voxel特征,維度為[m, 32, 4]

voxel坐標(biāo),維度為[m, 3]

每個(gè)voxel中點(diǎn)的個(gè)數(shù),維度為[1, m]

每個(gè)voxel中點(diǎn)的mask,維度為[m, 32]

其中m為計(jì)算得到的voxel個(gè)數(shù),上述4個(gè)變量作為后續(xù)神經(jīng)網(wǎng)絡(luò)的輸入。

Pillar VFE

Pillar VFE結(jié)構(gòu)主要是對(duì)每個(gè)voxel中的點(diǎn)特征進(jìn)行提取(由7維特征[x, y, z, i, xp, yp, zp]經(jīng)過(guò)卷積得到64維),并根據(jù)每個(gè)voxel的坐標(biāo)投影到2D BEV網(wǎng)格得到[64,448,448]大小的特征(最大檢測(cè)范圍設(shè)置為71.68m)

79b01cf0-f5b6-11ed-90ce-dac502259ad0.pngONNX格式的Pillar VFE

CSP Backbone

PointPillar原版采用的是SSD backbone,其結(jié)構(gòu)較為簡(jiǎn)單、參數(shù)量小,在實(shí)際測(cè)試時(shí)發(fā)現(xiàn)當(dāng)訓(xùn)練數(shù)據(jù)量增大后檢測(cè)精度提升幅度較小,因此,我們參考了YOLO V4的backbone,其主要由CSP Net基礎(chǔ)block組成,通過(guò)權(quán)衡檢測(cè)精度和實(shí)時(shí)性,我們構(gòu)建了4個(gè)下采樣block和3個(gè)上采樣block網(wǎng)絡(luò)來(lái)對(duì)多尺度特征進(jìn)行提取和融合,最后輸出[48,224,224]和[192, 56, 56]兩種尺度特征,詳細(xì)的網(wǎng)絡(luò)結(jié)構(gòu)可以參見(jiàn)CSPDarknet53Small.py。

79d0fdd0-f5b6-11ed-90ce-dac502259ad0.png參考的YOLOV4網(wǎng)絡(luò)結(jié)構(gòu)

CenterPoint Head

LSD采用了多檢測(cè)頭結(jié)構(gòu),針對(duì)backbone輸出的2個(gè)尺度特征,分別連接了兩個(gè)CenterPoint檢測(cè)頭,相比于原版的Anchor based檢測(cè)頭,Anchor free在檢測(cè)小目標(biāo)時(shí)精度更高。另外,我們還參考了CIA-SSD網(wǎng)絡(luò)模型,添加了IOU-Aware預(yù)測(cè)分支,進(jìn)一步提高了檢測(cè)精度。

7a0eace8-f5b6-11ed-90ce-dac502259ad0.pngCenterPoint網(wǎng)絡(luò)

單目3D目標(biāo)檢測(cè)

大多數(shù)激光雷達(dá)由于發(fā)射結(jié)構(gòu)的原因,其點(diǎn)云具有近處密集,遠(yuǎn)處稀疏的特點(diǎn),從而導(dǎo)致激光雷達(dá)在檢測(cè)距離較遠(yuǎn)的目標(biāo)時(shí)精度較低,而圖像在距離較遠(yuǎn)時(shí)相比激光雷達(dá)更容易分辨目標(biāo),因此LSD采用了單目3D目標(biāo)檢測(cè)算法來(lái)提高遠(yuǎn)距離目標(biāo)的檢測(cè)精度以適應(yīng)高速場(chǎng)景。

RTM3D

RTM3D (Real-time Monocular 3D Detection from Object Keypoints for Autonomous Driving)是一個(gè)單目3D目標(biāo)檢測(cè)網(wǎng)絡(luò),其主要思想是通過(guò)網(wǎng)絡(luò)預(yù)測(cè)目標(biāo)框的8個(gè)頂點(diǎn)、質(zhì)心、深度和朝向信息,并求解偽逆方程得到目標(biāo)的3DBox。

7a417560-f5b6-11ed-90ce-dac502259ad0.pngRTM3D

在LSD中,我們對(duì)RTM3D的結(jié)構(gòu)做了部分微調(diào):

由ImageNet預(yù)訓(xùn)練的Resnet18 backbone替換為Darknet53

檢測(cè)頭增加heatmap輸出,用于后續(xù)的目標(biāo)融合。

模型訓(xùn)練和推理

模型訓(xùn)練基于OpenPCDet框架實(shí)現(xiàn),將公開(kāi)的WOD、Nuscences、Lyft、Panda Set和DeepRoute等數(shù)據(jù)集進(jìn)行了合并,并且將不同數(shù)據(jù)集的各個(gè)類別重新分類為“車(chē)輛”、“行人”、“騎行車(chē)”和“三角錐”4種類別。服務(wù)器采用4張2080Ti顯卡訓(xùn)練50個(gè)epoch。

在模型推理階段,我們將Pytorch模型導(dǎo)出成ONNX文件,并分別在Jetpack5.0.2 Xavier NX、 AGX、 Orin平臺(tái)上生成了TensorRT FP16引擎進(jìn)行推理(單目3D模型則運(yùn)行在DLA上),在Xavier NX平臺(tái)上運(yùn)行耗時(shí)約80ms,能夠滿足實(shí)時(shí)性要求。

ONNX模型文件可以從這里獲取。

后融合

數(shù)據(jù)融合用于融合多傳感器數(shù)據(jù)來(lái)提高檢測(cè)精度,按實(shí)施階段可以分為前融合和后融合,前融合通常處理傳感器的原始數(shù)據(jù),而后融合則處理各傳感器分別計(jì)算后的目標(biāo)數(shù)據(jù)。在LSD中,我們采用了后融合的方式,將激光點(diǎn)云輸出的3D目標(biāo)列表和單目視覺(jué)輸出的3D目標(biāo)列表融合為一個(gè)目標(biāo)列表并輸出給目標(biāo)跟蹤模塊。我們實(shí)現(xiàn)了一個(gè)相對(duì)簡(jiǎn)單的基于規(guī)則的融合算法:

將激光點(diǎn)云輸出的3DBox根據(jù)激光-相機(jī)外參投影到圖像坐標(biāo)系下得到2DBox,計(jì)算與視覺(jué)目標(biāo)的2D IOU

利用匈牙利算法進(jìn)行匹配,得到matched、unmatch_camera和unmatch_lidar三個(gè)目標(biāo)列表

針對(duì)matched列表,我們將激光點(diǎn)云輸出的3DBox直接作為輸出,對(duì)于confidence屬性求激光和相機(jī)目標(biāo)的均值加上0.2 * IOU

針對(duì)unmatch_lidar列表,利用RTM3D輸出的heat map對(duì)confidence屬性求均值

合并matched, unmatch_camera和unmatch_lidar得到最終的目標(biāo)列表輸出

多目標(biāo)跟蹤

3D目標(biāo)檢測(cè)和融合算法處理的是傳感器的單幀數(shù)據(jù),單幀檢測(cè)難以獲取目標(biāo)的運(yùn)動(dòng)信息,并且容易出現(xiàn)檢測(cè)結(jié)果跳變等問(wèn)題,在時(shí)間序列上對(duì)目標(biāo)進(jìn)行跟蹤,可以估算出目標(biāo)的運(yùn)動(dòng)速度、角速度,同時(shí)能夠輸出較為穩(wěn)定的目標(biāo)列表給下游規(guī)劃控制模塊。目標(biāo)跟蹤算法通??梢苑纸獬蓛蓚€(gè)步驟:

根據(jù)相似度對(duì)相鄰幀目標(biāo)進(jìn)行關(guān)聯(lián)匹配

對(duì)目標(biāo)進(jìn)行觀測(cè)并估計(jì)最優(yōu)狀態(tài)

LSD采用了傳統(tǒng)的基于規(guī)則的目標(biāo)匹配和狀態(tài)估計(jì)算法,算法基于AB3DMOT(A Baseline for 3D Multi-Object Tracking and New Evaluation Metrics)實(shí)現(xiàn),并在其基礎(chǔ)上進(jìn)行了優(yōu)化,能夠輸出更穩(wěn)定的目標(biāo)列表。

7a92e486-f5b6-11ed-90ce-dac502259ad0.pngAB3DMOT

目標(biāo)匹配

匈牙利算法是一種求解二分圖最小權(quán)值匹配問(wèn)題的方法

相似度計(jì)算

針對(duì)不同類別,我們采用了不同的方法來(lái)計(jì)算前后幀目標(biāo)相似度(權(quán)值):

針對(duì)車(chē)輛目標(biāo),計(jì)算兩兩之間的BEV IOU

針對(duì)行人、騎行者和三角錐,由于目標(biāo)較小,前后幀的IOU大部分為0,因此計(jì)算兩兩中心點(diǎn)的歐式距離

最優(yōu)匹配求解

得到相似度矩陣后,我們利用scipy.optimize.linear_sum_assignment函數(shù)求解得到三個(gè)輸出:

matched: 前后幀匹配上的目標(biāo)

unmatch_old: 在前一幀跟蹤列表中未匹配上的目標(biāo)

unmatch_new: 當(dāng)前幀檢測(cè)輸出但未匹配上的目標(biāo)

卡爾曼濾波跟蹤

卡爾曼濾波是一種狀態(tài)估計(jì)算法,在LSD中,我們使用卡爾曼濾波算法對(duì)目標(biāo)進(jìn)行建模和狀態(tài)估計(jì):

針對(duì)unmatch_new目標(biāo),作為當(dāng)前幀新出現(xiàn)的目標(biāo),添加進(jìn)跟蹤列表

針對(duì)unmatch_old目標(biāo),表示當(dāng)前幀該目標(biāo)未檢測(cè)到,通過(guò)運(yùn)動(dòng)學(xué)模型對(duì)其進(jìn)行預(yù)測(cè)

針對(duì)matched目標(biāo),將當(dāng)前幀作為觀測(cè)值,利用卡爾曼濾波器對(duì)其狀態(tài)更新

實(shí)車(chē)測(cè)試

我們只使用了公開(kāi)數(shù)據(jù)集進(jìn)行訓(xùn)練,在未訓(xùn)練過(guò)的城市道路環(huán)境中實(shí)車(chē)測(cè)試,檢驗(yàn)?zāi)P秃透櫵惴ǖ聂敯粜浴?/p>

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29748

    瀏覽量

    212932
  • 激光
    +關(guān)注

    關(guān)注

    20

    文章

    3468

    瀏覽量

    67220
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2959

    瀏覽量

    110781

原文標(biāo)題:LSD框架大揭秘 | 3D目標(biāo)檢測(cè)與跟蹤講解

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    視頻跟蹤目標(biāo)跟蹤算法簡(jiǎn)介(上海凱視力成信息科技有限...

    跟蹤。適合于空對(duì)地和地對(duì)地場(chǎng)景。這個(gè)算法跟蹤場(chǎng)景的多個(gè)目標(biāo),然后依據(jù)每個(gè)點(diǎn)的運(yùn)動(dòng),從而估計(jì)整
    發(fā)表于 09-29 08:59

    多傳感器多目標(biāo)跟蹤的JPDA算法

    文中提出了一種適用于多傳感器多目標(biāo)跟蹤的JPDA算法,它以極大似然估計(jì)完成對(duì)來(lái)自多傳感器的測(cè)量集合進(jìn)行同源最優(yōu)分劃,然后采用JPDA方法對(duì)多目標(biāo)進(jìn)行
    發(fā)表于 02-03 10:38 ?47次下載
    多傳感器<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>的JPDA<b class='flag-5'>算法</b>

    改進(jìn)霍夫森林框架的多目標(biāo)跟蹤算法

    針對(duì)目視覺(jué)對(duì)多個(gè)相似的目標(biāo)跟蹤因遮擋等因素影響而失效的問(wèn)題,提出一種基于改進(jìn)霍夫森林框架的多目標(biāo)跟蹤
    發(fā)表于 12-14 17:09 ?0次下載

    新技術(shù)可有效地使用目標(biāo)檢測(cè)的對(duì)抗示例欺騙多目標(biāo)跟蹤

    對(duì)抗機(jī)器學(xué)習(xí)的最新研究開(kāi)始關(guān)注自主駕駛的視覺(jué)感知,并研究了目標(biāo)檢測(cè)模型的對(duì)抗示例。然而在視覺(jué)感知管道,在被稱為多目標(biāo)
    的頭像 發(fā)表于 02-01 11:01 ?3414次閱讀
    新技術(shù)可有效地使用<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b>的對(duì)抗示例欺騙<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>

    如何更好地實(shí)現(xiàn)視頻多目標(biāo)軌跡的連續(xù)跟蹤?

    下,引入YOOⅴ3檢測(cè)算法,并采用卷積特征對(duì)目標(biāo)進(jìn)行描述,計(jì)算相鄰幀目標(biāo)的相似度矩陣,設(shè)計(jì)新生目標(biāo)識(shí)別和漏跟
    發(fā)表于 04-07 14:27 ?5次下載
    如何更好地實(shí)現(xiàn)視頻<b class='flag-5'>多目標(biāo)</b>軌跡的連續(xù)<b class='flag-5'>跟蹤</b>?

    多目標(biāo)跟蹤過(guò)程的數(shù)據(jù)關(guān)聯(lián)技術(shù)綜述

    多目標(biāo)跟蹤,其中目標(biāo)跟蹤相對(duì)簡(jiǎn)單,除了需要解決與多目標(biāo)
    發(fā)表于 05-08 16:27 ?2次下載

    基于三維激光點(diǎn)目標(biāo)識(shí)別與跟蹤研究

    基于三維激光點(diǎn)目標(biāo)識(shí)別與跟蹤研究 來(lái)源:《汽車(chē)工程》 ,作者徐國(guó)艷等 [摘要] 針對(duì)無(wú)人車(chē)環(huán)境感知
    發(fā)表于 01-17 11:22 ?948次閱讀

    基于三維激光點(diǎn)目標(biāo)識(shí)別與跟蹤研究

    基于三維激光點(diǎn)目標(biāo)識(shí)別與跟蹤研究 來(lái)源:《汽車(chē)工程》?,作者徐國(guó)艷等 [摘要]?針對(duì)無(wú)人車(chē)環(huán)境感知
    的頭像 發(fā)表于 02-15 13:36 ?3353次閱讀
    基于三維<b class='flag-5'>激光</b><b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>的<b class='flag-5'>目標(biāo)</b>識(shí)別與<b class='flag-5'>跟蹤</b>研究

    3D-AI多目標(biāo)檢測(cè)器有效幫助規(guī)劃道路和城市未來(lái)

    3D-AI多目標(biāo)檢測(cè)器將邊緣計(jì)算能力集成在傳感器內(nèi)部,通過(guò)3D-AI多目標(biāo)檢測(cè)算法,能夠?qū)崟r(shí)分析
    的頭像 發(fā)表于 07-21 11:51 ?1887次閱讀

    最常見(jiàn)的目標(biāo)跟蹤算法

    對(duì)象跟蹤問(wèn)題一直是計(jì)算機(jī)視覺(jué)的熱點(diǎn)任務(wù)之一,簡(jiǎn)單的可以分為目標(biāo)跟蹤多目標(biāo)跟蹤,最常見(jiàn)的
    的頭像 發(fā)表于 09-14 16:20 ?3243次閱讀

    基于幾何3D目標(biāo)檢測(cè)的密集幾何約束深度估計(jì)器

    基于幾何的3D目標(biāo)檢測(cè)通過(guò)2D-3D投影約束估計(jì)目標(biāo)
    的頭像 發(fā)表于 10-09 15:51 ?1340次閱讀

    基于MobileNet的多目標(biāo)跟蹤深度學(xué)習(xí)算法

    針對(duì)深度學(xué)習(xí)算法多目標(biāo)跟蹤的實(shí)時(shí)性問(wèn)題, 提出一種基于MobileNet的多目標(biāo)跟蹤
    的頭像 發(fā)表于 11-09 10:23 ?1443次閱讀
    基于MobileNet的<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>深度學(xué)習(xí)<b class='flag-5'>算法</b>

    3D點(diǎn)目標(biāo)跟蹤中常見(jiàn)的評(píng)價(jià)指標(biāo)和代碼詳解

    3D點(diǎn)目標(biāo)跟蹤的評(píng)價(jià)指標(biāo),可以根據(jù)跟蹤目標(biāo)是單個(gè)
    發(fā)表于 08-02 12:38 ?1554次閱讀

    多目標(biāo)跟蹤算法總結(jié)歸納

    多目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)領(lǐng)域中的一個(gè)重要任務(wù),它旨在從視頻或圖像序列準(zhǔn)確地檢測(cè)跟蹤多個(gè)移動(dòng)目標(biāo)
    的頭像 發(fā)表于 04-28 09:42 ?3164次閱讀
    <b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b><b class='flag-5'>算法</b>總結(jié)歸納

    使用STT全面提升自動(dòng)駕駛多目標(biāo)跟蹤

    3D多目標(biāo)跟蹤3D MOT)在各種機(jī)器人應(yīng)用中發(fā)揮著關(guān)鍵作用,例如自動(dòng)駕駛車(chē)輛。為了在駕駛時(shí)避免碰撞,機(jī)器人汽車(chē)必須可靠地跟蹤道路上的物體
    的頭像 發(fā)表于 10-28 10:07 ?666次閱讀
    使用STT全面提升自動(dòng)駕駛<b class='flag-5'>中</b>的<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>