99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度學(xué)習(xí)的目標(biāo)檢測算法

新機器視覺 ? 來源:CSDN技術(shù)社區(qū) ? 作者:透視AI ? 2021-04-30 10:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

整體框架

df9fcc58-a929-11eb-9728-12bb97331649.jpg

目標(biāo)檢測算法主要包括:【兩階段】目標(biāo)檢測算法、【多階段】目標(biāo)檢測算法、【單階段】目標(biāo)檢測算法

什么是兩階段目標(biāo)檢測算法,與單階段目標(biāo)檢測有什么區(qū)別?

兩階段目標(biāo)檢測算法因需要進行兩階段的處理:1)候選區(qū)域的獲取,2)候選區(qū)域分類和回歸,也稱為基于區(qū)域(Region-based)的方。與單階段目標(biāo)檢測算法的區(qū)別:通過聯(lián)合解碼同時獲取候選區(qū)域、類別

什么是多階段目標(biāo)檢測算法?

【兩階段】和【多階段】目標(biāo)檢測算法統(tǒng)稱級聯(lián)目標(biāo)檢測算法,【多階段】目標(biāo)檢測算法通過多次重復(fù)進行步驟:1)候選區(qū)域的獲取,2)候選區(qū)域分類和回歸,反復(fù)修正候選區(qū)域

dfab6360-a929-11eb-9728-12bb97331649.jpg

根據(jù)是否屬于錨框分為:

1、Anchor-Free:

CornerNet

FCOS

TTFNet

YOLOv1(注意)

2、Anchor-based:

RetinaNet

YOLOv2-v5

PP-YOLO

SSD

主要考慮問題

1、準確性 2、實時性 3、多尺度 4、標(biāo)簽方案 5、目標(biāo)重疊 6、模型訓(xùn)練 7、重復(fù)編碼 8、數(shù)據(jù)增強 9、樣本不平衡

兩階段目標(biāo)檢測算法

RCNN

1、模型通過【選擇性搜索算法】獲取潛在的候選區(qū)域 2、截取原圖每個候選區(qū)域并resize輸入到模型中進行特征抽取 3、使用SVM進行分類,以及進行bounding box 回歸

dfb5f5c8-a929-11eb-9728-12bb97331649.jpg

存在問題:

重復(fù)編碼:由于候選區(qū)域存在重疊,模型需要重復(fù)進行重疊區(qū)域的特征圖提取,計算冗余

模型訓(xùn)練:由于特征抽取模型和區(qū)域的分類回歸模型分開訓(xùn)練,無法進行端到端的模型訓(xùn)練,訓(xùn)練過程需要提取每個包含重疊區(qū)域的候選區(qū)域特征并保存用于分類和回歸訓(xùn)練

實時性差:重復(fù)編碼導(dǎo)致實時性不佳,【選擇性搜索算法】耗時嚴重

Fast-RCNN

考慮到RCNN的缺點,F(xiàn)ast-RCNN來了! 1、模型依舊通過【選擇性搜索算法】獲取潛在的候選區(qū)域

2、將原圖通過特征抽取模型進行一次的共享特征圖提取,避免了重復(fù)編碼

3、在特征圖中找到每一個候選區(qū)域?qū)?yīng)的區(qū)域并截取【區(qū)域特征圖】,ROI pooling層中將每個【區(qū)域特征圖】池化到統(tǒng)一大小

4、分別進行softmax分類(使用softmax代替了RCNN里面的多個SVM分類器)和bbox回歸

e009a9f2-a929-11eb-9728-12bb97331649.jpg

主要優(yōu)點:

1、可以進行端到端模型訓(xùn)練 2、不需要存儲中間特征向量用于SVM分類和回歸模型訓(xùn)練 3、使用更高效的SPPnet特征提取網(wǎng)絡(luò)

存在問題:

實時性差:選擇性搜索獲取候選區(qū)域耗時,主要通過貪婪算法合并低級特征超像素,單張圖片耗時接近2s,且無法使用GPU加速

Faster R-CNN

使用RPN網(wǎng)絡(luò)代替Fast RCNN使用的選擇性搜索進行候選區(qū)域的提取,相當(dāng)于Faster R-CNN=RPN+Fast RCNN,且RPN和Fast RCNN共享卷積層。

1、多尺度目標(biāo):通過RPN網(wǎng)絡(luò)候選區(qū)域,并使用不同大小和長寬比的anchors來解決多尺度問題

2、通過計算anchors與真實框的交并比IOU,并通過閾值建立正負樣本

3、樣本不平衡:每批次隨機采樣256個anchors進行邊框回歸訓(xùn)練,并盡可能保證正負樣本數(shù)相同,避免負樣本過多導(dǎo)致的梯度統(tǒng)治問題

論文:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

e04b3d5e-a929-11eb-9728-12bb97331649.jpg

e0574734-a929-11eb-9728-12bb97331649.jpg

多階段目標(biāo)檢測算法

Cascade R-CNN

通過分析Faster RCNN在目標(biāo)候選區(qū)域的位置修正能力, 如下圖基于單個檢測器的可優(yōu)化性但優(yōu)化的程度有限,通過多次將預(yù)測區(qū)域作為候選區(qū)域進行修正,使得輸出的預(yù)測區(qū)域與真實標(biāo)簽區(qū)域的IOU逐級遞增

e060e19a-a929-11eb-9728-12bb97331649.png

主要優(yōu)點:

1、準確性:碾壓各種單雙階段目標(biāo)檢測算法,采用RoIAlign取代RoIPooling 2、多尺度:通過FPN網(wǎng)絡(luò)集成多尺度特征圖,利用歸一化尺度偏差方法緩解不同尺度對Loss的影響程度 3、實時性:去除了Fater RCNN的全連接層,取而代之采用FCN網(wǎng)絡(luò),相比Fater RCNN,具有更少的模型參數(shù)和計算時間

主要不足:

e0961a0e-a929-11eb-9728-12bb97331649.jpg

單階段目標(biāo)檢測算法

編碼方式

1、基于中心坐標(biāo)

方案1

通過計算IOU或者長寬比閾值篩選每個anchor位置對應(yīng)的target,可能過濾比較極端的target,但緩解目標(biāo)重疊情況下的編碼重疊問題 通過對應(yīng)anchor找到中心坐標(biāo)位置(x,y)

方案2

通過iou最大值計算每個target對應(yīng)的anchor位置,保證每個target至少對應(yīng)一個,目標(biāo)少的情況下但容易造成目標(biāo)稀疏編碼, 通過對應(yīng)target找到中心坐標(biāo)位置(x,y),YOLOv5中通過中心坐標(biāo)結(jié)合四舍五入進行多中心坐標(biāo)映射緩解目標(biāo)稀疏問題 方案3 同時利用方案1和方案2,保證每個target至少對應(yīng)一個anchor區(qū)域

YOLOv1

雖然是單階段目標(biāo)檢測開山之作,但真正的鼻祖應(yīng)該是Faster RCNN的RPN

e0ba6620-a929-11eb-9728-12bb97331649.png

主要優(yōu)點:

1、快 2、采用全局特征進行推理,由于利用全局上下文信息,相比于滑動窗口和建議框方法,對背景的判斷更準確 3、泛化性,訓(xùn)練好的模型在新的領(lǐng)域或者不期望的輸入情況下依然具有較好的效果

主要不足:

1、準確性:與Faster RCNN相比,correcct反映了YOLOv1準確率較低,background反映了召回率較高,但總體性能F1較低,雖然loss采用長寬平方根進行回歸,試圖降低大目標(biāo)對loss的主導(dǎo)地位,但小目標(biāo)的微小偏差對IOU的影響更嚴重,導(dǎo)致小目標(biāo)定位不準

e0c34358-a929-11eb-9728-12bb97331649.jpg

2、目標(biāo)重疊:雖然通過每個S*S的網(wǎng)格點設(shè)置了2個預(yù)測框用于回歸訓(xùn)練,但是每個網(wǎng)格點設(shè)置了一種類別,無法解決不同類別目標(biāo)重疊率較大,導(dǎo)致映射到相同網(wǎng)格點上的問題

3、多尺度:由于模型只是簡單使用下采樣獲得的粗糙特征,很難將其推廣到具有新的或不同尋常的寬高比或配置的對象

4、實時性:雖然與Faster RCNN相比,速度很快,但還可以更快,主要是由于v1中使用了全連接網(wǎng)絡(luò),不是全卷積網(wǎng)絡(luò)

全連接層參數(shù)=7x7x1024x4096+4096X7x7x30=2x10^8

e0f959ca-a929-11eb-9728-12bb97331649.jpg

SSD

通過使用FCN全卷積神經(jīng)網(wǎng)絡(luò),并利用不同尺度的特征圖進行目標(biāo)檢測,在速度和精度都得到了極大提升

主要優(yōu)點

1、實時性:相比YOlOv1更快,因為去除了全連接層

2、標(biāo)簽方案:通過預(yù)測類別置信度和相對固定尺度集合的先驗框的偏差,能夠有效均衡不同尺度對loss的影響程度

3、多尺度:通過使用多個特征圖和對應(yīng)不同尺度的錨框進行多尺度目標(biāo)預(yù)測

4、數(shù)據(jù)增強:通過隨機裁剪的方式進行數(shù)據(jù)增強提高模型的魯棒性

5、樣本不平衡:通過困難樣本挖掘,采用負樣本中置信度最高的先驗框進行訓(xùn)練,并設(shè)置正負樣本比例為1:3,使得模型訓(xùn)練收斂更快

e1061bb0-a929-11eb-9728-12bb97331649.jpg

主要不足

1、通過人工先驗設(shè)置的不同尺度的錨框無法適應(yīng)真實的目標(biāo)框的尺度分布 2、使用的多個特征圖由于高分辨率的特征圖不能有效地結(jié)合高層特征

YOLOv2

針對YOLOv1在解決多尺度和實時性方面的不足,提出了YOLOv2

e111aa2a-a929-11eb-9728-12bb97331649.jpg

主要優(yōu)點:

1、更好 1)Batch Normalization:使得性能極大提升;

2)Higher Resolution Classifier:使預(yù)訓(xùn)練分類任務(wù)分辨率與目標(biāo)檢測的分辨率一致;

3)Convolutional With Anchor Boxes:使用全卷積神經(jīng)網(wǎng)絡(luò)預(yù)測偏差,而非具體的坐標(biāo),模型更容易收斂;

4)Dimension Clusters:通過聚類算法設(shè)置錨框的尺度,獲得更好的先驗框,緩解了不同尺度對loss的影響變化;

5)Fine-Grained Features:通過簡單相加融合了低層的圖像特征;

6)Multi-Scale Training:通過使用全卷積網(wǎng)絡(luò)使得模型支持多種尺度圖像的輸入并輪流進行訓(xùn)練

e1256e16-a929-11eb-9728-12bb97331649.jpg

2、更快,構(gòu)建Darknet-19代替VGG-16作為backbone具有更好的性能

e16bca0a-a929-11eb-9728-12bb97331649.jpg

主要不足

1、多尺度:在模型維度只是簡單融合底層特征,在輸入維度進行多尺度圖像分辨率的輸入訓(xùn)練,不能克服模型本身感受野導(dǎo)致的多尺度誤差

RetinaNet

論文:Focal Loss for Dense Object Detection

主要優(yōu)點

1、多尺度:借鑒FPN網(wǎng)絡(luò)通過自下而上、自上而下的特征提取網(wǎng)絡(luò),并通過無代價的橫向連接構(gòu)建增強特征提取網(wǎng)絡(luò),利用不同尺度的特征圖檢測不同大小的目標(biāo),利用了底層高分率的特征圖有效的提高了模型對小尺度目標(biāo)的檢測精度 2、樣本不平衡:引入Focal Loss用于候選框的【類別預(yù)測】,克服正負樣本不平衡的影響及加大困難樣本的權(quán)重

主要不足

1、實時性:網(wǎng)絡(luò)使用ResNet-101作為主干特征提取網(wǎng)絡(luò),檢測效率略微不足

e1bc0e52-a929-11eb-9728-12bb97331649.jpg

YOLOv3

論文:YOLOv3: An Incremental Improvement

主要優(yōu)點

1、實時性:相比RetinaNet,YOLOv3通過犧牲檢測精度,使用Darknet主干特征提取網(wǎng)絡(luò)而不是Resnet101,從而獲取更快的檢測速度

2、多尺度:相比于YOLOv1-v2,與RetinaNet采用相同的FPN網(wǎng)絡(luò)作為增強特征提取網(wǎng)絡(luò)得到更高的檢測精度

3、目標(biāo)重疊:通過使用邏輯回歸和二分類交叉熵損失函數(shù)進行類別預(yù)測,將每個候選框進行多標(biāo)簽分類,解決單個檢測框可能同時包含多個目標(biāo)的可能

主要不足

1、準確率:主要因為Darknet的特征提取不夠強,未進行精細化結(jié)構(gòu)模型設(shè)計

e1fdf90c-a929-11eb-9728-12bb97331649.jpg

e20a3c44-a929-11eb-9728-12bb97331649.jpg

YOLOv4

論文:YOLOv4: Optimal Speed and Accuracy of Object Detection 鑒于YOLOv3的缺點,YOLOv5進行了Darknet53主干特征提取網(wǎng)絡(luò)等一系列改進

主要優(yōu)點

1、實時性:借鑒CSPNet網(wǎng)絡(luò)結(jié)構(gòu)將Darknet53改進為CSPDarknet53使模型參數(shù)和計算時間更短

e242d34c-a929-11eb-9728-12bb97331649.jpg

2、多尺度:頸部分別引入PAN和SPP網(wǎng)絡(luò)結(jié)構(gòu)作為增強特征提取網(wǎng)絡(luò),能夠有效多尺度特征,相比于引入FPN網(wǎng)絡(luò)準確度更高

3、數(shù)據(jù)增強:引入Mosaic數(shù)據(jù)增強,在使用BN的時候可以有效降低batch_size的影響

4、模型訓(xùn)練,采用IOU:GIoU,DIoU,CIoU作為目標(biāo)框的回歸,與YOLOv3使用的平方差損失相比具有更高的檢測精度

e26bb7b2-a929-11eb-9728-12bb97331649.png

e2760f0a-a929-11eb-9728-12bb97331649.jpg

YOLOv5

為了進一步提升YOLOv4的檢測速度,YOLOv5采用了更輕量的網(wǎng)絡(luò)結(jié)構(gòu)

主要優(yōu)點

1、多尺度:使用FPN增強特征提取網(wǎng)絡(luò)代替PAN,使模型更簡單,速度更快 2、目標(biāo)重疊:使用四舍五入的方法進行臨近位置查找,使目標(biāo)映射到周圍的多個中心網(wǎng)格點

主要不足

1、通過長寬比篩選并過濾了大小和長寬比較極端的真實目標(biāo)框,而這些恰恰在真實檢測任務(wù)極為重要,和重點解決的檢測問題

e27fcb1c-a929-11eb-9728-12bb97331649.jpg

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 檢測器
    +關(guān)注

    關(guān)注

    1

    文章

    894

    瀏覽量

    48699
  • SVM
    SVM
    +關(guān)注

    關(guān)注

    0

    文章

    154

    瀏覽量

    33117
  • 目標(biāo)檢測
    +關(guān)注

    關(guān)注

    0

    文章

    225

    瀏覽量

    16019
  • 卷積神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    4

    文章

    369

    瀏覽量

    12303

原文標(biāo)題:基于深度學(xué)習(xí)的目標(biāo)檢測算法面試必備(RCNN~YOLOv5)

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    基于FPGA的SSD目標(biāo)檢測算法設(shè)計

    隨著人工智能的發(fā)展,神經(jīng)網(wǎng)絡(luò)正被逐步應(yīng)用于智能安防、自動駕駛、醫(yī)療等各行各業(yè)。目標(biāo)識別作為人工智能的一項重要應(yīng)用也擁有著巨大的前景,隨著深度學(xué)習(xí)的普及和框架的成熟,卷積神經(jīng)網(wǎng)絡(luò)模型的識別精度越來越高
    的頭像 發(fā)表于 07-10 11:12 ?861次閱讀
    基于FPGA的SSD<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測算法</b>設(shè)計

    基于RK3576開發(fā)板的車輛檢測算法

    車輛檢測是一種基于深度學(xué)習(xí)的對人進行檢測定位的目標(biāo)檢測,能廣泛的用于園區(qū)管理、交通分析等多種場景
    的頭像 發(fā)表于 05-08 17:34 ?912次閱讀
    基于RK3576開發(fā)板的車輛<b class='flag-5'>檢測算法</b>

    基于RK3576開發(fā)板的安全帽檢測算法

    安全帽佩戴檢測是工地、生產(chǎn)安全、安防的重中之重,但人為主觀檢測的方式時效性差且不能全程監(jiān)控。AI技術(shù)的日漸成熟催生了安全帽佩戴檢測方案,成為了監(jiān)督佩戴安全帽的利器。本安全帽檢測算法是一
    的頭像 發(fā)表于 05-08 16:59 ?1585次閱讀
    基于RK3576開發(fā)板的安全帽<b class='flag-5'>檢測算法</b>

    基于RK3576開發(fā)板的人員檢測算法

    展示了RK3576開發(fā)板的人員檢測算法例程及API說明
    的頭像 發(fā)表于 05-07 17:33 ?299次閱讀
    基于RK3576開發(fā)板的人員<b class='flag-5'>檢測算法</b>

    基于RV1126開發(fā)板的車輛檢測算法開發(fā)

    車輛檢測是一種基于深度學(xué)習(xí)的對人進行檢測定位的目標(biāo)檢測,能廣泛的用于園區(qū)管理、交通分析等多種場景
    的頭像 發(fā)表于 04-14 16:00 ?294次閱讀
    基于RV1126開發(fā)板的車輛<b class='flag-5'>檢測算法</b>開發(fā)

    基于RV1126開發(fā)板的吸煙檢測算法開發(fā)

    吸煙檢測是一種基于深度學(xué)習(xí)的對抽煙人群進行檢測定位的目標(biāo)檢測,能廣泛的用于安防、生產(chǎn)安全、園區(qū)管
    的頭像 發(fā)表于 04-14 15:37 ?300次閱讀
    基于RV1126開發(fā)板的吸煙<b class='flag-5'>檢測算法</b>開發(fā)

    基于RV1126開發(fā)板的安全帽檢測算法開發(fā)

    安全帽佩戴檢測是工地、生產(chǎn)安全、安防的重中之重,但人為主觀檢測的方式時效性差且不能全程監(jiān)控。AI技術(shù)的日漸成熟催生了安全帽佩戴檢測方案,成為了監(jiān)督佩戴安全帽的利器。本安全帽檢測算法是一
    的頭像 發(fā)表于 04-14 15:10 ?289次閱讀
    基于RV1126開發(fā)板的安全帽<b class='flag-5'>檢測算法</b>開發(fā)

    基于RV1126開發(fā)板的火焰檢測算法開發(fā)

    火焰檢測是一種基于深度學(xué)習(xí)的對火焰進行檢測定位的目標(biāo)檢測?;诖笠?guī)?;鹧鏀?shù)據(jù)識別訓(xùn)練,配合攝像頭
    的頭像 發(fā)表于 04-14 14:53 ?328次閱讀
    基于RV1126開發(fā)板的火焰<b class='flag-5'>檢測算法</b>開發(fā)

    基于RV1126開發(fā)板的人臉檢測算法開發(fā)

    在RV1126上開發(fā)人臉檢測算法組件
    的頭像 發(fā)表于 04-14 10:19 ?329次閱讀
    基于RV1126開發(fā)板的人臉<b class='flag-5'>檢測算法</b>開發(fā)

    labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb

    labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    軒轅智駕紅外目標(biāo)檢測算法在汽車領(lǐng)域的應(yīng)用

    在 AI 技術(shù)蓬勃發(fā)展的當(dāng)下,目標(biāo)檢測算法取得了重大突破,其中紅外目標(biāo)檢測算法更是在汽車行業(yè)掀起了波瀾壯闊的變革,從根本上重塑著汽車的安全性能、駕駛體驗與產(chǎn)業(yè)生態(tài)。
    的頭像 發(fā)表于 03-27 15:55 ?429次閱讀

    睿創(chuàng)微納推出新一代目標(biāo)檢測算法

    隨著AI技術(shù)的發(fā)展,目標(biāo)檢測算法也迎來重大突破。睿創(chuàng)微納作為熱成像領(lǐng)軍者,憑借深厚的技術(shù)積累與創(chuàng)新能力,結(jié)合AI技術(shù)推出新一代目標(biāo)檢測算法,以三大核心技術(shù)帶來AI視覺感知全場景解決方案
    的頭像 發(fā)表于 03-20 13:49 ?439次閱讀

    采用華為云 Flexus 云服務(wù)器 X 實例部署 YOLOv3 算法完成目標(biāo)檢測

    一、前言 1.1 開發(fā)需求 這篇文章講解:?采用華為云最新推出的 Flexus 云服務(wù)器 X 實例部署 YOLOv3 算法,完成圖像分析、目標(biāo)檢測。 隨著計算機視覺技術(shù)的飛速發(fā)展,深度
    的頭像 發(fā)表于 01-02 12:00 ?544次閱讀
    采用華為云 Flexus 云服務(wù)器 X 實例部署 YOLOv3 <b class='flag-5'>算法</b>完成<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    廣泛的應(yīng)用,然而,在移動端工業(yè)領(lǐng)域的實際應(yīng)用中,對目標(biāo)檢測算法提出了更為苛刻的要求:需要實現(xiàn)高速度、高精度、小體積、易部署等特性。為應(yīng)對這一挑戰(zhàn),百度于2021年末發(fā)布了一篇關(guān)于移動端性能卓越的實時
    發(fā)表于 12-19 14:33

    深度識別算法包括哪些內(nèi)容

    :CNN是深度學(xué)習(xí)中處理圖像和視頻等具有網(wǎng)格結(jié)構(gòu)數(shù)據(jù)的主要算法。它通過卷積層、池化層和全連接層等組件,實現(xiàn)對圖像特征的自動提取和識別。 應(yīng)用領(lǐng)域 :CNN在圖像識別、目標(biāo)
    的頭像 發(fā)表于 09-10 15:28 ?843次閱讀