99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度學(xué)習(xí)的回歸方法YOLO系列簡(jiǎn)介

新機(jī)器視覺 ? 來源:新機(jī)器視覺 ? 作者:新機(jī)器視覺 ? 2020-11-05 10:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

YOLO系列是基于深度學(xué)習(xí)的回歸方法。

RCNN, Fast-RCNN,F(xiàn)aster-RCNN是基于深度學(xué)習(xí)的分類方法。 YOLO官網(wǎng):https://github.com/pjreddie/darknet

YOLOV1

論文下載:https://arxiv.org/abs/1506.02640代碼下載:https://github.com/pjreddie/darknet 核心思想:將整張圖片作為網(wǎng)絡(luò)的輸入(類似于Faster-RCNN),直接在輸出層對(duì)BBox的位置和類別進(jìn)行回歸。

實(shí)現(xiàn)方法

將一幅圖像分成SxS個(gè)網(wǎng)格(grid cell),如果某個(gè)object的中心 落在這個(gè)網(wǎng)格中,則這個(gè)網(wǎng)格就負(fù)責(zé)預(yù)測(cè)這個(gè)object。

每個(gè)網(wǎng)絡(luò)需要預(yù)測(cè)B個(gè)BBox的位置信息和confidence(置信度)信息,一個(gè)BBox對(duì)應(yīng)著四個(gè)位置信息和一個(gè)confidence信息。confidence代表了所預(yù)測(cè)的box中含有object的置信度和這個(gè)box預(yù)測(cè)的有多準(zhǔn)兩重信息:

其中如果有object落在一個(gè)grid cell里,第一項(xiàng)取1,否則取0。第二項(xiàng)是預(yù)測(cè)的bounding box和實(shí)際的groundtruth之間的IoU值。

每個(gè)bounding box要預(yù)測(cè)(x, y, w, h)和confidence共5個(gè)值,每個(gè)網(wǎng)格還要預(yù)測(cè)一個(gè)類別信息,記為C類。則SxS個(gè)網(wǎng)格,每個(gè)網(wǎng)格要預(yù)測(cè)B個(gè)bounding box還要預(yù)測(cè)C個(gè)categories。輸出就是S x S x (5*B+C)的一個(gè)tensor。(注意:class信息是針對(duì)每個(gè)網(wǎng)格的,confidence信息是針對(duì)每個(gè)bounding box的。)

舉例說明: 在PASCAL VOC中,圖像輸入為448x448,取S=7,B=2,一共有20個(gè)類別(C=20)。則輸出就是7x7x30的一個(gè)tensor。整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示:

在test的時(shí)候,每個(gè)網(wǎng)格預(yù)測(cè)的class信息和bounding box預(yù)測(cè)的confidence信息相乘,就得到每個(gè)bounding box的class-specific confidence score:

等式左邊第一項(xiàng)就是每個(gè)網(wǎng)格預(yù)測(cè)的類別信息,第二三項(xiàng)就是每個(gè)bounding box預(yù)測(cè)的confidence。這個(gè)乘積即encode了預(yù)測(cè)的box屬于某一類的概率,也有該box準(zhǔn)確度的信息。

得到每個(gè)box的class-specific confidence score以后,設(shè)置閾值,濾掉得分低的boxes,對(duì)保留的boxes進(jìn)行NMS處理,就得到最終的檢測(cè)結(jié)果。

損失函數(shù)

在實(shí)現(xiàn)中,最主要的就是怎么設(shè)計(jì)損失函數(shù),讓這個(gè)三個(gè)方面得到很好的平衡。作者簡(jiǎn)單粗暴的全部采用了sum-squared error loss來做這件事。這種做法存在以下幾個(gè)問題:

第一,8維的localization error和20維的classification error同等重要顯然是不合理的;

第二,如果一個(gè)網(wǎng)格中沒有object(一幅圖中這種網(wǎng)格很多),那么就會(huì)將這些網(wǎng)格中的box的confidence push到0,相比于較少的有object的網(wǎng)格,這種做法是overpowering的,這會(huì)導(dǎo)致網(wǎng)絡(luò)不穩(wěn)定甚至發(fā)散。

解決辦法:

更重視8維的坐標(biāo)預(yù)測(cè),給這些損失前面賦予更大的loss weight。

對(duì)沒有object的box的confidence loss,賦予小的loss weight。

有object的box的confidence loss和類別的loss的loss weight正常取1。

對(duì)不同大小的box預(yù)測(cè)中,相比于大box預(yù)測(cè)偏一點(diǎn),小box預(yù)測(cè)偏一點(diǎn)肯定更不能被忍受的。而sum-square error loss中對(duì)同樣的偏移loss是一樣。 為了緩和這個(gè)問題,作者用了一個(gè)比較取巧的辦法,就是將box的width和height取平方根代替原本的height和width。這個(gè)參考下面的圖很容易理解,小box的橫軸值較小,發(fā)生偏移時(shí),反應(yīng)到y(tǒng)軸上相比大box要大。(也是個(gè)近似逼近方式)

一個(gè)網(wǎng)格預(yù)測(cè)多個(gè)box,希望的是每個(gè)box predictor專門負(fù)責(zé)預(yù)測(cè)某個(gè)object。具體做法就是看當(dāng)前預(yù)測(cè)的box與ground truth box中哪個(gè)IoU大,就負(fù)責(zé)哪個(gè)。這種做法稱作box predictor的specialization。 最后整個(gè)的損失函數(shù)如下所示:

這個(gè)損失函數(shù)中:

只有當(dāng)某個(gè)網(wǎng)格中有object的時(shí)候才對(duì)classification error進(jìn)行懲罰。

只有當(dāng)某個(gè)box predictor對(duì)某個(gè)ground truth box負(fù)責(zé)的時(shí)候,才會(huì)對(duì)box的coordinate error進(jìn)行懲罰,而對(duì)哪個(gè)ground truth box負(fù)責(zé)就看其預(yù)測(cè)值和ground truth box的IoU是不是在那個(gè)cell的所有box中最大。

其他細(xì)節(jié),例如使用激活函數(shù)使用leak RELU,模型用ImageNet預(yù)訓(xùn)練等等

缺點(diǎn)

由于輸出層為全連接層,因此在檢測(cè)時(shí),YOLO訓(xùn)練模型只支持與訓(xùn)練圖像相同的輸入分辨率。

雖然每個(gè)格子可以預(yù)測(cè)B個(gè)bounding box,但是最終只選擇只選擇IOU最高的bounding box作為物體檢測(cè)輸出,即每個(gè)格子最多只預(yù)測(cè)出一個(gè)物體。當(dāng)物體占畫面比例較小,如圖像中包含畜群或鳥群時(shí),每個(gè)格子包含多個(gè)物體,但卻只能檢測(cè)出其中一個(gè)。這是YOLO方法的一個(gè)缺陷。

YOLO loss函數(shù)中,大物體IOU誤差和小物體IOU誤差對(duì)網(wǎng)絡(luò)訓(xùn)練中l(wèi)oss貢獻(xiàn)值接近(雖然采用求平方根方式,但沒有根本解決問題)。因此,對(duì)于小物體,小的IOU誤差也會(huì)對(duì)網(wǎng)絡(luò)優(yōu)化過程造成很大的影響,從而降低了物體檢測(cè)的定位準(zhǔn)確性。

YOLOv2(YOLO9000)

文章提出了一種新的訓(xùn)練方法–聯(lián)合訓(xùn)練算法,這種算法可以把這兩種的數(shù)據(jù)集混合到一起。使用一種分層的觀點(diǎn)對(duì)物體進(jìn)行分類,用巨量的分類數(shù)據(jù)集數(shù)據(jù)來擴(kuò)充檢測(cè)數(shù)據(jù)集,從而把兩種不同的數(shù)據(jù)集混合起來。 聯(lián)合訓(xùn)練算法的基本思路就是:同時(shí)在檢測(cè)數(shù)據(jù)集和分類數(shù)據(jù)集上訓(xùn)練物體檢測(cè)器(Object Detectors ),用檢測(cè)數(shù)據(jù)集的數(shù)據(jù)學(xué)習(xí)物體的準(zhǔn)確位置,用分類數(shù)據(jù)集的數(shù)據(jù)來增加分類的類別量、提升健壯性。YOLO9000就是使用聯(lián)合訓(xùn)練算法訓(xùn)練出來的,他擁有9000類的分類信息,這些分類信息學(xué)習(xí)自ImageNet分類數(shù)據(jù)集,而物體位置檢測(cè)則學(xué)習(xí)自COCO檢測(cè)數(shù)據(jù)集。

改進(jìn)

Batch Normalization使用Batch Normalization對(duì)網(wǎng)絡(luò)進(jìn)行優(yōu)化,讓網(wǎng)絡(luò)提高了收斂性,同時(shí)還消除了對(duì)其他形式的正則化(regularization)的依賴。通過對(duì)YOLO的每一個(gè)卷積層增加Batch Normalization,最終使得mAP提高了2%,同時(shí)還使model正則化。使用Batch Normalization可以從model中去掉Dropout,而不會(huì)產(chǎn)生過擬合。High resolution classifier目前業(yè)界標(biāo)準(zhǔn)的檢測(cè)方法,都要先把分類器(classi?er)放在ImageNet上進(jìn)行預(yù)訓(xùn)練。從Alexnet開始,大多數(shù)的分類器都運(yùn)行在小于256*256的圖片上。而現(xiàn)在YOLO從224*224增加到了448*448,這就意味著網(wǎng)絡(luò)需要適應(yīng)新的輸入分辨率。

為了適應(yīng)新的分辨率,YOLO v2的分類網(wǎng)絡(luò)以448*448的分辨率先在ImageNet上進(jìn)行Fine Tune,F(xiàn)ine Tune10個(gè)epochs,讓網(wǎng)絡(luò)有時(shí)間調(diào)整他的濾波器(filters),好讓其能更好的運(yùn)行在新分辨率上,還需要調(diào)優(yōu)用于檢測(cè)的Resulting Network。最終通過使用高分辨率,mAP提升了4%。Convolution with anchor boxesYOLOV1包含有全連接層,從而能直接預(yù)測(cè)Bounding Boxes的坐標(biāo)值。Faster R-CNN的方法只用卷積層與Region Proposal Network來預(yù)測(cè)Anchor Box的偏移值與置信度,而不是直接預(yù)測(cè)坐標(biāo)值。作者發(fā)現(xiàn)通過預(yù)測(cè)偏移量而不是坐標(biāo)值能夠簡(jiǎn)化問題,讓神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)起來更容易。

所以最終YOLO去掉了全連接層,使用Anchor Boxes來預(yù)測(cè) Bounding Boxes。作者去掉了網(wǎng)絡(luò)中一個(gè)Pooling層,這讓卷積層的輸出能有更高的分辨率。收縮網(wǎng)絡(luò)讓其運(yùn)行在416*416而不是448*448。由于圖片中的物體都傾向于出現(xiàn)在圖片的中心位置,特別是那種比較大的物體,所以有一個(gè)單獨(dú)位于物體中心的位置用于預(yù)測(cè)這些物體。YOLO的卷積層采用32這個(gè)值來下采樣圖片,所以通過選擇416*416用作輸入尺寸最終能輸出一個(gè)13*13的Feature Map。

使用Anchor Box會(huì)讓精確度稍微下降,但用了它能讓YOLO能預(yù)測(cè)出大于一千個(gè)框,同時(shí)recall達(dá)到88%,mAP達(dá)到69.2%。Dimension clusters之前Anchor Box的尺寸是手動(dòng)選擇的,所以尺寸還有優(yōu)化的余地。為了優(yōu)化,在訓(xùn)練集(training set)Bounding Boxes上跑了一下k-means聚類,來找到一個(gè)比較好的值。 如果我們用標(biāo)準(zhǔn)的歐式距離的k-means,尺寸大的框比小框產(chǎn)生更多的錯(cuò)誤。因?yàn)槲覀兊哪康氖翘岣逫OU分?jǐn)?shù),這依賴于Box的大小,所以距離度量的使用:

通過分析實(shí)驗(yàn)結(jié)果(Figure 2),左圖:在model復(fù)雜性與high recall之間權(quán)衡之后,選擇聚類分類數(shù)K=5。右圖:是聚類的中心,大多數(shù)是高瘦的Box。 Table1是說明用K-means選擇Anchor Boxes時(shí),當(dāng)Cluster IOU選擇值為5時(shí),AVG IOU的值是61,這個(gè)值要比不用聚類的方法的60.9要高。選擇值為9的時(shí)候,AVG IOU更有顯著提高??傊褪钦f明用聚類的方法是有效果的。

Direct location prediction

用Anchor Box的方法,會(huì)讓model變得不穩(wěn)定,尤其是在最開始的幾次迭代的時(shí)候。大多數(shù)不穩(wěn)定因素產(chǎn)生自預(yù)測(cè)Box的(x,y)位置的時(shí)候。按照之前YOLO的方法,網(wǎng)絡(luò)不會(huì)預(yù)測(cè)偏移量,而是根據(jù)YOLO中的網(wǎng)格單元的位置來預(yù)測(cè)坐標(biāo),這就讓Ground Truth的值介于0到1之間。而為了讓網(wǎng)絡(luò)的結(jié)果能落在這一范圍內(nèi),網(wǎng)絡(luò)使用一個(gè) Logistic Activation來對(duì)于網(wǎng)絡(luò)預(yù)測(cè)結(jié)果進(jìn)行限制,讓結(jié)果介于0到1之間。網(wǎng)絡(luò)在每一個(gè)網(wǎng)格單元中預(yù)測(cè)出5個(gè)Bounding Boxes,每個(gè)Bounding Boxes有五個(gè)坐標(biāo)值tx,ty,tw,th,t0,他們的關(guān)系見下圖(Figure3)。假設(shè)一個(gè)網(wǎng)格單元對(duì)于圖片左上角的偏移量是cx,cy,Bounding Boxes Prior的寬度和高度是pw,ph,那么預(yù)測(cè)的結(jié)果見下圖右面的公式:

因?yàn)槭褂昧讼拗谱寯?shù)值變得參數(shù)化,也讓網(wǎng)絡(luò)更容易學(xué)習(xí)、更穩(wěn)定。Fine-Grained FeaturesYOLO修改后的Feature Map大小為13*13,這個(gè)尺寸對(duì)檢測(cè)圖片中尺寸大物體來說足夠了,同時(shí)使用這種細(xì)粒度的特征對(duì)定位小物體的位置可能也有好處。Faster R-CNN、SSD都使用不同尺寸的Feature Map來取得不同范圍的分辨率,而YOLO采取了不同的方法,YOLO加上了一個(gè)Passthrough Layer來取得之前的某個(gè)26*26分辨率的層的特征。

這個(gè)Passthrough layer能夠把高分辨率特征與低分辨率特征聯(lián)系在一起,聯(lián)系起來的方法是把相鄰的特征堆積在不同的Channel之中,這一方法類似與Resnet的Identity Mapping,從而把26*26*512變成13*13*2048。YOLO中的檢測(cè)器位于擴(kuò)展后(expanded )的Feature Map的上方,所以他能取得細(xì)粒度的特征信息,這提升了YOLO 1%的性能。Multi-ScaleTraining作者希望YOLO v2能健壯的運(yùn)行于不同尺寸的圖片之上,所以把這一想法用于訓(xùn)練model中。 區(qū)別于之前的補(bǔ)全圖片的尺寸的方法,YOLO v2每迭代幾次都會(huì)改變網(wǎng)絡(luò)參數(shù)。

每10個(gè)Batch,網(wǎng)絡(luò)會(huì)隨機(jī)地選擇一個(gè)新的圖片尺寸,由于使用了下采樣參數(shù)是32,所以不同的尺寸大小也選擇為32的倍數(shù){320,352…..608},最小320*320,最大608*608,網(wǎng)絡(luò)會(huì)自動(dòng)改變尺寸,并繼續(xù)訓(xùn)練的過程。 這一政策讓網(wǎng)絡(luò)在不同的輸入尺寸上都能達(dá)到一個(gè)很好的預(yù)測(cè)效果,同一網(wǎng)絡(luò)能在不同分辨率上進(jìn)行檢測(cè)。當(dāng)輸入圖片尺寸比較小的時(shí)候跑的比較快,輸入圖片尺寸比較大的時(shí)候精度高,所以你可以在YOLO v2的速度和精度上進(jìn)行權(quán)衡。 Figure4,Table 3:在voc2007上的速度與精度

YOLOV3

YOLO v3的模型比之前的模型復(fù)雜了不少,可以通過改變模型結(jié)構(gòu)的大小來權(quán)衡速度與精度。 速度對(duì)比如下:

簡(jiǎn)而言之,YOLOv3 的先驗(yàn)檢測(cè)(Prior detection)系統(tǒng)將分類器或定位器重新用于執(zhí)行檢測(cè)任務(wù)。他們將模型應(yīng)用于圖像的多個(gè)位置和尺度。而那些評(píng)分較高的區(qū)域就可以視為檢測(cè)結(jié)果。此外,相對(duì)于其它目標(biāo)檢測(cè)方法,我們使用了完全不同的方法。我們將一個(gè)單神經(jīng)網(wǎng)絡(luò)應(yīng)用于整張圖像,該網(wǎng)絡(luò)將圖像劃分為不同的區(qū)域,因而預(yù)測(cè)每一塊區(qū)域的邊界框和概率,這些邊界框會(huì)通過預(yù)測(cè)的概率加權(quán)。我們的模型相比于基于分類器的系統(tǒng)有一些優(yōu)勢(shì)。它在測(cè)試時(shí)會(huì)查看整個(gè)圖像,所以它的預(yù)測(cè)利用了圖像中的全局信息。與需要數(shù)千張單一目標(biāo)圖像的 R-CNN 不同,它通過單一網(wǎng)絡(luò)評(píng)估進(jìn)行預(yù)測(cè)。這令 YOLOv3 非??欤话闼?R-CNN 快 1000 倍、比 Fast R-CNN 快 100 倍。

改進(jìn)之處

多尺度預(yù)測(cè) (類FPN)

更好的基礎(chǔ)分類網(wǎng)絡(luò)(類ResNet)和分類器 darknet-53,見下圖。

分類器-類別預(yù)測(cè)。

YOLOv3不使用Softmax對(duì)每個(gè)框進(jìn)行分類,主要考慮因素有兩個(gè):

Softmax使得每個(gè)框分配一個(gè)類別(score最大的一個(gè)),而對(duì)于Open Images這種數(shù)據(jù)集,目標(biāo)可能有重疊的類別標(biāo)簽,因此Softmax不適用于多標(biāo)簽分類。

Softmax可被獨(dú)立的多個(gè)logistic分類器替代,且準(zhǔn)確率不會(huì)下降。

分類損失采用binary cross-entropy loss。

多尺度預(yù)測(cè)

每種尺度預(yù)測(cè)3個(gè)box, anchor的設(shè)計(jì)方式仍然使用聚類,得到9個(gè)聚類中心,將其按照大小均分給3個(gè)尺度.

尺度1: 在基礎(chǔ)網(wǎng)絡(luò)之后添加一些卷積層再輸出box信息.

尺度2: 從尺度1中的倒數(shù)第二層的卷積層上采樣(x2)再與最后一個(gè)16x16大小的特征圖相加,再次通過多個(gè)卷積后輸出box信息.相比尺度1變大兩倍.

尺度3: 與尺度2類似,使用了32x32大小的特征圖.

參見網(wǎng)絡(luò)結(jié)構(gòu)定義文件https://github.com/pjreddie/darknet/blob/master/cfg/yolov3.cfg 基礎(chǔ)網(wǎng)絡(luò) Darknet-53

darknet-53

仿ResNet, 與ResNet-101或ResNet-152準(zhǔn)確率接近,但速度更快.對(duì)比如下:

主干架構(gòu)的性能對(duì)比

檢測(cè)結(jié)構(gòu)如下:

YOLOv3在mAP@0.5及小目標(biāo)APs上具有不錯(cuò)的結(jié)果,但隨著IOU的增大,性能下降,說明YOLOv3不能很好地與ground truth切合.

邊框預(yù)測(cè)

圖 2:帶有維度先驗(yàn)和定位預(yù)測(cè)的邊界框。我們邊界框的寬和高以作為離聚類中心的位移,并使用 Sigmoid 函數(shù)預(yù)測(cè)邊界框相對(duì)于濾波器應(yīng)用位置的中心坐標(biāo)。 仍采用之前的logis,其中cx,cy是網(wǎng)格的坐標(biāo)偏移量,pw,ph是預(yù)設(shè)的anchor box的邊長(zhǎng).最終得到的邊框坐標(biāo)值是b*,而網(wǎng)絡(luò)學(xué)習(xí)目標(biāo)是t*,用sigmod函數(shù)、指數(shù)轉(zhuǎn)換。優(yōu)點(diǎn)

快速,pipline簡(jiǎn)單.

背景誤檢率低。

通用性強(qiáng)。YOLO對(duì)于藝術(shù)類作品中的物體檢測(cè)同樣適用。它對(duì)非自然圖像物體的檢測(cè)率遠(yuǎn)遠(yuǎn)高于DPM和RCNN系列檢測(cè)方法。

但相比RCNN系列物體檢測(cè)方法,YOLO具有以下缺點(diǎn):

識(shí)別物體位置精準(zhǔn)性差。

召回率低。在每個(gè)網(wǎng)格中預(yù)測(cè)兩個(gè)box這種約束方式減少了對(duì)同一目標(biāo)的多次檢測(cè)(R-CNN使用的region proposal方式重疊較多),相比R-CNN使用Selective Search產(chǎn)生2000個(gè)proposal(RCNN測(cè)試時(shí)每張超過40秒),yolo僅使用7x7x2個(gè).

YOLOV4

YOLOv4: Optimal Speed and Accuracy of Object Detection 論文:https://arxiv.org/abs/2004.10934 代碼:https://github.com/AlexeyAB/darknet YOLOv4!

YOLOv4 在COCO上,可達(dá)43.5% AP,速度高達(dá) 65 FPS! YOLOv4的特點(diǎn)是集大成者,俗稱堆料。但最終達(dá)到這么高的性能,一定是不斷嘗試、不斷堆料、不斷調(diào)參的結(jié)果,給作者點(diǎn)贊。下面看看堆了哪些料:

Weighted-Residual-Connections (WRC)

Cross-Stage-Partial-connections (CSP)

Cross mini-Batch Normalization (CmBN)

Self-adversarial-training (SAT)

Mish-activation

Mosaic data augmentation

CmBN

DropBlock regularization

CIoU loss

本文的主要貢獻(xiàn)如下: 1. 提出了一種高效而強(qiáng)大的目標(biāo)檢測(cè)模型。它使每個(gè)人都可以使用1080 Ti或2080 Ti GPU 訓(xùn)練超快速和準(zhǔn)確的目標(biāo)檢測(cè)器(牛逼?。?2. 在檢測(cè)器訓(xùn)練期間,驗(yàn)證了SOTA的Bag-of Freebies 和Bag-of-Specials方法的影響。 3. 改進(jìn)了SOTA的方法,使它們更有效,更適合單GPU訓(xùn)練,包括CBN [89],PAN [49],SAM [85]等。文章將目前主流的目標(biāo)檢測(cè)器框架進(jìn)行拆分:input、backbone、neck 和 head. 具體如下圖所示:

對(duì)于GPU,作者在卷積層中使用:CSPResNeXt50 / CSPDarknet53

對(duì)于VPU,作者使用分組卷積,但避免使用(SE)塊-具體來說,它包括以下模型:EfficientNet-lite / MixNet / GhostNet / MobileNetV3

作者的目標(biāo)是在輸入網(wǎng)絡(luò)分辨率,卷積層數(shù),參數(shù)數(shù)量和層輸出(filters)的數(shù)量之間找到最佳平衡。 總結(jié)一下YOLOv4框架:

Backbone:CSPDarknet53

Neck:SPP,PAN

Head:YOLOv3

YOLOv4 =CSPDarknet53+SPP+PAN+YOLOv3 其中YOLOv4用到相當(dāng)多的技巧:

用于backbone的BoF:CutMix和Mosaic數(shù)據(jù)增強(qiáng),DropBlock正則化,Class label smoothing

用于backbone的BoS:Mish激活函數(shù),CSP,MiWRC

用于檢測(cè)器的BoF:CIoU-loss,CmBN,DropBlock正則化,Mosaic數(shù)據(jù)增強(qiáng),Self-Adversarial 訓(xùn)練,消除網(wǎng)格敏感性,對(duì)單個(gè)ground-truth使用多個(gè)anchor,Cosine annealing scheduler,最佳超參數(shù),Random training shapes

用于檢測(cè)器的Bos:Mish激活函數(shù),SPP,SAM,PAN,DIoU-NMS

看看YOLOv4部分組件:

感受一下YOLOv4實(shí)驗(yàn)的充分性(調(diào)參的藝術(shù)):

感受一下性能炸裂的YOLOv4實(shí)驗(yàn)結(jié)果:

YOLO v.s Faster R-CNN

1.統(tǒng)一網(wǎng)絡(luò):YOLO沒有顯示求取region proposal的過程。Faster R-CNN中盡管RPN與fast rcnn共享卷積層,但是在模型訓(xùn)練過程中,需要反復(fù)訓(xùn)練RPN網(wǎng)絡(luò)和fast rcnn網(wǎng)絡(luò).相對(duì)于R-CNN系列的"看兩眼"(候選框提取與分類),YOLO只需要Look Once. 2. YOLO統(tǒng)一為一個(gè)回歸問題,而R-CNN將檢測(cè)結(jié)果分為兩部分求解:物體類別(分類問題),物體位置即bounding box(回歸問題)。

參考

1. V1,V2,V3轉(zhuǎn)載地址: https://blog.csdn.net/App_12062011/article/details/77554288 2. V4轉(zhuǎn)載地址: https://mp.weixin.qq.com/s/Ua3T-DOuzmLWuXfohEiVFw

責(zé)任編輯:xj

原文標(biāo)題:YOLO系列:V1,V2,V3,V4簡(jiǎn)介

文章出處:【微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7256

    瀏覽量

    91831
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122789
  • yolo2
    +關(guān)注

    關(guān)注

    0

    文章

    4

    瀏覽量

    2177

原文標(biāo)題:?YOLO系列:V1,V2,V3,V4簡(jiǎn)介

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類、obb

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    廠家芯資訊|WTK6900系列語音識(shí)別芯片自學(xué)習(xí)功能深度答疑

    在智能硬件全面擁抱語音交互的時(shí)代,廣州唯創(chuàng)電子WTK6900系列芯片憑借其獨(dú)特的離線自學(xué)習(xí)能力,已成為智能家居、工業(yè)控制等領(lǐng)域的核心交互模塊。本文針對(duì)實(shí)際應(yīng)用中的高頻問題,深度解析故障排除方法
    的頭像 發(fā)表于 03-20 09:13 ?352次閱讀
    廠家芯資訊|WTK6900<b class='flag-5'>系列</b>語音識(shí)別芯片自<b class='flag-5'>學(xué)習(xí)</b>功能<b class='flag-5'>深度</b>答疑

    使用Yolo-v3-TF運(yùn)行OpenVINO?對(duì)象檢測(cè)Python演示時(shí)的結(jié)果不準(zhǔn)確的原因?

    通過模型下載器下載了 yolo-v3-tf: ./downloader.py --name yolo-v3-tf 通過模型 優(yōu)化器轉(zhuǎn)換模型: python3 ./model_optimizer
    發(fā)表于 03-06 06:31

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢(shì),導(dǎo)致戰(zhàn)爭(zhēng)形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?535次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?851次閱讀

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    用于開發(fā)生物學(xué)數(shù)據(jù)的機(jī)器學(xué)習(xí)方法。盡管深度學(xué)習(xí)(一般指神經(jīng)網(wǎng)絡(luò)算法)是一個(gè)強(qiáng)大的工具,目前也非常流行,但它的應(yīng)用領(lǐng)域仍然有限。與深度學(xué)習(xí)相比
    的頭像 發(fā)表于 12-30 09:16 ?1183次閱讀
    傳統(tǒng)機(jī)器<b class='flag-5'>學(xué)習(xí)方法</b>和應(yīng)用指導(dǎo)

    助力AIoT應(yīng)用:在米爾FPGA開發(fā)板上實(shí)現(xiàn)Tiny YOLO V4

    學(xué)習(xí)如何在 MYIR 的 ZU3EG FPGA 開發(fā)板上部署 Tiny YOLO v4,對(duì)比 FPGA、GPU、CPU 的性能,助力 AIoT 邊緣計(jì)算應(yīng)用。 一、 為什么選擇 FPGA:應(yīng)對(duì)
    發(fā)表于 12-06 17:18

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1903次閱讀

    《DNK210使用指南 -CanMV版 V1.0》第三十九章 YOLO2人臉檢測(cè)實(shí)驗(yàn)

    第三十九章 YOLO2人臉檢測(cè)實(shí)驗(yàn) 從本章開始,將通過幾個(gè)實(shí)例介紹Kendryte K210上的KPU,以及CanMV下KPU的使用方法,本章將先介紹YOLO2網(wǎng)絡(luò)的人臉檢測(cè)應(yīng)用在CanMV上的實(shí)現(xiàn)
    發(fā)表于 11-13 09:37

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?651次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的<b class='flag-5'>方法</b>

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1353次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運(yùn)算加速 項(xiàng)目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1220次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2879次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    ,F(xiàn)PGA 也需要不斷適應(yīng)和改進(jìn)。研究人員和開發(fā)者將致力于針對(duì) FPGA 的特點(diǎn)對(duì)深度學(xué)習(xí)算法進(jìn)行優(yōu)化,例如探索更高效的模型壓縮方法、量化技術(shù)以及硬件友好的算法結(jié)構(gòu)等,以進(jìn)一步提高 FPGA 在
    發(fā)表于 09-27 20:53

    PyTorch深度學(xué)習(xí)開發(fā)環(huán)境搭建指南

    PyTorch作為一種流行的深度學(xué)習(xí)框架,其開發(fā)環(huán)境的搭建對(duì)于深度學(xué)習(xí)研究者和開發(fā)者來說至關(guān)重要。在Windows操作系統(tǒng)上搭建PyTorch環(huán)境,需要綜合考慮多個(gè)方面,包括軟件安裝、
    的頭像 發(fā)表于 07-16 18:29 ?2522次閱讀