99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

?YOLO系列的演進(jìn),從v1到v7

新機(jī)器視覺 ? 來源:AI公園 ? 2023-03-22 10:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

經(jīng)典再回顧,本文介紹v1到v3。

a750809a-c858-11ed-bfe3-dac502259ad0.png

如果你需要速度快的目標(biāo)檢測(cè)器,那么 YOLO 系列的神經(jīng)網(wǎng)絡(luò)模型實(shí)際上是當(dāng)今的標(biāo)準(zhǔn)。

解決檢測(cè)問題還有很多其他優(yōu)秀的模型,但我們不會(huì)在這篇綜述中涉及它們。

目前,已經(jīng)寫了相當(dāng)多的文章來分析 YOLO 各個(gè)版本的功能。本文的目的是對(duì)整個(gè)家族進(jìn)行比較分析。我們想看看架構(gòu)的演變,這樣我們就可以更好地了解檢測(cè)器是如何發(fā)展,哪些發(fā)展提高了性能,也許還可以想象事情的發(fā)展方向。

在YOLO出現(xiàn)之前,檢測(cè)圖像中目標(biāo)的主要方法是使用各種大小的滑動(dòng)窗口按順序穿過原始圖像的各個(gè)部分,以便分類器給出圖像的哪個(gè)部分包含哪個(gè)目標(biāo)。這種方法是合乎邏輯的,但非常慢。

一段時(shí)間之后,出現(xiàn)了一個(gè)特殊的部分,它暴露了感興趣的區(qū)域 —— 一些假設(shè),圖像上可能有有趣的東西。但是這些感興趣區(qū)域還是太多,有數(shù)千個(gè)。最快的算法,F(xiàn)aster R-CNN,平均在0.2秒內(nèi)處理一張圖片,每秒5幀。總的來說,在出現(xiàn)一種全新的方法之前,速度不容樂觀。

有什么新奇之處?

在以前的方法中,原始圖像的每個(gè)像素可以被神經(jīng)網(wǎng)絡(luò)處理數(shù)百甚至數(shù)千次。每次這些像素都通過相同的神經(jīng)網(wǎng)絡(luò)傳遞,經(jīng)過相同的計(jì)算。是否可以做一些事情以免重復(fù)相同的計(jì)算?

事實(shí)證明,這是可能的。但為此,我們不得不稍微重新表述問題。如果說以前它是一個(gè)分類任務(wù),那么現(xiàn)在它變成了一個(gè)回歸任務(wù)。

YOLO aka YOLOv1

讓我們考慮第一個(gè) YOLO 模型,也稱為 YOLOv1。

作者

Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi

主要論文

“You Only Look Once: Unified, Real-Time Object Detection”, publication date 2015/06

代碼庫(kù)

除了基于darknet框架的官方實(shí)現(xiàn)之外,在其他通用框架上還有大量各種流行的實(shí)現(xiàn)。

  1. https://pjreddie.com/darknet/yolov1/
  2. https://github.com/thtrieu/darkflow, 2.1k forks / 6k stars, GPL-3.0 license
  3. https://github.com/gliese581gg/YOLO_tensorflow, 670 forks / 1.7k stars, non-commercial license
  4. https://github.com/hizhangp/yolo_tensorflow, 455 forks / 784 stars
  5. https://github.com/nilboy/tensorflow-yolo, 331 forks / 780 stars
  6. https://github.com/abeardear/pytorch-YOLO-v1, 214 forks / 473 stars, MIT license
  7. https://github.com/dshahrokhian/YOLO_tensorflow, 22 forks / 42 stars

性能比較

a763ae7c-c858-11ed-bfe3-dac502259ad0.png

Pascal VOC 2007上的實(shí)時(shí)系統(tǒng)。YOLO是有記錄以來最快的Pascal VOC檢測(cè)檢測(cè)器,其準(zhǔn)確性仍然是任何其他實(shí)時(shí)檢測(cè)器的兩倍。

結(jié)構(gòu)

a78eb46e-c858-11ed-bfe3-dac502259ad0.png

在結(jié)構(gòu)上,YOLO 模型由以下部分組成:

  1. input ― 輸入圖像被饋送到的輸入層
  2. backbone — 輸入圖像以特征形式編碼的部分。
  3. neck — 這是模型的其他部分,用于處理按特征編碼的圖像
  4. head — 生成模型預(yù)測(cè)的一個(gè)或多個(gè)輸出層。

該網(wǎng)絡(luò)的第一個(gè)版本基于GoogLeNet的架構(gòu)。卷積層接MaxPool層級(jí)聯(lián),最后以兩個(gè)全連接層的級(jí)聯(lián)作為結(jié)束。

此外,作者訓(xùn)練了Fast YOLO架構(gòu)的更快版本,包含更少的卷積層(9而不是24)。兩個(gè)模型的輸入分辨率均為 448x448,但網(wǎng)絡(luò)主要部分的預(yù)訓(xùn)練通過分辨率為 224x224 的分類器訓(xùn)練。

在此結(jié)構(gòu)中,原始圖片被劃分為 S x S 單元格(在原始 7 x 7 中),每個(gè)單元格預(yù)測(cè) B 個(gè)邊界框,這些 bbox 中存在目標(biāo)的置信度,以及 C 類的概率。每條邊的單元格數(shù)是奇數(shù),因此圖像的中心有一個(gè)單元格。這比偶數(shù)具有優(yōu)勢(shì),因?yàn)檎掌闹行耐ǔS幸粋€(gè)主要目標(biāo),在這種情況下,主要的預(yù)測(cè)是在中心單元格中進(jìn)行的。在區(qū)域數(shù)量為偶數(shù)的情況下,中心可能位于四個(gè)中央?yún)^(qū)域中的某個(gè)位置,這降低了網(wǎng)絡(luò)的置信水平。

置信度值表示模型對(duì)給定 bbox 包含某個(gè)目標(biāo)的置信度,以及 bbox 預(yù)測(cè)其位置的準(zhǔn)確度。事實(shí)上,這是IoU存在物體概率的乘積。如果單元格中沒有目標(biāo),則置信度為零。

每個(gè) bbox 由 5 個(gè)數(shù)字組成:x、y、w、h 和置信度。(x, y)為單元格內(nèi) bbox 中心的坐標(biāo),w 和 h為 bbox相對(duì)于整個(gè)圖片尺寸的歸一化的寬度和高度,即歸一化從 0 到 1 的值。置信度是預(yù)測(cè)的 bbox 和GT框之間的 IoU。每個(gè)單元格還預(yù)測(cè)目標(biāo)類的 C 個(gè)條件概率。每個(gè)單元格僅預(yù)測(cè)一組類別,而不考慮 bbox的數(shù)量。

因此,在一次前向中,預(yù)測(cè)了 S×S×B個(gè)包圍框。他們中的大多數(shù)框的置信度都很低,但是,通過設(shè)置一定的閾值,我們可以去除其中的很大一部分。但最重要的是,(與競(jìng)爭(zhēng)對(duì)手相比)檢測(cè)率提高了幾個(gè)數(shù)量級(jí)。這是非常合乎邏輯的,因?yàn)樗蓄悇e的所有 bbox 現(xiàn)在只需一次預(yù)測(cè)。對(duì)于不同的實(shí)現(xiàn),原始文章給出了從 45 到 155 的FPS。盡管與以前的算法相比,mAP的準(zhǔn)確性仍然有所下降,但在某些問題中,實(shí)時(shí)檢測(cè)更為重要。

得到檢測(cè)框

由于與物體中心相鄰的單元格也可以產(chǎn)生bbox,從而導(dǎo)致框過多,因此有必要選擇其中最好的。為此,使用NMS技術(shù),其工作原理如下。此類的所有 bbox,置信度低于給定閾值的那些將被丟棄。對(duì)于其余部分,執(zhí)行IoU的成對(duì)比較過程。如果兩個(gè)框的 IoU > 0.5,則丟棄置信度較低的框。否則,兩個(gè)框都會(huì)保留在列表中。因此,類似的框被抑制了。

損失函數(shù)是組合的,具有以下形式:

a7a2596a-c858-11ed-bfe3-dac502259ad0.png

第一項(xiàng)是目標(biāo)中心坐標(biāo)的損失,第二項(xiàng)是框尺寸的損失,第三項(xiàng)是目標(biāo)的類損失,如果目標(biāo)不存在,則第四項(xiàng)是類的損失,第五項(xiàng)是在框中找到某個(gè)目標(biāo)的概率。

需要 lambda 系數(shù)來防止置信度變?yōu)榱悖驗(yàn)榇蠖鄶?shù)單元格中沒有目標(biāo)。1(obj,i)表示的中心是否出現(xiàn)在單元格 i 中,1(obj,i,j)表示單元格 i 中的第 j 個(gè) bbox 負(fù)責(zé)此預(yù)測(cè)。

優(yōu)勢(shì)

高速

  • 比當(dāng)時(shí)的競(jìng)爭(zhēng)對(duì)手更好的泛化能力,在另一個(gè)領(lǐng)域進(jìn)行測(cè)試(訓(xùn)練是在ImageNet上進(jìn)行的)顯示出更好的性能。
  • 圖像背景部分的誤報(bào)更少。

局限性

  • 每個(gè)單元格 2 個(gè) bbox 和一個(gè)類目標(biāo)的限制。這意味著一堆小物體的識(shí)別度較低。
  • 原始圖像的幾個(gè)連續(xù)下采樣導(dǎo)致精度不高。
  • 損失的設(shè)計(jì)方式是,它對(duì)大框和小框的錯(cuò)誤具有同樣懲罰。作者試圖通過取尺寸大小的根來補(bǔ)償這種影響,但這并沒有完全消除這種影響。

YOLOv2 / YOLO9000

作者

Joseph Redmon, Ali Farhadi

主要論文

“YOLO9000: Better, Faster, Stronger”, publication date 2016/12

代碼倉(cāng)庫(kù)

  1. https://pjreddie.com/darknet/yolov2/
  2. https://github.com/experiencor/keras-yolo2, 795 forks / 1.7k stars, MIT license
  3. https://github.com/longcw/yolo2-pytorch, 417 forks / 1.5k stars
  4. https://github.com/philipperemy/yolo-9000, 309 forks / 1.1k stars, Apache-2.0 license

性能比較

a7c28c80-c858-11ed-bfe3-dac502259ad0.png

Pascal VOC 2007的檢測(cè)框架。YOLOv2 比以前的檢測(cè)方法更快、更準(zhǔn)確。它還可以以不同的分辨率運(yùn)行,以便在速度和準(zhǔn)確性之間輕松權(quán)衡。每個(gè) YOLOv2 條目實(shí)際上是具有相同權(quán)重的相同訓(xùn)練模型,只是以不同的大小進(jìn)行評(píng)估。所有計(jì)時(shí)信息均在 Geforce GTX Titan X 上測(cè)試。

結(jié)構(gòu)特點(diǎn)

  1. 作者對(duì)模型的第一個(gè)版本進(jìn)行了一些改進(jìn)。

  2. 刪除了 dropout,并在所有卷積層中添加了BN。

  3. 預(yù)訓(xùn)練為分辨率為 448x448 的分類器(YOLOv1 分辨率為 224x224),然后將最終網(wǎng)絡(luò)縮小到 416x416 輸入,以產(chǎn)生奇數(shù)個(gè) 13x13 單元。

  4. 刪除了全連接層。相反,他們開始使用全卷積和錨框來預(yù)測(cè)bbox(如Faster RCNN)。這樣可以減少空間信息的丟失(就像在 v1 中的全連接層中一樣)。

  5. 刪除了一個(gè)最大池化以增加特征的細(xì)節(jié)(分辨率)。在 v1 中,每張圖片只有 98 個(gè) bbox,使用 V2 中的錨點(diǎn),結(jié)果有超過 1000 個(gè) bbox,而 mAP 略有下降,但召回率顯著增加,這使得提高整體準(zhǔn)確性成為可能。

  6. 維度先驗(yàn)。bbox的大小和位置不是像FasterRCNN那樣隨機(jī)手動(dòng)選擇的,而是通過k-means聚類自動(dòng)選擇的。盡管在小bbox上使用具有歐氏距離的標(biāo)準(zhǔn)k均值,但檢測(cè)誤差更高,因此對(duì)于k均值,選擇了另一個(gè)距離度量,1 - IoU(box,質(zhì)心)。選擇5個(gè)作為分組數(shù)目的折衷方案。測(cè)試表明,對(duì)于以這種方式選擇的 5 個(gè)質(zhì)心,平均 IoU 與 9 個(gè)錨點(diǎn)大致相同。

  7. 直接位置預(yù)測(cè)。最初,對(duì)于錨,與確定中心(x,y)坐標(biāo)相關(guān)的網(wǎng)絡(luò)訓(xùn)練存在不穩(wěn)定性:由于網(wǎng)絡(luò)權(quán)重是隨機(jī)初始化的,并且坐標(biāo)預(yù)測(cè)是線性的,大小是沒有限制的。因此,我們沒有預(yù)測(cè)相對(duì)于錨中心的偏移量,其中系數(shù)的正確范圍是 [-1,1],而是決定預(yù)測(cè) bbox 相對(duì)于單元格中心的偏移,范圍 [0,1],并使用 sigmoid 來限制它。網(wǎng)絡(luò)為每個(gè)單元格預(yù)測(cè) 5 個(gè) bbox,每個(gè) bbox 5 個(gè)數(shù)字:tx、ty、tw、th、to。bbox 的預(yù)測(cè)參數(shù)計(jì)算如下:

a7d4ead8-c858-11ed-bfe3-dac502259ad0.png

具有維度先驗(yàn)和位置預(yù)測(cè)的邊界框。我們將框的寬度和高度預(yù)測(cè)為聚類質(zhì)心的偏移量。我們使用 sigmoid 函數(shù)預(yù)測(cè)框相對(duì)于中心坐標(biāo)的偏移。

a7e1de32-c858-11ed-bfe3-dac502259ad0.png

  1. 細(xì)粒度特征。特征映射現(xiàn)在為 13x13。
  2. 多尺度訓(xùn)練。由于網(wǎng)絡(luò)是全卷積的,因此只需更改輸入圖像的分辨率即可動(dòng)態(tài)更改其分辨率。為了提高網(wǎng)絡(luò)的魯棒性,其輸入分辨率每 10 批次更改一次。由于網(wǎng)絡(luò)縮小了 32 倍,因此輸入分辨率是從集合 {320, 352, ..., 608} 中選擇的。網(wǎng)絡(luò)的大小從 320x320 調(diào)整為 608x608。
  3. 加速。VGG-16作為v1的骨干,太重了,所以在第二個(gè)版本中使用了darknet-19:

a7f41ffc-c858-11ed-bfe3-dac502259ad0.png

訓(xùn)練分類器后,從網(wǎng)絡(luò)中刪除最后一個(gè)卷積層,添加三個(gè)具有 1024 個(gè)濾波器的 3x3 卷積層和一個(gè)具有檢測(cè)所需輸出數(shù)量的最終 1x1的卷積層。在 VOC 的情況下,它是 5 個(gè) bbox,每個(gè) bbox 有 5 個(gè)坐標(biāo),每個(gè) bbox 有 20 個(gè)類,總共有 125 個(gè)濾波器。

  1. 分層分類。在 v1 中,這些類屬于同一類目標(biāo)并且是互斥的,而在 v2 中引入了 WordNet 樹結(jié)構(gòu),這是一個(gè)有向圖。每個(gè)類別中的類都是互斥的,并且有自己的softmax。因此,例如,如果圖片顯示已知品種網(wǎng)絡(luò)的狗,則網(wǎng)絡(luò)將返回狗和特定品種的類。如果是網(wǎng)絡(luò)未知品種的狗,那么它只會(huì)返回狗的類別。因此,訓(xùn)練了 YOLO9000,它是具有 3 個(gè)先驗(yàn)的 v2,而不是 5 個(gè)和 9418 個(gè)目標(biāo)類。

a815611c-c858-11ed-bfe3-dac502259ad0.png

ImageNet vs WordTree上的預(yù)測(cè)。大多數(shù) ImageNet 模型使用一個(gè)大的 softmax 來預(yù)測(cè)概率分布。使用WordTree,我們對(duì)共同下義詞執(zhí)行多個(gè)softmax操作。

a82eb7a2-c858-11ed-bfe3-dac502259ad0.png

使用 WordTree 層次結(jié)構(gòu)合并數(shù)據(jù)集。使用WordNet概念圖,我們構(gòu)建了一個(gè)視覺概念的分層樹。然后,我們可以通過將數(shù)據(jù)集中的類映射到樹中的合成集來將數(shù)據(jù)集合并在一起。這是 WordTree 的簡(jiǎn)化視圖,用于說明目的。

優(yōu)勢(shì)

  • 現(xiàn)在它不僅是速度方面的 SOTA,而且在 mAP 方面也是。
  • 現(xiàn)在可以更好地檢測(cè)小物體。

YOLOv3

作者

Joseph Redmon, Ali Farhadi

主要論文

“YOLOv3: An Incremental Improvement”, publication date 2018/04

代碼倉(cāng)庫(kù)

  1. https://pjreddie.com/darknet/yolo/, all-permissive license
  2. https://github.com/ultralytics/yolov3, 3.3k forks / 8.9k stars, GPL-3.0 license
  3. https://github.com/eriklindernoren/PyTorch-YOLOv3, 2.6k forks / 6.8k stars, GPL-3.0 license

性能比較

a838538e-c858-11ed-bfe3-dac502259ad0.png

YOLOv3 的運(yùn)行速度明顯快于具有相當(dāng)性能的其他檢測(cè)方法。從M40或Titan X開始,它們基本上是相同的GPU。

結(jié)構(gòu)

這是模型的增量更新,即沒有根本上更改,只有一組改進(jìn)技巧。

  1. 每個(gè) bbox 的置信度得分,即給定 bbox 中存在目標(biāo)的概率,現(xiàn)在也使用 sigmoid 計(jì)算。
  2. 作者從多類分類切換到多標(biāo)簽,所以我們擺脫了softmax,轉(zhuǎn)而支持二進(jìn)制交叉熵。
  3. 在三個(gè)尺度上對(duì) bbox 進(jìn)行預(yù)測(cè),輸出張量大?。篘 * N * (3 * (4 + 1 + num_classes))
  4. 作者使用k均值重新計(jì)算先驗(yàn)框,并在三個(gè)尺度上得到了9個(gè)bbox。
  5. 新的、更深、更準(zhǔn)確的骨干/特征提取器Darknet-53。

a842227e-c858-11ed-bfe3-dac502259ad0.png

  1. 在準(zhǔn)確性方面,它與 ResNet-152 相當(dāng),但由于更有效地使用 GPU,它所需的操作減少了近 1.5 倍,產(chǎn)生的 FPS 提高了 2 倍。

總體結(jié)構(gòu)

a858dd84-c858-11ed-bfe3-dac502259ad0.jpg

不起作用的方法

  • BBOX 通過線性激活函數(shù)而不是logistic激活函數(shù)來協(xié)調(diào)位移預(yù)測(cè)。
  • focal loss — mAP 下降了 2 點(diǎn)。
  • 用于確定GT的雙 IoU — 在 Faster R-CNN 中,IOU 有兩個(gè)閾值,通過該閾值確定正樣本或負(fù)樣本(>0.7 正值,0.3-0.7 忽略,<0.3 負(fù)樣本)

優(yōu)勢(shì)

  • 發(fā)布時(shí)的檢測(cè)精度高于競(jìng)爭(zhēng)對(duì)手
  • 發(fā)布時(shí)的檢測(cè)率高于競(jìng)爭(zhēng)對(duì)手

在下一部分中,我們將考慮v4,v5,PP-YOLOS和YOLOX。敬請(qǐng)期待!

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4710

    瀏覽量

    95403
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    41272
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    13451

原文標(biāo)題:?YOLO系列的演進(jìn),從v1到v7

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    S2C發(fā)布最新ASIC原型驗(yàn)證平臺(tái)Quad V7

    S2C Inc.今日宣布將最新的原型驗(yàn)證平臺(tái)Quad V7加入其V7 TAI Logic Module系列。Quad V7 是基于Xilinx Virtex-
    發(fā)表于 01-23 11:28 ?2481次閱讀

    LT8228V1V2是BUCK模式,V2V1是BOOST模式,請(qǐng)問這個(gè)模式是固定的嗎?

    看LT8228的示例,V1V2是BUCK模式,V2
    發(fā)表于 01-05 07:10

    XILINX V7系列FPGA的的BPI FLASH程序下載問題咨詢

    各路大神你們好!我想向各位咨詢下:當(dāng)采用BPI模式配置Xilinx V7系列FPGA時(shí),程序是如何下載到BPI FLASH中去的?我看了V7的配置技術(shù)手冊(cè),發(fā)現(xiàn)里面只介紹了一種間接編程方式:由
    發(fā)表于 08-26 15:34

    卡西歐ex v7用戶使用說明書

    卡西歐ex v7用戶使用說明書
    發(fā)表于 01-14 00:01 ?33次下載
    卡西歐ex <b class='flag-5'>v7</b>用戶使用說明書

    V919 AIR V7版本刷機(jī)教程_For_Android

    V919 AIR V7版本刷機(jī)教程_For_Android是一個(gè)不可多得的東東。希望這文件對(duì)朋友有作用,謝謝了。
    發(fā)表于 11-13 11:48 ?0次下載

    BroadDirector簡(jiǎn)明手冊(cè)v1

    BroadDirector簡(jiǎn)明手冊(cè)v1
    發(fā)表于 01-02 19:49 ?0次下載

    RMON 管理v1

    RMON 管理v1
    發(fā)表于 01-02 19:49 ?0次下載

    7周年!MIUI V1MIUI9圖標(biāo)演進(jìn)一覽:你最喜歡哪一版?

    2010年8月16日MIUI V1初次亮相,如今快如閃電MIUI9,MIUI已經(jīng)七歲了。
    發(fā)表于 08-16 17:23 ?2128次閱讀

    QuadE V7快速原型驗(yàn)證產(chǎn)品系列

    加利福尼亞州,圣何塞 - 2014年2月25日 - 業(yè)界領(lǐng)先的SoC/ASIC快速原型解決方案提供商S2C Inc.于今日宣布,在其基于FPGA的原型平臺(tái)V7 TAI Logic Module系列
    的頭像 發(fā)表于 02-11 14:27 ?3849次閱讀

    美圖V7高清圖賞

    1月8日下午,美圖手機(jī)正式發(fā)布美圖V7標(biāo)準(zhǔn)版,搭載驍龍845處理器,全球首創(chuàng)的前置三攝配置,支持“前置AI夜拍美顏”“3D凝時(shí)相機(jī)”“閉眼修復(fù)”等攝影功能。
    的頭像 發(fā)表于 01-30 09:25 ?3849次閱讀

    美圖V7手機(jī)體驗(yàn)評(píng)測(cè) 性能最強(qiáng)的美圖手機(jī)

    美圖V7怎么樣?美圖手機(jī)在2018年底曾推出了旗下V系列的最新產(chǎn)品“美圖V7”,這也是美圖獨(dú)立研發(fā)的最后一款手機(jī)產(chǎn)品。那么,美圖V7究竟怎么
    的頭像 發(fā)表于 07-22 14:58 ?9598次閱讀

    美圖V7全面評(píng)測(cè) 一款沒有任何妥協(xié)的產(chǎn)品

    美圖V7評(píng)測(cè):早在去年11月份,就和小米“聯(lián)姻”。作為最后一款美圖自研的產(chǎn)品,能帶給我們哪些驚喜呢?美圖V7在自拍美顏方面的優(yōu)化怎么樣?
    的頭像 發(fā)表于 07-11 11:54 ?4722次閱讀

    lvgl 庫(kù) V7版本相關(guān)應(yīng)用

    在使用 lvgl 庫(kù)的時(shí)候,筆者使用的 V7 版本的庫(kù),使用過程中發(fā)現(xiàn)網(wǎng)上關(guān)于 V7 版本的資料非常少,官網(wǎng)有文檔介紹其如何使用,但有些方面...
    發(fā)表于 01-26 17:06 ?0次下載
    lvgl 庫(kù) <b class='flag-5'>V7</b>版本相關(guān)應(yīng)用

    淺談YOLO系列的神經(jīng)網(wǎng)絡(luò)模型v1v7演進(jìn)

    在以前的方法中,原始圖像的每個(gè)像素可以被神經(jīng)網(wǎng)絡(luò)處理數(shù)百甚至數(shù)千次。每次這些像素都通過相同的神經(jīng)網(wǎng)絡(luò)傳遞,經(jīng)過相同的計(jì)算。是否可以做一些事情以免重復(fù)相同的計(jì)算?
    發(fā)表于 04-24 15:45 ?761次閱讀
    淺談<b class='flag-5'>YOLO</b><b class='flag-5'>系列</b>的神經(jīng)網(wǎng)絡(luò)模型<b class='flag-5'>從</b><b class='flag-5'>v1</b><b class='flag-5'>到</b><b class='flag-5'>v7</b>的<b class='flag-5'>演進(jìn)</b>

    ANO匿名上位機(jī)V7協(xié)議&STM32

    ANO匿名上位機(jī)V7協(xié)議&STM32 說明:以下程序?yàn)樽约壕帉?,若有誤歡迎各位指出。 基于ANO匿名V7上位機(jī)的通信協(xié)議編寫的代碼文章目錄ANO匿名上位機(jī)V7協(xié)議&STM32 前言 一、Ano
    發(fā)表于 05-09 11:08 ?17次下載
    ANO匿名上位機(jī)<b class='flag-5'>V7</b>協(xié)議&STM32