99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

目標(biāo)檢測(cè)模型和Objectness的知識(shí)

電子設(shè)計(jì) ? 來(lái)源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2022-02-12 17:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Nathan Zhao
編譯:ronghuaiyang

導(dǎo)讀

在本文中,我們將討論目標(biāo)檢測(cè)模型和Objectness的基礎(chǔ)知識(shí)。

什么是物體檢測(cè)模型?

物體檢測(cè)模型本質(zhì)上,正如其名稱所示,檢測(cè)物體。這意味著給定一個(gè)圖像,它可以告訴你物體在哪里,以及這個(gè)物體是什么。例如,在上面的圖像中,我們有許多物體,并且使用物體檢測(cè)模型,我們已經(jīng)檢測(cè)出不同的物體在圖像中的位置。

這類模型有很多應(yīng)用。舉幾個(gè)例子,物體檢測(cè)在以下方面很有用:

自動(dòng)駕駛汽車,可以檢測(cè)到乘客、其他車輛、紅綠燈和停車標(biāo)志。

安保,模型可以探測(cè)到公共區(qū)域的槍支或炸彈,并向附近的警察報(bào)警。

總的來(lái)說(shuō),這類模型非常有用,在過(guò)去幾年里,機(jī)器學(xué)習(xí)社區(qū)已經(jīng)對(duì)它們進(jìn)行了大量的研究。

物體檢測(cè)中區(qū)域建議的介紹

首先,讓我們了解一下物體檢測(cè)模型是如何工作的。首先,我們必須給出一個(gè)物體的建議位置。我們把這個(gè)建議的位置稱為我們感興趣的區(qū)域,通常顯示在一個(gè)邊界框(也稱為圖像窗口)中。根據(jù)物體檢測(cè)模型的類型,我們可以通過(guò)許多不同的方式來(lái)實(shí)現(xiàn)這一點(diǎn)。

樸素方法:我們將圖像分割成多個(gè)部分,并對(duì)每個(gè)部分進(jìn)行分類。這種方法效率低下是因?yàn)楸仨殞?duì)每個(gè)生成的窗口應(yīng)用分類網(wǎng)絡(luò)(CNN),導(dǎo)致計(jì)算時(shí)間長(zhǎng)。

滑動(dòng)窗口方法:我們預(yù)先確定好窗口比例(或“錨”),然后滑過(guò)圖像。對(duì)于每個(gè)窗口,我們處理它并繼續(xù)滑動(dòng)。與樸素方法類似,這種方法生成的窗口較多,處理時(shí)間也比較長(zhǎng)。

選擇性搜索:使用顏色相似度,紋理相似度,和一些其他的圖像細(xì)節(jié),我們可以用算法將圖像分割成區(qū)域。雖然選擇性搜索算法本身是耗時(shí)的,但這使得分類網(wǎng)絡(luò)的應(yīng)用需求較少。

區(qū)域建議網(wǎng)絡(luò):我們創(chuàng)建一個(gè)單獨(dú)的網(wǎng)絡(luò)來(lái)確定圖像中感興趣的區(qū)域。這使得我們的模型工作得更快,但也使得我們最終模型的準(zhǔn)確性依賴于多個(gè)網(wǎng)絡(luò)。

上面列出的這些不同選項(xiàng)之間有一些區(qū)別,但一般來(lái)說(shuō),當(dāng)我們加快網(wǎng)絡(luò)的處理時(shí)間時(shí),我們往往會(huì)犧牲模型的準(zhǔn)確性。

區(qū)域建議機(jī)制的主要問(wèn)題是,如果建議的區(qū)域不包含物體,那么你的分類網(wǎng)絡(luò)也會(huì)去分類這個(gè)區(qū)域,并給出一個(gè)錯(cuò)誤的標(biāo)記。

那么,什么是Objectness?

Objectness本質(zhì)上是物體存在于感興趣區(qū)域內(nèi)的概率的度量。如果我們Objectness很高,這意味著圖像窗口可能包含一個(gè)物體。這允許我們快速地刪除不包含任何物體的圖像窗口。

如果一幅圖像具有較高的Objectness,我們期望它具有:

在整個(gè)圖像中具有唯一性

物體周圍有嚴(yán)格的邊界

與周圍環(huán)境的外觀不同

例如,在上面的圖像中,我們期望紅色框具有較低的Objectness,藍(lán)色框具有中等的Objectness,綠色框具有較高的Objectness。這是因?yàn)榫G色的框“緊密”地圍繞著我們的物體,而藍(lán)色的框則很松散,而紅色的框根本不包含任何物體。

我們?nèi)绾味攘縊bjectness?

有大量的參數(shù)影響圖像窗口的objectness。

多尺度顯著性:這本質(zhì)上是對(duì)圖像窗口的外觀獨(dú)特性的度量。與整個(gè)圖像相比,框中唯一性像素的密度越高,該值就越高。

顏色對(duì)比度:框內(nèi)像素與建議圖像窗口周圍區(qū)域的顏色對(duì)比度越大,該值越大。

邊緣密度:我們定義邊緣為物體的邊界,這個(gè)值是圖像窗口邊界附近的邊緣的度量值。一個(gè)有趣的算法可以找到這些邊緣:https://cv-tricks.com/opencv-dnn/edge-detection-hed/。

超像素跨越:我們定義超像素是幾乎相同顏色的像素團(tuán)。如果該值很高,則框內(nèi)的所有超像素只包含在其邊界內(nèi)。

超像素區(qū)域以不同顏色顯示。請(qǐng)注意,框內(nèi)的超像素大部分不會(huì)泄漏到圖像窗口之外。因此,這個(gè)“超素跨界”值將會(huì)很高。

以上參數(shù)值越高,objectness越高。試著將上述參數(shù)與我們前面列出的具有高objectness的圖像的期望聯(lián)系起來(lái)。

英文原文:https://medium.com/@zhao.nathan/understanding-objectness-in-object-detection-models-5d8c9d032488
本文轉(zhuǎn)自:AI公園,作者:Nathan Zhao,編譯:ronghuaiyang,
轉(zhuǎn)載此文目的在于傳遞更多信息,版權(quán)歸原作者所有。

審核編輯:何安

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 物體檢測(cè)
    +關(guān)注

    關(guān)注

    0

    文章

    8

    瀏覽量

    9288
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】在 VisionFive 2 上為目標(biāo)檢測(cè)準(zhǔn)備軟件環(huán)境并運(yùn)行 MobileNet-SSD 模型

    目標(biāo): 本教程將實(shí)現(xiàn)在 StarFive VisionFive 2 開發(fā)板上為目標(biāo)檢測(cè)應(yīng)用準(zhǔn)備所需軟件環(huán)境,并最終運(yùn)行一個(gè)基于 MobileNet-SSD 的目標(biāo)
    發(fā)表于 07-10 19:51

    基于LockAI視覺(jué)識(shí)別模塊:C++目標(biāo)檢測(cè)

    /LockzhinerAI/LockzhinerVisionModule/tree/master/Cpp_example/D01_test_detection 1. 基礎(chǔ)知識(shí)講解 1.1 目標(biāo)檢測(cè)的基本介紹
    發(fā)表于 06-06 14:43

    基于LockAI視覺(jué)識(shí)別模塊:C++目標(biāo)檢測(cè)

    本文檔基于瑞芯微RV1106的LockAI凌智視覺(jué)識(shí)別模塊,通過(guò)C++語(yǔ)言做的目標(biāo)檢測(cè)實(shí)驗(yàn)。本文檔展示了如何使用lockzhiner_vision_module::PaddleDet類進(jìn)行目標(biāo)
    的頭像 發(fā)表于 06-06 13:56 ?219次閱讀
    基于LockAI視覺(jué)識(shí)別模塊:C++<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b>

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類、obb

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    軒轅智駕紅外目標(biāo)檢測(cè)算法在汽車領(lǐng)域的應(yīng)用

    在 AI 技術(shù)蓬勃發(fā)展的當(dāng)下,目標(biāo)檢測(cè)算法取得了重大突破,其中紅外目標(biāo)檢測(cè)算法更是在汽車行業(yè)掀起了波瀾壯闊的變革,從根本上重塑著汽車的安全性能、駕駛體驗(yàn)與產(chǎn)業(yè)生態(tài)。
    的頭像 發(fā)表于 03-27 15:55 ?428次閱讀

    如何使用OpenVINO?運(yùn)行對(duì)象檢測(cè)模型?

    無(wú)法確定如何使用OpenVINO?運(yùn)行對(duì)象檢測(cè)模型
    發(fā)表于 03-06 07:20

    AI Cube進(jìn)行yolov8n模型訓(xùn)練,創(chuàng)建項(xiàng)目目標(biāo)檢測(cè)時(shí)顯示數(shù)據(jù)集目錄下存在除標(biāo)注和圖片外的其他目錄如何處理?

    AI Cube進(jìn)行yolov8n模型訓(xùn)練 創(chuàng)建項(xiàng)目目標(biāo)檢測(cè)時(shí)顯示數(shù)據(jù)集目錄下存在除標(biāo)注和圖片外的其他目錄怎么解決
    發(fā)表于 02-08 06:21

    采用華為云 Flexus 云服務(wù)器 X 實(shí)例部署 YOLOv3 算法完成目標(biāo)檢測(cè)

    一、前言 1.1 開發(fā)需求 這篇文章講解:?采用華為云最新推出的 Flexus 云服務(wù)器 X 實(shí)例部署 YOLOv3 算法,完成圖像分析、目標(biāo)檢測(cè)。 隨著計(jì)算機(jī)視覺(jué)技術(shù)的飛速發(fā)展,深度學(xué)習(xí)模型
    的頭像 發(fā)表于 01-02 12:00 ?544次閱讀
    采用華為云 Flexus 云服務(wù)器 X 實(shí)例部署 YOLOv3 算法完成<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b>

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    以及邊緣計(jì)算能力的增強(qiáng),越來(lái)越多的目標(biāo)檢測(cè)應(yīng)用開始直接在靠近數(shù)據(jù)源的邊緣設(shè)備上運(yùn)行。這不僅減少了數(shù)據(jù)傳輸延遲,保護(hù)了用戶隱私,同時(shí)也減輕了云端服務(wù)器的壓力。然而,在邊緣端部署高效且準(zhǔn)確的目標(biāo)
    發(fā)表于 12-19 14:33

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    1簡(jiǎn)介人工智能圖像識(shí)別是人工智能領(lǐng)域的一個(gè)重要分支,它涉及計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)、機(jī)器學(xué)習(xí)等多個(gè)領(lǐng)域的知識(shí)和技術(shù)。圖像識(shí)別主要是處理具有一定復(fù)雜性的信息。計(jì)算機(jī)采用與人類類似的圖像識(shí)別原理,即對(duì)圖像
    的頭像 發(fā)表于 12-19 14:12 ?1372次閱讀
    AI<b class='flag-5'>模型</b>部署邊緣設(shè)備的奇妙之旅:<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b><b class='flag-5'>模型</b>

    YOLOv10自定義目標(biāo)檢測(cè)之理論+實(shí)踐

    概述 YOLOv10 是由清華大學(xué)研究人員利用 Ultralytics Python 軟件包開發(fā)的,它通過(guò)改進(jìn)模型架構(gòu)并消除非極大值抑制(NMS)提供了一種新穎的實(shí)時(shí)目標(biāo)檢測(cè)方法。這些優(yōu)化使得
    的頭像 發(fā)表于 11-16 10:23 ?1606次閱讀
    YOLOv10自定義<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b>之理論+實(shí)踐

    在樹莓派上部署YOLOv5進(jìn)行動(dòng)物目標(biāo)檢測(cè)的完整流程

    卓越的性能。本文將詳細(xì)介紹如何在性能更強(qiáng)的計(jì)算機(jī)上訓(xùn)練YOLOv5模型,并將訓(xùn)練好的模型部署到樹莓派4B上,通過(guò)樹莓派的攝像頭進(jìn)行實(shí)時(shí)動(dòng)物目標(biāo)檢測(cè)。 一、在電腦上訓(xùn)練YOLOv5
    的頭像 發(fā)表于 11-11 10:38 ?3724次閱讀
    在樹莓派上部署YOLOv5進(jìn)行動(dòng)物<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b>的完整流程

    目標(biāo)檢測(cè)中大物體的重要性

    導(dǎo)讀實(shí)驗(yàn)表明,對(duì)大型物體賦予更大的權(quán)重可以提高所有尺寸物體的檢測(cè)分?jǐn)?shù),從而整體提升目標(biāo)檢測(cè)器的性能(在COCOval2017數(shù)據(jù)集上使用InternImage-T模型,小物體
    的頭像 發(fā)表于 10-09 08:05 ?821次閱讀
    在<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b>中大物體的重要性

    【實(shí)操文檔】在智能硬件的大模型語(yǔ)音交互流程中接入RAG知識(shí)庫(kù)

    本帖最后由 jf_40317719 于 2024-9-29 17:13 編輯 智能硬件的語(yǔ)音交互接入大模型后可以直接理解自然語(yǔ)言內(nèi)容,但大模型作為一個(gè)語(yǔ)言模型,對(duì)專業(yè)領(lǐng)域知識(shí)
    發(fā)表于 09-29 17:12

    想要了解下大模型知識(shí)

    工作需要,想要了解一下大模型算力建設(shè)知識(shí)
    發(fā)表于 08-20 15:31