99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)技術(shù)在動(dòng)物檢測(cè)識(shí)別領(lǐng)域進(jìn)展

juying ? 來(lái)源:juying ? 作者:juying ? 2023-08-03 16:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

動(dòng)物目標(biāo)檢測(cè)識(shí)別已成為畜牧業(yè)的組成部分,是實(shí)現(xiàn)現(xiàn)代精細(xì)化科學(xué)畜牧業(yè)的必由之路。在智慧畜牧中,可做到及時(shí)檢測(cè)動(dòng)物目標(biāo),確定動(dòng)物個(gè)體身份并獲取相關(guān)信息,建立動(dòng)物個(gè)體檔案,為數(shù)字化管理和畜牧產(chǎn)品溯源提供信息支撐。

目前通常通過(guò)給動(dòng)物賦予一個(gè)獨(dú)特的標(biāo)識(shí)符或標(biāo)志來(lái)檢測(cè)識(shí)別動(dòng)物個(gè)體,常見(jiàn)方法是采用塑料耳標(biāo)或射頻識(shí)別設(shè)備來(lái)標(biāo)識(shí)動(dòng)物個(gè)體,但存在設(shè)備損壞/丟失、碰撞等外界干擾問(wèn)題。針對(duì)這一系列問(wèn)題,安徽大學(xué)互聯(lián)網(wǎng)學(xué)院攜手南陽(yáng)農(nóng)業(yè)職業(yè)學(xué)院、悉尼大學(xué)工學(xué)院,展開(kāi)了跨學(xué)科、專(zhuān)業(yè)的研究。

該研究基于計(jì)算機(jī)視覺(jué)技術(shù)的目標(biāo)檢測(cè)識(shí)別方法,借助其具有非接觸性和實(shí)用性等優(yōu)點(diǎn),基于目標(biāo)樣本的視覺(jué)特征(如形狀、紋理、顏色等),結(jié)合智能算法實(shí)現(xiàn)目標(biāo)檢測(cè)識(shí)別。動(dòng)物個(gè)體檢測(cè)識(shí)別的常用樣本圖像包括口鼻、面部、軀干等區(qū)域,并基于區(qū)域特征信息來(lái)實(shí)現(xiàn)個(gè)體檢測(cè)識(shí)別。

一、臉部檢測(cè)識(shí)別

基于深度學(xué)習(xí)的非接觸式動(dòng)物檢測(cè)識(shí)別能夠有效減輕畜牧場(chǎng)壓力并推動(dòng)精細(xì)化科學(xué)養(yǎng)殖業(yè)的發(fā)展。近期研究人員利用深度學(xué)習(xí)算法實(shí)現(xiàn)了豬、羊、牛等動(dòng)物臉部的無(wú)接觸高效檢測(cè)識(shí)別。

李向宇和李慧盈利用相似度較高的豬臉匹配數(shù)據(jù)集訓(xùn)練形變卷積神經(jīng)網(wǎng)絡(luò),得到形變后的豬臉數(shù)據(jù)集,并使用形變豬臉數(shù)據(jù)集對(duì)臉部特征點(diǎn)檢測(cè)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行微調(diào),得到豬臉特征點(diǎn)檢測(cè)模型,用該方法進(jìn)行豬臉特征點(diǎn)檢測(cè),錯(cuò)誤率僅為5.60%。

何嶼彤等在YOLOv3模型引入密連塊和SPP模塊,提出YOLOv3DBSPP模型來(lái)檢測(cè)識(shí)別豬只,實(shí)現(xiàn)了90.18%的平均精度,并且當(dāng)感興趣區(qū)域閾值為0.5、分類(lèi)概率閾值為0.1時(shí),模型的平均精度均值比YOLOv3模型高9.87%。

魏斌等將YOLOv3算法檢測(cè)到的羊臉作為個(gè)體識(shí)別的數(shù)據(jù),利用VGGFace模型訓(xùn)練后取得了64%左右的識(shí)別準(zhǔn)確率;選取正面羊臉作為輸入數(shù)據(jù)訓(xùn)練V提出了一種基于歐式空間度量的綿羊臉部檢測(cè)識(shí)別方法,利用自然環(huán)境下的羊臉圖像樣本對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,以實(shí)現(xiàn)非接觸式綿羊身份識(shí)別。

此外,其針對(duì)羊臉圖像中無(wú)效信息多、羊臉姿勢(shì)和角度差的問(wèn)題,提出羊臉檢測(cè)與校正方法,使綿羊面部區(qū)域?qū)R,最后利用SheepFaceNet實(shí)現(xiàn)羊臉的識(shí)別。Li等將Mobilenetv2與Vision Transformer結(jié)合,提出了一種名為MobileViTFace的羊臉檢測(cè)識(shí)別模型。該模型增強(qiáng)了模型提取細(xì)粒度特征的能力,并通過(guò)Transformer抑制背景信息的干擾,從而更有效地區(qū)分不同的羊臉。

Kumar等開(kāi)發(fā)了一種基于奶??诒菆D像樣本的個(gè)體識(shí)別深度學(xué)習(xí)網(wǎng)絡(luò)模型,采用CNN和深度信念網(wǎng)絡(luò)提取一組紋理特征并表示牛的口鼻圖像,通過(guò)堆疊降噪自動(dòng)編碼器技術(shù)對(duì)提取的圖像特征進(jìn)行編碼,優(yōu)于基于口鼻圖像數(shù)據(jù)庫(kù)識(shí)別牛的先進(jìn)方法。

二、整體及關(guān)鍵區(qū)域檢測(cè)識(shí)別

在智慧畜牧領(lǐng)域中,進(jìn)一步對(duì)動(dòng)物整體以及關(guān)鍵區(qū)域的檢測(cè)識(shí)別將有利于更深層次的挖掘動(dòng)物信息,比如腿部與軀干間的位置關(guān)系,腿部間的相對(duì)關(guān)系等,可以反映出動(dòng)物健康信息,而基于深度學(xué)習(xí)在這一方面的信息挖掘研究仍需進(jìn)一步探索。Qiao等提出了一種基于圖像序列的肉牛個(gè)體識(shí)別的深度學(xué)習(xí)模型。通過(guò)CNN網(wǎng)絡(luò)從圖像序列中提取視覺(jué)特征,然后將這些提取的特征用于訓(xùn)練LSTM以捕獲時(shí)空信息并識(shí)別牛只個(gè)體,在15幀和20幀視頻長(zhǎng)度上分別達(dá)到了88%和91%的準(zhǔn)確率。

何東健等提出了一種改進(jìn)的YOLOv3模型用于奶牛個(gè)體識(shí)別,在奶牛背部圖像數(shù)據(jù)集中改進(jìn)的YOLOv3模型的奶牛個(gè)體識(shí)別準(zhǔn)確率為95.91%,平均幀率為32 f/s,可快速識(shí)別奶牛個(gè)體。Hu等采用YOLO模型從原始圖像中檢測(cè)并分割出奶牛區(qū)域,并將檢測(cè)到的奶牛對(duì)象分割成三個(gè)部分,即頭部、軀干和腿部,通過(guò)訓(xùn)練三個(gè)獨(dú)立的CNN網(wǎng)絡(luò)從這三個(gè)部分中提取深層特征,并設(shè)計(jì)了特征融合模型獲取最終特征,最后通過(guò)支持向量機(jī)分類(lèi)器來(lái)識(shí)別每一頭奶牛,實(shí)現(xiàn)了98.36%的奶牛識(shí)別準(zhǔn)確率。

Jiang等提出了一種FLYOLOv3深度學(xué)習(xí)框架,實(shí)現(xiàn)了復(fù)雜場(chǎng)景下奶牛個(gè)體關(guān)鍵區(qū)域的檢測(cè)(如軀干、腿和頭部),并在白天和夜間數(shù)據(jù)集上進(jìn)行了驗(yàn)證,均取得了較好的檢測(cè)結(jié)果。

三、無(wú)人機(jī)圖像目標(biāo)檢測(cè)

放牧養(yǎng)殖的畜牧場(chǎng)地由于活動(dòng)范圍較大,往往使用無(wú)人機(jī)航拍并監(jiān)測(cè)牲畜活動(dòng)信息。而基于UAV的動(dòng)物監(jiān)測(cè),雖然目前UAV硬件處理速度得到很大地改善,但算法性能仍會(huì)影響基于UAV實(shí)時(shí)檢測(cè)的效果,而深度學(xué)習(xí)可以滿足這一需求。

Andrew等首先在無(wú)人機(jī)航拍視頻數(shù)據(jù)基礎(chǔ)上,通過(guò)區(qū)域卷積神經(jīng)網(wǎng)絡(luò)R-CNN和核相關(guān)濾波算法實(shí)現(xiàn)荷斯坦奶牛的個(gè)體檢測(cè)和跟蹤,再通過(guò)Inception V3-LSTM網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)奶牛的個(gè)體識(shí)別,最終識(shí)別準(zhǔn)確率為98.1%。Shao等和Barbedo等通過(guò)CNN網(wǎng)絡(luò)模型在UAV圖像上實(shí)現(xiàn)了奶牛的目標(biāo)檢測(cè)和個(gè)數(shù)統(tǒng)計(jì)。

以上研究表明,深度學(xué)習(xí)技術(shù)應(yīng)用于UAV圖像的目標(biāo)檢測(cè)識(shí)別是可行的,且將深度學(xué)習(xí)技術(shù)應(yīng)用于其他硬件設(shè)備(機(jī)器人、地面車(chē)輛等)構(gòu)建智能化監(jiān)測(cè)系統(tǒng)也是未來(lái)發(fā)展的主要趨勢(shì)之一。

四、小結(jié)

盡管深度學(xué)習(xí)技術(shù)已經(jīng)在動(dòng)物檢測(cè)識(shí)別領(lǐng)域取得進(jìn)展,但仍存在一些問(wèn)題,比如缺乏基準(zhǔn)數(shù)據(jù)集和評(píng)估標(biāo)準(zhǔn)。由于研究使用的數(shù)據(jù)集、預(yù)處理技術(shù)、指標(biāo)和模型不同,因此對(duì)現(xiàn)有方法進(jìn)行比較得到的結(jié)果并不完全合理。具體來(lái)說(shuō),目標(biāo)檢測(cè)的結(jié)果好壞與樣本有直接關(guān)系,對(duì)于樣本中只包含單個(gè)個(gè)體或目標(biāo)相對(duì)比較突出時(shí),目標(biāo)檢測(cè)以及個(gè)體識(shí)別準(zhǔn)確率高,但目標(biāo)區(qū)域檢測(cè)和特征提取方法的選擇也會(huì)直接影響最終的檢測(cè)結(jié)果,且外界環(huán)境(光照強(qiáng)度、遮擋等)以及拍攝角度和圖像質(zhì)量都會(huì)影響檢測(cè)結(jié)果。

故通過(guò)多角度構(gòu)建樣本集來(lái)實(shí)現(xiàn)目標(biāo)檢測(cè)與個(gè)體識(shí)別仍需要進(jìn)一步探索。例如基于臉部的個(gè)體識(shí)別研究,大多數(shù)數(shù)據(jù)集是臉正面拍攝的圖像,然而頭部也會(huì)呈現(xiàn)多角度的情況,且實(shí)際需求中更希望在現(xiàn)場(chǎng)或遠(yuǎn)程監(jiān)控視頻時(shí),隨機(jī)抓取一幅圖像即可檢測(cè)并識(shí)別牛只個(gè)體,以及個(gè)體其他的相關(guān)信息。因此,需要構(gòu)建更為復(fù)雜的樣本集(多角度、晝夜)等來(lái)模擬實(shí)際飼養(yǎng)中的場(chǎng)景,構(gòu)建可應(yīng)用于不同場(chǎng)景的智能算法,并進(jìn)一步開(kāi)發(fā)高效精準(zhǔn)及方便操作的檢測(cè)與識(shí)別系統(tǒng)。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    樹(shù)莓派5上使用YOLO進(jìn)行物體和動(dòng)物識(shí)別-入門(mén)指南

    大家好,接下來(lái)會(huì)為大家開(kāi)一個(gè)樹(shù)莓派5和YOLO的專(zhuān)題。內(nèi)容包括四個(gè)部分:樹(shù)莓派5上使用YOLO進(jìn)行物體和動(dòng)物識(shí)別-入門(mén)指南樹(shù)莓派5上開(kāi)啟YOLO人體姿態(tài)估計(jì)
    的頭像 發(fā)表于 07-17 17:16 ?171次閱讀
    <b class='flag-5'>在</b>樹(shù)莓派5上使用YOLO進(jìn)行物體和<b class='flag-5'>動(dòng)物</b><b class='flag-5'>識(shí)別</b>-入門(mén)指南

    無(wú)人機(jī)AI視覺(jué)識(shí)別系統(tǒng)智慧農(nóng)業(yè)領(lǐng)域深度應(yīng)用

    ? ? ? ?無(wú)人機(jī)AI視覺(jué)識(shí)別系統(tǒng)智慧農(nóng)業(yè)領(lǐng)域深度應(yīng)用 ? ? ? ?無(wú)人機(jī)AI視覺(jué)識(shí)別系統(tǒng)
    的頭像 發(fā)表于 06-27 10:57 ?171次閱讀

    深度學(xué)習(xí)賦能:正面吊車(chē)載箱號(hào)識(shí)別系統(tǒng)的核心技術(shù)

    現(xiàn)代物流與智慧港口建設(shè)中,集裝箱的高效精準(zhǔn)識(shí)別是提升作業(yè)效率的關(guān)鍵環(huán)節(jié)?;贠CR+AI深度學(xué)習(xí)技術(shù)的正面吊車(chē)載箱號(hào)
    的頭像 發(fā)表于 05-07 10:10 ?209次閱讀

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度
    的頭像 發(fā)表于 02-14 11:15 ?542次閱讀

    語(yǔ)音識(shí)別技術(shù)醫(yī)療領(lǐng)域的應(yīng)用

    語(yǔ)音識(shí)別技術(shù)醫(yī)療領(lǐng)域的應(yīng)用已經(jīng)越來(lái)越廣泛,為醫(yī)療服務(wù)帶來(lái)了諸多便利和效率提升。以下是對(duì)語(yǔ)音識(shí)別技術(shù)
    的頭像 發(fā)表于 11-26 09:35 ?1220次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來(lái)多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是圖像識(shí)別
    的頭像 發(fā)表于 11-15 14:52 ?860次閱讀

    NPU深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing
    的頭像 發(fā)表于 11-14 15:17 ?1936次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像
    的頭像 發(fā)表于 10-27 11:13 ?1393次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)自動(dòng)駕駛、無(wú)人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度
    的頭像 發(fā)表于 10-27 10:57 ?1076次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    人類(lèi)的學(xué)習(xí)過(guò)程,實(shí)現(xiàn)對(duì)復(fù)雜數(shù)據(jù)的學(xué)習(xí)識(shí)別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計(jì)算資源來(lái)進(jìn)行訓(xùn)練和推理。深度學(xué)習(xí)算法為AI大模型
    的頭像 發(fā)表于 10-23 15:25 ?2909次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    中的性能和效率。同時(shí),也可能會(huì)出現(xiàn)一些新的基于 FPGA 的深度學(xué)習(xí)算法創(chuàng)新,拓展其應(yīng)用領(lǐng)域。 ? 應(yīng)用領(lǐng)域的拓展:除了圖像
    發(fā)表于 09-27 20:53

    深度識(shí)別算法包括哪些內(nèi)容

    :CNN是深度學(xué)習(xí)中處理圖像和視頻等具有網(wǎng)格結(jié)構(gòu)數(shù)據(jù)的主要算法。它通過(guò)卷積層、池化層和全連接層等組件,實(shí)現(xiàn)對(duì)圖像特征的自動(dòng)提取和識(shí)別。 應(yīng)用領(lǐng)域 :CNN
    的頭像 發(fā)表于 09-10 15:28 ?847次閱讀

    深度識(shí)別人臉識(shí)別有什么重要作用嗎

    深度學(xué)習(xí)人臉識(shí)別技術(shù)是人工智能領(lǐng)域的一個(gè)重要分支,它利用深度
    的頭像 發(fā)表于 09-10 14:55 ?1149次閱讀

    深度識(shí)別人臉識(shí)別在任務(wù)中為什么有很強(qiáng)大的建模能力

    深度學(xué)習(xí)人臉識(shí)別技術(shù)是人工智能領(lǐng)域中的一個(gè)重要分支,它利用深度
    的頭像 發(fā)表于 09-10 14:53 ?846次閱讀

    深度識(shí)別與多目標(biāo)識(shí)別傳感器的區(qū)別

    深度識(shí)別與多目標(biāo)識(shí)別是兩個(gè)計(jì)算機(jī)視覺(jué)和傳感器技術(shù)領(lǐng)域中非常重要的概念。它們自動(dòng)駕駛、機(jī)器人導(dǎo)
    的頭像 發(fā)表于 09-10 14:52 ?811次閱讀