99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

物件檢測(cè)進(jìn)行模型訓(xùn)練的詳細(xì)步驟

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2022-05-13 10:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

當(dāng)前面的準(zhǔn)備工作都已妥善之后,就可以進(jìn)入模型訓(xùn)練的步驟,后面的工作就是計(jì)算設(shè)備的事情了。

4、 執(zhí)行 TAO 模型訓(xùn)練:

TAO 工具提供提供 QAT (Quantize Aware Training) 量化感知的訓(xùn)練模式,不過(guò)目前 QAT 效果還在驗(yàn)證當(dāng)中,倒也不急于使用,因此我們還是以標(biāo)準(zhǔn)模式來(lái)訓(xùn)練,就是將配置文件中 training_config 設(shè)置組的 “enable_qat” 參數(shù)設(shè)為 “false” 就行,然后直接執(zhí)行指令塊的命令,TAO 就會(huì)啟動(dòng)視覺(jué)類容器來(lái)執(zhí)行模型訓(xùn)練任務(wù)。

這里提供兩組執(zhí)行訓(xùn)練所花費(fèi)的時(shí)間參考數(shù)據(jù):

  • NVIDIA Qudra RTX A4000/16GB 顯存:48 秒/回合

  • NVIDIA RTX-2070/16GB 顯存:67 秒/回合

  • 兩張卡一起訓(xùn)練:40秒/回合

為了更有效率地執(zhí)行,我們可以在training_config設(shè)置組里添加 “checkpoint_interval: 10” 參數(shù),這樣每 10 回合生成一個(gè)中間文件,這樣能節(jié)省大約 7GB 的空間?,F(xiàn)在檢查一下所生成的中間模型文件,如下圖所示總共 8 個(gè)。

e7b9fa68-d055-11ec-bce3-dac502259ad0.png

接下去我們看看這 8 個(gè)模型的訓(xùn)練效果如何,因?yàn)榈锰粢粋€(gè)精確度 (mAP) 最好的文件,進(jìn)行后面的修剪任務(wù)。

通常越后面的模型 mAP 值越高,但這不是絕對(duì)的,最好是有明確的數(shù)據(jù)來(lái)做依據(jù),才是比較科學(xué)的態(tài)度。在 experiment_dir_unpruned/ssd_training_log_resnet18.csv 提供這些記錄,右鍵點(diǎn)擊文件 -> Open With-> CSVTable 之后,就會(huì)看到如下圖的內(nèi)容。

e7f135aa-d055-11ec-bce3-dac502259ad0.png

表中可以看到,越下面模型的 mAP 值越高,這樣就能明確的選擇 “epoch_080” 的模型來(lái)進(jìn)行后續(xù)工作,記得在 “%set_env EPOCH=” 后面填入?yún)?shù)值,例如要選擇第 80 回合的模型文件,就輸入 “080”,然后繼續(xù)往下進(jìn)行。

5、評(píng)估模型好的訓(xùn)練:

這個(gè)步驟的目的是為了確認(rèn)模型是否符合要求?有時(shí)候可能效果最好的模型,效果還未達(dá)到預(yù)期目標(biāo),如果是這樣的話,就得回到第 4 步驟,以前面找到效果最好的模型,作為遷移選項(xiàng)的預(yù)訓(xùn)練模型,就是將配置文件的 training_config 設(shè)置組的 “pretrain_model_path” 改成 ssd_resnet18_epoch_080.tlt 的完整路徑,然后再做 80 回合的訓(xùn)練。

執(zhí)行評(píng)估效果的結(jié)構(gòu)在本指令塊輸出的最下方,如下圖所示。

e82abc8a-d055-11ec-bce3-dac502259ad0.png

比對(duì)一下這里顯示的精準(zhǔn)度,與前面 ssd_training_log_resnet18.csv 記錄的結(jié)果是相同的,其實(shí)這個(gè)步驟是有點(diǎn)冗余,可以忽略!

6、修剪模型:

如果您的模型要放在計(jì)算資源充沛的設(shè)備上執(zhí)行推理的話,其實(shí)后面的步驟是可以省略的,因此修剪模型的目的,是要在精確度維持水平的基礎(chǔ)上將模型進(jìn)行優(yōu)化,這對(duì) Jetson 這類計(jì)算資源吃緊的邊緣設(shè)備來(lái)說(shuō)就非常重要,因?yàn)檫@對(duì)推理性能有很大的影響,因此要看您所需要執(zhí)行推理的設(shè)備是什么,再?zèng)Q定是否要進(jìn)行修剪。

每個(gè)神經(jīng)網(wǎng)絡(luò)都有各自的修剪重點(diǎn),必須找到對(duì)應(yīng)的說(shuō)明文件,例如這里對(duì)ssd進(jìn)行修剪,請(qǐng)?jiān)L問(wèn)https://docs.nvidia.com/tao/tao-toolkit/text/object_detection/ssd.html,在里面的 “Pruning the Model” 有非常詳細(xì)的參數(shù)說(shuō)明。

TAO 提供以下 6 種模型修剪的方式,設(shè)定值的粗體字為預(yù)設(shè)值

  • 標(biāo)準(zhǔn)化器 (normalizer):使用參數(shù) -n,設(shè)定值為 “max/L2”;

  • 均衡器 (equalization_criterion):使用參數(shù) -eq,設(shè)定值為 “union/ intersection/ arithmetic_mean/geometric_mean”;

  • 修剪粒度 (pruning_granularity):使用參數(shù) -pq,設(shè)定值為正整數(shù),預(yù)設(shè)值為 8;

  • 修剪閾值 (pruning threshold):使用參數(shù) -pth,設(shè)定值為小于 1 的浮點(diǎn)數(shù),預(yù)設(shè)值為 0.1;

  • 最小數(shù)量過(guò)濾器 (min_num_filters):使用參數(shù) -nf,設(shè)定值為正整數(shù),預(yù)設(shè)值為 16

  • 排除層 (excluded_layers):使用參數(shù) -el,設(shè)定值為正整數(shù),預(yù)設(shè)值為空值(不排除)。

在大家還不熟悉這些參數(shù)用法時(shí),最簡(jiǎn)單的方法就是調(diào)整閾值 (-pth) 的大小去找到平衡點(diǎn),通常這個(gè)值越高就會(huì)損失較大的精度值,模型也會(huì)比較更小大。參數(shù)預(yù)設(shè)值為 0.1,差不多達(dá)0.3 已經(jīng)是極限,再大可能就會(huì)讓精準(zhǔn)度低于一般要求。

這個(gè)步驟會(huì)用到 ssd_train_resnet18_kitti.txt 配置文件,修剪完的模型會(huì)存放在 -o參數(shù)所指定的目錄,這里是“$USER_EXPERIMENT_DIR/experiment_dir_pruned”,輸出的模型文件名為 “ssd_resnet18_pruned.tlt”,后面的“重新訓(xùn)練剪裁模型”步驟,就會(huì)以這個(gè)文件作為遷移學(xué)習(xí)的訓(xùn)練基礎(chǔ)。

這個(gè)修剪過(guò)的模型文件還不能作為部署用途,還得經(jīng)過(guò)下個(gè)步驟去重新訓(xùn)練之后,是我們最終所需要的版本。

7、重新訓(xùn)練修剪過(guò)的模型:

這個(gè)步驟與前面的模型訓(xùn)練幾乎是一樣的,唯一不同的地方就是前面以 NCG 下載的 resnet_18.hdf5 為基礎(chǔ)導(dǎo)入遷移學(xué)習(xí)的功能,這里是以 ssd_resnet18_pruned.tlt 這個(gè)修剪過(guò)的文件為基礎(chǔ),同樣用最前面的數(shù)據(jù)集進(jìn)行訓(xùn)練。

以這個(gè)項(xiàng)目為例,未剪裁模型的大小為 101.7MB,用閾值為 0.1 所剪裁的重新訓(xùn)練模型大小只剩 22.5MB、閾值為 0.3 所剪裁的模型大小只剩 9.8MB。重新訓(xùn)練后同樣會(huì)生成很多模型文件,同樣查看 experiment_dir_retrain 目錄下面的 ssd_training_log_resnet18.csv,挑出精度最好的一個(gè)準(zhǔn)備下個(gè)評(píng)估環(huán)節(jié)。

8、評(píng)價(jià)重新訓(xùn)練的模型:

與前面的評(píng)估方式一樣,找到效果最好的一個(gè),然后將數(shù)值填入 “%set_envEPOCH=” 里,準(zhǔn)備在訓(xùn)練設(shè)備上測(cè)試一下推理的效果。

如果修剪后重新訓(xùn)練的模型精度與未修剪的相差不多,這個(gè)模型就可以用來(lái)作為后面的推理測(cè)試,如果精度差距較大,就得回到第 6 步驟重新執(zhí)行修剪工作與第 7 步驟重新訓(xùn)練,一直到獲得滿意精度的模型為止。

原文標(biāo)題:NVIDIA Jetson Nano 2GB 系列文章(62):物件檢測(cè)的模型訓(xùn)練與優(yōu)化-2

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5309

    瀏覽量

    106430
  • TAO
    TAO
    +關(guān)注

    關(guān)注

    0

    文章

    10

    瀏覽量

    7062
  • 模型訓(xùn)練
    +關(guān)注

    關(guān)注

    0

    文章

    20

    瀏覽量

    1456

原文標(biāo)題:NVIDIA Jetson Nano 2GB 系列文章(62):物件檢測(cè)的模型訓(xùn)練與優(yōu)化-2

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    請(qǐng)問(wèn)嘉楠平臺(tái)k230訓(xùn)練的跌倒檢測(cè)模型里面的設(shè)置是怎么樣的?

    我想要了解K230所使用的跌倒檢測(cè)模型中的設(shè)置,例如人體檢測(cè)是如何實(shí)現(xiàn)的,在模型檢測(cè)中,人體的節(jié)點(diǎn)是多少?;蛘呦胝?qǐng)教一下相關(guān)的文檔或者內(nèi)容在
    發(fā)表于 06-23 07:05

    訓(xùn)練模型后用cls_video.py在canmvIDE上運(yùn)行,按著步驟操作但是攝像頭沒(méi)有識(shí)別到是什么情況?

    訓(xùn)練模型后用cls_video.py在canmvIDE上運(yùn)行,按著步驟操作但是攝像頭沒(méi)有識(shí)別到是什么情況啊,沒(méi)有框出現(xiàn)
    發(fā)表于 06-10 06:57

    請(qǐng)問(wèn)如何在imx8mplus上部署和運(yùn)行YOLOv5訓(xùn)練模型?

    我正在從事 imx8mplus yocto 項(xiàng)目。我已經(jīng)在自定義數(shù)據(jù)集上的 YOLOv5 上訓(xùn)練了對(duì)象檢測(cè)模型。它在 ubuntu 電腦上運(yùn)行良好?,F(xiàn)在我想在我的 imx8mplus 板上運(yùn)行該
    發(fā)表于 03-25 07:23

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過(guò)大,有無(wú)解決方案?
    發(fā)表于 03-11 07:18

    使用OpenVINO?訓(xùn)練擴(kuò)展對(duì)水平文本檢測(cè)模型進(jìn)行微調(diào),收到錯(cuò)誤信息是怎么回事?

    已針對(duì)水平文本檢測(cè)模型運(yùn)行OpenVINO?訓(xùn)練擴(kuò)展中的 微調(diào) 步驟,并收到錯(cuò)誤消息: RuntimeError: Failed to find annotation files
    發(fā)表于 03-05 06:48

    AI Cube進(jìn)行yolov8n模型訓(xùn)練,創(chuàng)建項(xiàng)目目標(biāo)檢測(cè)時(shí)顯示數(shù)據(jù)集目錄下存在除標(biāo)注和圖片外的其他目錄如何處理?

    AI Cube進(jìn)行yolov8n模型訓(xùn)練 創(chuàng)建項(xiàng)目目標(biāo)檢測(cè)時(shí)顯示數(shù)據(jù)集目錄下存在除標(biāo)注和圖片外的其他目錄怎么解決
    發(fā)表于 02-08 06:21

    【「基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    集對(duì)模型進(jìn)行進(jìn)一步訓(xùn)練的過(guò)程。 大模型微調(diào)是利用預(yù)訓(xùn)練模型的權(quán)重和特征,通過(guò)在新任務(wù)數(shù)據(jù)集上的
    發(fā)表于 01-14 16:51

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    并非易事,它涉及到從選擇合適的算法架構(gòu)到針對(duì)特定硬件平臺(tái)進(jìn)行優(yōu)化等一系列復(fù)雜的工作。 接下來(lái),我們將詳細(xì)介紹如何在資源受限的邊緣設(shè)備上成功部署目標(biāo)檢測(cè)模型,探索其背后的原理和技術(shù),并討
    發(fā)表于 12-19 14:33

    AI大語(yǔ)言模型開(kāi)發(fā)步驟

    開(kāi)發(fā)一個(gè)高效、準(zhǔn)確的大語(yǔ)言模型是一個(gè)復(fù)雜且多階段的過(guò)程,涉及數(shù)據(jù)收集與預(yù)處理、模型架構(gòu)設(shè)計(jì)、訓(xùn)練與優(yōu)化、評(píng)估與調(diào)試等多個(gè)環(huán)節(jié)。接下來(lái),AI部落小編為大家詳細(xì)闡述AI大語(yǔ)言
    的頭像 發(fā)表于 12-19 11:29 ?901次閱讀

    什么是大模型、大模型是怎么訓(xùn)練出來(lái)的及大模型作用

    本文通俗簡(jiǎn)單地介紹了什么是大模型、大模型是怎么訓(xùn)練出來(lái)的和大模型的作用。 ? 什么是大模型模型
    的頭像 發(fā)表于 11-25 09:29 ?1.3w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓(xùn)練</b>出來(lái)的及大<b class='flag-5'>模型</b>作用

    在樹(shù)莓派上部署YOLOv5進(jìn)行動(dòng)物目標(biāo)檢測(cè)的完整流程

    卓越的性能。本文將詳細(xì)介紹如何在性能更強(qiáng)的計(jì)算機(jī)上訓(xùn)練YOLOv5模型,并將訓(xùn)練好的模型部署到樹(shù)莓派4B上,通過(guò)樹(shù)莓派的攝像頭
    的頭像 發(fā)表于 11-11 10:38 ?3728次閱讀
    在樹(shù)莓派上部署YOLOv5<b class='flag-5'>進(jìn)行</b>動(dòng)物目標(biāo)<b class='flag-5'>檢測(cè)</b>的完整流程

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語(yǔ)言模型(LLM)是一個(gè)復(fù)雜且資源密集的過(guò)程,涉及到大量的數(shù)據(jù)、計(jì)算資源和專業(yè)知識(shí)。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)
    的頭像 發(fā)表于 11-08 09:30 ?1528次閱讀

    PyTorch GPU 加速訓(xùn)練模型方法

    在深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時(shí)間的重要手段。PyTorch作為一個(gè)流行的深度學(xué)習(xí)框架,提供了豐富的工具和方法來(lái)利用GPU
    的頭像 發(fā)表于 11-05 17:43 ?1413次閱讀

    如何訓(xùn)練自己的AI大模型

    訓(xùn)練自己的AI大模型是一個(gè)復(fù)雜且耗時(shí)的過(guò)程,涉及多個(gè)關(guān)鍵步驟。以下是一個(gè)詳細(xì)訓(xùn)練流程: 一、明確需求和目標(biāo) 首先,需要明確自己的需求和目標(biāo)
    的頭像 發(fā)表于 10-23 15:07 ?4995次閱讀

    如何訓(xùn)練ai大模型

    訓(xùn)練AI大模型是一個(gè)復(fù)雜且耗時(shí)的過(guò)程,涉及多個(gè)關(guān)鍵步驟和細(xì)致的考量。 一、數(shù)據(jù)準(zhǔn)備 1. 數(shù)據(jù)收集 確定數(shù)據(jù)類型 :根據(jù)模型的應(yīng)用場(chǎng)景,確定需要收集的數(shù)據(jù)類型,如文本、圖像、音頻等。
    的頭像 發(fā)表于 10-17 18:17 ?2641次閱讀