99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在您自己的圖像上運(yùn)行示例腳本,并對(duì)您有助于控制訓(xùn)練過程的一些選項(xiàng)作進(jìn)一步解釋

Tensorflowers ? 來源:未知 ? 作者:李倩 ? 2018-11-22 14:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

現(xiàn)代圖像識(shí)別模型具有數(shù)百萬個(gè)參數(shù)。從頭開始訓(xùn)練需要大量標(biāo)記的訓(xùn)練數(shù)據(jù)和大量計(jì)算能力(數(shù)百小時(shí) GPU 或更多)。遷移學(xué)習(xí)是一項(xiàng)通過采用在相關(guān)任務(wù)上經(jīng)過訓(xùn)練并在新模型中重復(fù)使用的一部分模型來快速實(shí)現(xiàn)這一目標(biāo)的技術(shù)。在本教程中,我們將重用 ImageNet 上訓(xùn)練的強(qiáng)大圖像分類器的特征提取功能,并簡(jiǎn)單地在頂部訓(xùn)練新的分類層。有關(guān)該方法的更多信息,您可以到 Decaf 上閱讀這篇論文(https://arxiv.org/abs/1310.1531)。

盡管這種方法無法與訓(xùn)練整個(gè)模型相提并論,但對(duì)于許多應(yīng)用來說已經(jīng)有著出奇制勝的效果,特別對(duì)適量的訓(xùn)練數(shù)據(jù)有效(數(shù)千,而非數(shù)百萬標(biāo)記的圖像),且無需 GPU, 就可以在筆記本電腦上運(yùn)行 30 分鐘。本教程將向您展示如何在您自己的圖像上運(yùn)行示例腳本,并對(duì)您有助于控制訓(xùn)練過程的一些選項(xiàng)作進(jìn)一步解釋。

注意:本教程的一個(gè)版本也可作為 codelab 使用。

本教程使用 TensorFlow Hub 來調(diào)用預(yù)先訓(xùn)練過的模型或模塊。對(duì)于初學(xué)者,我們將使用具有在 ImageNet 上訓(xùn)練的 Inception V3 架構(gòu)的圖像特征提取模塊,并稍后返回其他選項(xiàng),包括 NASNet / PNASNet,以及MobileNet V1 和 V2。

在開始之前,您需要安裝 PIP 包 tensorflow-hub 以及最新版本的 TensorFlow。有關(guān)詳細(xì)信息,請(qǐng)參閱 TensorFlow Hub 的安裝說明(https://tensorflow.google.cn/hub/installation?hl=zh-CN)。

花卉訓(xùn)練

圖片來自 Kelly Sikkema

任何訓(xùn)練在開始之前,需要一組圖像來向網(wǎng)絡(luò)傳授您想要識(shí)別的新類別。本文后半部分會(huì)介紹該如何準(zhǔn)備自己的圖像,但為了方便起見,我們創(chuàng)建了一個(gè)關(guān)于經(jīng)許可的花卉照片的知識(shí)共享檔案,以便初始使用。要獲取花卉照片集,請(qǐng)運(yùn)行以下命令:

cd ~curl -LO http://download.tensorflow.org/example_images/flower_photos.tgztar x*** flower_photos.tgz

獲得圖像后,可以從 GitHub 下載示例代碼(它不是庫安裝的一部分):

mkdir ~/example_codecd ~/example_codecurl -LO https://github.com/tensorflow/hub/raw/master/examples/image_retraining/retrain.py

在最簡(jiǎn)單的情況下,可以這樣運(yùn)行(大約需要半小時(shí)):

python retrain.py --image_dir ~/flower_photos

該腳本還有許多其他選項(xiàng)。 您可以通過以下方式獲得完整列表:

python retrain.py -h

此腳本加載預(yù)先訓(xùn)練的模塊,并在您下載的花卉照片的頂部訓(xùn)練一個(gè)新的分類器。在完整的網(wǎng)絡(luò)訓(xùn)練過程中,原始的 ImageNet 類別中并無任何花卉種類。遷移學(xué)習(xí)的神奇之處在于,經(jīng)過訓(xùn)練用來區(qū)分某些對(duì)象的較低層無需任何改動(dòng),就可以重復(fù)用于多種識(shí)別任務(wù)。

瓶頸

根據(jù)機(jī)器速度,腳本可能需要 30 分鐘或更久才能完成。第一階段分析磁盤上的所有映像,并計(jì)算和緩存每個(gè)映像的瓶頸值。“瓶頸” 是一個(gè)非正式術(shù)語,我們經(jīng)常在實(shí)際進(jìn)行分類的最終輸出層之前使用該層。(TensorFlow Hub 將其稱為 “圖像特征向量”)倒數(shù)第二層已經(jīng)過訓(xùn)練,可以輸出一組足夠好的值,分類器可以用它來區(qū)分要求識(shí)別的所有類。這就意味著它必須是一個(gè)有意義的,并且緊湊的圖像摘要,畢竟它必須包含足夠的信息,以便分類器在一組非常小的值中做出正確的選擇。我們?cè)谧詈笠粚拥脑儆?xùn)練可以在新類上運(yùn)行的原因是因?yàn)榻Y(jié)果表明,區(qū)分 ImageNet 中所有 1,000 個(gè)類所需的信息通常也可用于區(qū)分新類型的對(duì)象。

因?yàn)槊總€(gè)圖像在訓(xùn)練期間多次重復(fù)使用,并且計(jì)算每個(gè)瓶頸需要花費(fèi)大量時(shí)間,所以它會(huì)加速將這些瓶頸值緩存到磁盤上,因此不必反復(fù)重新計(jì)算它們。默認(rèn)情況下,它們存儲(chǔ)在 / tmp / bottleneck 目錄中,如果重新運(yùn)行腳本,它們將被重用,因此您無需在此部分上流連。

訓(xùn)練

一旦瓶頸完成,就開始對(duì)網(wǎng)絡(luò)頂層進(jìn)行實(shí)際訓(xùn)練。您將看到一系列步驟輸出,每一個(gè)步驟輸出均顯示訓(xùn)練的準(zhǔn)確性,并驗(yàn)證準(zhǔn)確度和交叉熵。訓(xùn)練準(zhǔn)確性顯示當(dāng)前訓(xùn)練批次中使用的圖像百分比標(biāo)記為正確的類別。驗(yàn)證準(zhǔn)確度是來自不同組的隨機(jī)選擇的圖像組的精度。關(guān)鍵的區(qū)別在于訓(xùn)練精度是基于網(wǎng)絡(luò)能夠?qū)W習(xí)的圖像,因此網(wǎng)絡(luò)可以過度擬合訓(xùn)練數(shù)據(jù)中的噪音。衡量網(wǎng)絡(luò)性能的真正標(biāo)準(zhǔn)是測(cè)量其在訓(xùn)練數(shù)據(jù)中未包含的數(shù)據(jù)集上的性能 - 這是通過驗(yàn)證準(zhǔn)確度來衡量的。如果訓(xùn)練精度高但驗(yàn)證精度仍然很低,則意味著網(wǎng)絡(luò)過度擬合并記住訓(xùn)練圖像中的特定特征,這些特征對(duì)于普遍情況來說可能并無用處。交叉熵是一種損失函數(shù),可以讓我們一瞥學(xué)習(xí)過程的進(jìn)展情況。訓(xùn)練的目標(biāo)是盡可能減少損失,因此您可以通過關(guān)注損失是否保持向下趨勢(shì)來判斷學(xué)習(xí)是否有效,忽略短暫的噪音。

默認(rèn)情況下,此腳本將運(yùn)行 4,000 個(gè)訓(xùn)練步驟。每個(gè)步驟從訓(xùn)練集中隨機(jī)選擇十個(gè)圖像,從緩存中找到它們的瓶頸,并將它們輸入到最后一層從而獲得預(yù)測(cè)。然后將這些預(yù)測(cè)與實(shí)際標(biāo)簽進(jìn)行比較,通過反向傳播過程更新最終層的權(quán)重。隨著過程的繼續(xù),您應(yīng)該看到報(bào)告的準(zhǔn)確度得到改善,并且在完成所有步驟之后,對(duì)與訓(xùn)練和驗(yàn)證圖片分開的一組圖像運(yùn)行最終測(cè)試準(zhǔn)確度評(píng)估。該測(cè)試評(píng)估是訓(xùn)練模型將如何在分類任務(wù)上執(zhí)行的最佳估計(jì)。您看到的準(zhǔn)確度值應(yīng)介于 90% 和 95% 之間,但是由于訓(xùn)練過程中的隨機(jī)性,準(zhǔn)確值會(huì)因批次不同而不同。此數(shù)字是基于完全訓(xùn)練模型后給定正確標(biāo)簽的測(cè)試集中圖像的百分比。

使用 TensorBoard 可視化再訓(xùn)練

該腳本包含 TensorBoard 摘要,使之更容易理解、調(diào)試和優(yōu)化再訓(xùn)練。例如,您可以將圖形和統(tǒng)計(jì)數(shù)據(jù)進(jìn)行可視化,諸如在訓(xùn)練期間權(quán)重或準(zhǔn)確度變化。

要啟動(dòng) TensorBoard,請(qǐng)?jiān)谥匦掠?xùn)練期間或之后運(yùn)行此命令:

tensorboard --logdir /tmp/retrain_logs

TensorBoard 運(yùn)行后,將 Web 瀏覽器導(dǎo)航到 localhost:6006 以查看 TensorBoard。

rewin.py 腳本默認(rèn)情況下會(huì)將 TensorBoard 摘要記錄到 / tmp / retrain_logs。您可以使用 --summaries_dir 標(biāo)志更改目錄。

TensorBoard 的 GitHub 存儲(chǔ)庫提供了有關(guān) TensorBoard 使用的更多信息,包括提示和技巧以及調(diào)試信息(https://github.com/tensorflow/tensorboard)。

使用再訓(xùn)練模型

該腳本能夠?qū)⒃谀念悇e上訓(xùn)練的新模型寫入 /tmp/output_graph.pb,并將包含標(biāo)簽的文本文件寫入 /tmp/output_labels.txt。新模型包含內(nèi)嵌的 TensorFlow Hub 模塊和新的分類層。這兩個(gè)文件都采用 C ++ 和 Python 圖像分類示例可以讀入的格式,因此您可以立即開始使用新模型。由于您已經(jīng)替換了頂層,因此您需要在腳本中指定新名稱,例如,如果您使用 label_image,則使用標(biāo)志 --output_layer = final_result。

這里有一個(gè)示例,向我們展示了如何使用重新訓(xùn)練的圖形運(yùn)行 label_image 示例。按照慣例,所有 TensorFlow Hub 模塊都接受具有固定范圍 [0,1] 中顏色值的圖像輸入,因此您無需設(shè)置 --input_mean 或 --input_std 標(biāo)志。

curl -LO https://github.com/tensorflow/tensorflow/raw/master/tensorflow/examples/label_image/label_image.pypython label_image.py --graph=/tmp/output_graph.pb --labels=/tmp/output_labels.txt --input_layer=Placeholder --output_layer=final_result --image=$HOME/flower_photos/daisy/21652746_cc379e0eea_m.jpg

您會(huì)看到一個(gè)花卉標(biāo)簽列表,大多數(shù)情況下頂部會(huì)有菊花(雖然每個(gè)重新訓(xùn)練的模型可能會(huì)略有不同)。您可以使用自己的圖像替換 --image 參數(shù)來嘗試。

如果您想在自己的 Python 程序中使用重新訓(xùn)練的模型,那么上面的 label_image 腳本是一個(gè)合理的起點(diǎn)。label_image 目錄還包含 C ++ 代碼,您可以將其用作模板,將 TensorFlow 與您自己的應(yīng)用程序集成。

如果您發(fā)現(xiàn)默認(rèn)的 Inception V3 模塊對(duì)于您的應(yīng)用程序來說太大或太慢,請(qǐng)查看下面的 “其他模型架構(gòu)” 部分,了解加快和縮小網(wǎng)絡(luò)的選項(xiàng)。

在您自己的類別上進(jìn)行訓(xùn)練

如果您已經(jīng)設(shè)法讓腳本處理花卉示例圖像,您就可以開始考慮教它來識(shí)別更喜歡的類別。理論上,您需要做的就是將其指向一組子文件夾,每個(gè)子文件夾以您的一個(gè)類別命名,并且僅包含該類別的圖像。如果您照做并將子目錄的根文件夾作為參數(shù)傳遞給 --image_dir,則腳本就會(huì)像對(duì)花卉一樣進(jìn)行訓(xùn)練。

以下是花卉存檔的文件夾結(jié)構(gòu),為您提供腳本正在尋找的布局類型示例:

實(shí)踐過程中,您想要獲得期待的準(zhǔn)確性,可能需要一些工作。我會(huì)嘗試引導(dǎo)您解決下面可能遇到的一些常見問題。

創(chuàng)建一套訓(xùn)練圖像

首先要看的是你收集的圖像,因?yàn)槲覀兺ㄟ^訓(xùn)練看到的最常見的問題來自于被輸入的數(shù)據(jù)。

為了使訓(xùn)練更好地運(yùn)作,您至少應(yīng)該收集一百張您想要識(shí)別的各種物體的照片。收集的照片越多,訓(xùn)練的模型的準(zhǔn)確性就越高。您還需要確保照片很好地代表了應(yīng)用程序?qū)嶋H接觸到的內(nèi)容。比方說,假如您的所有照片都是在室內(nèi)空白墻背景拍攝,而用戶試圖識(shí)別戶外的物體,則您在部署時(shí)可能無法看到很好的結(jié)果。

另一個(gè)需要避免的缺陷是,任何與標(biāo)記圖像相同的內(nèi)容會(huì)對(duì)學(xué)習(xí)過程產(chǎn)生影響,可能你稍有不慎就會(huì)獲得一些沒用的東西。比方說,如果您在藍(lán)色房間中拍攝一種物體,而另一種物體在綠色物體中拍攝,則模型最終會(huì)根據(jù)背景顏色進(jìn)行預(yù)測(cè),而不是您實(shí)際關(guān)注的物體的特征。為避免這種情況發(fā)生,請(qǐng)嘗試盡可能多地在不同時(shí)間和不同設(shè)備上拍攝照片。

您也許還想再考慮一下使用的類別。那么將大量不同物理形式的大類別劃分為更具視覺沖突力的小類別就非常值得。例如,您可以使用 “汽車”,“摩托車” 和 “卡車” 代替 “車輛”。同樣值得思考的是您是否有 “封閉世界” 或 “開放世界” 問題。在一個(gè)封閉的世界中,你唯一要求分類的東西就是你所知道的對(duì)象類別。這可能適用于您知道用戶可能正在拍攝花卉照片的植物識(shí)別應(yīng)用程序,因此您所要做的就是決定使用哪個(gè)物種。相比之下,漫游機(jī)器人在世界各地漫游時(shí)可以通過相機(jī)看到各式各樣的東西。在這種情況下,您應(yīng)該會(huì)希望分類器報(bào)告它無法確定看到的到底是什么,這恐怕很難,如果您經(jīng)常收集大量典型的 “背景” 照而其中并無相關(guān)對(duì)象,您可以將它們添加到圖像文件夾中的額外 “未知” 類。

還需要檢查來確保所有圖像都標(biāo)記正確。用戶生成的標(biāo)簽通常不能盡如我意。例如:標(biāo)記為 #daisy 的圖片也可能包含名為 Daisy 的人物和角色。如果您瀏覽圖像并清除所有錯(cuò)誤,那么整體將會(huì)出現(xiàn)奇跡般的準(zhǔn)確性。

訓(xùn)練步驟

如果您對(duì)圖像感到滿意,可以通過更改學(xué)習(xí)過程的詳細(xì)信息來了解改善結(jié)果的方法。最簡(jiǎn)單的嘗試是 --how_many_training_steps。默認(rèn)值為 4,000,但如果將其增加到 8,000,那么它將執(zhí)行雙倍的訓(xùn)練時(shí)間。提高準(zhǔn)確度會(huì)減緩你訓(xùn)練的時(shí)間,而且在某些節(jié)點(diǎn)會(huì)完全停止(甚至因過度擬合而出現(xiàn)故障),不過你可以嘗試一下,看看到底什么才是最適合你的模型。

扭曲

改善圖像訓(xùn)練結(jié)果的常用方法是以隨機(jī)方式使訓(xùn)練輸入變形,裁剪或增亮。對(duì)于相同圖像有著各種可能的變體的情況,這具有擴(kuò)展訓(xùn)練數(shù)據(jù)的有效尺寸的優(yōu)點(diǎn),并且傾向于幫助網(wǎng)絡(luò)學(xué)習(xí)應(yīng)對(duì)將在分類器的實(shí)際使用過程中產(chǎn)生的所有失真情況。在我們的腳本中啟用這些失真的最大缺點(diǎn)是瓶頸緩存失效,因?yàn)檩斎雸D像永遠(yuǎn)不會(huì)被完全地重用。這就意味著需要更長(zhǎng)的時(shí)間(很多小時(shí))的訓(xùn)練過程,因此建議您在擁有一個(gè)相當(dāng)滿意的模型作品之后,嘗試將此作為一種潤(rùn)飾模型的方法。

通過將 --random_crop, - random_scale和--random_brightness 傳遞給腳本來啟用這些失真。 這些都是控制每個(gè)圖像應(yīng)用失真的百分比值。該值從 5 或 10 開始是合理的,然后試驗(yàn)看看哪些值對(duì)您的應(yīng)用有幫助。 --flip_left_right 將水平地隨機(jī)鏡像一半的圖像,只要這些反轉(zhuǎn)有可能在您的應(yīng)用程序中發(fā)生,那么這就是有意義的。不過,如果你試圖識(shí)別英文字母,那么這就不是一個(gè)好主意,因?yàn)榉D(zhuǎn)之后這些含義將被破壞殆盡。

超參數(shù)

您可以嘗試調(diào)整其他幾個(gè)參數(shù),看看是否對(duì)結(jié)果有所幫助。 --learning_rate 控制訓(xùn)練期間最后一層更新的大小。 直觀地說,如果這比學(xué)習(xí)小,需要更長(zhǎng)的時(shí)間,但是它最終可以幫助提高整體精確度。不過也非盡然,因此需要您仔細(xì)研究,看看哪種方法更適用于您的情況。 --train_batch_size 控制在每個(gè)訓(xùn)練步驟中檢查的圖像數(shù)量,以估算最終圖層的更新。

訓(xùn)練,驗(yàn)證和測(cè)試集

當(dāng)您將腳本指向圖像文件夾時(shí),腳本所做的一件事就是將它們分成不同的三組。最大的通常是訓(xùn)練集,它們是訓(xùn)練期間饋入網(wǎng)絡(luò)的所有圖像,其結(jié)果用來更新模型的權(quán)重。 您也許想知道為什么我們不使用所有的圖像進(jìn)行訓(xùn)練? 當(dāng)我們進(jìn)行機(jī)器學(xué)習(xí)時(shí),有一個(gè)很大的潛在問題是:我們的模型可能只是記住訓(xùn)練圖像的不相關(guān)細(xì)節(jié),從而得出正確的答案。例如,您可以想象一個(gè)網(wǎng)絡(luò)在其顯示的每張照片的背景中記住一個(gè)圖案,并用它來匹配標(biāo)簽與對(duì)象。它可能在訓(xùn)練過程中對(duì)以前看到過的所有圖像能夠產(chǎn)生很好的結(jié)果,但是在新的圖像上則以失敗告終,究其原因是因?yàn)樗鼪]有學(xué)習(xí)到對(duì)象的普通特征,只是記住了訓(xùn)練圖像的次要細(xì)節(jié)。

這個(gè)問題被稱為過度擬合,為了避免這個(gè)問題,我們將一些數(shù)據(jù)保留在訓(xùn)練過程之外,這樣模型就無法記住它們。 然后我們使用這些圖像作為檢查以確保不會(huì)發(fā)生過度擬合,因?yàn)槿绻覀兛吹剿鼈兙哂辛己玫臏?zhǔn)確性,則表明網(wǎng)絡(luò)沒有過度擬合,這是一個(gè)好兆頭。通常的分割是將 80% 的圖像放入主訓(xùn)練集中,保留 10% 以備在訓(xùn)練期間能夠經(jīng)常運(yùn)行用來驗(yàn)證,剩下的 10% 則作為測(cè)試集用于預(yù)測(cè)分類器在現(xiàn)實(shí)世界的表現(xiàn)??梢允褂?--testing_percentage 和 --validation_percentage 標(biāo)志來控制這些比率。一般情況下,將這些值保留為默認(rèn)值,因?yàn)橥ǔU{(diào)整它們不會(huì)對(duì)訓(xùn)練有任何優(yōu)勢(shì)。

請(qǐng)注意,該腳本使用圖像的文件名(而不是完全隨機(jī)的函數(shù))在訓(xùn)練、驗(yàn)證和測(cè)試集之間劃分圖像。這樣做是為了確保圖像不會(huì)在分別運(yùn)行的訓(xùn)練集和測(cè)試集之間移動(dòng),因?yàn)槿绻糜谟?xùn)練模型的圖像隨后在驗(yàn)證集中使用,那么這有可能會(huì)出現(xiàn)問題。

您可能會(huì)注意到驗(yàn)證準(zhǔn)確度在迭代之間波動(dòng)。大部分這種波動(dòng)源于這樣的事實(shí):為每個(gè)驗(yàn)證精度測(cè)量選擇驗(yàn)證集的隨機(jī)子集。通過選擇 --validation_batch_size = -1,使用整個(gè)驗(yàn)證集進(jìn)行每次精度計(jì)算,可以大大減少波動(dòng),但是代價(jià)是訓(xùn)練時(shí)間有所增加。

訓(xùn)練完成后,您會(huì)發(fā)現(xiàn)它在測(cè)試檢查集中錯(cuò)誤分類的圖像時(shí)獨(dú)具慧眼??梢酝ㄟ^添加標(biāo)志 --print_misclassified_test_images 來完成。這可以幫助您了解哪種類型的圖像最容易混淆模型,哪些類別最難以區(qū)分。例如,您可能會(huì)發(fā)現(xiàn)特定類別的某些子類型或某些不尋常的照片角度特別難以識(shí)別,這可能會(huì)激發(fā)您為該子類型添加更多的訓(xùn)練圖像。通常,檢查錯(cuò)誤分類的圖像也可能指向輸入數(shù)據(jù)集中的錯(cuò)誤,例如錯(cuò)誤標(biāo)記,低質(zhì)量或模糊圖像。然而,通常應(yīng)該避免在測(cè)試集中修正個(gè)別錯(cuò)誤,因?yàn)樗鼈儾惶珪?huì)反映(更大型的)訓(xùn)練集中的那些更普遍的問題。

其他模型架構(gòu)

默認(rèn)情況下,腳本使用帶有 Inception V3 體系結(jié)構(gòu)預(yù)訓(xùn)練實(shí)例的圖像特征提取模塊。這是一個(gè)很好的起點(diǎn),因?yàn)樗鼮樵儆?xùn)練腳本提供了高精度的結(jié)果和適中的運(yùn)行時(shí)間。但是現(xiàn)在讓我們來看看 TensorFlow Hub 模塊的其他選項(xiàng)

一方面,該列表顯示了更新的,功能更強(qiáng)大的體系結(jié)構(gòu),例如 NASNet(特別是 nasnet_large 和 pnasnet_large),可以為您提供額外的精確度。

另一方面,如果您打算在移動(dòng)設(shè)備或其他資源受限的環(huán)境中部署模型,您可能希望以更小的文件大小或更快的速度(也在訓(xùn)練中)來交換一點(diǎn)精確度。為此,試試不同的模塊實(shí)現(xiàn) MobileNet V1 或 V2 架構(gòu),或者 nasnet_mobile。

使用不同模塊進(jìn)行訓(xùn)練很簡(jiǎn)單:只需將 --tfhub_module 標(biāo)志與模塊 URL 一起傳遞,例如:

python retrain.py --image_dir ~/flower_photos --tfhub_module https://tfhub.dev/google/imagenet/mobilenet_v2_100_224/feature_vector/2

這將在 /tmp/output_graph.pb 中創(chuàng)建一個(gè) 9 MB 的模型文件,其中的模型使用 MobileNet V2 的基線版本。在瀏覽器中打開模塊 URL 將轉(zhuǎn)到模塊文檔。

如果您只是想讓它快一點(diǎn),您可以將輸入圖像(第二個(gè)數(shù)字)的大小從 '224' 減小到 '192','160' 或 '128' 像素的平方,甚至 '96' (僅適用于 V2)。為了獲得更大幅度地節(jié)省,您可以選擇百分比(第一個(gè)數(shù)字)'100','075','050' 或 '035'(V1 的 '025')來控制 “特征深度” 或神經(jīng)元的每個(gè)位置數(shù)量。權(quán)重的數(shù)量(以及文件大小和速度)隨著該分?jǐn)?shù)的平方而縮小。GitHub 上的 MobileNet V1 博文和 MobileNet V2 頁面上報(bào)道了 Imagenet 分類的各自權(quán)衡。

Mobilenet V2 不會(huì)將功能深度百分比應(yīng)用于瓶頸層。在 Mobilenet V1 會(huì)將功能百分比應(yīng)用于瓶頸層,對(duì)小深度來說,分類層的工作就顯得困難重重。Mobilenet V2 是否有助于瞞天過海并使用原始 1001 ImageNet 類得分,而非應(yīng)用于嚴(yán)格的瓶頸? 您可以嘗試將 removenet_v1 ... / feature_vector 替換為模塊名稱中的 mobilenet_v1 ... / classification。

和之前一樣,您可以將所有重新訓(xùn)練的模型與 label_image.py 一起使用。您需要指定模型所需的圖像大小,例如:

python label_image.py --graph=/tmp/output_graph.pb --labels=/tmp/output_labels.txt --input_layer=Placeholder --output_layer=final_result --input_height=224 --input_width=224 --image=$HOME/flower_photos/daisy/21652746_cc379e0eea_m.jpg

有關(guān)將重新訓(xùn)練的模型部署到移動(dòng)設(shè)備的更多信息,請(qǐng)參閱本教程的 codelab 版本(https://codelabs.developers.google.com/codelabs/tensorflow-for-poets/?hl=zh-CN#0),特別是第 2 部分, 介紹了 TensorFlow Lite 及其提供的其他優(yōu)化(包括模型權(quán)重的量化)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    41243
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    13449
  • 遷移學(xué)習(xí)
    +關(guān)注

    關(guān)注

    0

    文章

    74

    瀏覽量

    5732

原文標(biāo)題:如何為新類別重新訓(xùn)練一個(gè)圖像分類器

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    支持電子設(shè)備進(jìn)一步降低功耗的第5代平面型肖特基勢(shì)壘二極管

    ROHM第5代平面肖特基勢(shì)壘二極管的效率比上代產(chǎn)品又提高了25%,有助于進(jìn)一步提高開關(guān)電源的效率。
    的頭像 發(fā)表于 08-09 15:21 ?1.4w次閱讀
    支持電子設(shè)備<b class='flag-5'>進(jìn)一步</b>降低功耗的第5代平面型肖特基勢(shì)壘二極管

    Atmel推出完整開發(fā)工具平臺(tái),進(jìn)一步簡(jiǎn)化MCU設(shè)計(jì)過程

    SAM4L系列而開發(fā)的完整硬件和軟件平臺(tái)集成開發(fā)工具平臺(tái)(integrated development tools platform),進(jìn)一步簡(jiǎn)化MCU設(shè)計(jì)過程
    發(fā)表于 04-26 10:55 ?2207次閱讀

    一步一步了解搞懂shell腳本

    Shell腳本并不能作為正式的編程語言,因?yàn)樗窃贚inux的shell中運(yùn)行的,所以稱為shell腳本。事實(shí),shell腳本就是
    發(fā)表于 12-06 09:03 ?691次閱讀

    有什么方法可以進(jìn)一步提高AD7714的分辨率???

    級(jí)放大再加給AD7714時(shí),測(cè)得人分辨率還要低一些。由于是用干電池得到AD7714的輸入信號(hào),該信號(hào)相對(duì)來說很穩(wěn)定,而且板的噪聲也不是太大。請(qǐng)問各位大蝦,還有什么方法可以進(jìn)一步提高AD7714的分辨率啊?不勝感激!
    發(fā)表于 12-25 06:33

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級(jí)芯片

    引入英偉達(dá)機(jī)密計(jì)算技術(shù),在不影響性能的情況下,增強(qiáng)了大規(guī)模實(shí)時(shí)s生成式人工智能推理的安全性。該架構(gòu)還具有新的解壓縮引擎和用于人工智能預(yù)防性維護(hù)的可靠性引擎,有助于診斷預(yù)測(cè)潛在的可靠性問題,進(jìn)一步鞏固
    發(fā)表于 05-13 17:16

    怎么進(jìn)一步提高自己水平額,,,

    ,,,數(shù)電,,,模電 都沒看開課,,,數(shù)電自己看過一些,,,但是感覺沒理論基礎(chǔ),,,底氣不足啊,,,,如果學(xué)習(xí)單片機(jī)外設(shè),,,自己設(shè)計(jì)電路目前不可能,,,畫PCB不會(huì)(Ps:這個(gè)需要電路方面的知識(shí)
    發(fā)表于 07-20 19:36

    RF功率測(cè)量及控制有助于確保系統(tǒng)安全、高效地運(yùn)行

    作者:齊凌杰 應(yīng)用工程師 世強(qiáng)電訊 目前,包括通信收發(fā)機(jī)、儀器、工業(yè)控制和雷達(dá)等在內(nèi)的許多系統(tǒng)都需要控制射頻功率,因此需要準(zhǔn)確測(cè)量射頻功率。在這些系統(tǒng)中,RF功率測(cè)量及控制有助于確保系
    發(fā)表于 06-25 08:08

    進(jìn)一步理解量子力學(xué)經(jīng)典 多方面豐富相關(guān)圖表

    進(jìn)一步理解量子力學(xué)經(jīng)典理論與應(yīng)用 多方面豐富相關(guān)圖表為了進(jìn)一步深入理解量子力學(xué)理論經(jīng)典及其應(yīng)用,從多個(gè)方面豐富內(nèi)容,附圖頁碼致,符合國際標(biāo)準(zhǔn)。聲學(xué),聲波自然現(xiàn)象,以及經(jīng)典原子理論的應(yīng)用等對(duì)理解量子力學(xué)經(jīng)典之波的概念有益。大灣區(qū)
    發(fā)表于 08-02 07:05

    如何進(jìn)一步提高1302精度?

    GN1302 晶振引腳連接 2 個(gè) 30pf 電容,每天大約慢 4 秒,如何進(jìn)一步提高精度?時(shí)鐘每天慢 4 秒是因?yàn)榫д竦耐獠控?fù)載電容過大,即 30pf 電容過大。如果使用的晶振的負(fù)載電容參數(shù)為
    發(fā)表于 12-29 17:36

    請(qǐng)問如何進(jìn)一步減小DTC控制系統(tǒng)的轉(zhuǎn)矩脈動(dòng)?

    如何進(jìn)一步減小DTC控制系統(tǒng)的轉(zhuǎn)矩脈動(dòng)?
    發(fā)表于 10-18 06:53

    VR CAVE將有助于進(jìn)一步的研究虛擬現(xiàn)實(shí)環(huán)境

    許多教育機(jī)構(gòu)已經(jīng)開始將虛擬現(xiàn)實(shí)(VR)設(shè)備用于教育學(xué)生,法國的貢比涅理工大學(xué)(UTC)將借此進(jìn)一步推進(jìn)VR空間模擬器的建設(shè)。
    發(fā)表于 01-16 10:37 ?1291次閱讀

    空芯光纖新特性有助于眾多光子學(xué)應(yīng)用的進(jìn)一步研究

    已經(jīng)將傳統(tǒng)光纖開發(fā)到極限,所以如何改進(jìn)傳統(tǒng)光纖成了眾多光子學(xué)應(yīng)用的進(jìn)一步研究的關(guān)鍵。 南安普頓大學(xué)主導(dǎo)了LightPipe研究計(jì)劃,在計(jì)劃中他們率先推出了最新代中空芯嵌套反諧振無節(jié)纖維(NANFs)。這是有史以來損耗最低、長(zhǎng)度
    的頭像 發(fā)表于 02-19 16:43 ?2675次閱讀

    數(shù)字電源遙測(cè)有助于降低能耗,延長(zhǎng)系統(tǒng)運(yùn)行時(shí)間

    數(shù)字電源遙測(cè)有助于降低能耗,延長(zhǎng)系統(tǒng)運(yùn)行時(shí)間
    發(fā)表于 03-21 15:04 ?1次下載
    數(shù)字電源遙測(cè)<b class='flag-5'>有助于</b>降低能耗,<b class='flag-5'>并</b>延長(zhǎng)系統(tǒng)<b class='flag-5'>運(yùn)行</b>時(shí)間

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過程及應(yīng)用領(lǐng)域

    (Convolutional Layer),它通過卷積運(yùn)算提取輸入數(shù)據(jù)的特征,然后通過池化層(Pooling Layer)和全連接層(Fully Connected Layer)進(jìn)行特征的進(jìn)一步處理和分類。本文將詳細(xì)介紹
    的頭像 發(fā)表于 07-02 15:26 ?5790次閱讀

    關(guān)于一些有助于優(yōu)化電源設(shè)計(jì)的新型材料

    眾所周知,人們對(duì)更高電源效率的追求正在推動(dòng)性能的全方位提升。材料科學(xué)的進(jìn)步對(duì)于優(yōu)化電源設(shè)計(jì)和開發(fā)更高效、更緊湊和更可靠的解決方案發(fā)揮著關(guān)鍵作用。下文列出了一些有助于優(yōu)化電源設(shè)計(jì)的新材料。
    的頭像 發(fā)表于 08-29 15:26 ?757次閱讀