99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機器學(xué)習(xí):三張拉面圖,就能識別出每碗拉面在哪家出品

DPVg_AI_era ? 來源:未知 ? 作者:伍文輝 ? 2018-03-30 16:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

只要三張拉面圖,就能識別出每碗拉面是在41家不同拉面店中的哪家制作出來。數(shù)據(jù)科學(xué)家Kenji Doi開發(fā)了一種拉面專家AI分類器,它能辨別出不同拉面之間的細微差異。這背后,是谷歌AutoML Vision提供的ML模型。

看下面的三碗拉面。你能相信機器學(xué)習(xí)(ML)模型能以95%的準確率識別出每碗拉面是在41家拉面店中的哪家制作的么?數(shù)據(jù)科學(xué)家Kenji Doi開發(fā)了一種拉面專家AI分類器,它能辨別出不同拉面之間的細微差異。

拉面Jiro是日本最受歡迎的連鎖餐廳之一,因為它的配料、面條和湯的價格都很便宜。這個連鎖餐廳在東京有41家分店,每家店都有基本相同的菜單。

正如你在照片中所看到的,對于一個剛剛接觸拉面的人來說,幾乎不可能知道每碗面的制作材料是什么,因為它們看起來幾乎是一樣的。你不相信自己可以通過看這些照片來辨別這些面到底屬于41家餐館的哪一家。

Kenji想知道深度學(xué)習(xí)是否能幫助解決這個問題。他從網(wǎng)絡(luò)上收集了48,244張Jiro做的拉面的圖片。在刪除了不適合進行模型訓(xùn)練的照片之后(比如重復(fù)照片或沒有拉面的照片),他為每個餐館準備了大約1,170張照片,也就是48000張帶有商店標(biāo)簽的照片。

AutoML Vision達到了94.5%的準確率

當(dāng)Kenji正在研究這個問題時,他了解到Google剛剛發(fā)布了AutoML Vision的alpha版本。

AutoML Vision允許用戶在不具備設(shè)計ML模型的專業(yè)知識的情況下使用自己的圖像定制ML模型。首先,你要做的就是上傳圖像文件進行模型訓(xùn)練,并確保上傳數(shù)據(jù)具有正確的標(biāo)簽。一旦完成了定制模型的訓(xùn)練,您就可以輕松地將其應(yīng)用到到可擴展的服務(wù)平臺上,以便通過自動擴展擁有的資源來滿足實際需求。整個過程是為那些不具備專業(yè)ML知識的非數(shù)據(jù)科學(xué)家設(shè)計的。

AutoML Vision訓(xùn)練、部署和服務(wù)自定義ML模型的過程

當(dāng)Kenji獲得了AutoML Vision的alpha版本后,他試了一下。他發(fā)現(xiàn)用帶有商店標(biāo)簽的拉面照片作為數(shù)據(jù)集訓(xùn)練模型時,F(xiàn)值可以達到94.5%,其中精確率未94.8%,召回率為94.5%。

使用AutoML Vision(高級模式)的拉面店分類器的混淆矩陣(行=實際店鋪,欄=預(yù)測店鋪)

通過觀察上圖的混淆矩陣,您可以看到AutoML Vision在每個測試樣例中,僅僅對幾個樣本做出了錯誤的分類。

這怎么可能?每個照片使用AutoML檢測區(qū)別是什么?Kenji想知道ML模型如何能準確地識別出拉面對應(yīng)的商店。起初,他認為模型是在看碗,或桌子的顏色或形狀。但是,正如你在上面的照片中所看到的,即使每個商店在他們的照片中使用了相同的碗和桌子設(shè)計,這個模型也非常準確。Kenji的新理論是,該模型精確地能夠區(qū)分肉塊和澆頭的細微差別。他計劃繼續(xù)在AutoML上做實驗,看看他的理論是否正確。

數(shù)據(jù)科學(xué)的自動化技術(shù)

在嘗試AutoML Vision之前,Kenji花了相當(dāng)多的時間來為他的拉面分類項目建立自己的ML模型。他仔細地選擇了一個通過Inception,ResNetSE-ResNeXt獲得的一個集合模型,構(gòu)建了一個數(shù)據(jù)增強設(shè)置,在超參數(shù)調(diào)優(yōu)上耗費了很長的時間,如改變學(xué)習(xí)率等,并引入他積累的知識作為一個專家知識。

但是,通過AutoML Vision,Kenji發(fā)現(xiàn)他唯一需要做的就是上傳圖片并點擊“訓(xùn)練”按鈕,僅此而已。通過AutoML Vision,他不費吹灰之力就能夠訓(xùn)練一個ML模型。

標(biāo)記圖像集的示例。借助AutoML Vision,您只需上傳帶有標(biāo)簽的圖像即可開始使用

當(dāng)使用AutoML Vision訓(xùn)練一個模型時,有兩種模式任你選擇:基本模式或高級模式。在基本模式下,AutoML Vision可以在18分鐘之內(nèi)完成Kenji的訓(xùn)練數(shù)據(jù)。在高級模式下用了將近24個小時。在這兩種情況下,他都沒有執(zhí)行任何超參數(shù)調(diào)優(yōu)、數(shù)據(jù)擴充或嘗試不同的ML模型類型。一切都是自動化處理,不需要擁有相關(guān)的專業(yè)知識。

據(jù)Kenji說,“在基本模式下無法獲得最優(yōu)的準確性,但是可以在很短的時間內(nèi)得到一個粗略的結(jié)果。而高級模式可以在用戶不進行任何優(yōu)化或具備任何學(xué)習(xí)技能的情況下獲得最優(yōu)的精度。這樣看來,這個工具肯定會提高數(shù)據(jù)科學(xué)家的生產(chǎn)力。數(shù)據(jù)科學(xué)家們已經(jīng)為我們的客戶進行了太多的人工智能解答,因此,我們必須盡快將深度學(xué)習(xí)應(yīng)用到PoCs上。有了AutoML Vision,數(shù)據(jù)科學(xué)家就不需要為了獲得最優(yōu)的模型結(jié)果花很長時間來培訓(xùn)和優(yōu)化模型獲。這意味著即使只有擁有限數(shù)量的數(shù)據(jù)科學(xué)家,企業(yè)也可以擴大他們的人工智能產(chǎn)業(yè)。”

他喜歡AutoML Vision還有因為其另外一個特點:“AutoML Vision太酷了,你可以在訓(xùn)練后使用它的在線預(yù)測功能。而這項任務(wù)對于數(shù)據(jù)科學(xué)家來說通常是特別耗時的,因為必須要將模型部署到生產(chǎn)服務(wù)環(huán)境中后,再對其進行管理?!?/p>

以90%的準確率將商品進行品牌分類

AutoML Vision在另一個不同的用例中也證明了它的能力:對產(chǎn)品進行品牌分類。Mercari是日本最受歡迎的銷售APP之一,它在美國也受到越來越多人的青睞,它一直在嘗試通過閃頻的圖片自動識別其品牌。

Mercari官網(wǎng)

在日本,Mercari推出了一款名為Mercari MAISONZ的新App,用于銷售品牌商品。Mercari在這款應(yīng)用中開發(fā)了自己的ML模型,在用戶的圖片上傳界面中,該模型可以對12個主要品牌的商品進行分類。該模型使用了VGG16在TensorFlow上的遷移學(xué)習(xí),準確率達到75%。

正如ML模型預(yù)測的那樣,用戶上傳圖片界面顯示了品牌名稱

而當(dāng)Mercari在AutoML Vision的高級模式下嘗試用5000個訓(xùn)練來進行訓(xùn)練,它達到了91.3%的準確率。這比他們現(xiàn)有的模型高出了15%。

Mercari的AutoML Vision模型(高級模式)的準確性分數(shù)(精確度/召回率)

Mercari的AutoML Vision模型的混淆矩陣(高級模式)

對AutoML Vision的近距離觀察

Mercari的數(shù)據(jù)科學(xué)家Shuhei Fujiwara對這個結(jié)果感到非常驚訝,他說:“我無法想象谷歌是如何做到如此高精度的!”

用于大規(guī)模圖像分類和對象檢測的AutoML

高級模式里面,除了轉(zhuǎn)移學(xué)習(xí)還有什么呢?實際上,其中還包括谷歌的學(xué)習(xí)技術(shù),特別是NASNet。

NASNet使用ML來優(yōu)化ML:元級ML模型試圖為特定的訓(xùn)練數(shù)據(jù)集獲得最佳的深度學(xué)習(xí)模型。這才是高級模式的秘密,它代表了谷歌的“人工智能”哲學(xué)。這項技術(shù)可以讓用戶在不用長時間學(xué)習(xí)人工智能的情況下,充分地利用最先進的深度學(xué)習(xí)能力。

Shuhei還很喜歡這項服務(wù)的用戶界面?!八苋菀资褂茫悴恍枰獙Τ瑓?shù)優(yōu)化做任何的人工處理,而且在UI上的一個混淆矩陣也為用戶來帶了方便,因為它可以幫助用戶快速檢查模型的準確性。該服務(wù)還允許你將最耗時的人工標(biāo)記工作交給谷歌。因此,我們正在等待公測版本取代現(xiàn)有的自動化版本,這樣就可以將其部署到生產(chǎn)環(huán)境中了?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108185
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49029

    瀏覽量

    249682
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134651

原文標(biāo)題:【谷歌云AutoML Vision官方教程】手把手教會訓(xùn)練模型解決計算機視覺問題,準確率達94.5%

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【嘉楠堪智K230開發(fā)板試用體驗】K230機器視覺相關(guān)功能體驗

    K230開發(fā)板攝像頭及AI功能測評 攝像頭作為機器視覺應(yīng)用的基礎(chǔ),能夠給機器學(xué)習(xí)模型提供輸入,提供輸入的質(zhì)量直接影響機器學(xué)習(xí)模型的效果。 K
    發(fā)表于 07-08 17:25

    為什么我的反激DS波形是這樣的,但是帶載卻還是比較正常,有大佬知道這是什么原因么

    第一和第二是空載的時候,第三張和第四
    發(fā)表于 06-30 16:00

    STM32N6570-DK 的STLINK口不能識別出STLINK,為什么?

    使用數(shù)據(jù)線連接STM32N6570-DK的CN6口和電腦,存在不能識別出STLINK的情況。這個板子集成的STLINK是連上數(shù)據(jù)線就能識別出STLINK,還是配置硬件才能識別出來?我電
    發(fā)表于 06-16 07:14

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應(yīng)用

    閱讀心得體會:ROS2機器人視覺與地圖構(gòu)建技術(shù) 通過對本書第7章(ROS2視覺應(yīng)用)和第8章(ROS2地構(gòu)建)的學(xué)習(xí),我對機器人視覺感知和自主導(dǎo)航的核心技術(shù)有了更深入的理解。以下是我
    發(fā)表于 05-03 19:41

    有人這CAN機器手臂控制板的原理嗎?CAN舵機ID無法被識別

    的舵機ID無法識別嗎? 第一,除了左上角(PLCC封裝)那顆芯片被我取下來了,其下方的兩個SOP封裝芯片,中間PLCC封裝及SD卡槽,是買來就沒有焊的,是因為缺少某個芯片(例如:MCP2515
    發(fā)表于 04-22 12:19

    怎樣才能使用NUCLEO-H563ZI 識別出ST-LINK ?

    控制的?這個管腳默認的值是高還是低? 怎樣才能使用NUCLEO-H563ZI ,識別出ST-LINK ?其開發(fā)環(huán)境需要什么版本的
    發(fā)表于 03-14 13:59

    STMHAL庫的USB每次插拔時識別位置在哪里?

    STMHAL庫的USB每次插拔時識別位置在哪里?
    發(fā)表于 03-07 14:00

    在結(jié)構(gòu)光維成像方面DLP LightCrafter 4500如何連續(xù)投射彩色?

    結(jié)構(gòu)光維成像方面,DLP LightCrafter 4500 如何連續(xù)投射彩色?一般我們生成三張不同相移的灰度,然后合成24bit,依次投射灰度
    發(fā)表于 02-25 08:23

    如何用DLP (Light Crafter 4500)如何連續(xù)投射24bit彩色

    灰度正弦圖案,然后在DLP上合成24bit,我們在pattern sequence下依次投射三張8bit的圖案; 現(xiàn)在我們需要一次性的投射24bit彩色圖案:所以我們?nèi)绾斡肈LP (Light Crafter 4500)如何連續(xù)投射24bit彩色
    發(fā)表于 02-25 08:03

    用DLP4500燒錄98bit位深度的相移,3合成了一24bit,結(jié)果每一24bit都重復(fù)投射次,這是為什么?

    你好,吳工,用DLP4500燒錄98bit位深度的相移,3合成了一24bit,結(jié)果每一24bit都重復(fù)投射
    發(fā)表于 02-24 08:00

    DLP3010EVM-LC通過External Pattern獲取多幅1bit圖像有豎條紋如何解決?

    18位位(bmp格式),并把圖像通過hdmi(24hz)投影出來 個bitplane圖片如下 lightcontrol 設(shè)置如下: 但投影出來的圖像,并不是三張1bit
    發(fā)表于 02-21 13:13

    DLP4500燒錄了三張圖片后,想要投影這三張圖片,但是投影不了,為什么?

    gui軟件連接正常 dlp4500工作燈也正常閃爍 但是投影不了
    發(fā)表于 02-18 07:31

    ASR和機器學(xué)習(xí)的關(guān)系

    自動語音識別(ASR)技術(shù)的發(fā)展一直是人工智能領(lǐng)域的一個重要分支,它使得機器能夠理解和處理人類語言。隨著機器學(xué)習(xí)(ML)技術(shù)的迅猛發(fā)展,ASR系統(tǒng)的性能和準確性得到了顯著提升。 ASR
    的頭像 發(fā)表于 11-18 15:16 ?784次閱讀

    什么是機器學(xué)習(xí)?通過機器學(xué)習(xí)方法能解決哪些問題?

    來源:Master編程樹“機器學(xué)習(xí)”最初的研究動機是讓計算機系統(tǒng)具有人的學(xué)習(xí)能力以便實現(xiàn)人工智能。因為沒有學(xué)習(xí)能力的系統(tǒng)很難被認為是具有智能的。目前被廣泛采用的
    的頭像 發(fā)表于 11-16 01:07 ?967次閱讀
    什么是<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>?通過<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問題?

    用EDA做了一校園卡但是發(fā)現(xiàn)學(xué)校大門刷不進去,學(xué)校內(nèi)充當(dāng)飯卡時能正常識別,不知道哪里出問題了

    但是還是沒弄明白原因。 用手機帶的NFC功能和學(xué)校的付款機器都能識別出焊上去的芯片,唯獨有一些門禁,尤其是大門門禁閘機識別不出來 懇請大佬們幫忙解答一下,比較急,不勝感激
    發(fā)表于 10-27 20:51