99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌發(fā)表論文EfficientNet 重新思考CNN模型縮放

DPVg_AI_era ? 來源:yxw ? 2019-06-03 14:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌AI研究部門華人科學(xué)家再發(fā)論文《EfficientNet:重新思考CNN模型縮放》,模型縮放的傳統(tǒng)做法是任意增加CNN的深度和寬度,或使用更大的輸入圖像分辨率進(jìn)行訓(xùn)練,而使用EfficientNet使用一組固定額縮放系數(shù)統(tǒng)一縮放每個(gè)維度,超越了當(dāng)先最先進(jìn)圖像識別網(wǎng)絡(luò)的準(zhǔn)確率,效率提高了10倍,而且更小。

目前提高CNN精度的方法,主要是通過任意增加CNN深度或?qū)挾?,或使用更大的輸入圖像分辨率進(jìn)行訓(xùn)練和評估。

以固定的資源成本開發(fā),然后按比例放大,以便在獲得更多資源時(shí)實(shí)現(xiàn)更好的準(zhǔn)確性。例如ResNet可以通過增加層數(shù)從ResNet-18擴(kuò)展到ResNet-200。

再比如開源大規(guī)模神經(jīng)網(wǎng)絡(luò)模型高效訓(xùn)練庫GPipe,通過將基線CNN擴(kuò)展四倍來實(shí)現(xiàn)84.3% ImageNet top-1精度。

這種方法的優(yōu)勢在于確實(shí)可以提高精度,但劣勢也很明顯。這個(gè)時(shí)候往往需要進(jìn)行繁瑣的微調(diào)。一點(diǎn)點(diǎn)的摸黑去試、還經(jīng)常的徒勞無功。這絕對不是一件能夠讓人身心愉快的事情,對于谷歌科學(xué)家們也一樣。

這就是為什么,谷歌人工智能研究部門的科學(xué)家們正在研究一種新的“更結(jié)構(gòu)化”的方式,來“擴(kuò)展”卷積神經(jīng)網(wǎng)絡(luò)。他們給這個(gè)新的網(wǎng)絡(luò)命名為:EfficientNet(效率網(wǎng)絡(luò))。

代碼已開源,論文剛剛上線arXiv,并將在6月11日,作為poster亮相ICML 2019。

比現(xiàn)有卷積網(wǎng)絡(luò)小84倍,比GPipe快6.1倍

為了理解擴(kuò)展網(wǎng)絡(luò)的效果,谷歌的科學(xué)家系統(tǒng)地研究了縮放模型不同維度的影響。模型縮放并確定仔細(xì)平衡網(wǎng)絡(luò)深度后,發(fā)現(xiàn)只要對網(wǎng)絡(luò)的深度、寬度和分辨率進(jìn)行合理地平衡,就能帶來更好的性能。基于這一觀察,科學(xué)家提出了一種新的縮放方法,使用簡單但高效的復(fù)合系數(shù)均勻地縮放深度、寬度和分辨率的所有尺寸。

據(jù)悉,EfficientNet-B7在ImageNet上實(shí)現(xiàn)了最先進(jìn)精度的84.4% Top 1/97.1% Top 5,同時(shí)比最好的現(xiàn)有ConvNet小84倍,推理速度快6.1倍;在CIFAR-100(91.7%),F(xiàn)lower(98.8%)和其他3個(gè)遷移學(xué)習(xí)數(shù)據(jù)集上,也能很好地傳輸和實(shí)現(xiàn)最先進(jìn)的精度。參數(shù)減少一個(gè)數(shù)量級,效率卻提高了10倍(更小,更快)。

與流行的ResNet-50相比,另一款EfficientNet-B4使用了類似的FLOPS,同時(shí)將ResNet-50的最高精度從76.3%提高到82.6%。

這么優(yōu)秀的成績是如何做到的

這種復(fù)合縮放方法的第一步是執(zhí)行網(wǎng)格搜索,在固定資源約束下找到基線網(wǎng)絡(luò)的不同縮放維度之間的關(guān)系(例如,2倍FLOPS),這樣做的目的是為了找出每個(gè)維度的適當(dāng)縮放系數(shù)。然后應(yīng)用這些系數(shù),將基線網(wǎng)絡(luò)擴(kuò)展到所需的目標(biāo)模型大小或算力預(yù)算。

與傳統(tǒng)的縮放方法相比,這種復(fù)合縮放方法可以持續(xù)提高擴(kuò)展模型的準(zhǔn)確性和效率,和傳統(tǒng)方法對比結(jié)果:MobileNet(+ 1.4% imagenet精度),ResNet(+ 0.7%)。

新模型縮放的有效性,很大程度上也依賴基線網(wǎng)絡(luò)。

為了進(jìn)一步提高性能,研究團(tuán)隊(duì)還通過使用AutoML MNAS框架執(zhí)行神經(jīng)架構(gòu)搜索來開發(fā)新的基線網(wǎng)絡(luò),該框架優(yōu)化了準(zhǔn)確性和效率(FLOPS)。

由此產(chǎn)生的架構(gòu)使用移動倒置瓶頸卷積(MBConv),類似于MobileNetV2和MnasNet,但由于FLOP預(yù)算增加而略大。然后,通過擴(kuò)展基線網(wǎng)絡(luò)以獲得一系列模型,被稱為EfficientNets。

不僅局限于ImageNet

EfficientNets在ImageNet上的良好表現(xiàn),讓谷歌的科學(xué)家希望將其應(yīng)用于更廣泛的網(wǎng)絡(luò)中,造福更多的人。

在8個(gè)廣泛使用的遷移學(xué)習(xí)數(shù)據(jù)集上測試之后,EfficientNet在其中的5個(gè)網(wǎng)絡(luò)實(shí)現(xiàn)了最先進(jìn)的精度。例如,在參數(shù)減少21倍的情況下,實(shí)現(xiàn)了CIFAR-100(91.7%)和Flowers(98.8%)。

看到這樣的結(jié)果,谷歌科學(xué)家預(yù)計(jì)EfficientNet可能成為未來計(jì)算機(jī)視覺任務(wù)的新基礎(chǔ),因此將EfficientNet開源。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108127
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35136

    瀏覽量

    279749
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    354

    瀏覽量

    22741

原文標(biāo)題:谷歌出品EfficientNet:比現(xiàn)有卷積網(wǎng)絡(luò)小84倍,比GPipe快6.1倍

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    模型時(shí)代的深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時(shí)代 ,AI模型的參數(shù)規(guī)模都在百萬級別,僅需在單張消費(fèi)類顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,
    的頭像 發(fā)表于 04-25 11:43 ?268次閱讀
    大<b class='flag-5'>模型</b>時(shí)代的深度學(xué)習(xí)框架

    CoT 數(shù)據(jù)集如何讓大模型學(xué)會一步一步思考?

    目前,大模型的回答路徑基本遵循 input-output 的方式,在面對復(fù)雜任務(wù)時(shí)表現(xiàn)不佳。反之,人類會遵循一套有條理的思維流程,逐步推理得出正確答案。這種差異促使人們深入思考:如何才能讓大模型“智能涌現(xiàn)”,學(xué)會像人類一樣“一步
    的頭像 發(fā)表于 04-24 16:51 ?588次閱讀
    CoT 數(shù)據(jù)集如何讓大<b class='flag-5'>模型</b>學(xué)會一步一步<b class='flag-5'>思考</b>?

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    Cloud 客戶開放,將提供 256 芯片集群以及 9,216 芯片集群兩種配置選項(xiàng)。 ? 在核心亮點(diǎn)層面,Ironwood 堪稱谷歌首款專門為 AI 推理精心設(shè)計(jì)的 TPU 芯片,能夠有力支持大規(guī)模思考
    的頭像 發(fā)表于 04-12 00:57 ?2422次閱讀

    無法轉(zhuǎn)換TF OD API掩碼RPGA模型怎么辦?

    無法轉(zhuǎn)換重新訓(xùn)練的 TF OD API 掩碼 RPGA 模型,該模型使用以下命令在 GPU 上工作: mo > --saved_model_dir
    發(fā)表于 03-06 06:44

    DeepSeek發(fā)表重磅論文!推出NSA技術(shù),讓AI模型降本增效

    這是自1月20日DeepSeek發(fā)布R1模型震撼AI圈以來,DeepSeek首次發(fā)布的技術(shù)動態(tài)。
    的頭像 發(fā)表于 02-19 10:22 ?1453次閱讀
    DeepSeek<b class='flag-5'>發(fā)表</b>重磅<b class='flag-5'>論文</b>!推出NSA技術(shù),讓AI<b class='flag-5'>模型</b>降本增效

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    在快速發(fā)展的生成式 AI 領(lǐng)域,結(jié)合不同模型的優(yōu)勢可以帶來顯著的成果。通過利用谷歌的 Gemini 模型來制作詳細(xì)且富有創(chuàng)意的提示,然后使用 Imagen 3 模型根據(jù)這些提示生成高質(zhì)
    的頭像 發(fā)表于 01-03 10:38 ?895次閱讀
    借助<b class='flag-5'>谷歌</b>Gemini和Imagen<b class='flag-5'>模型</b>生成高質(zhì)量圖像

    Kimi發(fā)布視覺思考模型k1,展現(xiàn)卓越基礎(chǔ)科學(xué)能力

    近日,Kimi公司正式發(fā)布了其最新的視覺思考模型——k1。這款模型基于先進(jìn)的強(qiáng)化學(xué)習(xí)技術(shù)構(gòu)建,原生支持端到端的圖像理解和思維鏈技術(shù),為用戶提供了全新的視覺思考體驗(yàn)。 k1
    的頭像 發(fā)表于 12-17 09:59 ?791次閱讀

    車載大模型分析揭示:存儲帶寬對性能影響遠(yuǎn)超算力

    車載大模型的定義尚無,傳統(tǒng)大模型即LLM的參數(shù)一般在70億至2000億之間,而早期的CNN模型參數(shù)通常不到1000萬,CNN
    的頭像 發(fā)表于 11-09 10:36 ?1409次閱讀
    車載大<b class='flag-5'>模型</b>分析揭示:存儲帶寬對性能影響遠(yuǎn)超算力

    Waymo利用谷歌Gemini大模型,研發(fā)端到端自動駕駛系統(tǒng)

    邁新步,為其機(jī)器人出租車業(yè)務(wù)引入了一種基于谷歌多模態(tài)大語言模型(MLLM)“Gemini”的全新訓(xùn)練模型——“端到端多模態(tài)自動駕駛模型”(EMMA)。
    的頭像 發(fā)表于 10-31 16:55 ?1722次閱讀

    谷歌計(jì)劃12月發(fā)布Gemini 2.0模型

    近日,有消息稱谷歌計(jì)劃在12月發(fā)布其下一代人工智能模型——Gemini 2.0。這一消息引發(fā)了業(yè)界的廣泛關(guān)注,因?yàn)?b class='flag-5'>谷歌在人工智能領(lǐng)域一直保持著領(lǐng)先地位,而Gemini系列模型更是其重要
    的頭像 發(fā)表于 10-29 11:02 ?1137次閱讀

    使用功率縮放

    電子發(fā)燒友網(wǎng)站提供《使用功率縮放庫.pdf》資料免費(fèi)下載
    發(fā)表于 10-18 10:24 ?0次下載
    使用功率<b class='flag-5'>縮放</b>庫

    谷歌獲Character.AI大模型技術(shù)授權(quán),創(chuàng)始人重歸谷歌懷抱

    8月5日最新資訊,創(chuàng)新企業(yè)Character.AI在上周五正式宣布,他們已經(jīng)與科技巨頭谷歌的母公司Alphabet達(dá)成了一項(xiàng)重要合作,非獨(dú)家授權(quán)谷歌使用其先進(jìn)的大型語言模型技術(shù)。此次合作不僅標(biāo)志著雙方在人工智能領(lǐng)域的深度合作,也
    的頭像 發(fā)表于 08-05 14:35 ?757次閱讀

    蘋果承認(rèn)使用谷歌芯片來訓(xùn)練AI

    蘋果公司最近在一篇技術(shù)論文中披露,其先進(jìn)的人工智能系統(tǒng)Apple Intelligence背后的兩個(gè)關(guān)鍵AI模型,是在谷歌設(shè)計(jì)的云端芯片上完成預(yù)訓(xùn)練的。這一消息標(biāo)志著在尖端AI訓(xùn)練領(lǐng)域,大型科技公司正積極探索并實(shí)踐著英偉達(dá)GPU
    的頭像 發(fā)表于 07-30 17:03 ?915次閱讀

    蘋果轉(zhuǎn)向谷歌芯片訓(xùn)練AI,或成棄用英偉達(dá)GPU首例

    在7月29日這個(gè)令全球矚目的日子里,蘋果公司對外展示了其iPhone AI應(yīng)用的首次預(yù)覽版本,并同步發(fā)表了相關(guān)研究論文,而這篇論文十分明確地指出,蘋果的深度學(xué)習(xí)人工智能模型正是在Goo
    的頭像 發(fā)表于 07-30 16:06 ?982次閱讀

    蘋果揭示AI新動向:Apple Intelligence模型谷歌云端芯片上預(yù)訓(xùn)練

    蘋果公司在最新的技術(shù)論文中披露了一項(xiàng)重要信息,其全新的人工智能系統(tǒng)Apple Intelligence所依賴的模型并非傳統(tǒng)上大型科技公司首選的NVIDIA GPU,而是選擇了在谷歌設(shè)計(jì)的云端芯片上進(jìn)行預(yù)訓(xùn)練。這一決定不僅打破了行
    的頭像 發(fā)表于 07-30 15:00 ?844次閱讀