99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

首個語法生成網(wǎng)絡(luò) 視覺識別優(yōu)于當(dāng)前最先進(jìn)框架

DPVg_AI_era ? 來源:fqj ? 2019-06-05 11:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)是提高深度神經(jīng)網(wǎng)絡(luò)性能的基礎(chǔ)。研究人員開發(fā)出了首個通過語法引導(dǎo)的神經(jīng)網(wǎng)絡(luò)生成器AOGNets,它能更有效地在原始數(shù)據(jù)中提取信息,在圖像分類、目標(biāo)檢測和分割方面的表現(xiàn)優(yōu)于包括ResNets、DenseNets、ResNeXts和DualPathNets在內(nèi)最先進(jìn)的神經(jīng)網(wǎng)絡(luò)。

北卡羅萊納州立大學(xué)的研究人員開發(fā)了一個通過語法指導(dǎo)的網(wǎng)絡(luò)生成器來打造深度神經(jīng)網(wǎng)絡(luò)的新框架。在實(shí)驗(yàn)測試中,被稱為AOGNets的新網(wǎng)絡(luò)在視覺識別任務(wù)方面優(yōu)于現(xiàn)有的最先進(jìn)的框架,包括廣泛使用的ResNet和DenseNet系統(tǒng)。

作為這項(xiàng)研究中一篇論文的作者,北卡羅萊納州立大學(xué)電子與計算機(jī)工程副教授吳田富博士說:“與我們對比過的任何一個網(wǎng)絡(luò)相比,AOGNets都具有更好的預(yù)測精度。” AOGNets也更容易解釋,這意味著用戶可以看到系統(tǒng)是如何得出結(jié)論的。”

新框架對系統(tǒng)架構(gòu)使用了一個組合語法方法,該方法可以從以前的網(wǎng)絡(luò)系統(tǒng)上獲取最佳實(shí)踐,從而更有效地從原始數(shù)據(jù)中提取有用的信息。

吳教授說:“我們發(fā)現(xiàn),層次和組合語法為我們提供了一種簡單、優(yōu)雅的方法來統(tǒng)一以前系統(tǒng)架構(gòu)所采用的方法,據(jù)我們所知,這是第一個將語法用于網(wǎng)絡(luò)生成的成果?!?/p>

為了測試他們的新框架,研究人員開發(fā)了AOGNets,并將其用三個圖像分類基準(zhǔn)(CIFAR-10、CIFAR-100和ImageNet-1K)進(jìn)行了測試。

“在公平比較下,AOGNets的表現(xiàn)明顯優(yōu)于其他所有最先進(jìn)的網(wǎng)絡(luò),包括ResNets, DenseNets, ResNeXts和DualPathNets?!?吳田富說:”利用圖像網(wǎng)絡(luò)中的網(wǎng)絡(luò)剖分度量,AOGNets獲得了最高的模型可解釋性分。AOGNets在對抗性防御和平臺不可知( platform-agnostic)部署(移動vs云)方面進(jìn)一步顯示出巨大的潛力?!?/p>

研究人員還使用vanilla Mask R-CNN系統(tǒng)在微軟Coco基準(zhǔn)測試中測試了AOGNets在目標(biāo)檢測和實(shí)例語義分割方面的表現(xiàn)。

“在模型尺寸更小、推理時間相似或更短的情況下,AOGNets比ResNet和ResNeXt獲得了更好的結(jié)果。” 吳教授表示:“結(jié)果表明,在目標(biāo)檢測和分割任務(wù)中,AOGNets具有較好的學(xué)習(xí)效果?!?/p>

這些測試是相關(guān)的,因?yàn)閳D像分類是視覺識別的核心基礎(chǔ)任務(wù)之一,而ImageNet是標(biāo)準(zhǔn)的大規(guī)模分類基準(zhǔn)。同樣,目標(biāo)檢測和分割是兩個核心的高級視覺任務(wù),而MS-COCO是最廣泛使用的基準(zhǔn)之一。

“為了評估用于視覺識別中進(jìn)行深度學(xué)習(xí)的新網(wǎng)絡(luò)體系結(jié)構(gòu),它們是黃金試驗(yàn)臺?!?吳田富說道:“AOGNets是在一個有原則的語法框架下開發(fā)的,并在ImageNet和MS-COCO下都得到了顯著的改進(jìn),從而對許多實(shí)際應(yīng)用中的表示學(xué)習(xí)顯示出潛在的廣泛和深刻的影響?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:AOGNets:首個語法生成網(wǎng)絡(luò),視覺識別優(yōu)于當(dāng)前最先進(jìn)框架

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于LockAI視覺識別模塊:C++人臉識別

    本文基于RV1106做成的LockAI視覺識別模塊,采用 LZ-Picodet 模型訓(xùn)練的人臉檢測模型 LZ-Face,以及ArcFace人臉識別模型,實(shí)現(xiàn)人臉識別系統(tǒng)。 源代碼:ht
    發(fā)表于 07-01 12:01

    基于LockAI視覺識別模塊:C++人臉識別

    本文基于RV1106做成的LockAI視覺識別模塊,采用LZ-Picodet模型訓(xùn)練的人臉檢測模型LZ-Face,以及ArcFace人臉識別模型,實(shí)現(xiàn)人臉識別系統(tǒng)。
    的頭像 發(fā)表于 07-01 10:09 ?166次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識別</b>模塊:C++人臉<b class='flag-5'>識別</b>

    基于LockAI視覺識別模塊:手寫數(shù)字識別

    手寫數(shù)字識別是一種經(jīng)典的模式識別和圖像處理問題,旨在通過計算機(jī)自動識別用戶手寫的數(shù)字。 本文將教會你如何使用基于RV1106的 LockAI視覺識別
    發(fā)表于 06-30 16:45

    基于LockAI視覺識別模塊:手寫數(shù)字識別

    手寫數(shù)字識別是一種經(jīng)典的模式識別和圖像處理問題,旨在通過計算機(jī)自動識別用戶手寫的數(shù)字。本文將教會你如何使用基于RV1106的LockAI視覺識別
    的頭像 發(fā)表于 06-30 15:44 ?446次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識別</b>模塊:手寫數(shù)字<b class='flag-5'>識別</b>

    基于LockAI視覺識別模塊:C++條碼識別

    條碼識別視覺模塊經(jīng)常使用到的功能之一,經(jīng)常用于識別超市的貨物信息。本文我們將演示如何基于瑞芯微RV1106的LockAI視覺識別進(jìn)行條碼
    發(fā)表于 05-27 10:26

    基于LockAI視覺識別模塊:C++條碼識別

    條碼識別視覺模塊經(jīng)常使用到的功能之一,經(jīng)常用于識別超市的貨物信息。本文我們將演示如何基于瑞芯微RV1106的LockAI視覺識別進(jìn)行條碼
    的頭像 發(fā)表于 05-27 09:32 ?164次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識別</b>模塊:C++條碼<b class='flag-5'>識別</b>

    基于LockAI視覺識別模塊:C++二維碼識別

    二維碼識別視覺模塊經(jīng)常使用到的功能之一。我們將演示如何使用基于瑞芯微RV1106的LockAI視覺識別模塊進(jìn)行二維碼識別。
    的頭像 發(fā)表于 05-26 09:42 ?287次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識別</b>模塊:C++二維碼<b class='flag-5'>識別</b>

    一種實(shí)時多線程VSLAM框架vS-Graphs介紹

    ,vSGraphs優(yōu)于當(dāng)前最先進(jìn)的VSLAM方法,在真實(shí)數(shù)據(jù)上平均降低3.38%的軌跡誤差,最大降幅達(dá)9.58%。同時,所提出的框架還具有良好的可擴(kuò)展性,能夠處理大規(guī)模場景。此外,僅通
    的頭像 發(fā)表于 04-19 14:07 ?397次閱讀
    一種實(shí)時多線程VSLAM<b class='flag-5'>框架</b>vS-Graphs介紹

    愛立信和Telstr部署亞太地區(qū)首個高性能可編程網(wǎng)絡(luò)

    愛立信近日將與運(yùn)營商Telstra開展重要合作,提供亞太地區(qū)首個具有5G Advanced功能的高性能可編程網(wǎng)絡(luò),此次轉(zhuǎn)型將為Telstra提供全球最先進(jìn)、最具彈性、最可靠的5G網(wǎng)絡(luò)
    的頭像 發(fā)表于 03-19 16:37 ?1.1w次閱讀

    《AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》閱讀心得2——客服機(jī)器人、AutoGen框架 、生成式代理

    ,Airtable負(fù)責(zé)知識庫管理,Voiceflow處理對話流程設(shè)計,再配合GPT模型進(jìn)行自然語言理解和生成。前端功能設(shè)計中引入了用戶意圖識別模塊,能夠準(zhǔn)確捕捉用戶的查詢意圖并進(jìn)行多維度分類,這種分類機(jī)制使得系統(tǒng)能夠
    發(fā)表于 02-25 21:59

    Google兩款先進(jìn)生成式AI模型登陸Vertex AI平臺

    新的 AI 模型,包括最先進(jìn)的視頻生成模型Veo以及最高品質(zhì)的圖像生成模型Imagen 3。近日,我們在 Google Cloud 上進(jìn)一步推動這一勢頭,客戶可以在Vertex AI平臺上使用這兩款
    的頭像 發(fā)表于 12-30 09:56 ?627次閱讀

    開源項(xiàng)目 ! 利用邊緣計算打造便攜式視覺識別系統(tǒng)

    。 VIM3 神經(jīng)網(wǎng)絡(luò)處理器(NPU)使用方法 VIM4 神經(jīng)網(wǎng)絡(luò)處理器(NPU)使用方法 Edge2 神經(jīng)網(wǎng)絡(luò)處理器(NPU)使用方法 總結(jié) 恭喜!你剛剛構(gòu)建了一個便攜式的、基于邊緣計算的
    發(fā)表于 12-16 16:31

    一種降低VIO/VSLAM系統(tǒng)漂移的新方法

    集成的6自由度全局測量。在高保真GPS模擬器上進(jìn)行的實(shí)驗(yàn)以及從無人機(jī)收集的真實(shí)世界數(shù)據(jù)表明,我們的方法優(yōu)于最先進(jìn)的VIO-GPS系統(tǒng),并且與最先進(jìn)視覺SLAM系統(tǒng)相比,在應(yīng)對視點(diǎn)變化
    的頭像 發(fā)表于 12-13 11:18 ?705次閱讀
    一種降低VIO/VSLAM系統(tǒng)漂移的新方法

    庫克稱iPhone16是最先進(jìn)的iPhone

    最新款iPhone、Watch和AirPods,最大的亮點(diǎn)估計在人工智能。所以庫克稱iPhone16是最先進(jìn)的iPhone。 庫克表示。iPhone 16 系列是我們打造的最先進(jìn)的 iPhone。得益于
    的頭像 發(fā)表于 09-10 11:47 ?1192次閱讀

    基于迅為RK3588開發(fā)板的AI圖像識別方案

    ■ 極致的處理效能基于先進(jìn)架構(gòu)設(shè)計的八核處理器,以四核高性能Cortex-A76為核心,輔以四核高效能Cortex-A55,共同編織出一張強(qiáng)大的處理網(wǎng)絡(luò)。其主頻飆升至2.4GHz,為各種復(fù)雜任務(wù)提供
    發(fā)表于 08-13 11:26