99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

三種卷積神經(jīng)網(wǎng)絡(luò)模型:Light-CNN,雙分支CNN和預(yù)先訓(xùn)練的CNN

倩倩 ? 來源:老胡說科學(xué) ? 2020-04-17 10:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

上海電力大學(xué)的兩位研究人員最近開發(fā)并評估了野生人臉表情識別(FER)的新神經(jīng)網(wǎng)絡(luò)模型。他們的研究發(fā)表在Elsevier的Neurocomputing期刊上,提出了三種卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型:Light-CNN,雙分支CNN和預(yù)先訓(xùn)練的CNN。

“由于缺乏關(guān)于非正面的信息,野外的FER是計算機視覺中的一個難點,”進行這項研究的研究人員之一錢永生告訴TechXplore?!盎谏疃染矸e神經(jīng)網(wǎng)絡(luò)(CNN)的現(xiàn)有自然面部表情識別方法存在一些問題,包括過擬合,高計算復(fù)雜度,單一特征和有限樣本?!?/p>

盡管許多研究人員已經(jīng)開發(fā)了用于FER的CNN方法,但到目前為止,他們中很少有人試圖確定哪種類型的網(wǎng)絡(luò)最適合這一特定任務(wù)。意識到文獻中的這種差距,永勝和他的同事邵杰為FER開發(fā)了三種不同的CNN,并進行了一系列的評估,以確定他們的優(yōu)勢和劣勢。

“我們的第一個模型是淺光CNN,它引入了一個深度可分離的模塊和剩余的網(wǎng)絡(luò)模塊,通過改變卷積方法來減少網(wǎng)絡(luò)參數(shù),”永勝說。“第二個是雙分支CNN,它結(jié)合了全局特征和局部紋理特征,試圖獲得更豐富的特征并補償卷積旋轉(zhuǎn)不變性的缺乏。第三個預(yù)訓(xùn)練的CNN使用在同一個分布式大型數(shù)據(jù)庫中訓(xùn)練的權(quán)重重新培訓(xùn)自己的小型數(shù)據(jù)庫,縮短培訓(xùn)時間,提高識別率?!?/p>

研究人員對三種常用于FER的數(shù)據(jù)集進行了CNN模型的廣泛評估:公共CK +,多視圖BU-3DEF和FER2013數(shù)據(jù)集。盡管三種CNN模型在性能上存在差異,但它們都取得了可喜的成果,優(yōu)于幾種最先進的FER方法。

“目前,這三種CNN型號是分開使用的,”永勝解釋說?!皽\網(wǎng)絡(luò)更適合嵌入式硬件。預(yù)訓(xùn)練的CNN可以獲得更好的效果,但需要預(yù)先訓(xùn)練的權(quán)重。雙分支網(wǎng)絡(luò)不是很有效。當(dāng)然,也可以嘗試使用這三種模式一起?!?/p>

在他們的評估中,研究人員觀察到,通過組合剩余網(wǎng)絡(luò)模塊和深度可分離模塊,就像他們?yōu)榈谝粋€CNN模型所做的那樣,可以減少網(wǎng)絡(luò)參數(shù)。這最終可以解決計算硬件的一些缺點。此外,他們發(fā)現(xiàn)預(yù)先訓(xùn)練的CNN 模型將大型數(shù)據(jù)庫轉(zhuǎn)移到自己的數(shù)據(jù)庫,因此可以用有限的樣本進行訓(xùn)練。

永勝和杰提出的三個針對FER的CNN可以有許多應(yīng)用,例如,幫助開發(fā)能夠識別他們正在與之交互的人的面部表情的機器人。研究人員現(xiàn)在計劃對他們的模型進行額外調(diào)整,以進一步提高他們的表現(xiàn)。

“在我們未來的工作中,我們將嘗試添加不同的傳統(tǒng)手動功能,加入雙分支CNN并改變?nèi)诤夏J?,”永勝說?!拔覀冞€將使用跨數(shù)據(jù)庫培訓(xùn)網(wǎng)絡(luò)參數(shù)來獲得更好的泛化能力,并采用更有效的深度傳輸學(xué)習(xí)方法?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛感知系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)原理的疑點分析

    背景 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的核心技術(shù)主要包括以下幾個方面:局部連接、權(quán)值共享、多卷積核以及池化。這些技術(shù)共同作用,使得
    的頭像 發(fā)表于 04-07 09:15 ?367次閱讀
    自動駕駛感知系統(tǒng)中<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理的疑點分析

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)在多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一
    的頭像 發(fā)表于 02-12 15:53 ?676次閱讀

    如何訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)模型

    BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)是一經(jīng)典的人工神經(jīng)網(wǎng)絡(luò)模型,其訓(xùn)練過程主要分為兩個階段:前向傳播和反向傳播。以下是
    的頭像 發(fā)表于 02-12 15:10 ?931次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    通道數(shù)時表現(xiàn)更好。 2.3 神經(jīng)網(wǎng)絡(luò)的相關(guān)知識點 2.3.1 卷積的基本概念 卷積是一數(shù)學(xué)運算,在計算機視覺中被廣泛應(yīng)用于特征提取。它通過一個小型矩陣(稱為
    發(fā)表于 12-19 14:33

    FPAG技術(shù)問題合集

    1D-CNN,還有哪些神經(jīng)網(wǎng)絡(luò)算法可以在FPGA上加速? A :以下是一個基于 FPGA 的一維卷積神經(jīng)網(wǎng)絡(luò)(1D-CNN)算法加速實現(xiàn)的案
    的頭像 發(fā)表于 12-07 10:05 ?691次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)工具與框架

    : TensorFlow是由Google Brain團隊開發(fā)的開源機器學(xué)習(xí)框架,它支持多種深度學(xué)習(xí)模型的構(gòu)建和訓(xùn)練,包括卷積神經(jīng)網(wǎng)絡(luò)。TensorFlow以其靈活性和可擴展性而聞名,適
    的頭像 發(fā)表于 11-15 15:20 ?672次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡(luò)因其在處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數(shù)的合理設(shè)置。參數(shù)調(diào)整是一個復(fù)雜的過程,涉及到多個超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 15:10 ?1217次閱讀

    使用卷積神經(jīng)網(wǎng)絡(luò)進行圖像分類的步驟

    使用卷積神經(jīng)網(wǎng)絡(luò)CNN)進行圖像分類是一個涉及多個步驟的過程。 1. 問題定義 確定目標(biāo) :明確你想要分類的圖像類型,例如貓和狗、不同的植物種類等。 數(shù)據(jù)需求 :確定需要多少數(shù)據(jù)以及數(shù)據(jù)的類型
    的頭像 發(fā)表于 11-15 15:01 ?851次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    自然語言處理是人工智能領(lǐng)域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一強大的
    的頭像 發(fā)表于 11-15 14:58 ?808次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩
    的頭像 發(fā)表于 11-15 14:53 ?1884次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來在多個領(lǐng)域取得了顯著的進展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積
    的頭像 發(fā)表于 11-15 14:52 ?851次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類包含卷積計算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedf
    的頭像 發(fā)表于 11-15 14:47 ?1789次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    隨著人工智能(AI)技術(shù)的快速發(fā)展,AI可以越來越多地支持以前無法實現(xiàn)或者難以實現(xiàn)的應(yīng)用。本文基于此解釋了 卷積神經(jīng)網(wǎng)絡(luò) (CNN)及其對人工智能和機器學(xué)習(xí)的意義。CNN是一
    發(fā)表于 10-24 13:56

    深度識別算法包括哪些內(nèi)容

    深度識別算法是深度學(xué)習(xí)領(lǐng)域的一個重要組成部分,它利用深度神經(jīng)網(wǎng)絡(luò)模型對輸入數(shù)據(jù)進行高層次的理解和識別。深度識別算法涵蓋了多個方面的內(nèi)容,主要包括以下幾種類型: 1. 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 09-10 15:28 ?846次閱讀

    UNet模型屬于哪種神經(jīng)網(wǎng)絡(luò)

    U-Net模型屬于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)的一特殊形式 。它最初由德國弗萊堡大學(xué)
    的頭像 發(fā)表于 07-24 10:59 ?5576次閱讀