99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡(luò)的詳細(xì)介紹

電子設(shè)計(jì) ? 來(lái)源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-25 16:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種前饋神經(jīng)網(wǎng)絡(luò),它的人工神經(jīng)元可以響應(yīng)一部分覆蓋范圍內(nèi)的周圍單元,對(duì)于大型圖像處理有出色表現(xiàn)。 它包括卷積層(convolutional layer)和池化層(pooling layer)。

對(duì)比:卷積神經(jīng)網(wǎng)絡(luò)、全連接神經(jīng)網(wǎng)絡(luò)

左圖:全連接神經(jīng)網(wǎng)絡(luò)(平面),組成:輸入層、激活函數(shù)、全連接層

右圖:卷積神經(jīng)網(wǎng)絡(luò)(立體),組成:輸入層、卷積層、激活函數(shù)、池化層、全連接層

在卷積神經(jīng)網(wǎng)絡(luò)中有一個(gè)重要的概念:深度

卷積層

卷積:在原始的輸入上進(jìn)行特征的提取。特征提取簡(jiǎn)言之就是,在原始輸入上一個(gè)小區(qū)域一個(gè)小區(qū)域進(jìn)行特征的提取,稍后細(xì)致講解卷積的計(jì)算過(guò)程。

上圖中,左方塊是輸入層,尺寸為32*32的3通道圖像。右邊的小方塊是filter,尺寸為5*5,深度為3。將輸入層劃分為多個(gè)區(qū)域,用filter這個(gè)固定尺寸的助手,在輸入層做運(yùn)算,最終得到一個(gè)深度為1的特征圖。

上圖中,展示出一般使用多個(gè)filter分別進(jìn)行卷積,最終得到多個(gè)特征圖。

上圖使用了6個(gè)filter分別卷積進(jìn)行特征提取,最終得到6個(gè)特征圖。將這6層疊在一起就得到了卷積層輸出的結(jié)果。

卷積不僅限于對(duì)原始輸入的卷積。藍(lán)色方塊是在原始輸入上進(jìn)行卷積操作,使用了6個(gè)filter得到了6個(gè)提取特征圖。綠色方塊還能對(duì)藍(lán)色方塊進(jìn)行卷積操作,使用了10個(gè)filter得到了10個(gè)特征圖。每一個(gè)filter的深度必須與上一層輸入的深度相等。

直觀理解卷積

以上圖為例:

第一次卷積可以提取出低層次的特征。

第二次卷積可以提取出中層次的特征。

第三次卷積可以提取出高層次的特征。

特征是不斷進(jìn)行提取和壓縮的,最終能得到比較高層次特征,簡(jiǎn)言之就是對(duì)原式特征一步又一步的濃縮,最終得到的特征更可靠。利用最后一層特征可以做各種任務(wù):比如分類、回歸等。

卷積計(jì)算流程

左區(qū)域的三個(gè)大矩陣是原式圖像的輸入,RGB三個(gè)通道用三個(gè)矩陣表示,大小為7*7*3。

Filter W0表示1個(gè)filter助手,尺寸為3*3,深度為3(三個(gè)矩陣);Filter W1也表示1個(gè)filter助手。因?yàn)榫矸e中我們用了2個(gè)filter,因此該卷積層結(jié)果的輸出深度為2(綠色矩陣有2個(gè))。

Bias b0是Filter W0的偏置項(xiàng),Bias b1是Filter W1的偏置項(xiàng)。

OutPut是卷積后的輸出,尺寸為3*3,深度為2。

計(jì)算過(guò)程:

輸入是固定的,filter是指定的,因此計(jì)算就是如何得到綠色矩陣。第一步,在輸入矩陣上有一個(gè)和filter相同尺寸的滑窗,然后輸入矩陣的在滑窗里的部分與filter矩陣對(duì)應(yīng)位置相乘:

第二步,將3個(gè)矩陣產(chǎn)生的結(jié)果求和,并加上偏置項(xiàng),即0+2+0+1=3,因此就得到了輸出矩陣的左上角的3:

第三步,讓每一個(gè)filter都執(zhí)行這樣的操作,變可得到第一個(gè)元素:

第四步,滑動(dòng)窗口2個(gè)步長(zhǎng),重復(fù)之前步驟進(jìn)行計(jì)算

第五步,最終可以得到,在2個(gè)filter下,卷積后生成的深度為2的輸出結(jié)果:

思考:

①為什么每次滑動(dòng)是2個(gè)格子?

滑動(dòng)的步長(zhǎng)叫stride記為S。S越小,提取的特征越多,但是S一般不取1,主要考慮時(shí)間效率的問(wèn)題。S也不能太大,否則會(huì)漏掉圖像上的信息。

②由于filter的邊長(zhǎng)大于S,會(huì)造成每次移動(dòng)滑窗后有交集部分,交集部分意味著多次提取特征,尤其表現(xiàn)在圖像的中間區(qū)域提取次數(shù)較多,邊緣部分提取次數(shù)較少,怎么辦?

一般方法是在圖像外圍加一圈0,細(xì)心的同學(xué)可能已經(jīng)注意到了,在演示案例中已經(jīng)加上這一圈0了,即+pad 1。 +pad n表示加n圈0.

③一次卷積后的輸出特征圖的尺寸是多少呢?

請(qǐng)計(jì)算上圖中Output=?

注意:在一層卷積操作里可以有多個(gè)filter,他們是尺寸必須相同。

卷積參數(shù)共享原則

在卷積神經(jīng)網(wǎng)絡(luò)中,有一個(gè)非常重要的特性:權(quán)值共享。

所謂的權(quán)值共享就是說(shuō),給一張輸入圖片,用一個(gè)filter去掃這張圖,filter里面的數(shù)就叫權(quán)重,這張圖每個(gè)位置是被同樣的filter掃的,所以權(quán)重是一樣的,也就是共享。

池化層

上圖顯示,池化就是對(duì)特征圖進(jìn)行特征壓縮,池化也叫做下采樣。選擇原來(lái)某個(gè)區(qū)域的max或mean代替那個(gè)區(qū)域,整體就濃縮了。下面演示一下pooling操作,需要制定一個(gè)filter的尺寸、stride、pooling方式(max或mean):

卷積神經(jīng)網(wǎng)絡(luò)的組成

卷積——激活——卷積——激活——池化——......——池化——全連接——分類或回歸

前向傳播與反向傳播

之前已經(jīng)講解了卷積層前向傳播過(guò)程,這里通過(guò)一張圖再回顧一下:

下面講解卷積層的反向傳播過(guò)程:

反向傳播的目的:更新參數(shù)w。因此要先算出dJ/dw。假設(shè)上一層會(huì)傳過(guò)來(lái)一個(gè)梯度dJ/dout,根據(jù)鏈?zhǔn)角髮?dǎo)法則,因此dJ/dw = dJ/dout * dout/dw =dJ/dout * x 。在計(jì)算機(jī)中方便為變量命名的緣故,將dJ/dout記為dout,dJ/dw記為dw,即圖中的情況。后面也用這個(gè)記號(hào)來(lái)講。

首先要清楚:dw 和 w 的尺寸是一樣的。一個(gè)點(diǎn)乘以一個(gè)區(qū)域還能得到一個(gè)區(qū)域。那么反向傳播過(guò)程就相當(dāng)于:用dout中的一個(gè)元素乘以輸入層劃窗里的矩陣便得到一個(gè)dw矩陣;然后滑動(dòng)滑窗,繼續(xù)求下一個(gè)dw,依次下去,最后將得到的多個(gè)dw相加,執(zhí)行 w = w - dw 就完成了反向傳播的計(jì)算。

上面的反向傳播可以更新一個(gè)filter中的參數(shù),還要求其他的filter。

下面用圖示來(lái)看一下2種不同的pooling過(guò)程——池化層的前向傳播:

在池化層進(jìn)行反向傳播時(shí),max-pooling和mean-pooling的方式也采用不同的方式。

對(duì)于max-pooling,在前向計(jì)算時(shí),是選取的每個(gè)2*2區(qū)域中的最大值,這里需要記錄下最大值在每個(gè)小區(qū)域中的位置。在反向傳播時(shí),只有那個(gè)最大值對(duì)下一層有貢獻(xiàn),所以將殘差傳遞到該最大值的位置,區(qū)域內(nèi)其他2*2-1=3個(gè)位置置零。具體過(guò)程如下圖,其中4*4矩陣中非零的位置即為前邊計(jì)算出來(lái)的每個(gè)小區(qū)域的最大值的位置

對(duì)于mean-pooling,我們需要把殘差平均分成2*2=4份,傳遞到前邊小區(qū)域的4個(gè)單元即可。具體過(guò)程如圖:

卷積網(wǎng)絡(luò)架構(gòu)實(shí)例

VGGNet深度更多,有很多卷積層和池化層。一個(gè)版本有16層,另一個(gè)版本有19層(較常用)。

VGGNet的特點(diǎn):

filter只有3*3的,意味著計(jì)算的特征較多,粒度更細(xì)。同時(shí)pooling的參數(shù)也有固定。

注意:傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)層數(shù)越多并以意味著效果更好。而在2016年推出了深度殘差網(wǎng)絡(luò)達(dá)到了152層。后續(xù)講介紹。

那么訓(xùn)練一個(gè)VGGNet有多少內(nèi)存開(kāi)銷呢?

從圖可得知,訓(xùn)練過(guò)程中一張224*224*3的圖像會(huì)有138M個(gè)參數(shù)會(huì)占93MB的內(nèi)存。因此每個(gè)batch中圖像的數(shù)目應(yīng)該受內(nèi)存的約束,即 93*圖像數(shù)目<內(nèi)存總?cè)萘俊?/p>

審核編輯:符乾江
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測(cè)皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋
    的頭像 發(fā)表于 02-12 15:53 ?673次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法的介紹: 一、基本概念 反向傳播算
    的頭像 發(fā)表于 02-12 15:18 ?774次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Ba
    的頭像 發(fā)表于 02-12 15:15 ?863次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工
    的頭像 發(fā)表于 01-09 10:24 ?1203次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實(shí)現(xiàn)工具和框架應(yīng)運(yùn)而生,為研究人員和開(kāi)發(fā)者提供了強(qiáng)大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?672次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡(luò)因其在處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時(shí)的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數(shù)的合理設(shè)置。參數(shù)調(diào)整是一個(gè)復(fù)雜的過(guò)程,涉及到多個(gè)超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡(luò)架構(gòu)參數(shù)
    的頭像 發(fā)表于 11-15 15:10 ?1209次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強(qiáng)大的模型,在圖像識(shí)別和語(yǔ)音處理等領(lǐng)域取得了顯著成果
    的頭像 發(fā)表于 11-15 14:58 ?807次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見(jiàn)的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?1878次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來(lái)在多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識(shí)別、語(yǔ)音識(shí)別和自然語(yǔ)言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個(gè)分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:52 ?846次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks
    的頭像 發(fā)表于 11-15 14:47 ?1785次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1131次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    的結(jié)構(gòu)與工作機(jī)制的介紹: 一、LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)主要包括以下幾個(gè)部分: 記憶單元(Memory Cell) : 記憶單元是LSTM網(wǎng)絡(luò)的核心,負(fù)責(zé)在整個(gè)序列
    的頭像 發(fā)表于 11-13 10:05 ?1632次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    隨著人工智能(AI)技術(shù)的快速發(fā)展,AI可以越來(lái)越多地支持以前無(wú)法實(shí)現(xiàn)或者難以實(shí)現(xiàn)的應(yīng)用。本文基于此解釋了 卷積神經(jīng)網(wǎng)絡(luò) (CNN)及其對(duì)人工智能和機(jī)器學(xué)習(xí)的意義。CNN是一種能夠從復(fù)雜數(shù)據(jù)中提
    發(fā)表于 10-24 13:56

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14