99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度剖析卷積操作的維度計(jì)算

電子工程師 ? 來(lái)源:今日頭條 ? 作者:數(shù)據(jù)學(xué)習(xí)DataLearn ? 2021-03-24 15:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷積操作的維度計(jì)算是定義神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的重要問(wèn)題,在使用如PyTorch、Tensorflow深度學(xué)習(xí)框架搭建神經(jīng)網(wǎng)絡(luò)的時(shí)候,對(duì)每一層輸入的維度和輸出的維度都必須計(jì)算準(zhǔn)確,否則容易出錯(cuò),這里將詳細(xì)說(shuō)明相關(guān)的維度計(jì)算。

一、卷積操作的維度計(jì)算

卷積操作的維度計(jì)算是定義神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的重要問(wèn)題,在使用如PyTorch、Tensorflow等深度學(xué)習(xí)框架搭建神經(jīng)網(wǎng)絡(luò)的時(shí)候,對(duì)每一層輸入的維度和輸出的維度都必須計(jì)算準(zhǔn)確,否則容易出錯(cuò),這里將詳細(xì)說(shuō)明相關(guān)的維度計(jì)算。

首先,我們看一下卷積操作涉及的東西,一個(gè)卷積操作需要定義卷積核的大小、輸入圖像的padding長(zhǎng)度以及卷積操作的步長(zhǎng)。以一個(gè)RGB圖像輸入為例,一個(gè)多卷積核操作的示意圖如下:

使用兩個(gè)卷積核掃描輸入圖像

這個(gè)例子的輸入數(shù)據(jù)是一個(gè)三維數(shù)據(jù),帶有通道數(shù),輸入數(shù)據(jù)第三個(gè)維度是通道數(shù),使用了兩個(gè)卷積核(濾波器)掃描得到一個(gè)帶有兩個(gè)通道的圖像(一個(gè)卷積核對(duì)一個(gè)三維的數(shù)據(jù),即帶多個(gè)通道的二維圖像掃描可以得到一個(gè)二維單通道圖像結(jié)果,要求卷積核也是三維,且通道數(shù)和輸入數(shù)據(jù)通道數(shù)一樣)。下面我們來(lái)描述具體計(jì)算。

假設(shè)輸入數(shù)據(jù)大小是w × h,其中,w是寬度,h是高度。掃描的卷積核大小是f × f。padding的長(zhǎng)度是p(padding),步長(zhǎng)是s(stride)。那么經(jīng)過(guò)卷積操作之后,輸出的數(shù)據(jù)大?。?/p>

如果輸入的數(shù)據(jù)是三維數(shù)據(jù),即:w × h × c。其中,w是寬度,h是高度,c是通道數(shù)(對(duì)于RGB圖像輸入來(lái)說(shuō),這個(gè)值一般是3,在文本處理中,通常是不同embedding模型的個(gè)數(shù),如采用騰訊訓(xùn)練的、谷歌訓(xùn)練的等)。這個(gè)時(shí)候的卷積核通常也是帶通道的三維卷積核:f × f × c。

注意,一般來(lái)說(shuō),卷積核的通道數(shù)c和輸入數(shù)據(jù)的通道數(shù)是一致的。因此,這個(gè)時(shí)候卷積之后的輸出依然是一個(gè)二維數(shù)據(jù),其大小為:

這里的維度做了向下取整,防止結(jié)果不是整數(shù)的情況。假如希望輸出的也是帶通道的結(jié)果,那么這時(shí)候就要使用多個(gè)卷積核來(lái)操作了,最終輸出的數(shù)據(jù)維度是:

其中c'是卷積核的個(gè)數(shù)。

二、深度學(xué)習(xí)框架中Conv1d、Conv2d

在像PyTorch、Tensorflow中,都有類似Conv1d、Conv2d和Conv3d的操作。這也都和卷積操作的維度有關(guān),里面的參數(shù)都要定義好。例如如下的卷積操作:

self.convs = nn.Sequential( nn.Conv1d(in_channels=32, out_channels=16, kernel_size=5, stride=1, padding=0), nn.BatchNorm1d(16), nn.ReLU(inplace=True) )

這里面的參數(shù)要定義好,否則容易出錯(cuò)。我們將分別介紹。

Conv1d是一維卷積操作,它要求輸入的數(shù)據(jù)是三維的,即:N × C_in × L_in。

最終輸出的參數(shù)也是三維的:N × C_out × L_out。

這里的N是mini batch size,C是通道數(shù)量,L是寬度。

這里的out_channels定義了將由幾個(gè)卷積核來(lái)掃描,kernel_size則定義了每一個(gè)卷積核大小,都可以自己定義。最終,輸出的min_batch_size不變,out_channels數(shù)量根據(jù)定義的參數(shù)來(lái),而輸出的width計(jì)算如下:

深度學(xué)習(xí)卷積操作的維度計(jì)算

這里的p是上面padding的參數(shù)值,f是kernel_size的值。類似的,如果使用Conv2D做卷積操作,那么輸入就是四維的:N × C_in × H_in × W_in。

這里的N是min batch size,C_in是輸入數(shù)據(jù)的通道數(shù),H_in是輸入數(shù)據(jù)的高度,W_in是輸入數(shù)據(jù)的寬度。其輸出也是四維的,根據(jù)定義的卷積核大小和數(shù)量得到的輸出維度如下:N × C_out × H_out × W_out。其中,C_out是根據(jù)卷積核的數(shù)量定義的輸出數(shù)據(jù)的通道數(shù),因?yàn)橐粋€(gè)卷積核只能掃描得到一個(gè)二維圖。其中H_out 和 W_out的計(jì)算如下:

三、總結(jié)

卷積操作的輸入和輸出數(shù)據(jù)的維度在構(gòu)建神經(jīng)網(wǎng)絡(luò)中很重要,也很容易出錯(cuò)。使用PyTorch或者Tensoflow構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)的時(shí)候一定要注意參數(shù)的設(shè)置,如果計(jì)算錯(cuò)誤,下一層的輸入與上一層的輸出對(duì)不上那么很有可能失敗。為了避免這種情況發(fā)生,可以先用小數(shù)據(jù)集測(cè)試,同時(shí)為了檢測(cè)哪里出錯(cuò)可以在測(cè)試的時(shí)候把每一層的輸出結(jié)果的維度(shape)打印出來(lái),這樣就更容易檢測(cè)結(jié)果了。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 濾波器
    +關(guān)注

    關(guān)注

    162

    文章

    8133

    瀏覽量

    181985
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    807

    瀏覽量

    59914
  • 卷積
    +關(guān)注

    關(guān)注

    0

    文章

    95

    瀏覽量

    18754
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    大模型推理顯存和計(jì)算量估計(jì)方法研究

    估算剪枝后的模型所需的顯存大小。 三、計(jì)算量估計(jì)方法 基于模型結(jié)構(gòu)的計(jì)算量估計(jì) 根據(jù)深度學(xué)習(xí)模型的層次結(jié)構(gòu)和參數(shù)數(shù)量,可以估算模型在推理過(guò)程中的計(jì)算量。具體方法如下: (1)統(tǒng)計(jì)模型中
    發(fā)表于 07-03 19:43

    從接口到架構(gòu):工控一體機(jī)定制化的深度技術(shù)剖析

    工業(yè)場(chǎng)景需求的關(guān)鍵路徑。本文將從接口設(shè)計(jì)、硬件架構(gòu)、操作系統(tǒng)、通信協(xié)議及智能決策五個(gè)維度,深度剖析工控一體機(jī)定制化的技術(shù)內(nèi)核。 一、接口定制化:工業(yè)互聯(lián)的“神經(jīng)末梢” 工控一體機(jī)的接口
    的頭像 發(fā)表于 06-17 16:47 ?143次閱讀

    如何使用MATLAB實(shí)現(xiàn)一維時(shí)間卷積網(wǎng)絡(luò)

    本文對(duì)一維卷積操作進(jìn)行介紹,包括一維擴(kuò)展卷積和一維因果卷積,以及 MATLAB 對(duì)一維卷積的支持情況。在最后通過(guò)一個(gè)實(shí)例演示如何在 MATL
    的頭像 發(fā)表于 03-07 09:15 ?1070次閱讀
    如何使用MATLAB實(shí)現(xiàn)一維時(shí)間<b class='flag-5'>卷積</b>網(wǎng)絡(luò)

    BNC 連接器接線原理深度剖析

    在電子設(shè)備的信號(hào)連接領(lǐng)域,BNC 連接器作為一種射頻同軸連接器,憑借其穩(wěn)定的性能和便捷的操作,在通信、廣播電視、測(cè)試測(cè)量等行業(yè)中占據(jù)著舉足輕重的地位。深入了解 BNC 連接器的接線原理,對(duì)于正確
    的頭像 發(fā)表于 02-28 08:45 ?563次閱讀
    BNC 連接器接線原理<b class='flag-5'>深度</b><b class='flag-5'>剖析</b>

    AI云端計(jì)算資源的多維度優(yōu)勢(shì)

    AI云端計(jì)算資源,作為AI技術(shù)與云計(jì)算深度融合的產(chǎn)物,在成本效益、性能優(yōu)化、數(shù)據(jù)安全、靈活擴(kuò)展以及創(chuàng)新加速等多個(gè)維度都具有顯著優(yōu)勢(shì)。下面,AI部落小編帶您探討AI云端
    的頭像 發(fā)表于 01-07 11:11 ?468次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    步長(zhǎng)。 卷積計(jì)算過(guò)程 2.3.2 逐深度卷積深度卷積(Depthwise convolut
    發(fā)表于 12-19 14:33

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    的數(shù)量和大小 :增加卷積層可以提高模型的學(xué)習(xí)能力,但同時(shí)也會(huì)增加計(jì)算成本和過(guò)擬合的風(fēng)險(xiǎn)。通常需要根據(jù)具體任務(wù)和數(shù)據(jù)集的大小來(lái)平衡這兩者。 濾波器(卷積核)的數(shù)量和大小 :濾波器的數(shù)量決定了特征圖的
    的頭像 發(fā)表于 11-15 15:10 ?1203次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強(qiáng)大的模型,在圖像識(shí)別和語(yǔ)音處理等領(lǐng)域取得了顯著成果
    的頭像 發(fā)表于 11-15 14:58 ?795次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來(lái)在多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識(shí)別、語(yǔ)音識(shí)別和自然語(yǔ)言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個(gè)分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積神經(jīng)網(wǎng)
    的頭像 發(fā)表于 11-15 14:52 ?839次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks
    的頭像 發(fā)表于 11-15 14:47 ?1772次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運(yùn)算加速 項(xiàng)目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1217次閱讀

    高斯濾波的卷積核怎么確定

    N為一個(gè)奇數(shù),如3、5、7等。奇數(shù)大小的卷積核有助于確定一個(gè)中心像素點(diǎn),便于計(jì)算。 大小選擇 :卷積核的大小決定了濾波器的范圍。較大的卷積核可以覆蓋更多的像素點(diǎn),從而更好地平滑圖像,但
    的頭像 發(fā)表于 09-29 09:29 ?1676次閱讀

    MEMS 可編程振蕩器的卓越代表:SiT9121 系列(1 to 220 MHZ)深度剖析

    MEMS 可編程振蕩器的卓越代表:SiT9121 系列(1 to 220 MHZ)深度剖析
    的頭像 發(fā)表于 08-13 10:56 ?1024次閱讀
    MEMS 可編程振蕩器的卓越代表:SiT9121 系列(1 to 220 MHZ)<b class='flag-5'>深度</b><b class='flag-5'>剖析</b>

    探索巔峰性能 | 迅為RK3588開發(fā)板深度剖析

    探索巔峰性能 | 迅為RK3588開發(fā)板深度剖析
    的頭像 發(fā)表于 08-12 14:07 ?1591次閱讀
    探索巔峰性能 | 迅為RK3588開發(fā)板<b class='flag-5'>深度</b><b class='flag-5'>剖析</b>

    表面貼裝低相位噪音晶體振蕩器 DSO531SHH 深度剖析

    表面貼裝低相位噪音晶體振蕩器 DSO531SHH 深度剖析
    的頭像 發(fā)表于 07-26 14:12 ?711次閱讀
    表面貼裝低相位噪音晶體振蕩器 DSO531SHH <b class='flag-5'>深度</b><b class='flag-5'>剖析</b>