99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么卷積神經(jīng)網(wǎng)絡(luò)可以做到不變性特征提???

新機器視覺 ? 來源:OpenCV學(xué)堂 ? 作者:OpenCV學(xué)堂 ? 2021-05-20 10:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

圖像特征

傳統(tǒng)的圖像特征提?。ㄌ卣鞴こ蹋┲饕腔诟鞣N先驗?zāi)P?,通過提取圖像關(guān)鍵點、生成描述子特征數(shù)據(jù)、進(jìn)行數(shù)據(jù)匹配或者機器學(xué)習(xí)方法對特征數(shù)據(jù)二分類/多分類實現(xiàn)圖像的對象檢測與識別。卷積神經(jīng)網(wǎng)絡(luò)通過計算機自動提取特征(表示工程)實現(xiàn)圖像特征的提取與抽象,通過MLP實現(xiàn)數(shù)據(jù)的回歸與分類。二者提取的特征數(shù)據(jù)都具不變性特征。

卷積神經(jīng)網(wǎng)絡(luò)為什么能提取到圖像特征,其關(guān)鍵在于卷積神經(jīng)網(wǎng)絡(luò)有兩種不同類型的層

-卷積層(convolution layers/detection layers)

-池化層(pooling layers)

卷積層

卷積層是一系列濾波器集合(filters set)、它的輸出結(jié)果被稱為特征映射(feature maps),每個feature map都一個filter在圖像上卷積得到的輸出。一般情況下都會輸出結(jié)果加線性修正,對卷積層常用就是ReLU

2d64cf44-b4a9-11eb-bf61-12bb97331649.png

這樣做的好處是:

卷積是一個線性操作,我們需要一個非線性組合,否則兩個卷積卷積層還不如一個卷積層

兩個相反方向的邊緣不應(yīng)該被取消

使圖像梯度值更加的稀疏、有助于提高反向傳播的效果

假設(shè)灰度輸入圖像,有兩個filter,卷積層生成過程如下所示:

假設(shè)灰度輸入圖像,有兩個filter,卷積層生成過程如下所示:

2d7ddbf6-b4a9-11eb-bf61-12bb97331649.jpg

膨脹卷積

通常我們常見的卷積層操作使用的filter都是基于連續(xù)鄰近像素的,除了這種卷積filter之后另外還有一張卷積filter被稱為膨脹卷積,其算子的分布更加的稀疏,圖示如下:

2daca210-b4a9-11eb-bf61-12bb97331649.jpg

膨脹卷積在不增加網(wǎng)絡(luò)總參數(shù)的情況下,提升每個感受野的尺度大小。

1x1卷積

1x1的卷積首次使用是在Network In Network網(wǎng)絡(luò)模型中,后來受到越來越多的關(guān)注,在一般情況下我們的卷積是2D的,1x1的卷積操作是毫無意義的,但是對卷積神經(jīng)網(wǎng)絡(luò)來說,它的卷積層是三維的,所以1x1的卷積操作是有意義的。

卷積層大小計算

對于一個輸入大小WxW的feature map,假設(shè)Filter的大小位FxF,卷積時填充邊緣P個像素、卷積步長(stride)為S則輸出的大小為:

2df5cde6-b4a9-11eb-bf61-12bb97331649.png

在多數(shù)深度學(xué)習(xí)框架中支持兩種輸出大小計算:

padding = “same”

意味著使用填充邊緣的方式,輸出大小與輸入的feature map大小保持不變

padding = “valid”

意味著不使用邊緣填充,即P=0此時輸出大小為:

2e20e58a-b4a9-11eb-bf61-12bb97331649.png

池化層

在卷積層提取到的特征數(shù)據(jù)不具備空間不變性(尺度與遷移不變性特征),只有通過了池化層之后才會具備空間不變性特征。池化層是針對每個feature map進(jìn)行池化操作,池化操作的窗口大小可以指定為任意尺寸,主要有兩種類型的池化操作

-下采樣池化(均值池化)

-最大值池化

下采樣池化

2e2d8272-b4a9-11eb-bf61-12bb97331649.png

對每個窗口大小取均值,然后乘以標(biāo)量beta加上我們增益偏置b的輸出

最大值池化

2e48523c-b4a9-11eb-bf61-12bb97331649.png

無論是選擇哪種池化方式都會輸出一個新低分辨率feature map,多數(shù)時候這個過程中會包含一定的信息損失,所以卷積神經(jīng)網(wǎng)絡(luò)一般通過擴展深度(增加feature map的數(shù)量)來補償。

重疊窗口與稀疏窗口

在進(jìn)行池化的時候我們?nèi)绻x擇步長=1進(jìn)行池化,通過這樣的池化方式輸出的結(jié)果我們稱為重疊池化輸出,它不利于特征的稀疏生成,重疊窗口池化與均值池化都有這樣的缺點,所以經(jīng)常采樣的是最大值池化,同時不會進(jìn)行窗口重疊,有實驗結(jié)果表明,在卷積層保持相同feature map與參數(shù)的情況下,最大值池化的結(jié)果明顯優(yōu)于重疊池化與均值池化,而且網(wǎng)絡(luò)的深度越深,兩者之間的準(zhǔn)確度差異越大。

總結(jié)

最終卷積神經(jīng)網(wǎng)絡(luò)經(jīng)過池化層操作對單位像素遷移和亮度影響進(jìn)行了校正,做到了圖像的遷移與亮度不變性的特征提取、而且在池化過程中通過不斷的降低圖像分辨率,構(gòu)建了圖像的多尺度特征,所以還具備尺度空間不變性,完成了圖像不變性特征提取工作。

原文標(biāo)題:卷積神經(jīng)網(wǎng)絡(luò)是如何實現(xiàn)不變性特征提取的?

文章出處:【微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:卷積神經(jīng)網(wǎng)絡(luò)是如何實現(xiàn)不變性特征提取的?

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    BP神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計原則

    ,僅作為數(shù)據(jù)輸入的接口。輸入層的神經(jīng)元個數(shù)通常與輸入數(shù)據(jù)的特征數(shù)量相對應(yīng)。 隱藏層 :對輸入信號進(jìn)行非線性變換,是神經(jīng)網(wǎng)絡(luò)的核心部分,負(fù)責(zé)學(xué)習(xí)輸入與輸出之間的復(fù)雜映射關(guān)系。隱藏層可以
    的頭像 發(fā)表于 02-12 16:41 ?741次閱讀

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)在多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋
    的頭像 發(fā)表于 02-12 15:53 ?663次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點分析

    自學(xué)習(xí)能力 : BP神經(jīng)網(wǎng)絡(luò)能夠通過訓(xùn)練數(shù)據(jù)自動調(diào)整網(wǎng)絡(luò)參數(shù),實現(xiàn)對輸入數(shù)據(jù)的分類、回歸等任務(wù),無需人工進(jìn)行復(fù)雜的特征工程。 泛化能力強 : BP神經(jīng)網(wǎng)絡(luò)通過訓(xùn)練數(shù)據(jù)學(xué)習(xí)到的
    的頭像 發(fā)表于 02-12 15:36 ?917次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    輸入層、隱藏層和輸出層組成。其中,輸入層負(fù)責(zé)接收外部輸入數(shù)據(jù),這些數(shù)據(jù)隨后被傳遞到隱藏層。隱藏層是BP神經(jīng)網(wǎng)絡(luò)的核心部分,它可以通過一層或多層神經(jīng)元對輸入數(shù)據(jù)進(jìn)行加權(quán)求和,并通過非線性激活函數(shù)(如ReLU、sigmoid或tan
    的頭像 發(fā)表于 02-12 15:13 ?847次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1184次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實現(xiàn)工具和框架應(yīng)運而生,為研究人員和開發(fā)者提供了強大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?669次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡(luò)因其在處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數(shù)的合理設(shè)置。參數(shù)調(diào)整是一個復(fù)雜的過程,涉及到多個超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡(luò)架構(gòu)參數(shù)
    的頭像 發(fā)表于 11-15 15:10 ?1206次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),它通過卷積層來
    的頭像 發(fā)表于 11-15 14:58 ?803次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?1867次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),其靈感來源于生物的視覺皮層機制。它通過模擬人類視覺系統(tǒng)的處理方式,能夠自動提取圖像特征,從而在圖像識別和分
    的頭像 發(fā)表于 11-15 14:52 ?844次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    ),是深度學(xué)習(xí)的代表算法之一。 一、基本原理 卷積運算 卷積運算是卷積神經(jīng)網(wǎng)絡(luò)的核心,用于提取圖像中的局部
    的頭像 發(fā)表于 11-15 14:47 ?1775次閱讀

    基于LSTM神經(jīng)網(wǎng)絡(luò)的情感分析方法

    能力而受到廣泛關(guān)注。 1. 引言 情感分析在商業(yè)智能、客戶服務(wù)、社交媒體監(jiān)控等領(lǐng)域具有廣泛的應(yīng)用。傳統(tǒng)的情感分析方法依賴于手工特征提取和機器學(xué)習(xí)算法,但這些方法往往難以處理文本中的長距離依賴關(guān)系。LSTM作為一種循環(huán)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-13 10:15 ?1273次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    隨著人工智能(AI)技術(shù)的快速發(fā)展,AI可以越來越多地支持以前無法實現(xiàn)或者難以實現(xiàn)的應(yīng)用。本文基于此解釋了 卷積神經(jīng)網(wǎng)絡(luò) (CNN)及其對人工智能和機器學(xué)習(xí)的意義。CNN是一種能夠從復(fù)雜數(shù)據(jù)中
    發(fā)表于 10-24 13:56

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14