99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

【世說(shuō)知識(shí)】干貨速來(lái)!詳析卷積神經(jīng)網(wǎng)絡(luò)(CNN)的特性和應(yīng)用

Excelpoint世健 ? 2023-04-09 14:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文重點(diǎn)解釋如何訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)以解決實(shí)際問(wèn)題。

01神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程

CIFAR網(wǎng)絡(luò)由不同層的神經(jīng)元組成。如圖1所示,32 × 32像素的圖像數(shù)據(jù)被呈現(xiàn)給網(wǎng)絡(luò)并通過(guò)網(wǎng)絡(luò)層傳遞。CNN處理過(guò)程的第一步就是提取待區(qū)分對(duì)象的特性和結(jié)構(gòu),這需要借助濾波器矩陣實(shí)現(xiàn)。設(shè)計(jì)人員對(duì)CIFAR網(wǎng)絡(luò)進(jìn)行建模后,由于最初無(wú)法確定這些濾波器矩陣,因此這個(gè)階段的網(wǎng)絡(luò)無(wú)法檢測(cè)模式和對(duì)象。

為此,首先需要確定濾波器矩陣的所有參數(shù),以最大限度地提高檢測(cè)對(duì)象的精度或最大限度地減少損失函數(shù)。這個(gè)過(guò)程就稱(chēng)為神經(jīng)網(wǎng)絡(luò)訓(xùn)練。前文所描述的常見(jiàn)應(yīng)用在開(kāi)發(fā)和測(cè)試期間只需對(duì)網(wǎng)絡(luò)進(jìn)行一次訓(xùn)練就可以使用,無(wú)需再調(diào)整參數(shù)。如果系統(tǒng)對(duì)熟悉的對(duì)象進(jìn)行分類(lèi),則無(wú)需額外訓(xùn)練;當(dāng)系統(tǒng)需要對(duì)全新的對(duì)象進(jìn)行分類(lèi)時(shí),才需要額外進(jìn)行訓(xùn)練。

進(jìn)行網(wǎng)絡(luò)訓(xùn)練需要使用訓(xùn)練數(shù)據(jù)集,并使用類(lèi)似的一組測(cè)試數(shù)據(jù)集來(lái)測(cè)試網(wǎng)絡(luò)的精度。例如CIFAR-10網(wǎng)絡(luò)數(shù)據(jù)集為十個(gè)對(duì)象類(lèi)的圖像集合:飛機(jī)、汽車(chē)、鳥(niǎo)、貓、鹿、狗、青蛙、馬、輪船和卡車(chē)。我們必須在訓(xùn)練CNN之前對(duì)這些圖像進(jìn)行命名,這也是人工智能應(yīng)用開(kāi)發(fā)過(guò)程中最為復(fù)雜的部分。本文討論的訓(xùn)練過(guò)程采用反向傳播的原理,即向網(wǎng)絡(luò)連續(xù)展示大量圖像,并且每次都同時(shí)傳送一個(gè)目標(biāo)值。本例的目標(biāo)值為圖像中相關(guān)的對(duì)象類(lèi)。在每次顯示圖像時(shí),濾波器矩陣都會(huì)被優(yōu)化,這樣對(duì)象類(lèi)的目標(biāo)值就會(huì)和實(shí)際值相匹配。完成此過(guò)程的網(wǎng)絡(luò)就能夠檢測(cè)出訓(xùn)練期間從未看到過(guò)的圖像中的對(duì)象。

02過(guò)擬合和欠擬合

在神經(jīng)網(wǎng)絡(luò)的建模過(guò)程中經(jīng)常會(huì)出現(xiàn)的問(wèn)題是:神經(jīng)網(wǎng)絡(luò)應(yīng)該有多少層,或者是神經(jīng)網(wǎng)絡(luò)的濾波器矩陣應(yīng)該有多大。回答這個(gè)問(wèn)題并非易事,因此討論網(wǎng)絡(luò)的過(guò)擬合和欠擬合至關(guān)重要。過(guò)擬合由模型過(guò)于復(fù)雜以及參數(shù)過(guò)多而導(dǎo)致。我們可以通過(guò)比較訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集的損失來(lái)確定預(yù)測(cè)模型與訓(xùn)練數(shù)據(jù)集的擬合程度。如果訓(xùn)練期間損失較低并且在向網(wǎng)絡(luò)呈現(xiàn)從未顯示過(guò)的測(cè)試數(shù)據(jù)時(shí)損失過(guò)度增加,這就強(qiáng)烈表明網(wǎng)絡(luò)已經(jīng)記住了訓(xùn)練數(shù)據(jù)而不是在實(shí)施模式識(shí)別。此類(lèi)情況主要發(fā)生在網(wǎng)絡(luò)的參數(shù)存儲(chǔ)空間過(guò)大或者網(wǎng)絡(luò)的卷積層過(guò)多的時(shí)候。這種情況下應(yīng)當(dāng)縮小網(wǎng)絡(luò)規(guī)模。

03損失函數(shù)和訓(xùn)練算法

學(xué)習(xí)分兩個(gè)步驟進(jìn)行。第一步,向網(wǎng)絡(luò)展示圖像,然后由神經(jīng)元網(wǎng)絡(luò)處理這些圖像生成一個(gè)輸出矢量。輸出矢量的最大值表示檢測(cè)到的對(duì)象類(lèi),例如示例中的"狗",該值不一定是正確的。這一步稱(chēng)為前向傳播。

目標(biāo)值與輸出時(shí)產(chǎn)生的實(shí)際值之間的差值稱(chēng)為損失,相關(guān)函數(shù)則稱(chēng)為損失函數(shù)。網(wǎng)絡(luò)的所有要素和參數(shù)均包含在損失函數(shù)中。神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程旨在以最小化損失函數(shù)的方式定義這些參數(shù)。這種最小化可通過(guò)反向傳播的過(guò)程實(shí)現(xiàn)。在反向傳播的過(guò)程中,輸出產(chǎn)生的偏置(損失 = 目標(biāo)值-實(shí)際值)通過(guò)網(wǎng)絡(luò)的各層反饋,直至達(dá)到網(wǎng)絡(luò)的起始層。

因此,前向傳播和反向傳播在訓(xùn)練過(guò)程中產(chǎn)生了一個(gè)可以逐步確定濾波器矩陣參數(shù)的循環(huán)。這種循環(huán)過(guò)程會(huì)不斷重復(fù),直至損失值降至一定程度以下。

04優(yōu)化算法、梯度和梯度下降法

為說(shuō)明訓(xùn)練過(guò)程,圖3顯示了一個(gè)包含x和y兩個(gè)參數(shù)的損失函數(shù)的示例,這里z軸對(duì)應(yīng)于損失。如果我們仔細(xì)查看該損失函數(shù)的三維函數(shù)圖,我們就會(huì)發(fā)現(xiàn)這個(gè)函數(shù)有一個(gè)全局最小值和一個(gè)局部最小值。

目前,有大量數(shù)值優(yōu)化算法可用于確定權(quán)重和偏置。其中,梯度下降法最為簡(jiǎn)單。梯度下降法的理念是使用梯度算子在逐步訓(xùn)練的過(guò)程中找到一條通向全局最小值的路徑,該路徑的起點(diǎn)從損失函數(shù)中隨機(jī)選擇。梯度算子是一個(gè)數(shù)學(xué)運(yùn)算符,它會(huì)在損失函數(shù)的每個(gè)點(diǎn)生成一個(gè)梯度矢量。該矢量的方向指向函數(shù)值變化最大的方向,幅度對(duì)應(yīng)于函數(shù)值的變化程度。在圖3的函數(shù)中,右下角(紅色箭頭處)由于表面平坦,因此梯度矢量的幅度較小。而接近峰值時(shí)的情況則完全不同。此處矢量(綠色箭頭)的方向急劇向下,并且由于此處高低差明顯,梯度矢量的幅度也較大。

因此我們可以利用梯度下降法從任意選定的起點(diǎn)開(kāi)始以迭代的方式尋找下降至山谷的最陡峭路徑。這意味著優(yōu)化算法會(huì)在起點(diǎn)計(jì)算梯度,并沿最陡峭的下降方向前進(jìn)一小步。之后算法會(huì)重新計(jì)算該點(diǎn)的梯度,繼續(xù)尋找創(chuàng)建一條從起點(diǎn)到山谷的路徑。這種方法的問(wèn)題在于起點(diǎn)并非是提前定義的,而是隨機(jī)選擇的。在我們的三維地圖中,某些細(xì)心的讀者會(huì)將起點(diǎn)置于函數(shù)圖左側(cè)的某個(gè)位置,以確保路徑的終點(diǎn)為全局最小值(如藍(lán)色路徑所示)。其他兩個(gè)路徑(黃色和橙色)要么非常長(zhǎng),要么終點(diǎn)位于局部最小值。但是,算法必須對(duì)成千上萬(wàn)個(gè)參數(shù)進(jìn)行優(yōu)化,顯然起點(diǎn)的選擇不可能每次都碰巧正確。在具體實(shí)踐中,這種方法用處不大。因?yàn)樗x擇的起點(diǎn)可能會(huì)導(dǎo)致路徑(即訓(xùn)練時(shí)間)較長(zhǎng),或者目標(biāo)點(diǎn)并不位于全局最小值,導(dǎo)致網(wǎng)絡(luò)的精度下降。

因此,為避免上述問(wèn)題,過(guò)去幾年已開(kāi)發(fā)出大量可作為替代的優(yōu)化算法。一些替代的方法包括隨機(jī)梯度下降法、動(dòng)量法、AdaGrad方法、RMSProp方法、Adam方法等。鑒于每種算法都有其特定的優(yōu)缺點(diǎn),實(shí)踐中具體使用的算法將由網(wǎng)絡(luò)開(kāi)發(fā)人員決定。

05訓(xùn)練數(shù)據(jù)

在訓(xùn)練過(guò)程中,我們會(huì)向網(wǎng)絡(luò)提供標(biāo)有正確對(duì)象類(lèi)的圖像,如汽車(chē)、輪船等。本例使用了已有的 CIFAR-10 dataset。當(dāng)然,在具體實(shí)踐中,人工智能可能會(huì)用于識(shí)別貓、狗和汽車(chē)之外的領(lǐng)域。這可能需要開(kāi)發(fā)新應(yīng)用,例如檢測(cè)制造過(guò)程中螺釘?shù)馁|(zhì)量必須使用能夠區(qū)分好壞螺釘?shù)挠?xùn)練數(shù)據(jù)對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。創(chuàng)建此類(lèi)數(shù)據(jù)集極其耗時(shí)費(fèi)力,往往是開(kāi)發(fā)人工智能應(yīng)用過(guò)程中成本最高的一步。編譯完成的數(shù)據(jù)集分為訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集。訓(xùn)練數(shù)據(jù)集用于訓(xùn)練,而測(cè)試數(shù)據(jù)則用于在開(kāi)發(fā)過(guò)程的最后檢查訓(xùn)練好的網(wǎng)絡(luò)的功能。


原文轉(zhuǎn)自亞德諾半導(dǎo)體

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103568
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    354

    瀏覽量

    22741
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測(cè)皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    自動(dòng)駕駛感知系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)原理的疑點(diǎn)分析

    背景 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的核心技術(shù)主要包括以下幾個(gè)方面:局部連接、權(quán)值共享、多卷積核以及池化。這些技術(shù)共同作用,使得
    的頭像 發(fā)表于 04-07 09:15 ?360次閱讀
    自動(dòng)駕駛感知系統(tǒng)中<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理的疑點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一層都由若干個(gè)神經(jīng)元構(gòu)成,神經(jīng)元之間通過(guò)權(quán)重連接。信號(hào)在神經(jīng)網(wǎng)絡(luò)中是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?659次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?1183次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實(shí)現(xiàn)工具和框架應(yīng)運(yùn)而生,為研究人員和開(kāi)發(fā)者提供了強(qiáng)大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?666次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡(luò)因其在處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時(shí)的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴(lài)于其參數(shù)的合理設(shè)置。參數(shù)調(diào)整是一個(gè)復(fù)雜的過(guò)程,涉及到多個(gè)超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 15:10 ?1204次閱讀

    使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類(lèi)的步驟

    使用卷積神經(jīng)網(wǎng)絡(luò)CNN)進(jìn)行圖像分類(lèi)是一個(gè)涉及多個(gè)步驟的過(guò)程。 1. 問(wèn)題定義 確定目標(biāo) :明確你想要分類(lèi)的圖像類(lèi)型,例如貓和狗、不同的植物種類(lèi)等。 數(shù)據(jù)需求 :確定需要多少數(shù)據(jù)以及數(shù)據(jù)的類(lèi)型
    的頭像 發(fā)表于 11-15 15:01 ?843次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強(qiáng)大的模型,在圖像識(shí)別和語(yǔ)音處理等領(lǐng)域取得了顯著成果
    的頭像 發(fā)表于 11-15 14:58 ?802次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見(jiàn)的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?1865次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來(lái)在多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識(shí)別、語(yǔ)音識(shí)別和自然語(yǔ)言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個(gè)分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:52 ?844次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類(lèi)包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedf
    的頭像 發(fā)表于 11-15 14:47 ?1772次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類(lèi)型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1124次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    不熟悉神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí),或者想了解神經(jīng)網(wǎng)絡(luò)如何優(yōu)化加速實(shí)驗(yàn)研究,請(qǐng)繼續(xù)閱讀,探索基于深度學(xué)習(xí)的現(xiàn)代智能化實(shí)驗(yàn)的廣闊應(yīng)用前景。什么是神經(jīng)網(wǎng)絡(luò)?“人工
    的頭像 發(fā)表于 11-01 08:06 ?661次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    隨著人工智能(AI)技術(shù)的快速發(fā)展,AI可以越來(lái)越多地支持以前無(wú)法實(shí)現(xiàn)或者難以實(shí)現(xiàn)的應(yīng)用。本文基于此解釋了 卷積神經(jīng)網(wǎng)絡(luò) (CNN)及其對(duì)人工智能和機(jī)器學(xué)習(xí)的意義。CNN是一種能夠從
    發(fā)表于 10-24 13:56

    UNet模型屬于哪種神經(jīng)網(wǎng)絡(luò)

    U-Net模型屬于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)的一種特殊形式 。它最初由德國(guó)弗萊堡大學(xué)計(jì)算機(jī)科學(xué)系的研究人員在2015年提出,專(zhuān)為生物醫(yī)學(xué)圖像
    的頭像 發(fā)表于 07-24 10:59 ?5533次閱讀