99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)分類(lèi)與預(yù)測(cè)的基本原理

倩倩 ? 來(lái)源:Python那些事 ? 2020-04-17 10:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

文章目標(biāo):神經(jīng)網(wǎng)絡(luò)特別是深層神經(jīng)網(wǎng)絡(luò)是黑盒的,通過(guò)閱讀本文可以讓大家了解神經(jīng)網(wǎng)絡(luò)的基本實(shí)現(xiàn)方法、基本數(shù)學(xué)原理、實(shí)現(xiàn)流程等,同時(shí)建議初學(xué)者從基礎(chǔ)學(xué)起,查詢(xún)更多的資料豐富認(rèn)知,有不明白的地方可以關(guān)注作者或留言。

人工神經(jīng)網(wǎng)絡(luò)起源于上世紀(jì)40~50年代,它是在基于人腦的基本單元-神經(jīng)元的建模與聯(lián)結(jié),模擬人腦神經(jīng)系統(tǒng),形成一種具有學(xué)習(xí)、聯(lián)想、記憶和模式識(shí)別等智能信息處理的人工系統(tǒng),稱(chēng)為人工神經(jīng)網(wǎng)絡(luò)。1969年出版的轟動(dòng)一時(shí)的《Perceptrons》一書(shū)指出簡(jiǎn)單的線(xiàn)性感知器的功能是有限的,它無(wú)非解決線(xiàn)性不可分的而分類(lèi)問(wèn)題,如簡(jiǎn)單的線(xiàn)性感知器不能實(shí)現(xiàn)“異或”的邏輯關(guān)系,加上神經(jīng)網(wǎng)絡(luò)就和黑夾子一樣,很多東西不透明,模型的解釋性不強(qiáng),參數(shù)過(guò)多,容易出錯(cuò),容易過(guò)擬合,無(wú)法保證全局最優(yōu)等問(wèn)題,同時(shí)70年代集成電路和微電子技術(shù)的迅猛發(fā)展,使得傳統(tǒng)的Von Neumenn計(jì)算機(jī)進(jìn)入全盛時(shí)期,基于邏輯符號(hào)處理方法的人工智能得到了迅速發(fā)展并取得了顯著的成果。

1982年,美國(guó)科學(xué)院發(fā)表了著名的Hopfield網(wǎng)絡(luò)模型的理論,不僅對(duì)ANN信息存儲(chǔ)和提取功能進(jìn)行了非線(xiàn)性數(shù)學(xué)概括,提出了動(dòng)力方程和學(xué)習(xí)方程,使得ANN的構(gòu)造與學(xué)習(xí)有了理論指導(dǎo)。這一研究激發(fā)了ANN的研究熱情。

為了描述神經(jīng)網(wǎng)絡(luò),先從最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)講起,這個(gè)神經(jīng)網(wǎng)絡(luò)僅由一個(gè)“神經(jīng)元”構(gòu)成,“神經(jīng)元”的圖示如下:

那么想得到預(yù)測(cè)或者分類(lèi)的結(jié)果,就需要了解激活函數(shù),激活函數(shù)的作用:能使得神經(jīng)網(wǎng)絡(luò)的每層輸出結(jié)果變得非線(xiàn)性化,進(jìn)行數(shù)值轉(zhuǎn)換,具有如下性質(zhì):

可微性:計(jì)算梯度時(shí)必須要有此性質(zhì);

非線(xiàn)性:保證數(shù)據(jù)非線(xiàn)性可分;

單調(diào)性:保證凸函數(shù);

輸出值與輸入值相差不會(huì)很大:保證神經(jīng)網(wǎng)絡(luò)訓(xùn)練和調(diào)參高效;

常用的激活函數(shù)有很多,本文列出3個(gè):Sigmoid、TANH、ReLU,數(shù)據(jù)經(jīng)過(guò)激活函數(shù)進(jìn)行轉(zhuǎn)換:

經(jīng)過(guò)激活函數(shù)轉(zhuǎn)換后得到預(yù)測(cè)標(biāo)簽y,對(duì)于有監(jiān)督的分類(lèi)問(wèn)題來(lái)說(shuō),比如二分類(lèi)label是0、1,那我們?nèi)绾斡?jì)算預(yù)測(cè)標(biāo)簽y與實(shí)際值的差距呢,就是我們要講的幾個(gè)概念了。

損失函數(shù):計(jì)算的是一個(gè)樣本的誤差;

代價(jià)函數(shù):是整個(gè)訓(xùn)練集上所有樣本誤差的平均;

目標(biāo)函數(shù):代價(jià)函數(shù) + 正則化項(xiàng);

通過(guò)目標(biāo)函數(shù)我們就可以衡量訓(xùn)練集的損失,這種損失我們?nèi)绾螠p少到最小呢?就是神經(jīng)網(wǎng)絡(luò)的優(yōu)化器,常用優(yōu)化器如下:

SGD(Stochastic gradient descent)

Adagrad

RMSprop

Adam

作用:更新和計(jì)算影響模型訓(xùn)練和模型輸出的網(wǎng)絡(luò)參數(shù),使其逼近或達(dá)到最優(yōu)值,從而最小化(或最大化)損失函數(shù)E(x)

通過(guò)優(yōu)化器的多次優(yōu)化,我們就可以對(duì)模型進(jìn)行訓(xùn)練和模型優(yōu)化了,本文是個(gè)簡(jiǎn)單的Demo,后續(xù)會(huì)詳細(xì)介紹,有問(wèn)題可以留言及關(guān)注;

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練網(wǎng)絡(luò)結(jié)
    發(fā)表于 06-25 13:06

    使用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測(cè)

    使用BP(Backpropagation)神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測(cè)是一種常見(jiàn)且有效的方法。以下是一個(gè)基于BP神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測(cè)的詳細(xì)步驟和考慮因素: 一、數(shù)據(jù)準(zhǔn)備 收集數(shù)據(jù) :
    的頭像 發(fā)表于 02-12 16:44 ?773次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?673次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    自學(xué)習(xí)能力 : BP神經(jīng)網(wǎng)絡(luò)能夠通過(guò)訓(xùn)練數(shù)據(jù)自動(dòng)調(diào)整網(wǎng)絡(luò)參數(shù),實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的分類(lèi)、回歸等任務(wù),無(wú)需人工進(jìn)行復(fù)雜的特征工程。 泛化能力強(qiáng) : BP
    的頭像 發(fā)表于 02-12 15:36 ?926次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立在梯度下降法的基礎(chǔ)上,是一種適合于多層神經(jīng)元網(wǎng)絡(luò)的學(xué)習(xí)算法。該算法通過(guò)計(jì)算每層網(wǎng)絡(luò)的誤差,并將這些誤差反向傳播到前一層,從而調(diào)整權(quán)重,使得
    的頭像 發(fā)表于 02-12 15:18 ?775次閱讀

    BP神經(jīng)網(wǎng)絡(luò)基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個(gè)核心過(guò)程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、
    的頭像 發(fā)表于 02-12 15:13 ?864次閱讀

    BP神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的應(yīng)用

    BP神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中發(fā)揮著重要作用,其多層結(jié)構(gòu)使得網(wǎng)絡(luò)能夠?qū)W習(xí)到復(fù)雜的特征表達(dá),適用于處理非線(xiàn)性問(wèn)題。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中應(yīng)用的分析: 一、BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:12 ?681次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1209次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見(jiàn)的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:53 ?1879次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)基本原理與算法

    ),是深度學(xué)習(xí)的代表算法之一。 一、基本原理 卷積運(yùn)算 卷積運(yùn)算是卷積神經(jīng)網(wǎng)絡(luò)的核心,用于提取圖像中的局部特征。 定義卷積核:卷積核是一個(gè)小的矩陣,用于在輸入圖像上滑動(dòng),提取局部特征。 滑動(dòng)窗口:將卷積核在輸入圖像上滑動(dòng),每次滑動(dòng)一個(gè)像素點(diǎn)。 計(jì)算卷積:將卷積核與輸入圖像
    的頭像 發(fā)表于 11-15 14:47 ?1785次閱讀

    RNN的基本原理實(shí)現(xiàn)

    RNN,即循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network),是一種特殊類(lèi)型的人工神經(jīng)網(wǎng)絡(luò),專(zhuān)門(mén)設(shè)計(jì)用于處理序列數(shù)據(jù),如文本、語(yǔ)音、視頻等。以下是對(duì)RNN基本原理實(shí)現(xiàn)
    的頭像 發(fā)表于 11-15 09:49 ?1453次閱讀

    深度學(xué)習(xí)框架中的LSTM神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)

    處理、語(yǔ)音識(shí)別和時(shí)間序列預(yù)測(cè)等領(lǐng)域,LSTM已經(jīng)成為一種流行的選擇。 LSTM的基本原理 LSTM網(wǎng)絡(luò)的核心是三個(gè)門(mén)控機(jī)制:輸入門(mén)(Input Gate)、遺忘門(mén)(Forget Gate)和輸出門(mén)(Output Gate)。這些
    的頭像 發(fā)表于 11-13 10:16 ?1068次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在圖像處理中的應(yīng)用

    長(zhǎng)短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長(zhǎng)期依賴(lài)關(guān)系。雖然LSTM最初是為處理序列數(shù)據(jù)設(shè)計(jì)的,但近年來(lái),它在圖像處理領(lǐng)域也展現(xiàn)出了巨大的潛力。 LSTM基本原理
    的頭像 發(fā)表于 11-13 10:12 ?1623次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在時(shí)間序列預(yù)測(cè)中的應(yīng)用

    時(shí)間序列預(yù)測(cè)是數(shù)據(jù)分析中的一個(gè)重要領(lǐng)域,它涉及到基于歷史數(shù)據(jù)預(yù)測(cè)未來(lái)值。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,長(zhǎng)短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)因其在處理序列數(shù)據(jù)方面的優(yōu)勢(shì)而受到廣泛關(guān)注。 LSTM神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-13 09:54 ?2054次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)基本原理 如何實(shí)現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    廣泛應(yīng)用。 LSTM神經(jīng)網(wǎng)絡(luò)基本原理 1. 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的局限性 傳統(tǒng)的RNN在處理長(zhǎng)序列數(shù)據(jù)時(shí)會(huì)遇到梯度消失或梯度爆炸的問(wèn)題,導(dǎo)致網(wǎng)絡(luò)難以學(xué)習(xí)到長(zhǎng)期依賴(lài)信息。這是因?yàn)樵诜?/div>
    的頭像 發(fā)表于 11-13 09:53 ?1587次閱讀