文章目標(biāo):神經(jīng)網(wǎng)絡(luò)特別是深層神經(jīng)網(wǎng)絡(luò)是黑盒的,通過(guò)閱讀本文可以讓大家了解神經(jīng)網(wǎng)絡(luò)的基本實(shí)現(xiàn)方法、基本數(shù)學(xué)原理、實(shí)現(xiàn)流程等,同時(shí)建議初學(xué)者從基礎(chǔ)學(xué)起,查詢(xún)更多的資料豐富認(rèn)知,有不明白的地方可以關(guān)注作者或留言。
人工神經(jīng)網(wǎng)絡(luò)起源于上世紀(jì)40~50年代,它是在基于人腦的基本單元-神經(jīng)元的建模與聯(lián)結(jié),模擬人腦神經(jīng)系統(tǒng),形成一種具有學(xué)習(xí)、聯(lián)想、記憶和模式識(shí)別等智能信息處理的人工系統(tǒng),稱(chēng)為人工神經(jīng)網(wǎng)絡(luò)。1969年出版的轟動(dòng)一時(shí)的《Perceptrons》一書(shū)指出簡(jiǎn)單的線(xiàn)性感知器的功能是有限的,它無(wú)非解決線(xiàn)性不可分的而分類(lèi)問(wèn)題,如簡(jiǎn)單的線(xiàn)性感知器不能實(shí)現(xiàn)“異或”的邏輯關(guān)系,加上神經(jīng)網(wǎng)絡(luò)就和黑夾子一樣,很多東西不透明,模型的解釋性不強(qiáng),參數(shù)過(guò)多,容易出錯(cuò),容易過(guò)擬合,無(wú)法保證全局最優(yōu)等問(wèn)題,同時(shí)70年代集成電路和微電子技術(shù)的迅猛發(fā)展,使得傳統(tǒng)的Von Neumenn計(jì)算機(jī)進(jìn)入全盛時(shí)期,基于邏輯符號(hào)處理方法的人工智能得到了迅速發(fā)展并取得了顯著的成果。
1982年,美國(guó)科學(xué)院發(fā)表了著名的Hopfield網(wǎng)絡(luò)模型的理論,不僅對(duì)ANN信息存儲(chǔ)和提取功能進(jìn)行了非線(xiàn)性數(shù)學(xué)概括,提出了動(dòng)力方程和學(xué)習(xí)方程,使得ANN的構(gòu)造與學(xué)習(xí)有了理論指導(dǎo)。這一研究激發(fā)了ANN的研究熱情。
為了描述神經(jīng)網(wǎng)絡(luò),先從最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)講起,這個(gè)神經(jīng)網(wǎng)絡(luò)僅由一個(gè)“神經(jīng)元”構(gòu)成,“神經(jīng)元”的圖示如下:
那么想得到預(yù)測(cè)或者分類(lèi)的結(jié)果,就需要了解激活函數(shù),激活函數(shù)的作用:能使得神經(jīng)網(wǎng)絡(luò)的每層輸出結(jié)果變得非線(xiàn)性化,進(jìn)行數(shù)值轉(zhuǎn)換,具有如下性質(zhì):
可微性:計(jì)算梯度時(shí)必須要有此性質(zhì);
非線(xiàn)性:保證數(shù)據(jù)非線(xiàn)性可分;
單調(diào)性:保證凸函數(shù);
輸出值與輸入值相差不會(huì)很大:保證神經(jīng)網(wǎng)絡(luò)訓(xùn)練和調(diào)參高效;
常用的激活函數(shù)有很多,本文列出3個(gè):Sigmoid、TANH、ReLU,數(shù)據(jù)經(jīng)過(guò)激活函數(shù)進(jìn)行轉(zhuǎn)換:
經(jīng)過(guò)激活函數(shù)轉(zhuǎn)換后得到預(yù)測(cè)標(biāo)簽y,對(duì)于有監(jiān)督的分類(lèi)問(wèn)題來(lái)說(shuō),比如二分類(lèi)label是0、1,那我們?nèi)绾斡?jì)算預(yù)測(cè)標(biāo)簽y與實(shí)際值的差距呢,就是我們要講的幾個(gè)概念了。
損失函數(shù):計(jì)算的是一個(gè)樣本的誤差;
代價(jià)函數(shù):是整個(gè)訓(xùn)練集上所有樣本誤差的平均;
目標(biāo)函數(shù):代價(jià)函數(shù) + 正則化項(xiàng);
通過(guò)目標(biāo)函數(shù)我們就可以衡量訓(xùn)練集的損失,這種損失我們?nèi)绾螠p少到最小呢?就是神經(jīng)網(wǎng)絡(luò)的優(yōu)化器,常用優(yōu)化器如下:
SGD(Stochastic gradient descent)
Adagrad
RMSprop
Adam
作用:更新和計(jì)算影響模型訓(xùn)練和模型輸出的網(wǎng)絡(luò)參數(shù),使其逼近或達(dá)到最優(yōu)值,從而最小化(或最大化)損失函數(shù)E(x)
通過(guò)優(yōu)化器的多次優(yōu)化,我們就可以對(duì)模型進(jìn)行訓(xùn)練和模型優(yōu)化了,本文是個(gè)簡(jiǎn)單的Demo,后續(xù)會(huì)詳細(xì)介紹,有問(wèn)題可以留言及關(guān)注;
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4814瀏覽量
103661 -
人工智能
+關(guān)注
關(guān)注
1807文章
49029瀏覽量
249608
發(fā)布評(píng)論請(qǐng)先 登錄
無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究
使用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測(cè)
BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較
BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析
什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法
BP神經(jīng)網(wǎng)絡(luò)的基本原理
BP神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的應(yīng)用
人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

評(píng)論