專欄中《零神經(jīng)網(wǎng)絡實戰(zhàn)》系列持續(xù)更新介紹神經(jīng)元怎么工作,最后使用python從0到1不調(diào)用任何依賴神經(jīng)網(wǎng)絡框架(不使用tensorflow等框架)來實現(xiàn)神經(jīng)網(wǎng)絡,梯度下降、反向傳播、卷積神經(jīng)網(wǎng)絡CNN、循環(huán)神經(jīng)網(wǎng)絡RNN。從0基礎角度進行神經(jīng)網(wǎng)絡實戰(zhàn)。本篇為第三篇。
作者:司南牧
Alpha Zero就是利用強化學習打敗柯潔??梢哉f強化學習是我覺得目前最可以叫做智能的算法。因為不需要數(shù)據(jù)就能自己總結(jié)出經(jīng)驗,這符合人的學習方式。
注意:強化學習有很多概念,不要一開始被這些概念束縛了。首先得知道強化學習大致是什么,再看這些概念就會恍然大悟。 本文的思路就是先介紹我對強化學習的理解。然后介紹強化學習中的一些概念。最后是強化學習實踐。
打破概念束縛:強化學習是個啥?
答:強化學習就是受到動物從生活中學習技能的思想啟發(fā)的一種智能算法;那么怎么啟發(fā)的呢?動物學習技能的過程就是不斷嘗試各種行為,最后總結(jié)經(jīng)驗,然后以后遇到相同情況直接用以往的經(jīng)驗就可以。強化學習就是這么做的?!安粩嗖聹y,檢驗,再猜測,再檢驗,直到找到達成目標的經(jīng)驗”這個過程就是強化學習。它學習的經(jīng)驗叫做模型。學習到了這些經(jīng)驗后以后就不用猜測了,直接用經(jīng)驗就可以。強化學習“學到”的經(jīng)驗是什么:“在某個狀態(tài)下,做哪個行為,得到的獎勵最大”,經(jīng)驗這是一個列表是一本教科書。
總結(jié):強化學習的輸出結(jié)果是找到解決某個問題的經(jīng)驗。強化學習的過程是不斷亂嘗試,并記錄所處的狀態(tài)和行為,找到某個狀態(tài)下獎勵最大的行為。
為何要用強化學習?( 知道為什么才是打破概念束縛的關(guān)鍵)
答:因為智能體不知道哪些行為可以產(chǎn)生獎勵,也不知道什么時候會來獎勵。這些經(jīng)驗都是要從環(huán)境中學習所得到。
似懂非懂?沒關(guān)系有個模糊的是那么回事的印象就可以??聪旅娴睦泳投?。
舉個例子:在高中生物書上有個“巴甫洛夫的狗”這個實驗。 就是巴甫洛夫每次給它狗喂食的時候都會搖鈴鐺,然后這條狗慢慢學到了“搖鈴鐺=有東西吃”這個經(jīng)驗。然后學到這個經(jīng)驗后,只要“搖鈴鐺”它就會流口水。強化學習就是受到這種啟發(fā)而發(fā)明的算法。
從“巴甫洛夫的狗”看強化學習幾個概念
強化學習思想很簡單,7個詞夠了:
智能體、目標、環(huán)境、觀察、狀態(tài)、行動、獎勵
不要慌。接下來用例子來解釋著7個東西是什么。 我們用“巴甫洛夫的狗”這個實驗解釋下這強化學習這個六個要素。
智能體。首先這條狗它是一個智能體(Agent)。
目標。它的目標(Goal)是吃飯。
環(huán)境。環(huán)境就是字面意思,它在的這個地方發(fā)生的一切都屬于環(huán)境里面的東西。
觀察。然后,它各種看和聽什么現(xiàn)象和食物相關(guān)。這個過程叫做觀察。
狀態(tài)。觀察到的內(nèi)容叫做狀態(tài)(state)。這里的狀態(tài)是:有沒有飯吃、有沒有人說話、有沒有腳步聲、有沒有鈴聲。
行為。然后它根據(jù)這些觀察會作出一些動作,如:“搖尾巴,流口水等等”。這個叫做行為(action)。行為是根據(jù)觀察到內(nèi)容(狀態(tài))而作出的。 這里可能的行為是(前半部分是狀態(tài),后半部分是行為):
聽到腳步聲——搖尾巴
聽到鈴聲——流口水
聽到腳步聲——流口水
看到天黑了——汪汪汪叫
7.獎勵。在這里,獎勵是作出的行為有沒有飯吃。
聽到腳步聲——搖尾巴——沒飯吃
聽到鈴聲——流口水——有飯吃
聽到腳步聲——流口水——沒飯吃
看到天黑了——汪汪汪叫——沒飯吃
從“巴甫洛夫的狗”分析強化學習執(zhí)行過程
現(xiàn)在,我想你隱隱約約應該看出動物怎么學習的了。就是“不斷猜測,檢驗,再猜測,再檢驗”,檢驗唯一標準是有沒有達成目標。
但是怎么理性科學的看待這個問題呢?答:“不斷猜測,檢驗,再猜測,再檢驗,直到找到達成目標的經(jīng)驗”這個過程就是強化學習。它學習的經(jīng)驗叫做模型。學習到了這些經(jīng)驗后以后就不用猜測了,直接用經(jīng)驗就可以。強化學習“學到”的經(jīng)驗是什么:“在某個狀態(tài)下,做哪個行為,得到的獎勵最大”,這是一個列表清單。
為何“狗”要不斷嘗試呢?
因為它不知道哪些行為可以產(chǎn)生獎勵,也不知道什么時候會來獎勵。這些都是要從環(huán)境中學習所得到。
審核編輯 黃昊宇
-
人工智能
+關(guān)注
關(guān)注
1807文章
49035瀏覽量
249743 -
強化學習
+關(guān)注
關(guān)注
4文章
269瀏覽量
11607
發(fā)布評論請先 登錄
18個常用的強化學習算法整理:從基礎方法到高級模型的理論技術(shù)與代碼實現(xiàn)

如何優(yōu)化BP神經(jīng)網(wǎng)絡的學習率
BP神經(jīng)網(wǎng)絡的優(yōu)缺點分析
什么是BP神經(jīng)網(wǎng)絡的反向傳播算法
BP神經(jīng)網(wǎng)絡與深度學習的關(guān)系
深度學習入門:簡單神經(jīng)網(wǎng)絡的構(gòu)建與實現(xiàn)
神經(jīng)網(wǎng)絡理論研究的物理學思想介紹

人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構(gòu)方法

評論