99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

循環(huán)神經(jīng)網(wǎng)絡(luò)注意力的模擬實(shí)現(xiàn)

電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2018-10-22 08:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

我們觀察PPT的時(shí)候,面對(duì)整個(gè)場(chǎng)景,不會(huì)一下子處理全部場(chǎng)景信息,而會(huì)有選擇地分配注意力,每次關(guān)注不同的區(qū)域,然后將信息整合來(lái)得到整個(gè)的視覺(jué)印象,進(jìn)而指導(dǎo)后面的眼球運(yùn)動(dòng)。將感興趣的東西放在視野中心,每次只處理視野中的部分,忽略視野外區(qū)域,這樣做最大的好處是降低了任務(wù)的復(fù)雜度。

深度學(xué)習(xí)領(lǐng)域中,處理一張大圖的時(shí)候,使用卷積神經(jīng)網(wǎng)絡(luò)的計(jì)算量隨著圖片像素的增加而線性增加。如果參考人的視覺(jué),有選擇地分配注意力,就能選擇性地從圖片或視頻中提取一系列的區(qū)域,每次只對(duì)提取的區(qū)域進(jìn)行處理,再逐漸地把這些信息結(jié)合起來(lái),建立場(chǎng)景或者環(huán)境的動(dòng)態(tài)內(nèi)部表示,這就是本文所要講述的循環(huán)神經(jīng)網(wǎng)絡(luò)注意力模型。

怎么實(shí)現(xiàn)的呢?

把注意力問(wèn)題當(dāng)做一系列agent決策過(guò)程,agent可以理解為智能體,這里用的是一個(gè)RNN網(wǎng)絡(luò),而這個(gè)決策過(guò)程是目標(biāo)導(dǎo)向的。簡(jiǎn)要來(lái)講,每次agent只通過(guò)一個(gè)帶寬限制的傳感器觀察環(huán)境,每一步處理一次傳感器數(shù)據(jù),再把每一步的數(shù)據(jù)隨著時(shí)間融合,選擇下一次如何配置傳感器資源;每一步會(huì)接受一個(gè)標(biāo)量的獎(jiǎng)勵(lì),這個(gè)agent的目的就是最大化標(biāo)量獎(jiǎng)勵(lì)值的總和。

下面我們來(lái)具體講解一下這個(gè)網(wǎng)絡(luò)。

如上所示,圖A是帶寬傳感器,傳感器在給定位置選取不同分辨率的圖像塊,大一點(diǎn)的圖像塊的邊長(zhǎng)是小一點(diǎn)圖像塊邊長(zhǎng)的兩倍,然后resize到和小圖像塊一樣的大小,把圖像塊組輸出到B。

圖B是glimpse network,這個(gè)網(wǎng)絡(luò)是以theta為參數(shù),兩個(gè)全連接層構(gòu)成的網(wǎng)絡(luò),將傳感器輸出的圖像塊組和對(duì)應(yīng)的位置信息以線性網(wǎng)絡(luò)的方式結(jié)合到一起,輸出gt。

圖C是循環(huán)神經(jīng)網(wǎng)絡(luò)即RNN的主體,把glimpse network輸出的gt投進(jìn)去,再和之前內(nèi)部信息ht-1結(jié)合,得到新的狀態(tài)ht,再根據(jù)ht得到新的位置lt和新的行為at,at選擇下一步配置傳感器的位置和數(shù)量,以更好的觀察環(huán)境。在配置傳感器資源的時(shí)候,agent也會(huì)受到一個(gè)獎(jiǎng)勵(lì)信號(hào)r,比如在識(shí)別中,正確分類r是1,錯(cuò)誤分類r是0,agent的目標(biāo)是最大化獎(jiǎng)勵(lì)信號(hào)r的和:

梯度的近似可以表示為:

公式(1)也叫做增強(qiáng)學(xué)習(xí)的規(guī)則,它包括運(yùn)用當(dāng)前的策略運(yùn)行agent去獲得交互序列,然后根據(jù)可以增大獎(jiǎng)勵(lì)信號(hào)的行為調(diào)整theta。它的訓(xùn)練過(guò)程就是用增強(qiáng)學(xué)習(xí)的方法學(xué)習(xí)具體任務(wù)策略。關(guān)于給定任務(wù),根據(jù)模型做出的一系列決定給出表現(xiàn)評(píng)價(jià),最大化表現(xiàn)評(píng)價(jià),對(duì)其進(jìn)行端到端的優(yōu)化。

首先為什么要用增強(qiáng)學(xué)習(xí)呢?因?yàn)閿?shù)據(jù)的狀態(tài)不是非常明確的,不是可以直接監(jiān)督或者非監(jiān)督來(lái)訓(xùn)練的,比如機(jī)器人的控制很難完全精確。

那么什么是增強(qiáng)學(xué)習(xí)呢?

增強(qiáng)學(xué)習(xí)關(guān)注的是智能體如何在環(huán)境中采取一系列行為,從而獲得最大的累積回報(bào)。RL是從環(huán)境狀態(tài)到動(dòng)作的映射的學(xué)習(xí),我們把這個(gè)映射稱為策略。通過(guò)增強(qiáng)學(xué)習(xí),一個(gè)智能體(agent)應(yīng)該知道在什么狀態(tài)下應(yīng)該采取什么行為。

假設(shè)一個(gè)智能體處于下圖(a)中所示的4x3的環(huán)境中。從初始狀態(tài)開(kāi)始,它需要每個(gè)時(shí)間選擇一個(gè)行為(上、下、左、右)。在智能體到達(dá)標(biāo)有+1或-1的目標(biāo)狀態(tài)時(shí)與環(huán)境的交互終止。如果環(huán)境是確定的,很容易得到一個(gè)解:[上,上,右,右,右]??上е悄荏w的行動(dòng)不是可靠的(類似現(xiàn)實(shí)中對(duì)機(jī)器人的控制不可能完全精確),環(huán)境不一定沿這個(gè)解發(fā)展。下圖(b)是一個(gè)環(huán)境轉(zhuǎn)移模型的示意,每一步行動(dòng)以0.8的概率達(dá)到預(yù)期,0.2的概率會(huì)垂直于運(yùn)動(dòng)方向移動(dòng),撞到(a)圖中黑色模塊后會(huì)無(wú)法移動(dòng)。兩個(gè)終止?fàn)顟B(tài)分別有+1和-1的回報(bào),其他狀態(tài)有-0.4的回報(bào)?,F(xiàn)在智能體要解決的是通過(guò)增強(qiáng)學(xué)習(xí)(不斷的試錯(cuò)、反饋、學(xué)習(xí))找到最優(yōu)的策略(得到最大的回報(bào))。

上述問(wèn)題可以看作為一個(gè)馬爾科夫決策過(guò)程,最終的目標(biāo)是通過(guò)一步步?jīng)Q策使整體的回報(bào)函數(shù)期望最優(yōu)。

提到馬爾科夫,大家通常會(huì)立刻想起馬爾可夫鏈(Markov Chain)以及機(jī)器學(xué)習(xí)中更加常用的隱式馬爾可夫模型(Hidden Markov Model, HMM)。它們都具有共同的特性便是馬爾可夫性:當(dāng)一個(gè)隨機(jī)過(guò)程在給定現(xiàn)在狀態(tài)及所有過(guò)去狀態(tài)情況下,未來(lái)狀態(tài)的條件概率分布僅依賴于當(dāng)前狀態(tài);換句話說(shuō),在給定現(xiàn)在狀態(tài)時(shí),它與過(guò)去狀態(tài)是條件獨(dú)立的,那么此隨機(jī)過(guò)程即具有馬爾可夫性質(zhì)。具有馬爾可夫性質(zhì)的過(guò)程通常稱之為馬爾可夫過(guò)程。

馬爾可夫決策過(guò)程(Markov Decision Process),其也具有馬爾可夫性,與上面不同的是MDP考慮了動(dòng)作,即系統(tǒng)下個(gè)狀態(tài)不僅和當(dāng)前的狀態(tài)有關(guān),也和當(dāng)前采取的動(dòng)作有關(guān)。

一個(gè)馬爾科夫決策過(guò)程(Markov Decision Processes, MDP)有五個(gè)關(guān)鍵元素組成{S,A,{Psa},γ,R},其中:

這個(gè)就是馬爾科夫決策過(guò)程。講完馬爾科夫決策之后我們回過(guò)頭回顧一下訓(xùn)練的過(guò)程:每次agent只通過(guò)一個(gè)帶寬限制的傳感器觀察環(huán)境,每一步處理一次傳感器數(shù)據(jù),再把每一步的數(shù)據(jù)隨著時(shí)間融合,選擇下一次如何配置傳感器資源;每一步會(huì)接受一個(gè)標(biāo)量的獎(jiǎng)勵(lì),這個(gè)agent的目的就是最大化標(biāo)量獎(jiǎng)勵(lì)值的總和。

注意力模型的效果如何

把注意力模型和全連接網(wǎng)絡(luò)以及卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行比較,實(shí)驗(yàn)證明了模型可以從多個(gè)glimpse結(jié)合的信息中成功學(xué)習(xí),并且學(xué)習(xí)的效果優(yōu)于卷積神經(jīng)網(wǎng)絡(luò)。

由于注意力模型可以關(guān)注圖像相關(guān)部分,忽視無(wú)關(guān)部分,所以能夠在在有干擾的情況下識(shí)別,識(shí)別效果也是比其他網(wǎng)絡(luò)要好的。下面這個(gè)圖表現(xiàn)的是注意力的路徑,表明網(wǎng)絡(luò)可以避免計(jì)算不重要的部分,直接探索感興趣的部分。

基于循環(huán)神經(jīng)網(wǎng)絡(luò)的注意力模型比較有特色的地方就在于:

●提高計(jì)算效率,處理比較大的圖片的時(shí)候非常好用;

●阻塞狀態(tài)下也能識(shí)別。

我們講了半天,一個(gè)重要的概念沒(méi)有講,下面來(lái)講講循環(huán)神經(jīng)網(wǎng)絡(luò)RNN。

我們做卷積神經(jīng)網(wǎng)絡(luò)的時(shí)候樣本的順序并不受到關(guān)注,而對(duì)于自然語(yǔ)言處理,語(yǔ)音識(shí)別,手寫(xiě)字符識(shí)別來(lái)說(shuō),樣本出現(xiàn)的時(shí)間順序是非常重要的,RNNs出現(xiàn)的目的是來(lái)處理時(shí)間序列數(shù)據(jù)。

這個(gè)網(wǎng)絡(luò)最直觀的印象是什么呢,就是線多。在傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)模型中,是從輸入層到隱含層再到輸出層,層與層之間是全連接的,每層的節(jié)點(diǎn)之間是無(wú)連接的。但是這種普通的神經(jīng)網(wǎng)絡(luò)對(duì)于很多問(wèn)題卻沒(méi)有辦法。例如,要預(yù)測(cè)句子的下一個(gè)單詞,一般需要用到前面的單詞,因?yàn)橐粋€(gè)句子中前后單詞并不是獨(dú)立的。RNNs之所以稱為循環(huán)神經(jīng)網(wǎng)路,即一個(gè)序列當(dāng)前的輸出與前面的輸出也有關(guān),網(wǎng)絡(luò)會(huì)對(duì)前面的信息進(jìn)行記憶并應(yīng)用于當(dāng)前輸出的計(jì)算中,具體的表現(xiàn)形式為即隱藏層之間的節(jié)點(diǎn)不再無(wú)連接而是有連接的,并且隱藏層的輸入不僅包括輸入層的輸出還包括上一時(shí)刻隱藏層的輸出。理論上,RNNs能夠?qū)θ魏伍L(zhǎng)度的序列數(shù)據(jù)進(jìn)行處理。但是在實(shí)踐中,為了降低復(fù)雜性往往假設(shè)當(dāng)前的狀態(tài)只與前面的幾個(gè)狀態(tài)相關(guān),下圖便是一個(gè)典型的RNNs:

T時(shí)刻的輸出是該時(shí)刻的輸入和所有歷史共同的結(jié)果,這就達(dá)到了對(duì)時(shí)間序列建模的目的。RNN可以看成一個(gè)在時(shí)間上傳遞的神經(jīng)網(wǎng)絡(luò),它的深度是時(shí)間的長(zhǎng)度。對(duì)于t時(shí)刻來(lái)說(shuō),它產(chǎn)生的梯度在時(shí)間軸上向歷史傳播幾層之后就消失了,根本就無(wú)法影響太遙遠(yuǎn)的過(guò)去。因此,之前說(shuō)“所有歷史”共同作用只是理想的情況,在實(shí)際中,這種影響也就只能維持若干個(gè)時(shí)間戳。

為了解決時(shí)間上的梯度消失,機(jī)器學(xué)習(xí)領(lǐng)域發(fā)展出了長(zhǎng)短時(shí)記憶單元LSTM,通過(guò)門(mén)的開(kāi)關(guān)實(shí)現(xiàn)時(shí)間上記憶功能,并防止梯度消失。

RNN還可以用在生成圖像描述之中,用CNN網(wǎng)絡(luò)做識(shí)別和分類,用RNN網(wǎng)絡(luò)產(chǎn)生描述語(yǔ)句,這就是李飛飛的實(shí)驗(yàn)室所研究的內(nèi)容。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2566

    文章

    53008

    瀏覽量

    767658
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134648
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    神經(jīng)網(wǎng)絡(luò)已經(jīng)廣泛應(yīng)用于圖像分類、目標(biāo)檢測(cè)、語(yǔ)義分割以及自然語(yǔ)言處理等領(lǐng)域。首先分析了典型卷積神經(jīng)網(wǎng)絡(luò)模型為提高其性能增加網(wǎng)絡(luò)深度以及寬度的模型結(jié)構(gòu),分析了采用注意力機(jī)制進(jìn)一步提升模型性
    發(fā)表于 08-02 10:39

    循環(huán)神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)注意力文本生成變換器編碼器序列表征

    序列表征循環(huán)神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)注意力文本生成變換器編碼器自注意力解碼器自注意力殘差的重要性圖像
    的頭像 發(fā)表于 07-19 14:40 ?3549次閱讀
    <b class='flag-5'>循環(huán)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>注意力</b>文本生成變換器編碼器序列表征

    基于異質(zhì)注意力循環(huán)神經(jīng)網(wǎng)絡(luò)模型

    針對(duì)當(dāng)前大數(shù)據(jù)環(huán)境下文本推薦不精確的問(wèn)題,對(duì)文本數(shù)據(jù)和關(guān)系網(wǎng)絡(luò)2種異質(zhì)數(shù)據(jù)進(jìn)行融合,并引入編碼器-解碼器框架,提岀基于異質(zhì)注意力循環(huán)神經(jīng)網(wǎng)絡(luò)模型用于短期文夲推薦。使用句子級(jí)的分布記憶
    發(fā)表于 03-19 14:50 ?9次下載
    基于異質(zhì)<b class='flag-5'>注意力</b>的<b class='flag-5'>循環(huán)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>模型

    基于雙向長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)的交互注意力模型

    單獨(dú)建模的問(wèn)題,提岀了一種基于雙向長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)( BILSTM的交互注意力神經(jīng)網(wǎng)絡(luò)模型( BI-IAN)。該模型通過(guò) BILSTM對(duì)目標(biāo)和上下文分別進(jìn)行建模,獲得目標(biāo)和上下文的隱藏表示,提取其中的語(yǔ)義信息。接下來(lái)利用交互
    發(fā)表于 03-24 17:18 ?28次下載
    基于雙向長(zhǎng)短期記憶<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的交互<b class='flag-5'>注意力</b>模型

    基于語(yǔ)音、字形和語(yǔ)義的層次注意力神經(jīng)網(wǎng)絡(luò)模型

    神經(jīng)網(wǎng)絡(luò)、雙向門(mén)控循環(huán)單元和注意力機(jī)制提取 PFSHAN模型的語(yǔ)音、字形和語(yǔ)義特征。在特征融合階段,針對(duì)不同單詞對(duì)幽默語(yǔ)言學(xué)特征的貢獻(xiàn)程度不同,且不同幽默語(yǔ)言學(xué)特征和語(yǔ)句之間關(guān)聯(lián)程度不同的問(wèn)題,采用層次
    發(fā)表于 03-26 15:38 ?14次下載
    基于語(yǔ)音、字形和語(yǔ)義的層次<b class='flag-5'>注意力</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>模型

    基于循環(huán)卷積注意力模型的文本情感分類方法

    和全局信息。文中針對(duì)單標(biāo)記和多標(biāo)記情感分類任務(wù),提出一種循環(huán)卷積注意力模型( LSTM-CNN-ATT,LCA)。該模型利用注意力機(jī)制融合卷積神經(jīng)網(wǎng)絡(luò)( Convolutional n
    發(fā)表于 04-14 14:39 ?10次下載
    基于<b class='flag-5'>循環(huán)</b>卷積<b class='flag-5'>注意力</b>模型的文本情感分類方法

    基于情感評(píng)分的分層注意力網(wǎng)絡(luò)框架

    文本中的詞并非都具有相似的情感傾向和強(qiáng)度,較好地編碼上下文并從中提取關(guān)鍵信息對(duì)于情感分類任務(wù)而言非常重要。為此,提出一種基于情感評(píng)分的分層注意力網(wǎng)絡(luò)框架,以對(duì)文本情感進(jìn)行有效分類。利用雙循環(huán)
    發(fā)表于 05-14 11:02 ?5次下載

    神經(jīng)網(wǎng)絡(luò)算法是用來(lái)干什么的 神經(jīng)網(wǎng)絡(luò)的基本原理

    神經(jīng)網(wǎng)絡(luò)一般可以分為以下常用的三大類:CNN(卷積神經(jīng)網(wǎng)絡(luò))、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))、Transformer(注意力機(jī)制)。
    的頭像 發(fā)表于 12-12 14:48 ?6535次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)和遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network,簡(jiǎn)稱RvNN)是深度學(xué)習(xí)中兩種重要的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:19 ?1544次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:24 ?2120次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)的基本原理是什么

    結(jié)構(gòu)具有循環(huán),能夠?qū)⑶耙粋€(gè)時(shí)間步的信息傳遞到下一個(gè)時(shí)間步,從而實(shí)現(xiàn)對(duì)序列數(shù)據(jù)的建模。本文將介紹循環(huán)神經(jīng)網(wǎng)絡(luò)的基本原理。 RNN的基本結(jié)構(gòu) 1.1
    的頭像 發(fā)表于 07-04 14:26 ?1186次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)的基本概念

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),其核心思想是將前一個(gè)時(shí)間步的輸出作為下一個(gè)時(shí)間步的輸入,從而
    的頭像 發(fā)表于 07-04 14:31 ?1320次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)算法原理及特點(diǎn)

    )相比,RNN在處理序列數(shù)據(jù)時(shí)具有明顯的優(yōu)勢(shì)。本文將介紹循環(huán)神經(jīng)網(wǎng)絡(luò)的原理、特點(diǎn)及應(yīng)用。 1. 循環(huán)神經(jīng)網(wǎng)絡(luò)的原理 1.1 基本概念 循環(huán)
    的頭像 發(fā)表于 07-04 14:49 ?1377次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)實(shí)際上是同一個(gè)概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?1548次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的
    的頭像 發(fā)表于 07-05 09:52 ?1047次閱讀