99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文帶你了解RNN、LTSM、Seq2Seq、Attention機(jī)制

智能生物識別說 ? 來源:快商通AI ? 作者:快商通AI ? 2021-09-27 18:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

上一章我們詳細(xì)介紹了小樣本做文本分類中的膠囊網(wǎng)絡(luò),那么這一章我們就來看看RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))。大神們準(zhǔn)備好了嗎,我們要發(fā)車了~

首先就是我們?yōu)槭裁葱枰猂NN?

舉個簡單的例子,最近娛樂圈頂流明星吳亦凡又出新瓜,大家都吃了咩?(反正小編吃的很飽哈)那么就以我 吃 瓜為例,三個單詞標(biāo)注詞性為 我/nn 吃/v 瓜/nn。

那么這個任務(wù)的輸入就是:

我 吃 瓜 (已經(jīng)分詞好的句子)

這個任務(wù)的輸出是:

我/nn 吃/v 瓜/nn(詞性標(biāo)注好的句子)

很明顯,一個句子中,前一個單詞其實(shí)對于當(dāng)前單詞的詞性預(yù)測是有很大影響的,比如預(yù)測“瓜”的時候,由于前面的吃是一個動詞,那么很顯然“瓜”作為名詞的概率就會遠(yuǎn)大于動詞的概率,因?yàn)閯釉~后面接名詞很常見,而動詞后面接動詞很少見。

所以為了更好的處理序列的信息,解決一些這樣類似的問題,我們的RNN就誕生了。

rnn的結(jié)構(gòu)和原理

看完初步的概念我們來深入一點(diǎn)看看RNN的結(jié)構(gòu)和原理。rnn的結(jié)構(gòu)和原理

pYYBAGC4meiAAdlHAABjM2jJoEw935.jpg

剛開始看到這幅圖的同學(xué)會不會有一點(diǎn)懵懵?沒關(guān)系,我們來帶著解釋一遍~

首先通過這副圖,就能明白RNN的意義就是每個輸出的狀態(tài)都只由前一時刻的狀態(tài)和當(dāng)前時刻的輸入來決定。從等式左邊的一個環(huán)繞箭頭就能明白參數(shù)是共享的。

一個序列的每個詞就是每個時間步,每個詞都會對應(yīng)得到一個hidden_state,并將這個隱藏層狀態(tài)輸入下一個時間步。

最終會得到output和hidden,output是每一步運(yùn)算的輸出,因此output=(seqence_len, batch_size, hidden_size)。hidden_state是每一步的輸出,當(dāng)然有參數(shù)來控制可以取最后一步的輸出,所以RNN中一般output=hidden。

lstm的結(jié)構(gòu)和原理

聊完一圈RNN之后,我們來看看它的變種兄弟-LSTM吧!

別慌,我說的不是變種成僵尸的那種東東,Lstm為長短期記憶,是在RNN的基礎(chǔ)上引入了細(xì)胞狀態(tài),根據(jù)細(xì)胞狀態(tài)可決定哪些狀態(tài)應(yīng)該保留下來,哪些狀態(tài)應(yīng)該被遺忘,可以在一定程度上解決梯度消失問題。

那么為了能夠?qū)W習(xí)序列關(guān)系的長期依賴,Lstm的輸出和rnn一樣都包含output和hidden,除此之外還有一個cell_state,這個就是學(xué)習(xí)序列信息lstm與rnn的差異。

在lstm里面理解的就是用“門”結(jié)構(gòu),來選擇信息通過,關(guān)鍵是用了$sigmoid(\cdot)$函數(shù)來區(qū)分趨于0的和趨于1的特征數(shù)據(jù)。

遺忘門:通過$f_t=\sigma(W_f \cdot[h_{t-1},x_t] + b_f)$ 來判斷隱藏層信息的取舍。

輸入門:

poYBAGC4meWADv9WAAAccVYUC9w682.jpg

通過$\tanh(\cdot)$,來將隱藏層狀態(tài)映射到(-1,1)最后來更新$C_{t-1}$ 到$C_t $

輸出門:

pYYBAGC4meyAMy7aAAAWL7NbiQI218.jpg

會發(fā)現(xiàn)$f_t、i_t、o_t$的構(gòu)成是一致的。但是通過不同的權(quán)重來學(xué)習(xí)。因此優(yōu)化lstm是將遺忘門和輸入門合并成了一個更新門,這就是GRU:

可以理解為主要分為兩部分,第一部分:

pYYBAGC4me2AOoxXAAASZqSshqY694.jpg

$z_t$表示更新向量,$r_t$表示重置向量,于是在接下來就能夠考慮$r_t$與$h_{t-1}$的相關(guān)性來去對部分?jǐn)?shù)據(jù)進(jìn)行重置,也就相當(dāng)于舍棄。實(shí)現(xiàn)遺忘門的效果。

第二部分:

poYBAGC4meiAGOzMAAAd9tihyU0202.jpg

很好理解,就可以通過篩選得到的有效的隱藏層信息$\tilde{h}t$和更新向量來獲取最終的輸出結(jié)果$(1-z_t) * h{t-1}$表示對當(dāng)前一時刻隱藏層狀態(tài)選擇性“遺忘”。$z_t * \tilde{h}_t$就表示對當(dāng)前序列信息的“記憶”。

sequence-to-sequence的結(jié)構(gòu)和原理

也叫做Encoder-Decoder結(jié)構(gòu),在encoder和decoder中也都是用序列模型,就是將數(shù)據(jù)先encode成一個上下文向量context vector,這個context vector可以是1)最后一個隱藏層狀態(tài),2)可以是完整的隱藏層輸出,3)也可以是對隱藏層輸出做激活或者線性變換之后的輸出。

之后在decoder中,將context vector作為前一時刻初始化的狀態(tài)輸入從而將語義按監(jiān)督信息的需要解碼?;蛘邔ontext vector作為decoder每一個時間步的輸入。因此會發(fā)現(xiàn)seq2seq并不限制輸入和輸出的序列長度,這就表示應(yīng)用范圍可以很廣。

Attention

會發(fā)現(xiàn)context vector并不能夠包含長句的所有信息,或者說會造成信息的丟失,因此attention機(jī)制就是能夠向decoder的每一個時間步輸入不同的文本信息,提升語義的理解能力。

因?yàn)閘stm會得到完整的包含每一個時間步的輸出得到的ouput和hidden,因此$h_i$和$C_j$的相關(guān)性就能夠表示在decode第$j$步序列時最關(guān)心的文本是那一步的 $h_i $,用 $\alpha_{ij}$來表示。

每一個encoder的hidden單元和每一個decoder的hidden單元做點(diǎn)乘,得到每兩個單元之間的相關(guān)性,在lstm/rnn之后用attention就是計(jì)算hidden和ouput的每個單元之間的相關(guān)性,然后做一步$softmax$得到encoder的hidden或者說是lstm的hidden每個單元的attention weights。因此:Attention 無非就是這三個公式:

poYBAGC4meqAKxjvAAAT3nJUrlE172.jpg

從常規(guī)的(Q,K,V)的角度來理解,可以如圖所示:

pYYBAGC4mfCAE2pwAAApg85OSxU468.jpg

在Attention中$Q$和$K$分別是hidden和output,同樣的$V$也是ouput,在self-attention中Q=K=V,并且$\sqrt{d_k}$有些情況下是不會加在attention過程中的。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7256

    瀏覽量

    91824
  • Gru
    Gru
    +關(guān)注

    關(guān)注

    0

    文章

    12

    瀏覽量

    7649
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    帶你了解電源測試系統(tǒng)的功能!

    在當(dāng)今電子與電力技術(shù)飛速發(fā)展的時代,各類電子設(shè)備、電力系統(tǒng)以及新能源相關(guān)產(chǎn)品的研發(fā)、生產(chǎn)和維護(hù)過程中,電源測試系統(tǒng)扮演著至關(guān)重要的角色。本文將帶你了解源儀電子的電源測試系統(tǒng)的功能。
    的頭像 發(fā)表于 07-02 09:10 ?165次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>帶你</b><b class='flag-5'>了解</b>電源測試系統(tǒng)的功能!

    【米爾-全志T536開發(fā)板試用體驗(yàn)】Wi-Fi連接測試體驗(yàn)

    ms 64 bytes from 36.152.44.93: seq=1 ttl=51 time=120.037 ms 64 bytes from 36.152.44.93: seq=2 ttl=51
    發(fā)表于 03-18 11:29

    函數(shù)HAL_I2C_Slave_Seq_Transmit_IT和HAL_I2C_Slave_Seq_Receive_IT實(shí)現(xiàn)代碼里有處理DMA請求,這是出于什么考慮?

    函數(shù)HAL_I2C_Slave_Seq_Transmit_IT和HAL_I2C_Slave_Seq_Receive_IT實(shí)現(xiàn)代碼里有處理DMA請求,這是出于什么考慮?求解答!
    發(fā)表于 03-14 09:01

    求助,關(guān)于STM32G070調(diào)用HAL_I2C_Mem_Read_IT測試疑問求解

    HAL_I2C_Slave_Seq_Receive_IT接收內(nèi)存地址后再調(diào)用HAL_I2C_Slave_Seq_Transmit_IT發(fā)送10個數(shù)據(jù); 現(xiàn)象: 從機(jī)正常接收,給主機(jī)發(fā)送第1個數(shù)據(jù)正常,到第2
    發(fā)表于 03-11 07:00

    摩爾線程Round Attention優(yōu)化AI對話

    摩爾線程科研團(tuán)隊(duì)發(fā)布研究成果《Round Attention:以輪次塊稀疏性開辟多輪對話優(yōu)化新范式》,該方法端到端延遲低于現(xiàn)在主流的Flash Attention推理引擎,kv-cache 顯存占用節(jié)省55%到82% 。
    的頭像 發(fā)表于 03-06 09:39 ?552次閱讀
    摩爾線程Round <b class='flag-5'>Attention</b>優(yōu)化AI對話

    DLPLCR4500EVM打光結(jié)束后任然顯示Seq. Running, 并且pause與stop無法終止該狀態(tài)是怎么回事?

    無法終止該狀態(tài)(1.斷電后任然會出現(xiàn) 2.出現(xiàn)次后的每次打光都必現(xiàn) 3.點(diǎn)擊Apply Default Solution也同樣無效) 我認(rèn)為這是偶發(fā)情況, 所以我可能需要提供恢復(fù)出廠設(shè)置的API或操作方法, 或者是恢復(fù)部分觸發(fā)方面的參數(shù), 請不吝賜教, 感謝:)
    發(fā)表于 02-21 08:02

    RNN的應(yīng)用領(lǐng)域及未來發(fā)展趨勢

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)是種適合于處理序列數(shù)據(jù)的深度學(xué)習(xí)模型。由于其獨(dú)特的循環(huán)結(jié)構(gòu),RNN能夠處理時間序列數(shù)據(jù),捕捉時間序列中的動態(tài)特征,因此在
    的頭像 發(fā)表于 11-15 10:10 ?1442次閱讀

    RNN與LSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(長短期記憶網(wǎng)絡(luò))模型在深度學(xué)習(xí)領(lǐng)域都具有處理序列數(shù)據(jù)的能力,但它們在結(jié)構(gòu)、功能和應(yīng)用上存在顯著的差異。以下是對RNN與LSTM模型的比較分析: 、基本原理與結(jié)構(gòu)
    的頭像 發(fā)表于 11-15 10:05 ?2217次閱讀

    深度學(xué)習(xí)中RNN的優(yōu)勢與挑戰(zhàn)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是深度學(xué)習(xí)領(lǐng)域中處理序列數(shù)據(jù)的基石。它們通過在每個時間步長上循環(huán)傳遞信息,使得網(wǎng)絡(luò)能夠捕捉時間序列數(shù)據(jù)中的長期依賴關(guān)系。然而,盡管RNN在某些任務(wù)上表現(xiàn)出色,它們也面臨著
    的頭像 發(fā)表于 11-15 09:55 ?1321次閱讀

    RNN的基本原理與實(shí)現(xiàn)

    RNN,即循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network),是種特殊類型的人工神經(jīng)網(wǎng)絡(luò),專門設(shè)計(jì)用于處理序列數(shù)據(jù),如文本、語音、視頻等。以下是對RNN基本原理與實(shí)現(xiàn)的介紹:
    的頭像 發(fā)表于 11-15 09:49 ?1432次閱讀

    如何使用RNN進(jìn)行時間序列預(yù)測

    種強(qiáng)大的替代方案,能夠?qū)W習(xí)數(shù)據(jù)中的復(fù)雜模式,并進(jìn)行準(zhǔn)確的預(yù)測。 RNN的基本原理 RNN種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù)。在RNN
    的頭像 發(fā)表于 11-15 09:45 ?909次閱讀

    詳解SiC的晶體缺陷

    SiC晶體中存在各種缺陷,對SiC器件性能有直接的影響。研究清楚各類缺陷的構(gòu)成和生長機(jī)制非常重要。本文帶你了解SiC的晶體缺陷及其如何影響SiC器件特性。
    的頭像 發(fā)表于 11-14 14:53 ?2236次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>詳解SiC的晶體缺陷

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這問題,LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)
    的頭像 發(fā)表于 11-13 09:58 ?1207次閱讀

    智慧公交是什么?帶你詳解智慧公交的解決方案!

    智慧公交是什么?帶你詳解智慧公交的解決方案!
    的頭像 發(fā)表于 11-05 12:26 ?963次閱讀
    智慧公交是什么?<b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>帶你</b>詳解智慧公交的解決方案!

    了解MySQL索引機(jī)制

    的呢?起靜下心來,耐心看完這篇文章吧,干貨不啰嗦,相信你定會有所收獲。 、索引模型 模型也就是數(shù)據(jù)結(jié)構(gòu),常見的三種模型分別是哈希表、有序數(shù)組和搜索樹。 了解MySQL的朋友已經(jīng)知
    的頭像 發(fā)表于 07-25 14:05 ?564次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>了解</b>MySQL索引<b class='flag-5'>機(jī)制</b>