99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

清華、GoogleAI和斯李飛飛團隊提出具有強記憶力的E3D-LSTM網(wǎng)絡

G5zW_AppDowns ? 來源:陳年麗 ? 2019-08-27 10:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

清華大學、Google AI 和斯坦福大學李飛飛團隊提出了一種具有強記憶力的 E3D-LSTM 網(wǎng)絡,強化了 LSTM 的長時記憶能力,這為視頻預測、動作分類等相關問題提供了新思路,是一項非常具有啟發(fā)性的工作。

如何對時間序列進行時空建模及特征抽取,是 RGB 視頻預測分類,動作識別,姿態(tài)估計等相關領域的研究熱點。

清華大學、Google AI 和斯坦福大學李飛飛團隊提出了一種具有強記憶力的 E3D-LSTM 網(wǎng)絡,用 3D 卷積代替 2D 卷積作為 LSTM 網(wǎng)絡的基礎計算操作,并加入自注意力機制,使網(wǎng)絡能同時兼顧長時和短時信息依賴以及局部時空特征抽取。

這為視頻預測、動作分類等相關問題提供了新思路,是一項非常具有啟發(fā)性的工作。

時間序列的時空建模問題

現(xiàn)實生活中許多數(shù)據(jù)都同時具有時間特征和空間特征,例如人體的運動軌跡,連續(xù)幀的視頻等,每個時間點都對應一組數(shù)據(jù),而數(shù)據(jù)往往又具有一定的空間特征。因此要在這樣的時間序列數(shù)據(jù)上開展分類,預測等工作,就必須在時間(temporal)和空間 (spatial) 上對其進行建模和特征抽取。

常用的時間建模工具是循環(huán)神經(jīng)網(wǎng)絡(RNN)相關模型(LSTM 等),由于其特有的門結(jié)構(gòu)設計,對時間序列特征具有強大的抽取能力,因此被廣泛應用于預測問題并取得了良好的成果,但是 RNN 并不能很好的學習到原始特征的高階表示,這不利于對空間信息的提取??臻g建模則當屬卷積神經(jīng)網(wǎng)絡(CNN),其具有強大的空間特征抽取能力,其中3D-CNN又能將卷積核可控范圍擴大到時域上,相對于 2D 卷積靈活性更高,能學習到更多的運動信息(motion 信息),相對于 RNN 則更有利于學習到信息的高級表示(層數(shù)越深,信息越高級),是目前動作識別領域的流行方法。當然 3D 卷積的時間特征抽取能力并不能和 RNN 媲美。

得益于 3D 卷積和 RNN 在各自領域的成功,如何進一步將二者結(jié)合起來使用也成為了研究熱點,常見的簡單方法是將二者串聯(lián)堆疊或者并聯(lián)結(jié)合(在圖卷積網(wǎng)絡出現(xiàn)之前,動作識別領域的最優(yōu)方法就是將 CNN 和 RNN 并聯(lián)),但測試發(fā)現(xiàn)這么做并不能帶來太大的提升,這是因為二者的工作機制差距太大,簡單的結(jié)合并不能很好的實現(xiàn)優(yōu)勢互補。本文提出用 3D 卷積代替原始 LSTM 中的門更新操作,使 LSTM 不僅能在時間層面,也能在空間層面上進行短期依賴的表象特征和運動特征的抽取,從而在更深的機制層面實現(xiàn)兩種網(wǎng)絡的結(jié)合。此外,在 LSTM 中引入自注意力(self-attention)機制,進一步強化了 LSTM 的長時記憶能力,使其對長距離信息作用具有更好的感知力。作者將這種網(wǎng)絡稱為Eidetic 3D LSTM(E3D-LSTM),Eidetic 意思是具有逼真記憶,強調(diào)網(wǎng)絡的強記憶能力。

E3D-LSTM 網(wǎng)絡結(jié)構(gòu)

圖 1:三種不同的 3D 卷積和 LSTM 的結(jié)合方法

圖中每個顏色的模塊都代表了多層相應的網(wǎng)絡。圖(a)和圖(b)是兩種 3D 卷積和 LSTM 結(jié)合的基線方法,3D 卷積和 LSTM 線性疊加,主要起到了編碼(解碼器)的作用,并沒有和 RNN 有機制上的結(jié)合。圖(a)中 3D 卷積作為編碼器,輸入是一段視頻幀,圖(b)中作為解碼器,得到每個單元的最終輸出。這兩個方法中的綠色模塊使用的是時空長短時記憶網(wǎng)絡(ST-LSTM)[1],這種 LSTM 獨立的維護兩個記憶狀態(tài) M 和 C,但由于記憶狀態(tài) C 的遺忘門過于響應具有短期依賴的特征,因此容易忽略長時依賴信息,因此 E3D-LSTM 在 ST-LSTM 的基礎添加了自注意力機制和 3D 卷積操作,在一定程度上解決了這個問題。具體單元結(jié)構(gòu)下一節(jié)介紹。

圖(c)是 E3D-LSTM 網(wǎng)絡的結(jié)構(gòu),3D 卷積作為編碼 - 解碼器(藍色模塊),同時和 LSTM 結(jié)合(橙色模塊)。E3D-LSTM 既可用于分類任務,也可用于預測任務。分類時將所有 LSTM 單元的輸出結(jié)合,預測時則利用 3D 卷積解碼器的輸出作為預測值。

E3D-LSTM 單元結(jié)構(gòu)設計

圖 2:標準 LSTM 單元結(jié)構(gòu)

首先簡要介紹一下標準 LSTM 結(jié)構(gòu),和 RNN 相比 LSTM 增加了更復雜的門結(jié)構(gòu)(圖中黃色模塊),主要解決 RNN 中存在的梯度消失問題,從而提高網(wǎng)絡對長時依賴(long-term dependency)的記憶感知能力。LSTM 有兩個輸入門,一個輸出門和遺忘門

圖 2:ST-LSTM 網(wǎng)絡結(jié)構(gòu)和單元結(jié)構(gòu)

和標準 LSTM 相比,ST-LSTM 還增加了不同層間對應位置的 cell 連接,如圖 2 左側(cè),水平灰色連接線表示標準 LSTM 的單元連接,豎直黃色連接線表示層間同一時刻的單元連接,通過張量 M 傳播,注意當 l=1 時,

(作者認為 t 時刻的頂層信息對 t+1 時刻的底層信息影響很大),這樣記憶信息就能同時在層內(nèi)和層間傳播。

圖 3 E3D-LSTM 單元結(jié)構(gòu)

圖 3 是本文提出的 E3D-LSTM 模型的單元結(jié)構(gòu),

是一個維度為的五維張量,代表之前個時間步的所有隱狀態(tài)。表示召回門(代替遺忘門),和 ST-LSTM 相比,主要有以下改進:

1、輸入數(shù)據(jù)是的四維張量,對應時刻

的連續(xù)幀序列,因此現(xiàn)在每個單元時間步都對應一段視頻,而不是單幀視頻。

2、針對幀序列數(shù)據(jù)額外添加了一個召回門(recall gate)以及相關結(jié)構(gòu),用于實現(xiàn)長時依賴學習,也就是自注意力機制。這部分對應網(wǎng)絡名稱中的 Eidetic。

3、由于輸入數(shù)據(jù)變成了四維張量,因此在更新公式中采用 3D 卷積操作而不是 2D 卷積。

大部分門結(jié)構(gòu)的更新公式和 ST-LSTM 相同,額外添加了召回門更新公式:

上面介紹的機制用于同一層不同時間步連接,作者將這種機制也用在了不同層同一時間步的連接,但效果并不好,這是因為不同層在同一時刻學習到的信息并沒有太好的依賴性。

基于 E3D-LSTM 的半監(jiān)督輔助學習

在許多監(jiān)督學習任務,例如視頻動作識別中,沒有足夠的監(jiān)督信息和標注信息來幫助訓練一個令人滿意的 RNN,因此可以將視頻預測作為一個輔助的表征學習方法,來幫助網(wǎng)絡更好的理解視頻特征,并提高時間域上的監(jiān)督性。

具體的,讓視頻預測和動作識別任務共享相同的主干網(wǎng)絡(圖 1),只不過損失函數(shù)不同,在視頻預測任務中,目標函數(shù)為:

帶上標的 X 表示預測值,不帶上標的表示真值,F(xiàn) 表示 Frobenius 歸一化。

在動作識別任務中,目標函數(shù)為:

其中 Y 和是預測值和幀值,這樣通過將預測任務的損失函數(shù)嵌入到識別任務中,以及主干網(wǎng)絡的共享,能在一定程度上幫助識別任務學習到更多的時序信息。為了保證過渡平滑,額外添加了一個權(quán)重因子,會隨著迭代次數(shù)的增加而線性衰減:

作者將這種方法稱為半監(jiān)督輔助學習。

實驗結(jié)果

視頻預測任務,在 Moving MINIST 數(shù)據(jù)集上的結(jié)果:

為了驗證 E3D-LSTM 中不同模塊對性能的影響,作者還在該數(shù)據(jù)集上進行了燒蝕研究:

可以看到不管是添加 3D 卷積還是自注意力機制,網(wǎng)絡性能相對于基線方法都有提升。

視頻預測任務,在 KTH 人體動作數(shù)據(jù)集上的結(jié)果:

接下來在一個實際視頻預測任務:交通流預測中,與其他方法進行了對比:

動作識別任務,在 Something-Something 數(shù)據(jù)集上進行了測試:

同樣在該數(shù)據(jù)集上進行了燒蝕研究:

以及不同的半監(jiān)督輔助學習策略帶來的性能提升:

總結(jié)

本文對 ST-LSTM 進行了改進,將流行的 3D 卷積操作作為其基本張量操作,同時添加了自注意力模塊,進一步強化了網(wǎng)絡對長距離依賴信息的刻畫能力,不僅能用于預測任務,還能通過輔助學習的方法拓展到其他任務上,是非常具有啟發(fā)性的工作。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:數(shù)月整改,三星折疊屏手機Fold 終于可以發(fā)售了?

文章出處:【微信號:AppDowns,微信公眾號:掌上科技頻道】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    RNN與LSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡)與LSTM(長短期記憶網(wǎng)絡)模型在深度學習領域都具有處理序列數(shù)據(jù)的能力,但它們在結(jié)構(gòu)、功能和應用上存在顯著的差異。以下
    的頭像 發(fā)表于 11-15 10:05 ?2221次閱讀

    LSTM神經(jīng)網(wǎng)絡與其他機器學習算法的比較

    隨著人工智能技術的飛速發(fā)展,機器學習算法在各個領域中扮演著越來越重要的角色。長短期記憶網(wǎng)絡LSTM)作為一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),因其在處理序列數(shù)據(jù)方面的優(yōu)勢而受到廣泛關注。
    的頭像 發(fā)表于 11-13 10:17 ?2141次閱讀

    深度學習框架中的LSTM神經(jīng)網(wǎng)絡實現(xiàn)

    長短期記憶LSTM網(wǎng)絡是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),能夠?qū)W習長期依賴信息。與傳統(tǒng)的RNN相比,LSTM通過引入門控機制來解決梯度消
    的頭像 發(fā)表于 11-13 10:16 ?1063次閱讀

    基于LSTM神經(jīng)網(wǎng)絡的情感分析方法

    情感分析是自然語言處理(NLP)領域的一項重要任務,旨在識別和提取文本中的主觀信息,如情感傾向、情感強度等。隨著深度學習技術的發(fā)展,基于LSTM(長短期記憶)神經(jīng)網(wǎng)絡的情感分析方法因其出色的序列建模
    的頭像 發(fā)表于 11-13 10:15 ?1274次閱讀

    LSTM神經(jīng)網(wǎng)絡在圖像處理中的應用

    長短期記憶LSTM)神經(jīng)網(wǎng)絡是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠?qū)W習長期依賴關系。雖然LSTM最初是為處理序列數(shù)據(jù)設計的,但近年來,
    的頭像 發(fā)表于 11-13 10:12 ?1618次閱讀

    如何使用Python構(gòu)建LSTM神經(jīng)網(wǎng)絡模型

    構(gòu)建一個LSTM(長短期記憶)神經(jīng)網(wǎng)絡模型是一個涉及多個步驟的過程。以下是使用Python和Keras庫構(gòu)建LSTM模型的指南。 1. 安裝必要的庫 首先,確保你已經(jīng)安裝了Python
    的頭像 發(fā)表于 11-13 10:10 ?1577次閱讀

    LSTM神經(jīng)網(wǎng)絡的訓練數(shù)據(jù)準備方法

    LSTM(Long Short-Term Memory,長短期記憶)神經(jīng)網(wǎng)絡的訓練數(shù)據(jù)準備方法是一個關鍵步驟,它直接影響到模型的性能和效果。以下是一些關于LSTM神經(jīng)
    的頭像 發(fā)表于 11-13 10:08 ?2113次閱讀

    LSTM神經(jīng)網(wǎng)絡的結(jié)構(gòu)與工作機制

    LSTM(Long Short-Term Memory,長短期記憶)神經(jīng)網(wǎng)絡是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),設計用于解決長期依賴問題,特別是在處理時間序列數(shù)據(jù)時表現(xiàn)出色。以下是
    的頭像 發(fā)表于 11-13 10:05 ?1631次閱讀

    LSTM神經(jīng)網(wǎng)絡在語音識別中的應用實例

    語音識別技術是人工智能領域的一個重要分支,它使計算機能夠理解和處理人類語言。隨著深度學習技術的發(fā)展,特別是長短期記憶LSTM)神經(jīng)網(wǎng)絡的引入,語音識別的準確性和效率得到了顯著提升。 LSTM
    的頭像 發(fā)表于 11-13 10:03 ?1851次閱讀

    LSTM神經(jīng)網(wǎng)絡的調(diào)參技巧

    長短時記憶網(wǎng)絡(Long Short-Term Memory, LSTM)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠?qū)W習長期依賴信息。在實際應用中,
    的頭像 發(fā)表于 11-13 10:01 ?1859次閱讀

    LSTM神經(jīng)網(wǎng)絡與傳統(tǒng)RNN的區(qū)別

    在深度學習領域,循環(huán)神經(jīng)網(wǎng)絡(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關注。然而,傳統(tǒng)RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM(長短期記憶)神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 11-13 09:58 ?1211次閱讀

    LSTM神經(jīng)網(wǎng)絡的優(yōu)缺點分析

    長短期記憶(Long Short-Term Memory, LSTM)神經(jīng)網(wǎng)絡是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),由Hochreiter和Schmidhuber在1997年
    的頭像 發(fā)表于 11-13 09:57 ?4822次閱讀

    使用LSTM神經(jīng)網(wǎng)絡處理自然語言處理任務

    自然語言處理(NLP)是人工智能領域的一個重要分支,它旨在使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(RNN)及其變體——長短期記憶LSTM網(wǎng)絡
    的頭像 發(fā)表于 11-13 09:56 ?1160次閱讀

    LSTM神經(jīng)網(wǎng)絡在時間序列預測中的應用

    時間序列預測是數(shù)據(jù)分析中的一個重要領域,它涉及到基于歷史數(shù)據(jù)預測未來值。隨著深度學習技術的發(fā)展,長短期記憶LSTM)神經(jīng)網(wǎng)絡因其在處理序列數(shù)據(jù)方面的優(yōu)勢而受到廣泛關注。 LSTM神經(jīng)
    的頭像 發(fā)表于 11-13 09:54 ?2048次閱讀

    LSTM神經(jīng)網(wǎng)絡的基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠?qū)W習長期依賴信息。在處理序列數(shù)據(jù)時,如時間序列分析、自然語言處理等,LSTM
    的頭像 發(fā)表于 11-13 09:53 ?1582次閱讀