99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

做時(shí)間序列預(yù)測(cè)是否有必要用深度學(xué)習(xí)

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來(lái)源:深度學(xué)習(xí)與圖網(wǎng)絡(luò) ? 作者:深度學(xué)習(xí)與圖網(wǎng)絡(luò) ? 2022-03-24 13:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)方法應(yīng)用廣泛的今天,所有領(lǐng)域是不是非它不可呢?其實(shí)未必,在時(shí)間序列預(yù)測(cè)任務(wù)上,簡(jiǎn)單的機(jī)器學(xué)習(xí)方法能夠媲美甚至超越很多 DNN 模型。

過(guò)去幾年,時(shí)間序列領(lǐng)域的經(jīng)典參數(shù)方法(自回歸)已經(jīng)在很大程度上被復(fù)雜的深度學(xué)習(xí)框架(如 DeepGIO 或 LSTNet 等)更新替代。這是因?yàn)閭鹘y(tǒng)方法可能無(wú)法捕獲長(zhǎng)期和短期序列混合傳遞的信息,而深度學(xué)習(xí)方法的思路是掌握數(shù)據(jù)中的跨時(shí)非線性依賴。從結(jié)果來(lái)看,這些深度學(xué)習(xí)方法不僅優(yōu)于 ARIMA 等傳統(tǒng)方法和梯度提升回歸樹(Gradient Boosting Regression Tree, GBRT)等簡(jiǎn)單機(jī)器學(xué)習(xí)模型,而且增強(qiáng)了這樣一種預(yù)期,即機(jī)器學(xué)習(xí)領(lǐng)域的時(shí)間序列預(yù)測(cè)模型需要以深度學(xué)習(xí)工作為基礎(chǔ),才能得到 SOTA 結(jié)果。 但是,推薦系列領(lǐng)域的最新啟示表明,深度學(xué)習(xí)方法在機(jī)器學(xué)習(xí)各種研究分支取得的成就需要對(duì)簡(jiǎn)單高效模型定期確認(rèn)和評(píng)估,以保持各自研究領(lǐng)域進(jìn)展的真實(shí)性。除了時(shí)間序列預(yù)測(cè)模型越來(lái)越復(fù)雜之外,另一個(gè)動(dòng)機(jī)包括文獻(xiàn)中正在完善的深度學(xué)習(xí)模型在處理時(shí)間序列預(yù)測(cè)問(wèn)題上的片面性,因此限制了現(xiàn)有解決方案方法的多樣性。 在前段時(shí)間的一篇論文《Do We Really Need Deep Learning Models for Time Series Forecasting?》中,來(lái)自德國(guó)希爾德斯海姆大學(xué)計(jì)算機(jī)科學(xué)系的研究者展示了通過(guò)精心配置的輸入處理結(jié)構(gòu),GBRT 等簡(jiǎn)單但強(qiáng)大的集成模型在時(shí)間序列預(yù)測(cè)領(lǐng)域能夠媲美甚至超越很多 DNN 模型。

5cf4bb12-9f8f-11ec-952b-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2101.02118.pdf 研究者對(duì)特征工程多輸出 GBRT 模型進(jìn)行了評(píng)估,并提出了以下兩個(gè)研究問(wèn)題:

對(duì)于用于時(shí)間序列預(yù)測(cè)的基于窗口的學(xué)習(xí)框架來(lái)說(shuō),精心配置 GBRT 模型的輸入和輸出結(jié)構(gòu)有什么效果?

一個(gè)雖簡(jiǎn)單但配置良好的 GBRT 模型與 SOTA 深度學(xué)習(xí)時(shí)間序列預(yù)測(cè)框架相比如何?

為了回答這兩個(gè)問(wèn)題,研究者選擇了雙重實(shí)驗(yàn)設(shè)置,分別解決兩類預(yù)測(cè)任務(wù),即系統(tǒng)化方式中的單變量和多變量預(yù)測(cè)。目的是評(píng)估 GBRT 模型以及在頂會(huì)(NeurIPS、KDD、SIGIR、ECML、ICML、CIKM、IJCAI、ICLR 等)中出現(xiàn)的 SOTA 深度學(xué)習(xí)方法。這項(xiàng)研究的整體貢獻(xiàn)可以總結(jié)如下: 一,研究者將一個(gè)簡(jiǎn)單的機(jī)器學(xué)習(xí)方法 GBRT 提升了競(jìng)品 DNN 時(shí)間序列預(yù)測(cè)模型的標(biāo)準(zhǔn)。首先將 GBRT 轉(zhuǎn)換成一個(gè)基于窗口的回歸框架,接著對(duì)它的輸入和輸出結(jié)構(gòu)進(jìn)行特征工程,如此便能從額外上下文信息中獲益最多;二,為了突出輸入處理對(duì)時(shí)間序列預(yù)測(cè)模型的重要性,研究者通過(guò)實(shí)證證明了為什么基于窗口的 GBRT 輸入設(shè)置可以在時(shí)間序列預(yù)測(cè)領(lǐng)域提高 ARIMA 和原版 GBRT 等精心配置的模型所產(chǎn)生的預(yù)測(cè)性能;三,研究者比較了 GBRT 與各種 SOTA 深度學(xué)習(xí)時(shí)間序列預(yù)測(cè)模型的性能,并驗(yàn)證了它在單變量和雙變量時(shí)間序列預(yù)測(cè)任務(wù)中的競(jìng)爭(zhēng)力。 這項(xiàng)研究也引起了不少人的共鳴。有人認(rèn)為,時(shí)間序列分類任務(wù)同樣也沒(méi)有必要用深度學(xué)習(xí)方法。在一些情況下,SVMs 或邏輯回歸方法表現(xiàn)更好,速度也更快。

5d0af6fc-9f8f-11ec-952b-dac502259ad0.png

研究設(shè)計(jì) 選擇基線。研究者系統(tǒng)地過(guò)濾了 2016 年至 2020 年在 NeurIPS、KDD、SIGIR、SDM、ECML、ICML、CIKM、IJCAI、ICLR 等會(huì)議表現(xiàn)較好的論文集。論文需滿足以下要求:

主題:只考慮時(shí)間序列預(yù)測(cè)領(lǐng)域的研究;

數(shù)據(jù)結(jié)構(gòu):專用數(shù)據(jù)類型,但如異步時(shí)間序列和概念化為圖形的數(shù)據(jù)被排除在外;

可復(fù)現(xiàn):數(shù)據(jù)、源代碼應(yīng)公開(kāi)。如果源代碼不可用,但實(shí)驗(yàn)設(shè)置有清晰的文檔,研究也可以從實(shí)驗(yàn)中復(fù)制結(jié)果;

計(jì)算的可行性:研究中得出的結(jié)果能夠以易于處理的方式復(fù)現(xiàn),并在合理的時(shí)間內(nèi)可計(jì)算。

評(píng)估。該研究在兩個(gè)層次上對(duì)時(shí)間序列預(yù)測(cè) GBRT 模型進(jìn)行評(píng)估:一個(gè)單變量和一個(gè)多變量。為了使所選的深度學(xué)習(xí)基線和 GBRT 之間具有顯著的可比性,該研究在相同的數(shù)據(jù)集上評(píng)估了所有模型,數(shù)據(jù)集如下表 1 所示:左邊提供了關(guān)于用來(lái)評(píng)估模型數(shù)據(jù)集,而右邊則列出了各自的實(shí)驗(yàn)規(guī)范:

5d20add0-9f8f-11ec-952b-dac502259ad0.png

問(wèn)題公式化。時(shí)間序列預(yù)測(cè)問(wèn)題,就監(jiān)督學(xué)習(xí)而言,時(shí)間序列預(yù)測(cè)可以表述為:給定一個(gè)集合5d3c9f5e-9f8f-11ec-952b-dac502259ad0.png和一個(gè)集合5d4d74dc-9f8f-11ec-952b-dac502259ad0.png,經(jīng)過(guò)一系列假設(shè)后,得到如下期望損失最小化模型:

5d5a99aa-9f8f-11ec-952b-dac502259ad0.png

GBRT GBRT 模型,特別是 XGBoost 實(shí)現(xiàn),其優(yōu)點(diǎn)是易于應(yīng)用,而且在結(jié)構(gòu)化數(shù)據(jù)上特別成功。但是當(dāng)涉及時(shí)間序列預(yù)測(cè)的初始(naive)實(shí)現(xiàn)時(shí),GBRT 模型失去了很大一部分靈活性,因?yàn)樗鼈儧](méi)有被投射到基于窗口的回歸問(wèn)題中,而是被配置為適合大部分時(shí)間序列作為完整且連續(xù)的數(shù)據(jù)點(diǎn)序列來(lái)預(yù)測(cè)時(shí)間序列的后續(xù)和剩余測(cè)試部分。 與上述初始實(shí)現(xiàn)不同,該研究通過(guò)將時(shí)間序列重新配置為窗口輸入,并在多個(gè)訓(xùn)練實(shí)例(窗口)上進(jìn)行訓(xùn)練,以模擬成功的時(shí)間序列預(yù)測(cè)模型中使用的輸入處理行為,為此該研究定義了一個(gè)可調(diào)窗口,5d6ab6a0-9f8f-11ec-952b-dac502259ad0.png。這種基于窗口的 GBRT 模型輸入設(shè)置如圖 1 所示:

5d8e4f84-9f8f-11ec-952b-dac502259ad0.png

第一步是使用變換函數(shù)

5da3a17c-9f8f-11ec-952b-dac502259ad0.png

將典型的 2D 訓(xùn)練實(shí)例(時(shí)間序列輸入窗口)變換為適合 GBRT 的 1D 形狀向量(扁平窗口)。該函數(shù)將所有 w 實(shí)例的目標(biāo)值 y_i 連接起來(lái),然后將最后一個(gè)時(shí)間點(diǎn)實(shí)例 t 的協(xié)變量向量附加到輸入窗口 w 中,表示為

5db2d39a-9f8f-11ec-952b-dac502259ad0.png

。 基于窗口的 GBRT 輸入設(shè)置極大地提高了其預(yù)測(cè)性能,因?yàn)?GBRT 模型現(xiàn)在能夠掌握數(shù)據(jù)的底層時(shí)間序列結(jié)構(gòu),并且現(xiàn)在可以被認(rèn)為是先進(jìn) DNN 時(shí)間序列預(yù)測(cè)模型的適當(dāng)機(jī)器學(xué)習(xí)基線。另一方面,簡(jiǎn)單配置的 GBRT 模型

5dca3724-9f8f-11ec-952b-dac502259ad0.png是一個(gè)簡(jiǎn)單的逐點(diǎn)回歸模型,將時(shí)間點(diǎn)5dd9976e-9f8f-11ec-952b-dac502259ad0.png的協(xié)變量作為輸入,預(yù)測(cè)單一目標(biāo)值 Y_i、j 為同一時(shí)間點(diǎn)訓(xùn)練損失如下:

5df5f72e-9f8f-11ec-952b-dac502259ad0.png

實(shí)驗(yàn)結(jié)果 單變量時(shí)間序列的結(jié)果 下表 2 總體結(jié)果表明,除了 traffic 預(yù)測(cè)外,基于窗口的 GBRT 具有較強(qiáng)的競(jìng)爭(zhēng)力。另一方面,具有傳統(tǒng)配置的預(yù)測(cè)模型(例如 ARIMA 和 GBRT(Naive))的表現(xiàn)遠(yuǎn)遠(yuǎn)優(yōu)于預(yù)期。

5e0a4436-9f8f-11ec-952b-dac502259ad0.png

而在 electricity 預(yù)測(cè)方面,基于窗口的 GBRT 在所有模型中均顯示出最佳的 RMSE 性能,其在 WAPE 和 MAE 方面的性能僅優(yōu)于 2016 年推出的 TRMF,基于注意力的 DARNN 模型表現(xiàn)較差。關(guān)于 exchange rate 任務(wù),LSTNet(以 w = 24 重新實(shí)現(xiàn))和 TMRF 顯示出相當(dāng)強(qiáng)的結(jié)果,優(yōu)于基于窗口的 GBRT 基線。 在不考慮時(shí)間預(yù)測(cè)器的情況下,traffic 預(yù)測(cè)的結(jié)果是混合的,因此 DARNN 和 LSTNet 實(shí)現(xiàn)了 traffic 數(shù)據(jù)集的最佳結(jié)果,而對(duì)于 PeMSD7 數(shù)據(jù)集,基于窗口的 GBRT 基線在兩個(gè)方面優(yōu)于 DNN 模型三個(gè)指標(biāo)。然而,時(shí)間協(xié)變量的包含顯著提高了 GBRT 的性能(下表 3),因此,對(duì)于 traffic 預(yù)測(cè),所有 DNN 方法,包括 DeepGlo [18] 和 STGCN(spatio-temporal traffic forecasting model ) [19],其在 PeMSD7 上實(shí)現(xiàn)了 6.77 的 RMSE,優(yōu)于重新配置的 GBRT 基線。

5e60ace0-9f8f-11ec-952b-dac502259ad0.png

下表 4 顯示了 LSTNet 與 GBRT(W-b) 的結(jié)果:

5e746f1e-9f8f-11ec-952b-dac502259ad0.png

下表 5 中的結(jié)果表明 GBRT 的競(jìng)爭(zhēng)力,但也表明基于 transformer 的模型相當(dāng)強(qiáng)大,例如 TFT 超過(guò)了提升回歸樹性能。然而,作為一個(gè)例外,TFT 構(gòu)成了本研究中唯一一個(gè)始終優(yōu)于 GBRT 的 DNN 模型,而 DeepAR 和 DeepState 等概率模型在這些單變量數(shù)據(jù)集上的表現(xiàn)優(yōu)于其他模型。

5e8bd316-9f8f-11ec-952b-dac502259ad0.png

多元數(shù)據(jù)集 下表 6 中為 DARNN 與基于窗口 GBRT 比較:簡(jiǎn)單、配置良好的 GBRT 基線可以超越 DNN 框架。

5ea10d9e-9f8f-11ec-952b-dac502259ad0.png

從下表 7 可以看出,即使是專門為某一預(yù)測(cè)任務(wù)設(shè)計(jì)的 DNN 模型,也沒(méi)有達(dá)到預(yù)期效果。相反,DAQFF 的性能比簡(jiǎn)單的基于窗口、特征工程的梯度提升回歸樹模型更差。在本實(shí)驗(yàn)中,值得注意的是,即使是傳統(tǒng)應(yīng)用預(yù)測(cè)意義上的 GBRT 模型也能在 air quality 數(shù)據(jù)集上提供更好的結(jié)果。

5eb338c0-9f8f-11ec-952b-dac502259ad0.png

原文標(biāo)題:做時(shí)間序列預(yù)測(cè)有必要用深度學(xué)習(xí)嗎?事實(shí)證明,梯度提升回歸樹媲美甚至超越多個(gè)DNN模型

文章出處:【微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:做時(shí)間序列預(yù)測(cè)有必要用深度學(xué)習(xí)嗎?事實(shí)證明,梯度提升回歸樹媲美甚至超越多個(gè)DNN模型

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于溫度數(shù)據(jù)集的時(shí)間序列預(yù)測(cè)實(shí)戰(zhàn)

    本文主要介紹時(shí)間序列預(yù)測(cè)并描述任何時(shí)間序列的兩種主要模式(趨勢(shì)和季節(jié)性)。并基于這些模式對(duì)時(shí)間
    發(fā)表于 10-24 14:40 ?2013次閱讀

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】全書概覽與時(shí)間序列概述

    的應(yīng)用也很廣泛,用機(jī)器學(xué)習(xí)時(shí)間分析帶來(lái)新的可能性。人們往往可以通過(guò)過(guò)往的時(shí)間序列數(shù)據(jù)來(lái)預(yù)測(cè)未來(lái),在各行各業(yè)中都有很好的應(yīng)用與發(fā)展前景。
    發(fā)表于 08-07 23:03

    【《時(shí)間序列與機(jī)器學(xué)習(xí)》閱讀體驗(yàn)】+ 了解時(shí)間序列

    學(xué)習(xí)方法對(duì)該序列數(shù)據(jù)進(jìn)行分析,可以得到結(jié)論或預(yù)測(cè)估計(jì),因此時(shí)間序列分析的用途是非常多的,比如: 可以反映社會(huì)經(jīng)濟(jì)現(xiàn)象的發(fā)展變化過(guò)程,描述現(xiàn)象
    發(fā)表于 08-11 17:55

    【《時(shí)間序列與機(jī)器學(xué)習(xí)》閱讀體驗(yàn)】+ 時(shí)間序列的信息提取

    本人有些機(jī)器學(xué)習(xí)的基礎(chǔ),理解起來(lái)一點(diǎn)也不輕松,加油。 作者首先說(shuō)明了時(shí)間序列的信息提取是時(shí)間序列分析的一個(gè)重要環(huán)節(jié),目標(biāo)是從給定的
    發(fā)表于 08-14 18:00

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】時(shí)間序列的信息提取

    個(gè)重要環(huán)節(jié),目標(biāo)是從給定的時(shí)間序列數(shù)據(jù)中提取出有用的信息和特征,以支持后續(xù)的分析和預(yù)測(cè)任務(wù)。 特征工程(Feature Engineering)是將數(shù)據(jù)轉(zhuǎn)換為更好地表示潛在問(wèn)題的特征,從而提高機(jī)器
    發(fā)表于 08-17 21:12

    深度學(xué)習(xí)預(yù)測(cè)和健康管理中的應(yīng)用

    (包括振動(dòng),圖像,時(shí)間序列和結(jié)構(gòu)化數(shù)據(jù))的普遍適用性。它還揭示了深度學(xué)習(xí)為主要PHM子字段提供了萬(wàn)能的框架:故障
    發(fā)表于 07-12 06:46

    介紹有關(guān)時(shí)間序列預(yù)測(cè)時(shí)間序列分類

    通過(guò)之前有關(guān)LSTM的8遍基礎(chǔ)教程和10篇處理時(shí)間序列預(yù)測(cè)任務(wù)的教程介紹,使用簡(jiǎn)單的序列數(shù)據(jù)示例,已經(jīng)把LSTM的原理,數(shù)據(jù)處理流程,模型架構(gòu),Keras實(shí)現(xiàn)都講清楚了。從這篇文章開(kāi)始
    發(fā)表于 07-12 09:18

    自回歸滯后模型進(jìn)行多變量時(shí)間序列預(yù)測(cè)案例分享

    1、如何建立一個(gè)模型來(lái)進(jìn)行多元時(shí)間序列預(yù)測(cè)呢?  下圖顯示了關(guān)于不同類型葡萄酒銷量的月度多元時(shí)間序列。每種葡萄酒類型都是時(shí)間序列中的一個(gè)變量
    發(fā)表于 11-30 15:33

    科學(xué)數(shù)據(jù)時(shí)間序列預(yù)測(cè)方法

    針對(duì)傳統(tǒng)的時(shí)間序列分析方法預(yù)測(cè)科學(xué)數(shù)據(jù)效果較差的特點(diǎn),提出了一種結(jié)合自組織神經(jīng)網(wǎng)絡(luò)和灰色理論的時(shí)間序列預(yù)
    發(fā)表于 12-31 23:56 ?10次下載

    小波回聲狀態(tài)網(wǎng)絡(luò)的時(shí)間序列預(yù)測(cè)

    為了更好的對(duì)具有多尺度特性的時(shí)間序列進(jìn)行預(yù)測(cè),運(yùn)用小波分析方法與回聲狀態(tài)網(wǎng)絡(luò)模型相結(jié)合來(lái)創(chuàng)建小波回聲狀態(tài)網(wǎng)絡(luò)預(yù)測(cè)模型。利用小波方法對(duì)原始時(shí)間
    發(fā)表于 01-13 11:40 ?0次下載
    小波回聲狀態(tài)網(wǎng)絡(luò)的<b class='flag-5'>時(shí)間</b><b class='flag-5'>序列</b><b class='flag-5'>預(yù)測(cè)</b>

    如何用Python進(jìn)行時(shí)間序列分解和預(yù)測(cè)?

    預(yù)測(cè)是一件復(fù)雜的事情,在這方面做得好的企業(yè)會(huì)在同行業(yè)中出類拔萃。時(shí)間序列預(yù)測(cè)的需求不僅存在于各類業(yè)務(wù)場(chǎng)景當(dāng)中,而且通常需要對(duì)未來(lái)幾年甚至幾分鐘之后的
    的頭像 發(fā)表于 02-14 11:34 ?2761次閱讀
    如何用Python進(jìn)行<b class='flag-5'>時(shí)間</b><b class='flag-5'>序列</b>分解和<b class='flag-5'>預(yù)測(cè)</b>?

    序列數(shù)據(jù)和文本的深度學(xué)習(xí)

    模型提供文本和序列化數(shù)據(jù); ?為序列化數(shù)據(jù)使用一維卷積。 可以使用RNN構(gòu)建的一些應(yīng)用程序如下所示。 ?文檔分類器:識(shí)別推文或評(píng)論的情感,對(duì)新聞文章進(jìn)行分類。 ?序列序列
    的頭像 發(fā)表于 07-15 09:47 ?1107次閱讀
    <b class='flag-5'>序列</b>數(shù)據(jù)和文本的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>

    深度學(xué)習(xí)中的時(shí)間序列分類方法

    時(shí)間序列分類(Time Series Classification, TSC)是機(jī)器學(xué)習(xí)深度學(xué)習(xí)領(lǐng)域的重要任務(wù)之一,廣泛應(yīng)用于人體活動(dòng)識(shí)別
    的頭像 發(fā)表于 07-09 15:54 ?2066次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在時(shí)間序列預(yù)測(cè)中的應(yīng)用

    時(shí)間序列預(yù)測(cè)是數(shù)據(jù)分析中的一個(gè)重要領(lǐng)域,它涉及到基于歷史數(shù)據(jù)預(yù)測(cè)未來(lái)值。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,
    的頭像 發(fā)表于 11-13 09:54 ?1980次閱讀

    如何使用RNN進(jìn)行時(shí)間序列預(yù)測(cè)

    一種強(qiáng)大的替代方案,能夠學(xué)習(xí)數(shù)據(jù)中的復(fù)雜模式,并進(jìn)行準(zhǔn)確的預(yù)測(cè)。 RNN的基本原理 RNN是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù)。在RNN中,每個(gè)輸入序列的元素都會(huì)通過(guò)一個(gè)或
    的頭像 發(fā)表于 11-15 09:45 ?876次閱讀