99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

多層分布式表征學(xué)習(xí)不僅有深度神經(jīng)網(wǎng)絡(luò),同時(shí)還有決策樹!

MqC7_CAAI_1981 ? 來源:未知 ? 作者:李倩 ? 2018-06-05 17:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自去年周志華等研究者提出了「深度森林」以后,這種新型的層級表征方式吸引了很多研究者的關(guān)注。今日,南京大學(xué)的馮霽、俞揚(yáng)和周志華提出了多層梯度提升決策樹模型,它通過堆疊多個(gè)回歸 GBDT 層作為構(gòu)建塊,并探索了其學(xué)習(xí)層級表征的能力。此外,與層級表征的神經(jīng)網(wǎng)絡(luò)不同,他們提出的方法并不要求每一層都是可微,也不需要使用反向傳播更新參數(shù)。因此,多層分布式表征學(xué)習(xí)不僅有深度神經(jīng)網(wǎng)絡(luò),同時(shí)還有決策樹!

近十年來,深層神經(jīng)網(wǎng)絡(luò)的發(fā)展在機(jī)器學(xué)習(xí)領(lǐng)域取得了顯著進(jìn)展。通過構(gòu)建分層或「深層」結(jié)構(gòu),該模型能夠在有監(jiān)督或無監(jiān)督的環(huán)境下從原始數(shù)據(jù)中學(xué)習(xí)良好的表征,這被認(rèn)為是其成功的關(guān)鍵因素。成功的應(yīng)用領(lǐng)域包括計(jì)算機(jī)視覺、語音識別、自然語言處理等 [1]。

目前,幾乎所有的深層神經(jīng)網(wǎng)絡(luò)都使用具有隨機(jī)梯度下降的反向傳播 [2,3] 作為訓(xùn)練過程中更新參數(shù)的幕后主力軍。實(shí)際上,當(dāng)模型由可微分量(例如,具有非線性激活函數(shù)的加權(quán)和)組成時(shí),反向傳播似乎仍是當(dāng)前的最佳選擇。其他一些方法如目標(biāo)傳播 [4] 已經(jīng)被作為訓(xùn)練神經(jīng)網(wǎng)絡(luò)的替代方法被提出,但其效果和普及還處于早期階段。例如,[5_]_的研究表明,目標(biāo)傳播最多可達(dá)到和反向傳播一樣的效果,并且實(shí)際上常常需要額外的反向傳播來進(jìn)行微調(diào)。換句話說,老掉牙的反向傳播仍然是訓(xùn)練神經(jīng)網(wǎng)絡(luò)等可微分學(xué)習(xí)系統(tǒng)的最好方法。

另一方面,探索使用非可微模塊來構(gòu)建多層或深度模型的可能性的需求不僅僅是學(xué)界的興趣所在,其在現(xiàn)實(shí)應(yīng)用上也有很大的潛力。例如,基于樹的集成(例如隨機(jī)森林 [6] 或梯度提升決策樹(GBDT)[7] 仍然是多個(gè)領(lǐng)域中建模離散或表格數(shù)據(jù)的主要方式,為此在這類數(shù)據(jù)上使用樹集成來獲得分層分布式表征是個(gè)很有趣的研究方向。在這樣的案例中,由于不能使用鏈?zhǔn)椒▌t來傳播誤差,反向傳播不再可行。這引發(fā)了兩個(gè)基本的問題:首先,我們是否可以用非可微組件構(gòu)建多層模型,從而中間層的輸出可以被當(dāng)作分布式表征?其次,如果是這樣,如何在沒有反向傳播的幫助下,聯(lián)合地訓(xùn)練這種模型?本文的目的就在于提供這種嘗試。

近期 Zhou 和 Feng [8] 提出了深度森林框架,這是首次嘗試使用樹集成來構(gòu)建多層模型的工作。具體來說,通過引入細(xì)粒度的掃描和級聯(lián)操作(cascading operation),該模型可以構(gòu)建多層結(jié)構(gòu),該結(jié)構(gòu)具備適應(yīng)性模型復(fù)雜度,且能夠在多種類型的任務(wù)上取得有競爭力的性能。[8] 提出的 gcForest 模型利用了集成學(xué)習(xí)多樣性增強(qiáng)的各種策略,然而該方法僅適用于監(jiān)督學(xué)習(xí)設(shè)置。同時(shí),該論文仍然不清楚如何利用森林來構(gòu)建多層模型,并明確地測試其表征學(xué)習(xí)能力。由于很多之前的研究者認(rèn)為,多層分布式表征 [9] 可能是深度神經(jīng)網(wǎng)絡(luò)成功的關(guān)鍵,為此我們應(yīng)該對表征學(xué)習(xí)進(jìn)行這樣的探索。

該研究力求利用兩個(gè)方面的優(yōu)勢:樹集成的出色性能和分層分布式表征的表達(dá)能力(主要在神經(jīng)網(wǎng)絡(luò)中進(jìn)行探索)。具體來說,本研究提出了首個(gè)多層結(jié)構(gòu),每層使用梯度提升決策樹作為構(gòu)造塊,明確強(qiáng)調(diào)其表征學(xué)習(xí)能力,訓(xùn)練過程可以通過目標(biāo)傳播的變體進(jìn)行聯(lián)合優(yōu)化。該模型可以在有監(jiān)督和無監(jiān)督的環(huán)境下進(jìn)行訓(xùn)練。本研究首次證明,確實(shí)可以使用決策樹來獲得分層和分布式表征,盡管決策樹通常被認(rèn)為只能用于神經(jīng)網(wǎng)絡(luò)或可微分系統(tǒng)。理論論證和實(shí)驗(yàn)結(jié)果均表明了該方法的有效性。

3 提出的方法

這一部分機(jī)器之心并不詳細(xì)介紹,具體的方法讀者可參考原論文第三章。在一般的多層前饋結(jié)構(gòu)中,每一層都是可微函數(shù),因此我們可以使用反向傳播傳遞梯度并高效地更新參數(shù)。但是當(dāng)每一個(gè)層級函數(shù)都是不可微或者非參數(shù)化的,那么我們就不能使用反向傳播。所以這一部分重點(diǎn)在于解決當(dāng)層級函數(shù) F_i 是梯度提升決策樹時(shí),其參數(shù)的更新方法。

訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),初始化可以通過向每個(gè)參數(shù)分配隨機(jī)高斯噪聲來實(shí)現(xiàn),然后該步驟移動到下一階段,即參數(shù)更新。對于此處介紹的樹結(jié)構(gòu)模型來說,從所有可能的樹配置分布中繪制隨機(jī)樹結(jié)構(gòu)不是一件容易的事情,因此本論文沒有隨機(jī)初始化樹結(jié)構(gòu),而是生成一些高斯噪聲作為中間層的輸出,并訓(xùn)練一些非常小的樹來獲取,其中索引 0 表示該初始化階段獲取的樹結(jié)構(gòu)。之后訓(xùn)練步驟移動到迭代更新正向映射和逆向映射。圖 1 和算法 1 總結(jié)了該步驟。

圖 1:訓(xùn)練 mGBDT 步驟的示意圖。

值得注意的是,[23] 利用 GPU 加速訓(xùn)練 GBDT,Korlakai & Ran [24] 展示了一種實(shí)施 GBDT drop-out 技術(shù)的高效方式,進(jìn)一步提升了性能。至于多維輸出問題,使用 GBDT 的原始方法內(nèi)存效率較低。Si 等人 [25] 提出了解決該問題的有效方式,可以在實(shí)踐中將內(nèi)存降低一個(gè)數(shù)量級。

4 實(shí)驗(yàn)

4.1 合成數(shù)據(jù)

為了進(jìn)行完整性檢查,研究者在合成數(shù)據(jù)集上訓(xùn)練兩個(gè)小的多層 GBDT。

如圖 2a 所示,研究者在 R^2 上得到了 1.5 萬個(gè)點(diǎn),分為兩個(gè)類別(70% 用于訓(xùn)練,30% 用于測試)。用于訓(xùn)練的結(jié)構(gòu)是(輸入 ? 5 ? 3 ? 輸出),其中輸入點(diǎn)在 R^2 中,輸出是 0/1 分類預(yù)測。

研究者還進(jìn)行了一項(xiàng)自動編碼的無監(jiān)督學(xué)習(xí)任務(wù)。生成了 1 萬個(gè) 3D 點(diǎn),如圖 3a 所示。然后研究者用結(jié)構(gòu)為(3 - 5 - 3)的 mGBDT 構(gòu)建了一個(gè)自編碼器,MSE 為重建損失。

重建輸出如圖 3b 所示。輸入 3D 點(diǎn)的 5D 編碼不可能直接可視化,這里研究者使用一種通用策略來可視化 2D 中 5D 編碼的一些維度對,如圖 4 所示。

4.2 收入預(yù)測

收入預(yù)測數(shù)據(jù)集 [28] 包含 48, 842 個(gè)樣本(其中 32, 561 個(gè)是訓(xùn)練數(shù)據(jù),16, 281 個(gè)是測試數(shù)據(jù)),這些樣本是表格數(shù)據(jù),具備類別屬性和連續(xù)屬性。每個(gè)樣本包括一個(gè)人的社會背景,如種族、性別、工作種類等。這里的任務(wù)是預(yù)測這個(gè)人的年薪是否超過 50K。

圖 5:收入數(shù)據(jù)集的特征可視化。

實(shí)驗(yàn)結(jié)果見圖 6 和表 1。首先,基于同樣的模型結(jié)構(gòu),多層 GBDT 森林(mGBDT)與使用反向傳播或目標(biāo)傳播(target-prop)的 DNN 方法相比取得了最高的準(zhǔn)確率。它的準(zhǔn)確率還比單個(gè) GBDT 或多個(gè) GBDT 的簡單堆疊更高。其次,與期望相反,NN^TargetProp 的收斂效果不如 NN^BackProp(與 [5] 的結(jié)果一致),而使用 GBDT 層的同樣結(jié)構(gòu)可以達(dá)到更低的訓(xùn)練損失,同時(shí)避免過擬合。

圖 6:收入數(shù)據(jù)集學(xué)習(xí)曲線。

表 1:分類準(zhǔn)確率對比。對于蛋白質(zhì)數(shù)據(jù)集,使用 10 折交叉驗(yàn)證評估出的準(zhǔn)確率以平均值 ± 標(biāo)準(zhǔn)差的形式表示。

4.3 蛋白質(zhì)定位

蛋白質(zhì)數(shù)據(jù)集 [28] 是一個(gè) 10 類別分類任務(wù),僅包含 1484 個(gè)訓(xùn)練數(shù)據(jù),其中 8 個(gè)輸入屬性中的每一個(gè)都是蛋白質(zhì)序列的一個(gè)測量值,目標(biāo)是用 10 個(gè)可能的選擇預(yù)測蛋白質(zhì)定位位點(diǎn)。

圖 7:蛋白質(zhì)數(shù)據(jù)集的特征可視化

10 折交叉驗(yàn)證的訓(xùn)練和測試曲線用平均值繪制在圖 8 中。多層 GBDT(mGBDT)方法比神經(jīng)網(wǎng)絡(luò)方法收斂得快得多,如圖 8a 所示。

圖 8:蛋白質(zhì)數(shù)據(jù)集學(xué)習(xí)曲線。

表 2:不同模型結(jié)構(gòu)的測試準(zhǔn)確率。使用 10 折交叉驗(yàn)證評估出的準(zhǔn)確率以平均值 ± 標(biāo)準(zhǔn)差的形式表示。N/A 表示并未應(yīng)用。

論文:Multi-Layered Gradient Boosting Decision Trees

摘要:多層表征被認(rèn)為是深度神經(jīng)網(wǎng)絡(luò)的關(guān)鍵要素,尤其是在計(jì)算機(jī)視覺等認(rèn)知任務(wù)中。盡管不可微模型如梯度提升決策樹(gradient boosting decision tree,GBDT)是建模離散或表格數(shù)據(jù)的主要方法,但是它們很難整合這種表征學(xué)習(xí)能力。在本文中,我們提出了多層 GBDT 森林(mGBDT),通過堆疊多個(gè)回歸 GBDT 層作為構(gòu)建塊,探索學(xué)習(xí)層級表征的能力。該模型可以使用層間目標(biāo)傳播的變體進(jìn)行聯(lián)合訓(xùn)練,無需推導(dǎo)反向傳播和可微性。實(shí)驗(yàn)和可視化均證明該模型在性能和表征學(xué)習(xí)能力方面的有效性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103581
  • 決策樹
    +關(guān)注

    關(guān)注

    3

    文章

    96

    瀏覽量

    13828

原文標(biāo)題:深度森林第三彈:周志華組提出可做表征學(xué)習(xí)的多層梯度提升決策樹

文章出處:【微信號:CAAI-1981,微信公眾號:中國人工智能學(xué)會】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    關(guān)于決策樹,這些知識點(diǎn)不可錯(cuò)過

    `隨著科學(xué)技術(shù)的發(fā)展,AI愛好者越來越多,除了一些精通AI的大神,還有很多的技術(shù)小白也對這方面感興趣,他們想學(xué)習(xí)一些機(jī)器學(xué)習(xí)的入門知識。今天,訊飛開放平臺就帶來機(jī)器學(xué)習(xí)中的一個(gè)重要算法
    發(fā)表于 05-23 09:38

    深度學(xué)習(xí)與數(shù)據(jù)挖掘的關(guān)系

    深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。
    發(fā)表于 07-04 16:07

    決策樹在機(jī)器學(xué)習(xí)的理論學(xué)習(xí)與實(shí)踐

    決策樹在機(jī)器學(xué)習(xí)的理論學(xué)習(xí)與實(shí)踐
    發(fā)表于 09-20 12:48

    機(jī)器學(xué)習(xí)決策樹介紹

    機(jī)器學(xué)習(xí)——決策樹算法分析
    發(fā)表于 04-02 11:48

    深度神經(jīng)網(wǎng)絡(luò)是什么

    多層感知機(jī) 深度神經(jīng)網(wǎng)絡(luò)in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 與許忠傳,林敏濤和華佳勇合作
    發(fā)表于 07-12 06:35

    決策樹的生成資料

    在本文中,我們將討論一種監(jiān)督學(xué)習(xí)算法。最新一代意法半導(dǎo)體 MEMS 傳感器內(nèi)置一個(gè)基于決策樹分類器的機(jī)器學(xué)習(xí)核心(MLC)。這些產(chǎn)品很容易通過后綴中的 X 來識別(例如,LSM6DS
    發(fā)表于 09-08 06:50

    斯坦福探索深度神經(jīng)網(wǎng)絡(luò)可解釋性 決策樹是關(guān)鍵

    深度學(xué)習(xí)的熱潮還在不斷涌動,神經(jīng)網(wǎng)絡(luò)再次成為業(yè)界人士特別關(guān)注的問題,AI 的未來大有可期,而深度學(xué)習(xí)正在影響我們的日常生活。近日斯坦福大學(xué)給
    發(fā)表于 01-10 16:06 ?4665次閱讀
    斯坦福探索<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>可解釋性 <b class='flag-5'>決策樹</b>是關(guān)鍵

    結(jié)合深度神經(jīng)網(wǎng)絡(luò)決策樹的完美方案

    “ANT的出發(fā)點(diǎn)與mGBDT類似,都是期望將神經(jīng)網(wǎng)絡(luò)的表示學(xué)習(xí)決策樹的特點(diǎn)做一個(gè)結(jié)合,不過,ANT依舊依賴神經(jīng)網(wǎng)絡(luò)BP算法進(jìn)行的實(shí)現(xiàn),”馮霽說:“而
    的頭像 發(fā)表于 07-25 09:39 ?1w次閱讀
    結(jié)合<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>和<b class='flag-5'>決策樹</b>的完美方案

    深度神經(jīng)決策樹深度神經(jīng)網(wǎng)絡(luò)模型結(jié)合的新模型

    近日,來自愛丁堡大學(xué)的研究人員提出了一種結(jié)合深度神經(jīng)網(wǎng)絡(luò)模型的新型模型——深度神經(jīng)決策樹(D
    的頭像 發(fā)表于 08-19 09:14 ?1.3w次閱讀

    決策樹的原理和決策樹構(gòu)建的準(zhǔn)備工作,機(jī)器學(xué)習(xí)決策樹的原理

    希望通過所給的訓(xùn)練數(shù)據(jù)學(xué)習(xí)一個(gè)貸款申請的決策樹,用于對未來的貸款申請進(jìn)行分類,即當(dāng)新的客戶提出貸款申請時(shí),根據(jù)申請人的特征利用決策樹決定是否批準(zhǔn)貸款申請。
    的頭像 發(fā)表于 10-08 14:26 ?6435次閱讀

    決策樹的基本概念/學(xué)習(xí)步驟/算法/優(yōu)缺點(diǎn)

    本文將介紹決策樹的基本概念、決策樹學(xué)習(xí)的3個(gè)步驟、3種典型的決策樹算法、決策樹的10個(gè)優(yōu)缺點(diǎn)。
    發(fā)表于 01-27 10:03 ?2916次閱讀
    <b class='flag-5'>決策樹</b>的基本概念/<b class='flag-5'>學(xué)習(xí)</b>步驟/算法/優(yōu)缺點(diǎn)

    什么是決策樹模型,決策樹模型的繪制方法

    決策樹是一種解決分類問題的算法,本文將介紹什么是決策樹模型,常見的用途,以及如何使用“億圖圖示”軟件繪制決策樹模型。
    發(fā)表于 02-18 10:12 ?1.3w次閱讀
    什么是<b class='flag-5'>決策樹</b>模型,<b class='flag-5'>決策樹</b>模型的繪制方法

    大數(shù)據(jù)—決策樹

    認(rèn)為是if-then的集合,也可以認(rèn)為是定義在特征空間與類空間上的條件概率分布。 決策樹通常有三個(gè)步驟:特征選擇、決策樹的生成、決策樹的修剪。 用
    的頭像 發(fā)表于 10-20 10:01 ?1492次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn) 卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)是一種基于神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)算法,其主要特點(diǎn)是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動調(diào)整
    發(fā)表于 08-21 17:07 ?4685次閱讀

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化
    的頭像 發(fā)表于 02-12 15:15 ?852次閱讀