99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖深度學(xué)習與曾經(jīng)風靡一時的流形學(xué)習有何關(guān)系?

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:通信信號處理研究所 ? 作者:通信信號處理研究 ? 2020-10-30 17:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

如今引領(lǐng)風潮的圖深度學(xué)習與曾經(jīng)風靡一時的流形學(xué)習有何關(guān)系?請看本文娓娓道來。

神經(jīng)網(wǎng)絡(luò)利用關(guān)系的歸納偏置獲取以圖的形式存在的數(shù)據(jù)。然而,在很多情況下,我們并沒有現(xiàn)成的可用的圖。

那么,在這種情況下,是否還仍然還可以應(yīng)用圖深度學(xué)習呢?在本文中,倫敦帝國理工學(xué)院和盧加諾大學(xué)的教授Michael Bronstein對近期關(guān)于隱圖學(xué)習的工作和以前的流形學(xué)習技術(shù)進行了比較。

在過去的幾年里,人們對用于圖結(jié)構(gòu)數(shù)據(jù)的機器學(xué)習方法的研究興趣大增。這類數(shù)據(jù)自然而然地出現(xiàn)在社會科學(xué)(例如,Twitter 或 Facebook 上的用戶關(guān)注圖)、化學(xué)(分子可以被建模為原子通過化學(xué)鍵相連的圖)、生物(不同生物分子之間的交互作用通常被建模為一個被稱為「相互作用組」的圖)等應(yīng)用場景下。

圖神經(jīng)網(wǎng)絡(luò)(GNN)是一類當下非常流行的方法,它們通過共享參數(shù)的局部操作對圖進行學(xué)習,這些操作會在相鄰節(jié)點之間交換信息。然而,在某些場景下,我們并不能奢求擁有一個作為輸入的圖。這種情況在許多生物學(xué)問題中屢見不鮮,在最好的情況下,由于發(fā)現(xiàn)交互作用的實驗開銷相當大并且充滿噪聲,「蛋白質(zhì)-蛋白質(zhì)」交互網(wǎng)絡(luò)等圖往往也只有部分數(shù)據(jù)被觀測到。

因此,我們對于根據(jù)數(shù)據(jù)推理出圖并且將圖神經(jīng)網(wǎng)絡(luò)應(yīng)用在該圖上十分感興趣,在本文中,我們將這一過程稱為「隱圖學(xué)習」(latent graph learning)。

隱圖可能是面向特定應(yīng)用的,并且針對下游任務(wù)進行了優(yōu)化。此外,由于這樣的圖可能會傳達關(guān)于數(shù)據(jù)的重要理解并提供解釋某些結(jié)論的方式,有時它們可能甚至會比任務(wù)本身更加重要。我們可以將隱圖學(xué)習看做學(xué)習一個帶有空邊集的圖。

在這種情況下,輸入為一些高維特征空間中的點云。

與 PointNet 等針對集合的深度學(xué)習方法(它們將一些共享的、可學(xué)習的點層面函數(shù)應(yīng)用于每個節(jié)點上)不同,我們還試圖在點之間傳遞信息。這是通過在一個根據(jù)點特征本身構(gòu)建的圖上傳遞消息實現(xiàn)的。

本文介紹的第一種此類架構(gòu)為 MIT 的 Yue Wang 研發(fā)的「動態(tài)圖卷積網(wǎng)絡(luò)」(DGCNN,這篇論文在計算圖形學(xué)研究社區(qū)十分有名,并常常被用作點云方法的對比基線)。

受到計算圖形學(xué)領(lǐng)域中進行 3D 點云分析的工作的啟發(fā),DGCNN 試圖將圖用作點云底層的局部平滑流形結(jié)構(gòu)的一種粗糙的表征。

Yue Wang 觀察到的一個關(guān)鍵結(jié)論是,在整個神經(jīng)網(wǎng)絡(luò)的處理過程中,該圖并不需要保持不變。而且事實上,顧名思義,「動態(tài)圖卷積網(wǎng)絡(luò)」可以、也應(yīng)該被動態(tài)地更新。圖 1 說明了 DGCNN 在計算圖形學(xué)中十分有用的原因:

圖 1:動態(tài)圖卷積網(wǎng)絡(luò)利用飛機圖像構(gòu)建了一個被用于特征傳播的 K 最近鄰圖。這種圖依賴于特定的任務(wù),會被每一層網(wǎng)絡(luò)更新。

圖中的不同顏色表明了點距離紅點的距離(黃色表示與紅點距離較近的點)。

本圖說明在分割任務(wù)中,較深的層中的圖捕獲了語義關(guān)系(例如,一對翅膀、飛機引擎等)而不是幾何關(guān)系。

DGCNN 其中的一個不足之處在于,它使用了同一個空間構(gòu)建圖以及圖上的特征。如圖 2 所示,在慕尼黑工業(yè)大學(xué)的 Anees Kazi 與 Luca Cosmo 近期發(fā)表的工作中,作者提出了一種名為「可微圖模塊」(DGM)的新型架構(gòu),它通過將構(gòu)建圖和構(gòu)建特征的過程解耦對 DGCNN 進行了擴展:

圖 2:可微圖模塊(DGM)提出了一種構(gòu)建圖及其特征的機制,從而利用輸入數(shù)據(jù)在圖上進行信息傳播。

在被用于醫(yī)學(xué)領(lǐng)域的問題(例如,根據(jù)腦成像數(shù)據(jù)預(yù)測疾?。r,DGM 表現(xiàn)出了非常優(yōu)異的性能。在這些任務(wù)中,我們擁有包括人口統(tǒng)計學(xué)特征(例如,年齡、性別等)、腦成像特征在內(nèi)的多個病人的電子病歷數(shù)據(jù),并試圖預(yù)測某個病人是否患有神經(jīng)系統(tǒng)疾病。

論文「Disease prediction using graph convolutional networks: application to autism spectrum disorder and Alzheimer’s disease 」使用在一個根據(jù)人口統(tǒng)計學(xué)特征手動構(gòu)建的「患者圖」上的信息傳播將 GNN 應(yīng)用于此類任務(wù)。

DGM 在學(xué)習圖的任務(wù)上具有一定優(yōu)勢,它可能傳達了對于某些特征如何在特定的診斷任務(wù)中互相依賴的理解。除此之外,DGM 還在點云分類任務(wù)中稍稍優(yōu)于 DGCNN。

DGCNN 和 DGM 在概念上與一類被稱為「流形學(xué)習」或「非線性降維」相似,這類方法在 2000 年代時是機器學(xué)習領(lǐng)域中非常流行的課題,并且至今仍然被用于數(shù)據(jù)可視化。

流形學(xué)習的基本假設(shè)是:數(shù)據(jù)有一種內(nèi)在的低維結(jié)構(gòu)。

如下圖所示,盡管我們可以在某個空間中使用數(shù)百個甚至數(shù)千個維度表征數(shù)據(jù),但數(shù)據(jù)的自由度實際上也許是十分有限的:

圖 3:盡管在這個數(shù)據(jù)集中的手的圖像是高維的(64*64=4,096 維),但是他們本質(zhì)上是低維的,而且可以通過僅僅兩個自由度來解釋:手腕的旋轉(zhuǎn)和手指的延伸情況。

流形學(xué)習算法可以捕獲數(shù)據(jù)集的這種低維的內(nèi)在結(jié)構(gòu),并且在歐氏空間中表征它。該圖取自論文「A Global Geometric Framework for Nonlinear Dimensionality Reduction」的補充材料。

流形學(xué)習旨在通過底層的「流形」(嚴格地說,這里指的并不是微分幾何意義上的術(shù)語「流形」,例如不同的點上的局部維度可能不同。

然而,使用這種比喻較為方便。)捕獲這些自由度,并且將數(shù)據(jù)的維度降到其本質(zhì)的維度上。

流形學(xué)習與 PCA 等線性降維方式的重要區(qū)別在于,由于數(shù)據(jù)的非歐結(jié)構(gòu),用線性投影的方式恢復(fù)出流形是不可能的:

圖 4:線性降維(左圖)vs 流形學(xué)習。Joshua Tenenbaum 創(chuàng)造的「Swiss roll」曲面及其 1D 展開形式在流形學(xué)習論文中經(jīng)常被用作示例。

各種流形學(xué)習算法的不同之處在于它們恢復(fù)「流形」的方式,但它們的大致框架相同。首先,它們會創(chuàng)建一種數(shù)據(jù)的表征,通常這是通過構(gòu)建一個捕獲了局部結(jié)構(gòu)的 k 最近鄰圖完成的。接著,它們會計算一種數(shù)據(jù)的低維表征(嵌入),并試圖保留原始數(shù)據(jù)的結(jié)構(gòu)。

而這一步正是大多數(shù)流形學(xué)習方法各不相同的地方。

例如,Isomap試圖保留圖的測地線距離;局部線性嵌入找到了一種鄰接點的局部表征;而拉普拉斯特征映射使用了圖拉普拉斯算子的特征函數(shù)作為低維嵌入。這種新的表征將原始的非歐結(jié)構(gòu)「展平」到了一個易于處理的歐氏空間中。

最后,一旦我們計算出表征,就可以將某種機器學(xué)習算法(通常為聚類算法)應(yīng)用于該表征上。

圖 5:流形學(xué)習方法的框架:首先,將數(shù)據(jù)表征為一個圖。接著,計算出該圖的低維嵌入。最后,將某種機器學(xué)習算法應(yīng)用于該低維表征上。

該過程也存在著一些挑戰(zhàn),例如:構(gòu)建圖的過程與應(yīng)用機器學(xué)習算法的過程是解耦的,有時還需要進行精細的參數(shù)調(diào)優(yōu)(如近鄰節(jié)點的數(shù)量或鄰域半徑),從而確定如何構(gòu)建圖,使得下游任務(wù)表現(xiàn)優(yōu)異。

也許,流形學(xué)習算法的一個更為嚴重的缺點是,數(shù)據(jù)很少表現(xiàn)為低維的原始形式。

例如,當我們處理圖像時,需要在預(yù)處理步驟中使用各種手動構(gòu)造的特征提取技術(shù)。

圖深度學(xué)習通過使用一個圖神經(jīng)網(wǎng)絡(luò)代替這個三階段的過程為其提供了一種現(xiàn)代化的視角。

例如,在動態(tài)圖卷積網(wǎng)絡(luò)或 DGM 中,構(gòu)建圖和學(xué)習的過程都是同一個架構(gòu)中的某一部分:

圖 6:可以將隱圖學(xué)習看做一種現(xiàn)代環(huán)境下的流形學(xué)習問題,其中將圖作為一個端到端的 GNN 工作流程的一部分進行學(xué)習,并為某些下游任務(wù)對其進行優(yōu)化。

這類方法吸引人的地方在于,它們可以將處理單個數(shù)據(jù)點的過程與處理它們所在空間的過程在同一個工作流程中結(jié)合起來。

以圖像為例,我們可以使用傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)從每張圖像中提取視覺特征,并且使用圖神經(jīng)網(wǎng)絡(luò)建模它們之間的關(guān)系。

Jan Svoboda 在論文「 PeerNets: Exploiting peer wisdom against adversarial attacks」中用到了這種方法,他為卷積神經(jīng)網(wǎng)絡(luò)提出了一種基于圖的正則化層「PeerNet」,它可以實現(xiàn)在多張圖像之間交換信息。

PeerNet 與非局部(Non-local)均值濾波器在它們從多個位置聚合信息的方式上有一些相似之處,而 PeerNet 的不同之處在于它從多張圖像而不是單張圖像中聚合信息。

這種正則化技術(shù)顯著地降低了對抗性干擾的影響,而標準的卷積神經(jīng)網(wǎng)絡(luò)則很容易受其影響。

圖 7:PeerNet 是一種標準的卷積神經(jīng)網(wǎng)絡(luò)中的基于圖的正則化層,它從多張圖像中聚合相似的像素,從而降低對于對抗性干擾的敏感度。隱圖學(xué)習還有許多其它有趣的應(yīng)用,小樣本學(xué)習便是其中之一。

在小樣本學(xué)習中,基于圖的技術(shù)可以幫助使用少量示例訓(xùn)練的模型泛化。如今,由于數(shù)據(jù)標注的開銷十分巨大,小樣本學(xué)習在計算機視覺領(lǐng)域變得越來越重要。生物學(xué)是隱圖學(xué)習另一個重要的應(yīng)用場景,人們通常通過實驗觀察蛋白質(zhì)等生物分子的表達水平,并試圖重建它們的相互作用和信息傳遞網(wǎng)絡(luò)。

此外,隱圖學(xué)習還可以被用于對物理系統(tǒng)的分析,其中圖可以描述多個物體之間的相互作用。具體而言,研究復(fù)雜粒子相互作用的高能物理學(xué)家們近期對基于圖的方法展現(xiàn)出了濃厚的興趣。最后,隱圖學(xué)習在自然語言處理(NLP)領(lǐng)域中也得到了重要的應(yīng)用,其中圖神經(jīng)網(wǎng)絡(luò)可以被看做 Transformer 架構(gòu)的拓展。

許多上述的任務(wù)也提出了引入圖結(jié)構(gòu)的先驗知識的問題,這仍然是一個有待解決的開放性問題:例如,我們也許會希望迫使圖遵循某些特定的構(gòu)建規(guī)則,或者與某些統(tǒng)計模型兼容。

在論文「Learning deep generative models of graphs」中,作者在嚴格遵循某些構(gòu)建規(guī)則的情況下,生成化學(xué)鍵的分子結(jié)構(gòu)圖。我們相信,盡管隱圖學(xué)習并不是一個完全新穎的概念,但是它為一些老的問題提供了新的視角。

它肯定是一種有趣的圖機器學(xué)習問題,為圖神經(jīng)網(wǎng)絡(luò)的研究者們提供了新的舞臺。

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7256

    瀏覽量

    91921
  • 機器學(xué)習
    +關(guān)注

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134650
  • 深度學(xué)習
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122811

原文標題:“看不見”的圖深度學(xué)習=流形學(xué)習 2.0?

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    軍事應(yīng)用中深度學(xué)習的挑戰(zhàn)與機遇

    人工智能尤其是深度學(xué)習技術(shù)的最新進展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?540次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Ba
    的頭像 發(fā)表于 02-12 15:15 ?867次閱讀

    NPU與機器學(xué)習算法的關(guān)系

    在人工智能領(lǐng)域,機器學(xué)習算法是實現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對計算資源的需求也在不斷增長。NPU作為種專門為深度學(xué)習等機器
    的頭像 發(fā)表于 11-15 09:19 ?1230次閱讀

    NPU在深度學(xué)習中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習作為其核心驅(qū)動力之,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?1925次閱讀

    pcie在深度學(xué)習中的應(yīng)用

    深度學(xué)習模型通常需要大量的數(shù)據(jù)和強大的計算能力來訓(xùn)練。傳統(tǒng)的CPU計算資源有限,難以滿足深度學(xué)習的需求。因此,GPU(圖形處理單元)和TPU(張量處理單元)等專用硬件應(yīng)運而生,它們通過
    的頭像 發(fā)表于 11-13 10:39 ?1359次閱讀

    Pytorch深度學(xué)習訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?663次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習</b>訓(xùn)練的方法

    GPU深度學(xué)習應(yīng)用案例

    GPU在深度學(xué)習中的應(yīng)用廣泛且重要,以下是些GPU深度學(xué)習應(yīng)用案例: 、圖像識別 圖像識別是
    的頭像 發(fā)表于 10-27 11:13 ?1385次閱讀

    激光雷達技術(shù)的基于深度學(xué)習的進步

    信息。這使得激光雷達在自動駕駛、無人機、機器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習技術(shù)的發(fā)展 深度學(xué)習是機器學(xué)習
    的頭像 發(fā)表于 10-27 10:57 ?1073次閱讀

    FPGA加速深度學(xué)習模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習模型是當前硬件加速領(lǐng)域的個熱門研究方向。以下是些FPGA加速深度
    的頭像 發(fā)表于 10-25 09:22 ?1240次閱讀

    人工智能、機器學(xué)習深度學(xué)習存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI很多技術(shù),但其中個很大的子集是機器學(xué)習——讓算法從數(shù)據(jù)中學(xué)習
    發(fā)表于 10-24 17:22 ?2982次閱讀
    人工智能、機器<b class='flag-5'>學(xué)習</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習</b>存在什么區(qū)別

    AI大模型與深度學(xué)習關(guān)系

    AI大模型與深度學(xué)習之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 、深度
    的頭像 發(fā)表于 10-23 15:25 ?2902次閱讀

    深度學(xué)習GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學(xué)習任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?617次閱讀

    FPGA做深度學(xué)習能走多遠?

    今天給大俠帶來在FPAG技術(shù)交流群里平時討論的問題答疑合集(十四),以后還會多推出本系列,話不多說,上貨。 FPGA技術(shù)交流群目前已有十多個群,QQ和微信均覆蓋,需要的大俠可以進群,起交流學(xué)習
    發(fā)表于 09-27 20:53

    AI入門之深度學(xué)習:基本概念篇

    1、什么是深度學(xué)習 1.1、機器學(xué)習 ?? ? 1:計算機有效工作的常用方法:程序員編寫規(guī)則(程序),計算機遵循這些規(guī)則將輸入數(shù)據(jù)轉(zhuǎn)換為適當?shù)拇鸢?。這
    的頭像 發(fā)表于 08-08 11:24 ?2435次閱讀
    AI入門之<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習</b>:基本概念篇

    NVIDIA推出全新深度學(xué)習框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習框架可用于打造自動駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1153次閱讀