99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何解決圖神經(jīng)網(wǎng)絡(luò)中的過平滑問題

2a37_sessdw ? 來源:Anas AIT AOMAR ? 作者:Anas AIT AOMAR ? 2021-07-26 16:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

神經(jīng)網(wǎng)絡(luò)圖解指南圖神經(jīng)網(wǎng)絡(luò)或簡稱 GNN 是用于圖數(shù)據(jù)的深度學(xué)習(xí) (DL) 模型。這些年來它們變得很熱。這種趨勢在 DL 領(lǐng)域并不新鮮:每年我們都會看到一個新模型的脫穎而出,它要么在基準(zhǔn)測試中顯示最先進的結(jié)果,要么是一個全新的機制/框架到已經(jīng)使用的模型中(但是你閱讀論文時會感到很簡單)。這種反思讓我們質(zhì)疑這種專門用于圖形數(shù)據(jù)的新模型存在的原因。

為什么我們需要GNN ?圖表無處不在:圖表數(shù)據(jù)非常豐富,我認為這是展示我們每天產(chǎn)生或消費的材料最自然、最靈活的方式。從大多數(shù)公司和Facebook或Twitter等社交網(wǎng)絡(luò)中使用的關(guān)系數(shù)據(jù)庫,到科學(xué)和文學(xué)中連接知識創(chuàng)造的引文圖表,我們不需要費力地列舉一系列圖表數(shù)據(jù)的例子。甚至圖像也可以被看作是圖表,因為它們的網(wǎng)格結(jié)構(gòu)。

模型能夠捕獲圖中所有可能的信息:正如我們所見,圖數(shù)據(jù)無處不在,并且采用具有特征向量的互連節(jié)點的形式。是的,我們可以使用一些多層感知器模型來解決我們的下游任務(wù),但是我們將失去圖拓撲為我們提供的連接。

至于卷積神經(jīng)網(wǎng)絡(luò),它們的機制專用于圖的一種特殊情況:網(wǎng)格結(jié)構(gòu)的輸入,其中節(jié)點完全連接而沒有稀疏性。話雖如此,唯一剩下的解決方案是一個模型,它可以建立在兩個給出的信息之上:節(jié)點的特征和我們圖中的局部結(jié)構(gòu),這可以減輕我們的下游任務(wù);

這就是 GNN 所做的。GNN 訓(xùn)練哪些任務(wù)?既然我們已經(jīng)適度地證明了這些模型的存在,我們將揭示它們的用法。事實上,我們可以在很多任務(wù)上訓(xùn)練 GNN:大圖中的節(jié)點分類(根據(jù)用戶的屬性和關(guān)系對社交網(wǎng)絡(luò)中的用戶進行細分),或全圖分類(對藥物應(yīng)用的蛋白質(zhì)結(jié)構(gòu)進行分類)。

除了分類之外,回歸問題還可以在圖數(shù)據(jù)之上制定,不僅適用于節(jié)點,也適用于邊??偠灾?,圖神經(jīng)網(wǎng)絡(luò)的應(yīng)用是無窮無盡的,取決于用戶的目標(biāo)和他們擁有的數(shù)據(jù)類型。為簡單起見,我們將專注于唯一圖中的節(jié)點分類任務(wù),我們嘗試將以特征向量為首的節(jié)點圖子集映射到一組預(yù)定義的類別/類。

該問題假設(shè)存在一個訓(xùn)練集,其中我們有一組標(biāo)記的節(jié)點,并且圖中的所有節(jié)點都有一個我們注意到 x 的特定特征向量。我們的目標(biāo)是預(yù)測驗證集中特征節(jié)點的標(biāo)簽。

GNN的本質(zhì)現(xiàn)在我們已經(jīng)設(shè)置了我們的問題,是時候了解 GNN 模型將如何訓(xùn)練以輸出未標(biāo)記節(jié)點的類。事實上,我們希望我們的模型不僅要使用我們節(jié)點的特征向量,還要利用我們處理的圖結(jié)構(gòu)。使 GNN 獨一無二的最后一條語句必須包含在某個假設(shè)中,該假設(shè)聲明相鄰節(jié)點傾向于共享相同的標(biāo)簽。

GNN通過使用消息傳遞形式化來整合這一點,本文將進一步討論這一概念。我們將介紹一些我們將在后面考慮的瓶頸。上面說的非常的抽象,現(xiàn)在讓我們看看 GNN 是如何構(gòu)建的。事實上,GNN 模型包含一系列通過更新的節(jié)點表示進行通信的層(每一層為每個節(jié)點輸出一個嵌入向量,然后將其用作下一層的輸入以在其上構(gòu)建)。

我們模型的目的是構(gòu)建這些嵌入(對于每個節(jié)點),集成節(jié)點的初始特征向量和圍繞它們的局部圖結(jié)構(gòu)的信息。一旦我們有了很好的嵌入,我們將經(jīng)典的 Softmax 層提供給這些嵌入以輸出相關(guān)類。

為了構(gòu)建這些嵌入,GNN層使用了一種稱為消息傳遞的簡單機制,它幫助圖節(jié)點與它們的鄰居交換信息,從而一層接一層地更新它們的嵌入向量。

消息傳遞框架

這一切都從一些節(jié)點開始,向量 x 描述它們的屬性,然后每個節(jié)點通過置換等變函數(shù)(均值、最大值、最小值……)從其鄰居節(jié)點收集其他特征向量。換句話說,一個對節(jié)點排序不敏感的函數(shù)。這個操作叫做聚合,它輸出一個消息向量。

第二步是Update函數(shù),節(jié)點將從它的鄰居(消息向量)收集到的信息與它自己的信息(特征向量)結(jié)合起來,構(gòu)造一個新的向量h: embedded。該聚合和更新函數(shù)的實例化在不同的論文中有所不同。您可以參考GCN[1]、GraphSage[2]、GAT[3]或其他,但消息傳遞的思想保持不變。

這個框架背后的直覺是什么?好吧,我們希望我們節(jié)點的新嵌入能夠考慮到本地圖結(jié)構(gòu),這就是我們從鄰居節(jié)點聚合信息的原因。通過這樣做,人們可以直觀地預(yù)見聚合后的一組鄰居節(jié)點將具有更相似的表示,這將減輕我們最終的分類任務(wù)。在我們的第一個假設(shè)(鄰居節(jié)點傾向于共享相同的標(biāo)簽)的情況下,所有這些都是成立的。

GNN 中的層組合

現(xiàn)在我們已經(jīng)了解了消息傳遞的主要機制,是時候了解層在 GNN 上下文中的含義了?;叵肷弦还?jié),每個節(jié)點使用來自其鄰居的信息來更新其嵌入,因此自然擴展是使用來自其鄰居(或第二跳鄰居)的鄰居的信息來增加其感受野并變得更加了解 圖結(jié)構(gòu)。這就是我們 GNN 模型的第二層。我們可以通過聚合來自 N 跳鄰居的信息將其推廣到 N 層。

在這一點上,您對 GNN 的工作原理有了一個高層次的了解,并且您可能能夠發(fā)現(xiàn)為什么這種形式主義會出現(xiàn)問題。首先,在深度學(xué)習(xí)的背景下談?wù)?GNN 假設(shè)存在深度(許多層)。

這意味著節(jié)點將可以訪問來自距離較遠且可能與它們不相似的節(jié)點的信息。一方面,消息傳遞形式主義試圖軟化鄰居節(jié)點之間的距離(平滑),以便稍后簡化我們的分類。另一方面,它可以通過使我們所有的節(jié)點嵌入相似來在另一個方向上工作,因此我們將無法對未標(biāo)記的節(jié)點進行分類(過度平滑)。在下一節(jié)中,我將嘗試解釋什么是平滑和過度平滑,我們將平滑作為增加 GNN 層的自然效果進行討論,我們將了解為什么它會成為一個問題。

我還將嘗試對其進行量化(從而使其可跟蹤),并在此量化的基礎(chǔ)上使用已發(fā)表論文中關(guān)于此問題的解決方案來解決它。

GNN 中的過度平滑問題

雖然消息傳遞機制幫助我們利用封裝在圖形結(jié)構(gòu)中的信息,但如果結(jié)合 GNN 深度,它可能會引入一些限制。換句話說,我們對更具表現(xiàn)力和更了解圖結(jié)構(gòu)的模型的追求(通過添加更多層,以便節(jié)點可以有一個大的感受野)可以轉(zhuǎn)化為一個模型,該模型對待節(jié)點都一樣(節(jié)點表示收斂到不可區(qū)分的向量[4])。

這種平滑現(xiàn)象既不是錯誤也不是特例,而是 GNN 的基本性質(zhì),我們的目標(biāo)是緩解它。為什么會發(fā)生過度平滑?消息傳遞框架使用了前面介紹的兩個主要函數(shù) Aggregate 和 Update,它們從鄰居那里收集特征向量并將它們與節(jié)點自己的特征結(jié)合起來更新它們的表示。此操作的工作方式使交互節(jié)點(在此過程中)具有非常相似的表示。我們將嘗試在我們模型的第一層中說明這一點,以說明為什么會發(fā)生平滑,然后添加更多層以顯示這種表示平滑如何隨層增加。

注意:過度平滑表現(xiàn)為節(jié)點嵌入之間的相似性。所以我們使用顏色,其中不同的顏色意味著向量嵌入的不同。此外,在我們的示例中,為了簡單起見,我們將僅更新突出顯示的 4 個節(jié)點。

正如您在第一層中看到的,節(jié)點可以訪問單跳鄰居。例如,您還可以觀察到,節(jié)點 2 和節(jié)點 3 幾乎可以訪問相同的信息,因為它們相互鏈接并具有共同的鄰居,唯一的區(qū)別是它們的最后一個鄰居(紫色和黃色)。我們可以預(yù)測它們的嵌入會略有相似。對于節(jié)點 1 和節(jié)點 4,它們彼此交互但具有不同的鄰居。所以我們可以預(yù)測他們的新嵌入會有所不同。我們通過為每個節(jié)點分配新的嵌入來更新我們的圖,然后移動到第二層并執(zhí)行相同的過程。

在我們 GNN 的第二層,節(jié)點 1,4 和 2,3 的計算圖分別幾乎相同。我們可能期望我們?yōu)檫@些節(jié)點更新的新嵌入將更加相似,即使對于以第一層的方式“幸存”的節(jié)點 1 和節(jié)點 4 現(xiàn)在也將具有相似的嵌入,因為額外的層使他們可以訪問更多 圖的部分,增加了訪問相同節(jié)點的可能性。

這個簡化的例子展示了過度平滑是 GNN 深度的結(jié)果。公平地說,這與真實案例相去甚遠,但它仍然提供了這種現(xiàn)象發(fā)生背后的原因。為什么這真的是一個問題?現(xiàn)在我們了解了為什么會發(fā)生過度平滑,以及為什么它是設(shè)計好的,這是 GNN 層組合的影響,是時候強調(diào)我們?yōu)槭裁磻?yīng)該關(guān)心它,并激勵解決方案來克服它。

首先,學(xué)習(xí)嵌入的目標(biāo)是最后將它們提供給分類器,以預(yù)測它們的標(biāo)簽??紤]到這種過度平滑的效果,我們最終會為沒有相同標(biāo)簽的節(jié)點得到類似的嵌入,這將導(dǎo)致錯誤標(biāo)記它們。有人可能認為減少層數(shù)會降低過度平滑的效果。是的,但這意味著在復(fù)雜結(jié)構(gòu)數(shù)據(jù)的情況下不利用多跳信息,因此不會提高我們的最終任務(wù)性能。

示例:為了強調(diào)最后一句,我將用一個在現(xiàn)實生活中經(jīng)常出現(xiàn)的例子來說明。想象一下,我們正在處理一個具有數(shù)千個節(jié)點的社交網(wǎng)絡(luò)圖。一些新用戶剛剛登錄該平臺并訂閱了他們朋友的個人資料。我們的目標(biāo)是找到主題建議來填充他們的提要。

考慮到這個假想的社交網(wǎng)絡(luò),在我們的GNN模型中只使用1或2層,我們將只知道我們的用戶關(guān)心連接的話題,但我們錯過了其他多樣化的話題,他可能會喜歡他的朋友的互動。綜上所述,過度平滑作為一個問題,我們遇到了一個低效率模型和一個更有深度但在節(jié)點表示方面更缺乏表現(xiàn)力的模型之間的權(quán)衡。

我們?nèi)绾瘟炕??現(xiàn)在我們已經(jīng)明確表示過度平滑是一個問題并且我們應(yīng)該關(guān)心它,我們必須對其進行量化,以便我們可以在訓(xùn)練 GNN 模型時對其進行跟蹤。不僅如此,量化還將為我們提供一個指標(biāo),通過將其作為正則化項添加到我們的目標(biāo)函數(shù)中(或不。。。。。。),用作數(shù)值懲罰。根據(jù)我最近的閱讀,很多論文都處理了 GNN 中的過度平滑問題,他們都提出了一個度量來量化它,以證明他們對這個問題的假設(shè)并驗證他們的解決方案。

我從處理這個問題的兩篇不同論文中選擇了兩個指標(biāo)。

MAD 和 MADGap [5]

Deli Chen 等人引入了兩個量化指標(biāo) MAD 和 MADGap,來衡量圖節(jié)點表示的平滑度和過度平滑度。一方面,MAD 計算圖中節(jié)點表示(嵌入)之間的平均平均距離,并使用它來表明平滑是向 GNN 模型添加更多層的自然效果?;诖硕攘?,他們將其擴展到 MADGap,該度量度量不同類別節(jié)點之間表示的相似性。這種概括是建立在主要假設(shè)之上的,即在節(jié)點交互時,它們可以訪問來自同一類的節(jié)點的重要信息,或者通過與來自其他類的節(jié)點交互來獲取噪聲。

在這篇文章中引起我興趣的是作者對建立消息傳遞形式的主要假設(shè)的質(zhì)疑方式(鄰居節(jié)點可能有類似的標(biāo)簽)。事實上,他們的測量MADGap不僅僅是一個過度平滑的測量,而是一個相對于我們的節(jié)點收集的信號的信息噪聲比的測量。因此,觀察到這個比例一層接著一層地減小,就證明了圖拓撲與下游任務(wù)目標(biāo)之間的不一致。

群距離比 [6]

Kaixiong Zhou 等人引入了另一個應(yīng)變前向度量,但與 MADGap 具有相同的目標(biāo),即組距離比。該指標(biāo)計算兩個平均距離,然后計算它們的比率。我們首先將節(jié)點放在相對于它們的標(biāo)簽的特定組中。然后,為了構(gòu)建我們的比率的提名者,我們計算每兩組節(jié)點之間的成對距離,然后對所得距離求平均值。至于分母,我們計算每個組的平均距離,然后計算平均值。

比例小意味著嵌入不同分組的節(jié)點之間的平均距離較小,因此我們可能會在分組的嵌入方面進行混合,這就是過平滑的證明。

我們的目標(biāo)是保持一個高的組距離比,以在節(jié)點的嵌入方面有不同的類別,這將簡化我們的下游任務(wù)。

有解決方案來克服過度平滑嗎?

一個直接的監(jiān)管規(guī)則?現(xiàn)在我們已經(jīng)量化了過度平滑問題,你可能會認為我們的工作被終止了,在我們的損失目標(biāo)中添加這個度量作為一個規(guī)則就足夠了。剩下的問題是,在我們的訓(xùn)練會話的每次迭代中計算這些度量(上面提到的)可能會耗費計算成本,因為我們需要訪問我們的圖中的所有訓(xùn)練節(jié)點,然后進行一些距離計算,處理二次縮放的節(jié)點對(C(2,n) = n * (n -1) / 2 = O(n2))一個間接的解決方案?

因此,所有討論過平滑問題的論文都考慮用其他更容易實現(xiàn)和對過平滑有影響的間接解決方案來克服這個計算問題。我們不會廣泛討論這些解決方案,但您將在下面找到其中一些參考資料。至于我們的例子,我們將討論Kaixiong Zhou 等人提出的可微群歸一化[6]。

DGN將節(jié)點分組,并對其進行獨立歸一化,輸出新的下一層嵌入矩陣。這個額外的層是用來優(yōu)化前面定義的組距離比或Rgroup。實際上,在一個組內(nèi)嵌入節(jié)點的歸一化使得它們的嵌入非常相似(減少了Rgroup的分子),而這些使用可訓(xùn)練參數(shù)的縮放和移動使得來自不同組的嵌入不同(增加了Rgroup的分子)。

為什么有效?第一次看論文,沒看到加入這個歸一化層和優(yōu)化Rgrou比之間的聯(lián)系,后來我觀察到這一層一方面使用了一個可訓(xùn)練的分配矩陣,因此它有來自我們的損失函數(shù),因此指導(dǎo)將完美情況下的節(jié)點分配給它們的真實類。

另一方面,我們還有平移和縮放參數(shù),它們也由我們的損失函數(shù)引導(dǎo)。那些用于將一組嵌入到另一組的不同嵌入的參數(shù)因此有助于下游任務(wù)。

總結(jié)

這篇文章可能很長,但它只觸及了圖神經(jīng)網(wǎng)絡(luò)及其問題的表面,我試圖從 GNN 的小探索開始,并展示它們?nèi)绾?- 使用如此簡單的機制 - 解鎖我們無法想到的潛在應(yīng)用其他 DL 架構(gòu)的上下文。

這種簡單性受到許多阻礙其表達能力的問題的限制(至少目前來說),研究人員的目標(biāo)是克服它,以尋求利用圖數(shù)據(jù)的全部力量。至于我,我閱讀了不同的論文,討論了一些 GNN 的限制和瓶頸,但將它們統(tǒng)一起來的一個共同點是,所有這些問題都可以與我們用來訓(xùn)練圖模型的主要機制相關(guān)聯(lián),即消息傳遞。

我可能不是專家,但我必須提出一些問題。繼續(xù)列舉這些問題并試圖解決它們真的值得嗎?既然我們?nèi)蕴幱谶@樣一個有趣領(lǐng)域的第一次迭代中,為什么不考慮一種新機制并嘗試一下呢?

作者:Anas AIT AOMAR原文地址:https://towardsdatascience.com/over-smoothing-issue-in-graph-neural-network-bddc8fbc2472

翻譯(轉(zhuǎn)自):DeepHub IMBA

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:圖神經(jīng)網(wǎng)絡(luò)中的過平滑問題

文章出處:【微信號:sessdw,微信公眾號:三星半導(dǎo)體互動平臺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機故障診斷的應(yīng)用

    的診斷誤差。仿真結(jié)果驗證了該算法的有效性。 純分享帖,需要者可點擊附件免費獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機故障診斷的應(yīng)用.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 的過濾器修剪統(tǒng)計數(shù)據(jù)怎么查看?

    無法觀察神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 的過濾器修剪統(tǒng)計數(shù)據(jù)
    發(fā)表于 03-06 07:10

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一層都由若干個神經(jīng)元構(gòu)成,神經(jīng)元之間通過權(quán)重連接。信號在神經(jīng)網(wǎng)絡(luò)是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(luò)(CNN) :
    的頭像 發(fā)表于 02-12 15:53 ?676次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法的介紹: 一、基本概念 反向傳播算法是BP
    的頭像 發(fā)表于 02-12 15:18 ?778次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?868次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    輸入層、隱藏層和輸出層組成。其中,輸入層負責(zé)接收外部輸入數(shù)據(jù),這些數(shù)據(jù)隨后被傳遞到隱藏層。隱藏層是BP神經(jīng)網(wǎng)絡(luò)的核心部分,它可以通過一層或多層神經(jīng)元對輸入數(shù)據(jù)進行加權(quán)求和,并通過非線性激活函數(shù)(如ReLU、sigmoid或tanh)進行處理,從而提取出數(shù)據(jù)
    的頭像 發(fā)表于 02-12 15:13 ?872次閱讀

    BP神經(jīng)網(wǎng)絡(luò)在圖像識別的應(yīng)用

    BP神經(jīng)網(wǎng)絡(luò)在圖像識別中發(fā)揮著重要作用,其多層結(jié)構(gòu)使得網(wǎng)絡(luò)能夠?qū)W習(xí)到復(fù)雜的特征表達,適用于處理非線性問題。以下是對BP神經(jīng)網(wǎng)絡(luò)在圖像識別應(yīng)用的分析: 一、BP
    的頭像 發(fā)表于 02-12 15:12 ?684次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章,我們介紹了傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?1215次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:53 ?1885次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機器學(xué)習(xí)領(lǐng)域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1138次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機制

    LSTM(Long Short-Term Memory,長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計用于解決長期依賴問題,特別是在處理時間序列數(shù)據(jù)時表現(xiàn)出色。以下是LSTM神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-13 10:05 ?1640次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴信息。在處理序列數(shù)據(jù)時,如時間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時間序列的長期依賴關(guān)系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1594次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    轉(zhuǎn)換成一個很長的一維向量。轉(zhuǎn)換是在所謂的壓平層完成的,隨后是一個或兩個全連接層。全連接層的神經(jīng)元類似于2所示的結(jié)構(gòu)。神經(jīng)網(wǎng)絡(luò)最后一層的輸出要與需要區(qū)分的類別的數(shù)量一致。此外,在最后
    發(fā)表于 10-24 13:56

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14

    FPGA在深度神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    、低功耗等特點,逐漸成為深度神經(jīng)網(wǎng)絡(luò)在邊緣計算和設(shè)備端推理的重要硬件平臺。本文將詳細探討FPGA在深度神經(jīng)網(wǎng)絡(luò)的應(yīng)用,包括其優(yōu)勢、設(shè)計流程、關(guān)鍵技術(shù)以及實際應(yīng)用案例。
    的頭像 發(fā)表于 07-24 10:42 ?1224次閱讀