99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

有助于數據集增強的GAN體系結構,包括樣本增強和特征增強

zhKF_jqr_AI ? 來源:未知 ? 作者:龔婷 ? 2018-03-20 17:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

生成對抗網絡(Generative Adversarial Network,GAN)迅猛地占領了機器學習社區(qū)。優(yōu)雅的理論基礎和在計算機視覺領域不斷提升的優(yōu)越表現(xiàn)使其成為近年來機器學習最活躍的研究課題之一。事實上,F(xiàn)acebook AI Research的領導人Yann Lecun在2016年說過,“在我看來,GAN及其新提出的變體是機器學習在過去10年最有意思的想法?!毕胍私膺@一課題的最新進展,請參閱這篇The GAN Zoo(GAN動物園)。

盡管GAN已被證明是很出色的圖像生成模型,例如生成面部圖像和臥室圖像,GAN尚未在其他數據集上進行過廣泛測試,例如由工廠提供的數據集,其中包含大量來自生產線上的傳感器的測量值。不同于諸如圖片之類的靜態(tài)數據,這樣的數據集甚至可能包括時序信息,機器學習模型需要利用這些時序信息預測未來的事件。在這類數據上應用生成模型可能很有用,例如,如果我們的預測模型需要更多樣本進行訓練以提升其概括性。另外,如果我們提出一個可以生成優(yōu)質合成數據的模型,那么這個模型必定學習到了原始數據的潛在結構。既然模型學習到了潛在結構,預測模型就可以將該表示作為新特征集來利用!

本文將介紹一些可能有助于數據集增強的GAN體系結構,包括樣本增強和特征增強。讓我們從基本的GAN開始。

生成對抗網絡

GAN模型由兩部分組成:生成器(generator)和判別器(discriminator)。這里我們認為它們都是由參數確定的神經網絡:G和D。判別網絡的參數為最大化正確區(qū)分真實數據和偽造數據(生成網絡偽造的數據)的概率這一目標而優(yōu)化,而生成網絡的目標是最大化判別網絡不能識別其偽造的樣本的概率。

生成網絡如此產生樣本:接受一個輸入向量z,該向量取樣自一個潛分布(latent distribution),應用由網絡定義的函數G至該向量,得到G(z)。判別網絡交替接受G(z)和x(一個真實數據樣本),輸出輸入為真的概率。

通過適當的超參數調優(yōu)和足夠的訓練迭代次數,生成網絡和判別網絡將一起收斂(通過梯度下降方法進行參數更新)至描述偽造數據的分布和取樣真實數據的分布相一致的點。

本文接下來的部分將通過基于MNIST數據集生成新數字或編碼原始數字至潛空間來演示GAN是如何工作的。我們也會看下如何將GAN應用到類別數據和時序數據上。

作為開始,下面是一個在MNIST數據集上訓練的、基于多層感知器(MLP)的簡單GAN模型生成的一些樣本。

圖二:生成新數字

GAN并非盡善盡美

盡管GAN能如我們所見的那樣工作,在實踐中,GAN有一些缺點,自Ian Goodfellow等在2014年發(fā)表GAN的原始論文起,如何克服GAN的缺點一直是研究的熱點。GAN的主要缺點涉及它的訓練,GAN因極難訓練而聲名狼藉:首先,GAN的訓練高度依賴超參數。其次,也是最重要的,(生成網絡和判別網絡的)損失函數不提供必要的信息:盡管生成的樣本可能已經開始貼切地重現(xiàn)真實數據——顯著逼近真實數據的分布——一般而言無法通過損失的趨勢來指示這一表現(xiàn)。這意味著我們不能基于損失運行skopt之類的超參數優(yōu)化器,相反必須手工迭代調優(yōu),真是可恥。

GAN架構的另一個缺點和它的功能有關。使用圖一顯示的基于原始的交叉熵損失的GAN,我們無法:

控制生成什么數據。

生成類別數據。

訪問潛空間以便將其作為特征使用。

生成類別數據對GAN而言是一個特大難題。Ian Goodfellow在這個reddit帖子中以非常直觀的方式解釋了這一點:

僅當合成數據基于連續(xù)數值時,你才能對合成數據作出微小的改動?;陔x散數值無法作出微小的改動。

例如,如果你輸出的圖像的像素值為1.0,你可以在下一步將該像素值改為1.0001.

如果你輸出單詞“企鵝”,你無法在下一步將其修改為“企鵝 + .001”,因為并不存在“企鵝 + .001”這樣的單詞。你需要經歷從“企鵝”到“鴕鳥”的整個過程。

關鍵的想法是,生成網絡不可能從一個實體(如“企鵝”)一路前進到另一個實體(如“鴕鳥”)。因為兩者之間的空間出現(xiàn)實體的概率為0,判別網絡可以輕易地識別出該空間內的樣本是不真實的,因而它不可能被生成網絡所愚弄。

GAN變體

為了解決原始GAN的問題,研發(fā)了一些其他的訓練方式和架構。下面將加以簡要介紹。這些介紹的目標是讓你對如何應用這些方法至結構化數據(比如Kaggle競賽中的數據)有所了解。

條件GAN

前面提到的GAN能生成看起來像MNIST數據集中的隨機數字。但是如果我們想生成特定數字呢?只需在訓練過程中做出一個小小的改動,我們就能告訴生成網絡生成我們所要求的數字。在每次迭代中,生成網絡的輸入不僅包括z,還包括指明數字的one-hot編碼向量。同樣,判別網絡的輸入不僅包括真實樣本或偽造樣本,還包括同樣的標簽向量。

圖三:條件GAN

基于與前述GAN相同的流程,但是加上了這一輸出上的微小改動,條件GAN(CGAN)學習生成以輸入的標簽為條件的樣本。

讓我們?yōu)槊總€數字生成一個樣本!在潛空間取樣時,我們同時輸入一個one-hot編碼的向量指明我們所需的分類。對所有10個分類中的數字進行這一過程,得到圖四的結果:

圖四:根據條件生成的數字樣本

Wasserstein GAN

Wasserstein GAN(WGAN)是最流行的GAN之一,它改變了目標,從而提高了訓練穩(wěn)定性和可解釋性(損失和樣本質量的相關性),同時能夠生成類別數據。關鍵點在于,生成網絡的目標是逼近真實數據分布,因此衡量分布間的距離的指標很重要,因為該指標將是最小化的目標。WGAN選擇了Wasserstein距離。Wasserstein距離也稱為推土機(Earth-Mover)距離。另外,WGAN實際上采用的是Wasserstein距離的近似。WGAN選擇Wasserstein距離是因為Wasserstein距離能在Kullback-Leibler散度和Jensen-Shannon散度無法收斂的分布上收斂。如果你對理論感興趣,可以看下原始論文或這篇出色總結Read-through: Wasserstein GAN。

在實現(xiàn)層面,總結一下逼近Wasserstein距離意味著什么:

判別器的輸出不再是概率了,這也是將判別器改名為批評者(critic)的動機。

判別器的參數截斷至某個閾值(或者進行梯度懲罰)。

在每個訓練迭代中,判別器的參數比生成器的參數更新更頻繁。

用于類別數據的Wasserstein GAN

WGAN論文的作者展示了通過這種方式訓練的GAN顯示了訓練上的穩(wěn)定性和可解釋性,但之后有研究證明,Wasserstein距離的使用賦予了GAN生成類別(categorical)數據的能力(即,并非圖像之類的連續(xù)值數據,甚至不是像用1表示周日、用2表示周一這樣的整型編碼數據)。當在這類數據上訓練原始的GAN時,判別網絡的損失會在多次迭代中保持較低的水平,而生成網絡的損失會不停增長。而WGAN在類別數據上訓練的方式和在連續(xù)值數據一樣。

我們只需如此做(圖五是一個例子):數據集中的每個類別變量都對應一個生成網絡的softmax輸出,該輸出的維度和可能的離散值數目相等。判別網絡并不接受one-hot編碼的softmax輸出作為輸入,相反,將原始的softmax輸出當做一組連續(xù)值變量,傳給判別網絡作為輸入。這樣訓練就能收斂!在測試時,只需one-hot編碼生成網絡的離散輸出即可生成偽造的類別數據。

圖五:混合類別變量和連續(xù)變量的生成器的例子

上圖中的類別變量1為3個可能值中的1個,類別變量2為2個可能值中的1個。此外還有1個連續(xù)變量。

圖六展示了一個在類別值的數據集上訓練基于梯度懲罰的WGAN的例子,你可以在圖中看到穩(wěn)定的、收斂的損失函數的美麗曲線。這一個例子是在Kaggle競賽中的Sberbank Russian Housing Market數據集(俄羅斯聯(lián)邦儲蓄銀行的房產市場數據集)上訓練的,該數據集同時包含連續(xù)變量和類別變量。

圖六:在俄羅斯聯(lián)邦儲蓄銀行的房產市場數據集上訓練的WGAN-GP

當然,你也可以組合WGAN和CGAN,以監(jiān)督學習的方式訓練WGAN,以生成以分類標簽為條件的樣本!

注意:Cramer GAN進一步改進了Wasserstein GAN,其目標是提供質量更優(yōu)的樣本,同時提高訓練穩(wěn)定性。是否能用它生成類別數據是以后的研究課題。

雙向GAN

盡管WGAN看上去解決了很多問題,但它不允許訪問數據的潛空間表示。尋找這樣的表示可能很有幫助,不僅是因為可以通過在潛空間的連續(xù)移動控制生成什么樣的數據,還因為可以通過潛空間提取特征。

圖七:雙向GAN

雙向GAN(Bidirectional GAN,BiGAN)是解決這一問題的一個嘗試。它如此工作:不僅學習一個生成式網絡,同時學習一個編碼網絡E,該編碼網絡映射數據至生成網絡的潛空間。對抗配置中,使用一個判別網絡應對生成任務和編碼任務。BiGAN的作者展示了,在這一限制下,G和E這一對網絡形成了一個自動編碼器(autoencoder):通過E編碼數據樣本,再通過G解碼,可以得到原始樣本。

InfoGAN

之前我們看到,CGAN允許調節(jié)生成網絡以根據標簽生成樣本。不過,是否可以通過在GAN的潛空間中強制一個類別化的結構,以完全無監(jiān)督的方式學習辨別數字呢?可不可以設置一個連續(xù)的代碼空間,讓我們可以訪問這一空間以描述數據樣本的連續(xù)語義變體呢?(在MNIST的例子中,連續(xù)語義變體可能是數字的寬度和斜度。)

上述兩個問題的答案都是可以。比那更好的是:我們可以同時做到這兩點。真相是,我們可以施加任何我們發(fā)現(xiàn)有用的代碼空間分布,然后訓練GAN編碼這些分布中有意義的特性。每份代碼將學習包含數據的不同語義特性,結果等效于信息退相干(information disentanglement)。

圖八:InfoGAN

允許我們這么干的GAN是InfoGAN。簡單來說,InfoGAN試圖最大化生成網絡代碼空間和推斷網絡輸出的共同信息。推斷網絡可以簡單配置為判別網絡的一個輸出層,共享其他參數,意味著它是算力免費(computationally free)的。一旦訓練完成,InfoGAN的判別網絡的推斷輸出層可以用來提取特征,或者,如果代碼空間包含標簽信息,可以用來分類!

創(chuàng)建一個配有兩個代碼空間的InfoGAN——一個連續(xù)的二維空間和一個離散的十維空間——我們能夠以離散代碼為條件生成特定的數字,同時以連續(xù)代碼為條件生成特定風格的數字,生成如圖九所示的數據。注意,在整個無監(jiān)督學習計劃中,沒有標簽的位置——在潛空間中施加一個類別分布足以讓模型學習編碼該分布的標簽信息!

圖九:固定生成網絡的離散代碼輸入,同時使用不同的連續(xù)代碼輸入

對抗自動編碼器

圖十:對抗自動編碼器

對抗自動編碼器(Adversarial Autoencoder,AAE)結合了自動編碼器和GAN。這一模型優(yōu)化兩個目標:其一,最小化通過編碼網絡P和解碼網絡Q的數據x的重建錯誤。其二,通過對抗訓練在代碼P(x)上施加一個先驗分布,在對抗訓練中,P為生成網絡。所以,優(yōu)化P和Q以最小化x和Q(z)的距離,其中z是自動編碼器的代碼空間向量,同時優(yōu)化作為GAN的P和D,以迫使代碼空間P(x)匹配預先定義的結構。這可以看成對自動編碼器的正則化,迫使它學習有意義、結構化、內聚的代碼空間(而不是斷裂的代碼空間,參考Geoffrey Hinton講座筆記第76頁),以允許進行有效的特征提取和降維。同時,由于在代碼上施加了一個已知先驗分布,從該先驗分布取樣,并將樣本傳給解碼網絡Q,形成了一個生成式建模計劃!

讓我們在自動編碼器的對抗訓練中,在代碼空間上施加一個標準差為5的二維高斯分布。取樣該空間的相鄰點,得到一些生成數字的連續(xù)變體集。

左:在二維代碼空間中驗證數據。右:從代碼空間的相鄰點中取樣,解碼樣本以生成數字

我們還可以基于標簽訓練AAE,以強制標簽和數字風格信息的退相干。這樣,通過固定想要的標簽,施加的連續(xù)潛空間中的變體將導致不同風格的同一數字。以數字八為例:

圖十二:固定標簽,從潛AAE空間的相鄰點中取樣

很明顯,相鄰點間存在有意義的關系!為我們的數據集增強問題生成樣本時,這一性質可能會提供便利。

時序數據?

現(xiàn)實世界的結構化數據常常包含時序。在這樣的數據中,每個樣本和之前的樣本間存在某種依賴關系。經常選擇基于循環(huán)神經網絡的模型來處理這種數據,原因是它們具備建模這種數據的內在能力。在我們的GAN模型中利用這些神經網絡,在原則上可以產生更高質量的樣本和特征!

循環(huán)GAN

讓我們將之前的GAN中的MLP替換為RNN,就像這篇論文所做的那樣。具體而言,我們將采用RNN的變體長短時記憶(LSTM)單元(事實上我們在談論深度學習最最時髦的行話——哎喲,我又這么干了),在波形(Waves)數據集上進行訓練。這一數據集包含偏移、頻率、振幅不同的一維正弦信號和鋸齒信號,所有信號的時步相同。從RNN的視角來看,每個樣本包含一個30時步的波形。

我們的CGAN的生成網絡和判別網絡都將采用基于LSTM的神經網絡,將其轉化為一個RCGAN。我們將訓練該RCGAN學習按需生成正弦、鋸齒波形。

圖十三:左:生成的正弦波形;右:生成的鋸齒波形

訓練之后,我們也將查看潛空間中的變體是如何產生生成樣本特性體現(xiàn)的連續(xù)變化的。具體而言,如果我們施加一個二維正態(tài)分布潛空間,并將分類標簽固定為正弦波形,我們將得到圖十四中顯示的樣本。其中,我們能很明顯地看到頻率和振幅由低到高的連續(xù)變化,這意味著RCGAN學習到了一個有意義的潛空間!

圖十四:固定標簽,從潛RCGAN空間的相鄰點中取樣

盡管在GAN中使用RNN對生成實值的序列化數據很有用,它仍然無法用于離散序列,是否可以配合RNN使用Wasserstein距離尚不清楚(在RNN上施加Lipschitz限制是以后的研究課題)。SeqGAN和最近的ARAE的目標是解決這一問題。

結論

我們看到,在因為GAN具有生成非??岬膱D像的能力而生成的那些大驚小怪的報道(看過沒有?)之外,一些架構也可能有助于處理更一般的機器學習問題,包括連續(xù)和離散的數據。本文的目的是介紹這一想法,并不打算嚴格地比較這些多用途生成式模型,不過本文確實證明了應該進行這樣的涉及GAN的研究。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4814

    瀏覽量

    103727
  • 生成器
    +關注

    關注

    7

    文章

    322

    瀏覽量

    21919
  • 數據集
    +關注

    關注

    4

    文章

    1224

    瀏覽量

    25463

原文標題:一文概覽用于數據集增強的對抗生成網絡架構

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    MPS新品 MPG44100 集成GaN FET的高效率、增強型 PFC 穩(wěn)壓器,具有峰值功率總線升壓功能

    MPS新品 MPG44100 集成GaN FET的高效率、增強型 PFC 穩(wěn)壓器,具有峰值功率總線升壓功能
    的頭像 發(fā)表于 06-18 18:09 ?650次閱讀
    MPS新品 MPG44100 集成<b class='flag-5'>GaN</b> FET的高效率、<b class='flag-5'>增強</b>型 PFC 穩(wěn)壓器,具有峰值功率總線升壓功能

    增強AlN/GaN HEMT

    一種用于重摻雜n型接觸的選擇性刻蝕工藝實現(xiàn)了AlN/GaN HEMT的縮小 上圖:原位SiN/AlN/GaN HEMT外延堆疊示意圖 俄亥俄州立大學的工程師們宣稱,他們已經打開了一扇大門,有望制備出
    的頭像 發(fā)表于 06-12 15:44 ?249次閱讀
    <b class='flag-5'>增強</b>AlN/<b class='flag-5'>GaN</b> HEMT

    GNP1070TC-Z 650V GaN HEMT 數據手冊

    ;內置ESD保護功能,有助于實現(xiàn)高可靠性的設計。另外,通過采用通用性高的DFN封裝,不僅散熱性能出色,還非常易于安裝。采用DFN8080K 封裝,屬于 650V 增強型氮化鎵場效應晶體管(GaN FET
    的頭像 發(fā)表于 03-07 15:46 ?528次閱讀
    GNP1070TC-Z 650V <b class='flag-5'>GaN</b> HEMT <b class='flag-5'>數據</b>手冊

    SOLIDWORKS?2025新功能——零件和特征功能增強

    在工程設計領域,SOLIDWORKS一直以其強大的三維設計與工程解決方案帶領著行業(yè)的發(fā)展。隨著SOLIDWORKS?2025的發(fā)布,其零件和特征功能得到了顯著增強,為工程師提供了更加有效、靈活的設計工具,進一步提升了設計效率和創(chuàng)新能力
    的頭像 發(fā)表于 12-19 16:52 ?825次閱讀
    SOLIDWORKS?2025新功能——零件和<b class='flag-5'>特征</b>功能<b class='flag-5'>增強</b>

    【「RISC-V體系結構編程與實踐」閱讀體驗】-- SBI及NEMU環(huán)境

    基于2019版的NEMU進行了增強和維護,以模擬香山處理器前期指令體系結構。本章把NEMU簡稱為香山模擬器。NEMU支持x86、RV32和RV64等指令集體系結構。 RV64版本N
    發(fā)表于 11-26 09:37

    XD08M3232紅外感應單片機擁有哪些配置實現(xiàn)高性能處理能力

    的內存有助于在處理多任務或者處理大量數據時,避免出現(xiàn)存儲不足導致的性能下降問題,從而保障高性能的處理能力。 三、內置電路方面 自帶恒流驅動電路 :這一特性可能間接提升了其處理性能。對于感應器相關
    發(fā)表于 11-23 15:08

    VGA信號增強器的使用方法

    在現(xiàn)代電子設備中,VGA接口因其簡單、成本低廉而被廣泛應用于電腦顯示器、投影儀等設備。然而,VGA信號在長距離傳輸時容易受到干擾和衰減,導致圖像質量下降。為了解決這一問題,VGA信號增強器應運而生
    的頭像 發(fā)表于 11-08 10:06 ?1453次閱讀

    使用語義線索增強局部特征匹配

    視覺匹配是關鍵計算機視覺任務中的關鍵步驟,包括攝像機定位、圖像配準和運動結構。目前最有效的匹配關鍵點的技術包括使用經過學習的稀疏或密集匹配器,這需要成對的圖像。這些神經網絡對兩幅圖像的特征
    的頭像 發(fā)表于 10-28 09:57 ?897次閱讀
    使用語義線索<b class='flag-5'>增強</b>局部<b class='flag-5'>特征</b>匹配

    GPGPU體系結構優(yōu)化方向(1)

    繼續(xù)上文GPGPU體系結構優(yōu)化方向 [上],介紹提高并行度和優(yōu)化流水線的方向。
    的頭像 發(fā)表于 10-09 10:03 ?683次閱讀
    GPGPU<b class='flag-5'>體系結構</b>優(yōu)化方向(1)

    增強現(xiàn)實抬頭顯示是啥意思

     增強現(xiàn)實抬頭顯示(AR-HUD, Augmented Reality Head-Up Display)是AR增強現(xiàn)實技術和HUD抬頭顯示功能的結合體。這種技術通過計算機生成的虛擬信息疊加在三維道路環(huán)境中,使視覺特效與真實道路元素相匹配,為駕駛員提供更豐富、更直觀的信息展
    的頭像 發(fā)表于 09-15 14:37 ?1584次閱讀

    CoolGaN和增強GaN區(qū)別是什么

    : 定義 :CoolGaN是英飛凌(Infineon)公司推出的一系列基于氮化鎵(GaN)技術的產品品牌或系列名稱。它代表了英飛凌在GaN功率器件領域的技術成果和產品線。 范疇 :CoolGaN系列產品包括但不限于
    的頭像 發(fā)表于 09-07 09:28 ?1296次閱讀

    嵌入式系統(tǒng)的體系結構包括哪些

    嵌入式系統(tǒng)的體系結構通常是一個復雜而精細的架構,旨在滿足特定應用需求,同時兼顧系統(tǒng)的可靠性、效率、成本和體積等多方面因素。以下是對嵌入式系統(tǒng)體系結構的詳細解析,包括其主要組成部分、層次結構
    的頭像 發(fā)表于 09-02 15:25 ?3066次閱讀

    RISC-V指令的特點總結

    :RISC-V 保持了 RISC(Reduced Instruction Set Computer)架構的核心原則,即提供一個簡潔的指令,使得芯片設計更為簡單、高效。 優(yōu)勢:簡潔的設計有助于降低硬件
    發(fā)表于 08-30 22:05

    有助于提高網絡設備性能的FRAM SF25C20(MB85RS2MT)

    有助于提高網絡設備性能的FRAM SF25C20(MB85RS2MT)
    的頭像 發(fā)表于 07-25 09:49 ?606次閱讀
    <b class='flag-5'>有助于</b>提高網絡設備性能的FRAM SF25C20(MB85RS2MT)

    增強型MOS管的結構解析

    增強型MOS管(Enhancement MOSFET)是一種重要的場效應晶體管,具有高輸入阻抗、低輸入電流、高速開關和低噪聲等優(yōu)點,被廣泛應用于電子設備中。以下是對增強型MOS管結構的詳細解析。
    的頭像 發(fā)表于 07-24 10:51 ?2848次閱讀