99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

探討條件GAN在圖像生成中的應用

zhKF_jqr_AI ? 2018-01-11 16:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

生成對抗網(wǎng)絡一直是深度學習的重要工具,經(jīng)過近幾年的發(fā)展,GANs也衍生出了許多不同的模式,例如DCGANs、Wasserstein GANs、BEGANs等。本文將要探討的是條件GAN(Conditional GANs)在圖像生成中的應用。

條件GANs已經(jīng)應用與多種跟圖像有關的任務中了,但分辨率通常都不高,并且看起來很不真實。而在這篇論文中,英偉達和加州大學伯克利分校的研究人員共同提出了一個新方法合成高分辨率的街景,利用條件GANs從語義標簽映射生成的2048x1024的圖像不僅在視覺上更吸引人,同時生成了新的對抗損失以及新的多尺度生成器和判別器體系結(jié)構(gòu)。

合成實例級別的圖像

接下來就是該項目的具體實驗過程。首先,是基線算法pix2pix的運用。pix2pix是用于圖像翻譯的條件GAN框架,它包含一個生成網(wǎng)絡G和一個判別網(wǎng)絡D。在這項任務中,生成網(wǎng)絡G的目標就是將語義標簽映射翻譯成接近真實的圖像,而判別網(wǎng)絡D的目標是將生成圖像與真實圖像作對比。

pix2pix利用U-Net作為生成網(wǎng)絡,同時用基礎的卷積網(wǎng)絡作為判別器。然而,利用數(shù)據(jù)集Cityspaces生成的圖像分辨率最高只有256x256的,以至于訓練過程十分不穩(wěn)定,生成圖片的質(zhì)量也不是很好,所以pix2pix框架需要進行一些改善升級。

研究人員將生成網(wǎng)絡換成由粗到精的網(wǎng)絡,并采用多尺度的判別網(wǎng)絡結(jié)構(gòu)。同時采用穩(wěn)定的對抗學習目標函數(shù)。

由粗到精的生成網(wǎng)絡(Coarse-to-fine generator)

研究人員將生成網(wǎng)絡分成了兩部分:全局生成網(wǎng)絡G1和局部增強網(wǎng)絡G2。全局生成網(wǎng)絡G1的可接受的分辨率為1024x512,局部增強網(wǎng)絡輸出的圖像分辨率為前一個圖像的4倍。如果還想得到更高的合成圖像,可以繼續(xù)增加局部增強網(wǎng)絡。

探討條件GAN在圖像生成中的應用

生成網(wǎng)絡結(jié)構(gòu)

多尺度判別網(wǎng)絡(multi-scale discriminators)

對GAN的判別網(wǎng)絡來說,高分辨率的圖像是不小的挑戰(zhàn)。為了區(qū)分真正的高清圖片與合成圖片,判別網(wǎng)絡需要一個巨大的接收區(qū)(receptive field)。所以這就需要一個更深的網(wǎng)絡或更大的卷積核。但是這兩種方法都會增加網(wǎng)絡的能力,有可能導致過度擬合。并且它們在訓練時都需要更大的存儲腳本,這對高分辨率的圖像生成來說是很稀少的。

為了解決這一問題,研究人員提出了使用多尺度判別器的方法,即用三種擁有同樣結(jié)構(gòu)的網(wǎng)絡,但針對不同尺寸的圖片運行。能處理最大尺寸的網(wǎng)絡擁有最大的接收區(qū),它能引導生成網(wǎng)絡生成整體更協(xié)調(diào)的圖像。而處理最小尺寸的網(wǎng)絡能引導生成網(wǎng)絡在細節(jié)上處理得更仔細。

損失函數(shù)

研究人員從鑒別網(wǎng)絡的多個層中提取特征,并學習從真實和合成圖像中匹配這些中間表征。為了方便表示,我們將判別網(wǎng)絡Dk的第i層表示為Dk(i),特征匹配損失LFM(G, Dk)表示為:

其中T是總層數(shù),Ni表示每層的組成要素。

最終將GAN損失和特征匹配損失結(jié)合起來的函數(shù)表示為:

其中λ控制兩項的重要性。

現(xiàn)有的圖像合成方法僅使用語義標簽映射,其中每個像素值代表像素所屬的對象類別。這種映射不區(qū)分同一類別的對象。另一方面,實例級別的語義標簽映射包括每個單獨對象的唯一ID。要包含實例映射,一個簡單的方法是將其直接傳遞給網(wǎng)絡,或者將其編碼成一個單獨的向量。然而,由于不同圖像可能包含不同數(shù)量相同類別的對象,所以這兩種方法在實踐中都難以實現(xiàn)。

所以我們選擇用實例映射,它能夠提供語義標簽映射中沒有的對象邊界(object boundary)。例如,當多個相同類別的對象彼此相鄰是,只查看語義標簽映射無法區(qū)分它們。

下圖顯示用實例邊界映射訓練的模型,圖像邊界更清晰。

結(jié)果對比

為了量化合成圖像的質(zhì)量,研究人員對其進行語義分割,并比較預測的預測的部分與輸入部分的匹配程度。從下表可以看出,我們使用的方法遠遠優(yōu)于其他方法,并且十分接近原始圖像。

在CityScapes數(shù)據(jù)集上,在沒有損失函數(shù)的情況下,我們的方法也依然比其他兩種方法更優(yōu)。

在NYU數(shù)據(jù)集上,我們的方法生成的圖片比其他方法生成的圖片看起來更真實。

其他結(jié)果:

輸入標簽(左)與合成圖像(右)

放大后可以看到圖中對象的細節(jié)更清晰

ADE20K數(shù)據(jù)集的實驗,我們的結(jié)果生成的圖片真實度與原圖相差無幾

在Helen Face數(shù)據(jù)集上的實驗,用戶可以在互動界面實時改變臉部特征。例如變換膚色、加胡子等等

各位可以到網(wǎng)站上自行繪制你的“大作”:uncannyroad.com/

結(jié)語

實驗的結(jié)果表明,條件GANs無需手動調(diào)整損失函數(shù)或提前訓練網(wǎng)絡,就能合成高分辨率的逼真圖像。我們的成果將幫助許多需要高分辨率圖像,但卻沒有預先訓練網(wǎng)絡的領域,比如醫(yī)療影像和生物領域。

同時,這篇論文還向我們展示出,圖像到圖像的合成pipeline可以用來生成多種結(jié)果。研究人員認為這些成果有助于擴大圖片合成的應用范圍。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • GaN
    GaN
    +關注

    關注

    19

    文章

    2204

    瀏覽量

    76757
  • 深度學習
    +關注

    關注

    73

    文章

    5561

    瀏覽量

    122780

原文標題:通過協(xié)同繪制用GAN合成高分辨率無盡道路

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何精確高效的完成GaN PA的I-V曲線設計?

    GaN PA 設計?)后,了解I-V 曲線(亦稱為電流-電壓特性曲線)是一個很好的起點。本篇文章探討I-V 曲線的重要性,及其非線性GaN 模型(如Modelithics Qorvo
    發(fā)表于 07-31 06:44

    【洞幺邦】基于深度學習的GAN應用風格遷移

    和虛假,最后兩者到達動態(tài)的平和的時候,生成網(wǎng)絡G就可以生成以假亂真的圖片了。GAN應用風格遷移:最一開始那個吶喊的例子,人類騎行的
    發(fā)表于 07-01 10:53

    圖像生成對抗生成網(wǎng)絡gan_GAN生成汽車圖像 精選資料推薦

    圖像生成對抗生成網(wǎng)絡ganHello there! This is my story of making a GAN that would generate images of cars
    發(fā)表于 08-31 06:48

    特倫托大學與Inria合作:使用GAN生成人體的新姿勢圖像

    使用GAN(對抗生成網(wǎng)絡)生成人體的新姿勢圖像。研究人員提出的可變形跳躍連接和最近鄰損失函數(shù),更好地捕捉了局部的紋理細節(jié),緩解了之前研究生成
    的頭像 發(fā)表于 01-29 16:34 ?9972次閱讀
    特倫托大學與Inria合作:使用<b class='flag-5'>GAN</b><b class='flag-5'>生成</b>人體的新姿勢<b class='flag-5'>圖像</b>

    GAN技術(shù)再到新高度 利用pytorch技術(shù)生成72種圖像

    隨著GAN的發(fā)展,單憑一張圖像就能自動將面部表情生成動畫已不是難事。但近期Reddit和GitHub熱議的新款GANimation,卻將此技術(shù)提到新的高度。GANimation構(gòu)建了
    的頭像 發(fā)表于 07-30 10:39 ?5958次閱讀

    圖像生成領域的一個巨大進展:SAGAN

    近年來,生成圖像建模領域出現(xiàn)了不少成果,其中最前沿的是GAN,它能直接從數(shù)據(jù)中學習,生成高保真、多樣化的圖像。雖然
    的頭像 發(fā)表于 10-08 09:11 ?1.4w次閱讀

    GAN圖像生成應用綜述

    GAN 可以將任意的分布作為輸入,這里的 Z 就是輸入,實驗我們多取Z~N(0,1),也多取 [?1,1] 的均勻分布作為輸入。生成器 G 的參數(shù)為 θ,輸入 Z 在
    的頭像 發(fā)表于 02-13 13:59 ?5969次閱讀
    <b class='flag-5'>GAN</b><b class='flag-5'>在</b><b class='flag-5'>圖像</b><b class='flag-5'>生成</b>應用綜述

    必讀!生成對抗網(wǎng)絡GAN論文TOP 10

    處理的CelebA-HQ 數(shù)據(jù)集,實現(xiàn)了效果令人驚嘆的生成圖像。作者表示,這種方式不僅穩(wěn)定了訓練,GAN 生成圖像也是迄今為止質(zhì)量最好的。
    的頭像 發(fā)表于 03-20 09:02 ?6925次閱讀
    必讀!<b class='flag-5'>生成</b>對抗網(wǎng)絡<b class='flag-5'>GAN</b>論文TOP 10

    生成對抗網(wǎng)絡GAN論文TOP 10,幫助你理解最先進技術(shù)的基礎

    處理的CelebA-HQ 數(shù)據(jù)集,實現(xiàn)了效果令人驚嘆的生成圖像。作者表示,這種方式不僅穩(wěn)定了訓練,GAN 生成圖像也是迄今為止質(zhì)量最好的。
    的頭像 發(fā)表于 03-20 15:16 ?9181次閱讀
    <b class='flag-5'>生成</b>對抗網(wǎng)絡<b class='flag-5'>GAN</b>論文TOP 10,幫助你理解最先進技術(shù)的基礎

    基于譜歸一化條件生成對抗網(wǎng)絡的圖像修復算法

    基于生成對抗網(wǎng)絡的圖像修復算法修復大尺寸缺失圖像時,存在圖像失真較多與判別網(wǎng)絡性能不可控等問題,基于譜歸一化
    發(fā)表于 03-12 10:22 ?14次下載
    基于譜歸一化<b class='flag-5'>條件</b><b class='flag-5'>生成</b>對抗網(wǎng)絡的<b class='flag-5'>圖像</b>修復算法

    基于自注意力機制的條件生成對抗網(wǎng)絡模型

    無監(jiān)督的GΔN網(wǎng)絡,這使得GAN可以生成有標簽數(shù)據(jù)。傳統(tǒng)的GAN通過多次卷積運算來模擬不同區(qū)域之間的相關性,進而生成
    發(fā)表于 04-20 14:26 ?11次下載
    基于自注意力機制的<b class='flag-5'>條件</b><b class='flag-5'>生成</b>對抗網(wǎng)絡模型

    基于GAN-inversion的圖像重構(gòu)過程

    筆者最近在集中時間學習對抗生成網(wǎng)絡(GAN),特別是深度生成先驗進行多用途圖像修復與處理,需要對圖像修復與處理經(jīng)典論文進行回顧和精讀。
    的頭像 發(fā)表于 07-13 14:19 ?3385次閱讀

    探討GAN背后的數(shù)學原理(上)

    GAN的風暴席卷了整個深度學習圈子,任何任務似乎套上GAN的殼子,立馬就變得高大上了起來。那么,GAN究竟是什么呢? **GAN的主要應用目標:**
    的頭像 發(fā)表于 03-17 10:01 ?653次閱讀
    <b class='flag-5'>探討</b><b class='flag-5'>GAN</b>背后的數(shù)學原理(上)

    探討GAN背后的數(shù)學原理(下)

    GAN的風暴席卷了整個深度學習圈子,任何任務似乎套上GAN的殼子,立馬就變得高大上了起來。那么,GAN究竟是什么呢? **GAN的主要應用目標:**
    的頭像 發(fā)表于 03-17 10:02 ?863次閱讀
    <b class='flag-5'>探討</b><b class='flag-5'>GAN</b>背后的數(shù)學原理(下)

    何愷明新作RCG:無自條件圖像生成新SOTA!與MIT首次合作!

    它有望超越條件圖像生成,并推動諸如分子設計或藥物發(fā)現(xiàn)這種不需要人類給注釋的應用往前發(fā)展(這也是為什么條件生成
    的頭像 發(fā)表于 12-10 10:24 ?1334次閱讀
    何愷明新作RCG:無自<b class='flag-5'>條件</b><b class='flag-5'>圖像</b><b class='flag-5'>生成</b>新SOTA!與MIT首次合作!