99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

生成對(duì)抗網(wǎng)絡(luò) vs 圖像水印,去除效果理想

WpOh_rgznai100 ? 來(lái)源:YXQ ? 2019-06-26 14:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

當(dāng)前互聯(lián)網(wǎng)飛速發(fā)展,越來(lái)越多的公司、組織和個(gè)人都選擇在網(wǎng)上展示和分享圖像。為了保護(hù)圖像版權(quán),大家都會(huì)選擇在圖像上打上透明或者半透明的水印。隨著水印被廣泛地使用,針對(duì)水印的各種處理技術(shù)也在不斷發(fā)展,如何有效去除圖像上的水印引發(fā)了越來(lái)越多人的研究興趣。

今天的文章中,我們會(huì)介紹一種更為強(qiáng)大的水印去除器。這次我們借助生成對(duì)抗網(wǎng)絡(luò)來(lái)實(shí)現(xiàn),進(jìn)一步提升水印去除器的性能,從而達(dá)到更為理想的去除效果。

生成對(duì)抗網(wǎng)絡(luò)的前世今生

生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN),是由Ian Goodfellow等人在2014年首次提出。一般來(lái)說(shuō),生成對(duì)抗網(wǎng)絡(luò)由兩部分組成:生成器(Generator)和判別器(Discriminator)。生成器通過(guò)接收輸入數(shù)據(jù),學(xué)習(xí)訓(xùn)練數(shù)據(jù)的分布來(lái)生成目標(biāo)數(shù)據(jù)。判別器通常是一個(gè)二分類模型,用來(lái)判別生成器生成數(shù)據(jù)的真假性。

我們可以將生成器和判別器看作互相對(duì)抗的雙方,生成器的目的是令生成的數(shù)據(jù)盡可能的真實(shí),讓判別器無(wú)法區(qū)分真假;而判別器的目的是盡可能地識(shí)別出生成器生成的數(shù)據(jù)。在生成對(duì)抗網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,上面的對(duì)抗場(chǎng)景會(huì)持續(xù)進(jìn)行,生成器和判別器的能力都得到了不斷提升。訓(xùn)練的過(guò)程可以用如下公式表示:

其中G和D分別表示生成器和判別器,x為真實(shí)數(shù)據(jù),z是生成器的輸入數(shù)據(jù)。最后訓(xùn)練結(jié)束我們就可以使用生成器來(lái)生成以假亂真的數(shù)據(jù)。一個(gè)直觀的生成對(duì)抗網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。

生成對(duì)抗網(wǎng)絡(luò)近些年被大量應(yīng)用于計(jì)算機(jī)視覺(jué)領(lǐng)域,根據(jù)具體應(yīng)用不同可以分為圖像生成和圖像轉(zhuǎn)換兩種類型的任務(wù)。圖像生成可以看成是一種學(xué)后聯(lián)想任務(wù),其中的代表是圖像自動(dòng)生成模型(DCGAN),網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。這類任務(wù)只給出我們希望生成的目標(biāo)圖像,此時(shí)生成器的輸入是服從某一分布的噪聲,通過(guò)和判別器的對(duì)抗訓(xùn)練,將其轉(zhuǎn)換成目標(biāo)圖像的數(shù)據(jù)分布。

圖像轉(zhuǎn)換可以看成是一種目標(biāo)引導(dǎo)任務(wù),其中的代表是圖像超分辨率模型(SRGAN),SRGAN的網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。這類任務(wù)除了給出我們希望生成的目標(biāo)圖像外,還會(huì)給出轉(zhuǎn)換前的原始圖像,此時(shí)生成器的輸入變?yōu)樵紙D像,生成器在和判別器的對(duì)抗訓(xùn)練過(guò)程中還要同時(shí)保證生成的圖像和目標(biāo)圖像盡可能的相近。

生成對(duì)抗網(wǎng)絡(luò)的發(fā)展非常迅速,近些年出現(xiàn)了各式各樣GAN的變種,例如在訓(xùn)練上優(yōu)化的WGAN和LSGAN,通過(guò)對(duì)輸入添加條件限制來(lái)引導(dǎo)學(xué)習(xí)過(guò)程的Conditional GAN,圖像生成任務(wù)中的BigGAN和StyleGAN,圖像轉(zhuǎn)換任務(wù)中的Pixel2Pixel和CycleGAN等等。期待未來(lái)生成對(duì)抗網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)領(lǐng)域給我們帶來(lái)更多的驚喜。

生成對(duì)抗網(wǎng)絡(luò)vs圖像水印

上一節(jié)中我們介紹了生成對(duì)抗網(wǎng)絡(luò)的核心思想和一些應(yīng)用,現(xiàn)在我們嘗試將生成對(duì)抗網(wǎng)絡(luò)用于圖像的水印去除。去水印的目的是將帶水印的圖像轉(zhuǎn)變?yōu)闊o(wú)水印的圖像,這本質(zhì)上也是一種圖像轉(zhuǎn)換任務(wù)。

因此生成器的輸入為帶水印的圖像,輸出為無(wú)水印的圖像;而判別器用于識(shí)別結(jié)果到底是原始真實(shí)的無(wú)水印圖像,還是經(jīng)過(guò)生成器生成的無(wú)水印圖像。通過(guò)兩者之間不斷的對(duì)抗訓(xùn)練,生成器生成的無(wú)水印圖像變得足夠“以假亂真”,從而達(dá)到理想的去水印效果。

在實(shí)際的實(shí)踐過(guò)程中,我們還做了一系列優(yōu)化改進(jìn)。下面我們分別介紹生成器和判別器的具體結(jié)構(gòu)以及訓(xùn)練細(xì)節(jié)。在生成器的選擇上,我們繼續(xù)使用U-net網(wǎng)絡(luò)結(jié)構(gòu),U-net通過(guò)在輸入和輸出之間添加跳躍連接,融合了低層級(jí)特征和高層級(jí)特征。與直接的編解碼器結(jié)構(gòu)相比,能夠保留更多的圖像背景信息,保證去除水印后的圖像的真實(shí)性。

在判別器方面,我們使用了基于區(qū)域判別的全卷積網(wǎng)絡(luò)。與傳統(tǒng)的判別器直接輸出整張圖像的真假結(jié)果不同,我們通過(guò)對(duì)圖像區(qū)域級(jí)別的判別,可以更好地對(duì)圖像上的無(wú)水印和有水印部分進(jìn)行區(qū)分。

此外,我們采用了Conditional GAN的思想,判別器在對(duì)原始真實(shí)的無(wú)水印圖像和生成器生成的無(wú)水印圖像進(jìn)行區(qū)分的時(shí)候會(huì)加入帶水印圖像的條件信息,從而進(jìn)一步提升生成器和判別器的學(xué)習(xí)性能。生成器和判別器的具體結(jié)構(gòu)和細(xì)節(jié)如下圖所示。

生成器生成的無(wú)水印圖像除了要令判別器分辨不了真假之外,還需要保證和真實(shí)的無(wú)水印圖像盡可能接近。為此我們組合一范數(shù)損失(L1 Loss)和感知損失(Perceptual Loss)作為內(nèi)容損失,在生成器和判別器對(duì)抗的過(guò)程中加入訓(xùn)練。最終的損失函數(shù)為

其中的條件對(duì)抗損失為

最終我們使用生成器作為水印去除器實(shí)現(xiàn)圖像上的水印去除。為了對(duì)比和單一全卷積網(wǎng)絡(luò)實(shí)現(xiàn)的水印去除器的效果,我們可視化了一些去水印結(jié)果,左列是輸入的水印區(qū)域,中間列是單一全卷積網(wǎng)絡(luò)得到的無(wú)水印區(qū)域,右列是生成對(duì)抗網(wǎng)絡(luò)得到的無(wú)水印區(qū)域。從可視化的結(jié)果可以看出,經(jīng)過(guò)對(duì)抗訓(xùn)練后的生成器對(duì)水印的去除效果更優(yōu)。

寫在最后

圖像水印去除問(wèn)題吸引了越來(lái)越多人的研究興趣,本篇文章介紹了如何利用生成對(duì)抗網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)水印自動(dòng)去除。去水印研究的目的是為了驗(yàn)證水印的魯棒性,更好地提升水印的反去除能力。如何設(shè)計(jì)一種AI去不掉的水印是一個(gè)極具挑戰(zhàn)的問(wèn)題,接下來(lái)我們會(huì)在這方面做一些嘗試,希望能夠?yàn)榘鏅?quán)保護(hù)盡一份力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 水印
    +關(guān)注

    關(guān)注

    0

    文章

    26

    瀏覽量

    11743
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    2209

    瀏覽量

    76835

原文標(biāo)題:基于GAN的圖像水印去除器,效果堪比PS高手

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    理想汽車榮獲汽車大模型安全證書(shū)

    2025中國(guó)汽車論壇舉行“智艙安言計(jì)劃——汽車生成式人工智能安全測(cè)評(píng)”頒證儀式。理想汽車車載大模型榮獲由CCIA汽車網(wǎng)絡(luò)安全工作委員會(huì)頒發(fā)的《生成內(nèi)容安全測(cè)評(píng)證書(shū)》,及人工智能
    的頭像 發(fā)表于 07-18 16:10 ?127次閱讀

    超聲波清洗機(jī)對(duì)于微小毛刺的去除效果如何?

    介紹超聲波清洗機(jī)對(duì)于微小毛刺的去除效果以及如何正確使用超聲波清洗機(jī)。1、什么是超聲波清洗機(jī)?超聲波清洗機(jī)是利用超聲波震動(dòng)原理完成清洗的一種設(shè)備。它通過(guò)向水中輸入超
    的頭像 發(fā)表于 07-02 16:22 ?154次閱讀
    超聲波清洗機(jī)對(duì)于微小毛刺的<b class='flag-5'>去除</b><b class='flag-5'>效果</b>如何?

    利用NVIDIA 3D引導(dǎo)生成式AI Blueprint控制圖像生成

    AI 賦能的圖像生成技術(shù)突飛猛進(jìn),從早期模型會(huì)生成手指過(guò)多的人類圖像,到現(xiàn)在能創(chuàng)造出令人驚嘆的逼真視覺(jué)效果。即使取得了如此飛躍,仍然存在一個(gè)
    的頭像 發(fā)表于 06-05 09:24 ?390次閱讀

    Gemini API集成Google圖像生成模型Imagen 3

    開(kāi)發(fā)者現(xiàn)在可以通過(guò) Gemini API 訪問(wèn) Google 最先進(jìn)的圖像生成模型 Imagen 3。該模型最初僅對(duì)付費(fèi)用戶開(kāi)放,不久后也將面向免費(fèi)用戶推出。
    的頭像 發(fā)表于 05-14 16:53 ?447次閱讀

    如何使用離線工具od SPSDK生成完整圖像?

    SDSDK)會(huì)生成一個(gè)缺少前 4KB 的文件。 這些將由 flashloader 直接在目標(biāo)上填充,使用將要傳達(dá)給它的參數(shù),對(duì)吧? 我需要離線工作。我需要生成一個(gè) “完整圖像”,但無(wú)法訪問(wèn)目標(biāo)。 我該怎么做?
    發(fā)表于 03-28 06:51

    使用OpenVINO GenAI和LoRA適配器進(jìn)行圖像生成

    借助生成式 AI 模型(如 Stable Diffusion 和 FLUX.1),用戶可以將平平無(wú)奇的文本提示詞轉(zhuǎn)換為令人驚艷的視覺(jué)效果。
    的頭像 發(fā)表于 03-12 13:49 ?869次閱讀
    使用OpenVINO GenAI和LoRA適配器進(jìn)行<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>

    #新年新氣象,大家新年快樂(lè)!#AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內(nèi)容。它利用人工智能技術(shù)自動(dòng)生成或輔助生成文本、圖像、音頻、視頻等內(nèi)容。 AIGC的核心技術(shù)包括自然語(yǔ)言處理(NLP)、計(jì)算機(jī)視覺(jué)、
    發(fā)表于 01-13 10:46

    AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內(nèi)容。它利用人工智能技術(shù)自動(dòng)生成或輔助生成文本、圖像、音頻、視頻等內(nèi)容。 AIGC的核心技術(shù)包括自然語(yǔ)言處理(NLP)、計(jì)算機(jī)視覺(jué)、
    發(fā)表于 01-13 10:32

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    以獲得卓越的視覺(jué)效果。這個(gè)過(guò)程并不止于此;一旦圖像生成,Imagen 2 可以進(jìn)一步優(yōu)化以滿足特定需求,從而創(chuàng)建一個(gè)強(qiáng)大的工作流程,用于制作頂級(jí)視覺(jué)內(nèi)容。
    的頭像 發(fā)表于 01-03 10:38 ?906次閱讀
    借助谷歌Gemini和Imagen模型<b class='flag-5'>生成</b>高質(zhì)量<b class='flag-5'>圖像</b>

    用TMS2812控制ADS1298進(jìn)行肌電采集,將相同的程序燒寫到flash中后再進(jìn)行采集時(shí)效果理想,為什么?

    我用TMS2812控制ADS1298進(jìn)行肌電采集,連接仿真器下采集的肌電信號(hào)較好,但如果將相同的程序燒寫到flash中后再進(jìn)行采集時(shí),效果就不怎么理想,想知道是為什么會(huì),仿真器和燒寫下的采集圖像見(jiàn)附件,請(qǐng)大神幫忙解答,萬(wàn)分感謝
    發(fā)表于 01-03 07:34

    AIGC是什么及其應(yīng)用 AIGC的定義和工作原理

    的發(fā)展得益于深度學(xué)習(xí)的進(jìn)步,特別是神經(jīng)網(wǎng)絡(luò)模型,如生成對(duì)抗網(wǎng)絡(luò)(GANs)、變分自編碼器(VAEs)和自回歸模型等。 AIGC的工作原理 AIGC的工作原理可以分為以下幾個(gè)步驟: 數(shù)據(jù)收集與預(yù)處理 :首先,需要收集大量的數(shù)據(jù),這
    的頭像 發(fā)表于 11-22 16:00 ?4336次閱讀

    Freepik攜手Magnific AI推出AI圖像生成

    近日,設(shè)計(jì)資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這一里程碑式的發(fā)布標(biāo)志著AI圖像創(chuàng)作領(lǐng)域邁入了一個(gè)全新的高度
    的頭像 發(fā)表于 08-30 16:23 ?1592次閱讀

    根據(jù)opa615的datasheet搭建了峰值保持電路,效果理想是什么原因?qū)е碌模?/a>

    各位大大,本人根據(jù)網(wǎng)上資料以及opa615的datasheet搭建了峰值保持電路,但是效果很不理想,當(dāng)電容是27pf的時(shí)候,control端給5v高電壓時(shí)是電壓跟隨現(xiàn)象。當(dāng)電容變?yōu)?00pf的時(shí)候,是峰值保持,但是誤差很大。接近%20。
    發(fā)表于 08-21 08:15

    請(qǐng)問(wèn)LM311能準(zhǔn)確的交截生成對(duì)應(yīng)的PWM波形嗎?

    UC3825, TLV3501輸入正是100k的正弦波 輸入負(fù)是100kHz的鋸齒波 二者交截生成PWM波形 請(qǐng)問(wèn)LM311能準(zhǔn)確的交截生成對(duì)應(yīng)的PWM波形嗎 之前使用UC3525里面自帶的比較器做的,LM311能達(dá)到這樣的速度嗎
    發(fā)表于 08-06 07:46

    OpenAI承認(rèn)正研發(fā)ChatGPT文本水印

    的識(shí)別效果并不理想。而且因?yàn)槎嘀仡檻]OpenAI尚未正式發(fā)布這項(xiàng)工具。 據(jù)悉,OpenAI的這個(gè)識(shí)別工具本質(zhì)上是在文字中創(chuàng)建一個(gè)不可見(jiàn)的水印;但是只專注于檢測(cè)來(lái)自 ChatGPT生成
    的頭像 發(fā)表于 08-05 15:56 ?1297次閱讀