99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

文本圖片編輯新范式:?jiǎn)蝹€(gè)模型實(shí)現(xiàn)多文本引導(dǎo)圖像編輯

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:機(jī)器之心 ? 2023-01-10 16:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最近用文本來(lái)引導(dǎo)圖像編輯取得了非常大的進(jìn)展以及關(guān)注度,特別是基于去噪擴(kuò)散模型如 StableDiffusion 或者 DALLE 等。但是基于 GAN 的文本 - 圖像編輯依舊有一些問(wèn)題等待解決,例如經(jīng)典的 StyleCILP 中針對(duì)每一個(gè)文本必須要訓(xùn)練一個(gè)模型,這種單文本對(duì)單模型的方式在實(shí)際應(yīng)用中是不方便的。

本文我們提出 FFCLIP 并解決了這個(gè)問(wèn)題,針對(duì)靈活的不同文本輸入,F(xiàn)FCLIP 只需要一個(gè)模型就能夠?qū)D片進(jìn)行相應(yīng)的編輯,無(wú)需針對(duì)每個(gè)文本重新訓(xùn)練模型,并且在多個(gè)數(shù)據(jù)集上都取得了非常不錯(cuò)的效果。

論文簡(jiǎn)要概述

利用文本對(duì)圖像進(jìn)行編輯的相關(guān)研究非?;馃?,最近許多研究都基于去噪擴(kuò)散模型來(lái)提升效果而少有學(xué)者繼續(xù)關(guān)注 GAN 的相關(guān)研究。本文基于經(jīng)典的 StyleGAN 和 CLIP 并提出語(yǔ)義調(diào)制模塊,從而對(duì)不同的文本僅需要單個(gè)模型就可以進(jìn)行文本 - 圖像編輯。

本文首先利用已有的編碼器將需要編輯的圖像轉(zhuǎn)換到 StyleGAN 的 語(yǔ)義空間中的潛在編碼 w,再通過(guò)提出的語(yǔ)義調(diào)制模塊對(duì)該隱編碼進(jìn)行自適應(yīng)的調(diào)制。該語(yǔ)義調(diào)制模塊包括語(yǔ)義對(duì)齊和語(yǔ)義注入模塊,首先通過(guò)注意力機(jī)制對(duì)齊文本編碼和 GAN 的隱編碼之間的語(yǔ)義,再將文本信息注入到對(duì)齊后的隱編碼中,從而保證該隱編碼擁有文本信息從而達(dá)到利用文本編輯圖像能力。 不同于經(jīng)典的 StyleCLIP 模型,我們的模型無(wú)需對(duì)每個(gè)文本單獨(dú)訓(xùn)練一個(gè)模型,一個(gè)模型就可以響應(yīng)多個(gè)文本從而對(duì)圖像做有效的編輯,所以我們的模型成為 FFCLIP-Free Form Text-Driven Image Manipulation。同時(shí)我們的模型在經(jīng)典的教堂,人臉以及汽車數(shù)據(jù)集上都取得了非常不錯(cuò)的效果。

9ce3a3d2-9011-11ed-bfe3-dac502259ad0.png

論文鏈接:

https://arxiv.org/pdf/2210.07883.pdf

代碼鏈接:

https://github.com/KumapowerLIU/FFCLIP

背景和啟示最近,描述用戶意圖的自由文本提示已被用于編輯 StyleGAN 潛在空間以進(jìn)行圖像編輯操作 [1、2]。一句話(例如,‘Blue’)或短語(yǔ)(例如,‘Man aged 10’)作為輸入,這些方法通過(guò)調(diào)制 StyleGAN 潛在空間中的潛在編碼來(lái)相應(yīng)地編輯所描述的圖像屬性。 精確的文本 - 圖像編輯依賴于 StyleGAN 的視覺(jué)語(yǔ)義空間與 CLIP 的文本語(yǔ)義空間之間的精確潛在映射。比如當(dāng)文本提示是 “驚喜”,我們首先在視覺(jué)語(yǔ)義空間中識(shí)別其相關(guān)的語(yǔ)義子空間(即 “表情”,因?yàn)轶@喜屬于表情這個(gè)屬性)。找到與文本相對(duì)應(yīng)的語(yǔ)義子空間后,文本會(huì)告訴我們隱編碼的變化方向,從讓隱編碼從當(dāng)前的表情變化到驚喜的表情。 TediGAN [1] 和 StyleCLIP [2] 等開(kāi)創(chuàng)性研究憑經(jīng)驗(yàn)預(yù)先定義了哪個(gè)潛在視覺(jué)子空間對(duì)應(yīng)于目標(biāo)文本提示嵌入(即 TediGAN 中的特定屬性選擇和 StyleCLIP 中的分組映射)。這種經(jīng)驗(yàn)識(shí)別限制了給定一個(gè)文本提示,他們必須訓(xùn)練相應(yīng)的編輯模型。 不同的文本提示需要不同的模型來(lái)調(diào)制 StyleGAN 的潛在視覺(jué)子空間中的潛在代碼。雖然 StyleCLIP 中的全局方向方法沒(méi)有采用這樣的過(guò)程,但參數(shù)調(diào)整和編輯方向是手動(dòng)預(yù)定義的。為此,我們有理由來(lái)探索如何通過(guò)顯性的文本自動(dòng)的找到隱性的視覺(jué)語(yǔ)義子空間,從而達(dá)到單個(gè)模型就可以應(yīng)對(duì)多個(gè)文本。 在這篇論文中,我們提出了 FFCLIP-Free Form CLIP,它可以針對(duì)不同的文本自動(dòng)找到相對(duì)應(yīng)視覺(jué)子空間。FFCLIP 由幾個(gè)語(yǔ)義調(diào)制模塊組成,這些語(yǔ)義調(diào)制模塊把 StyleGAN 潛在空間 中的潛在編碼 和文本編碼 e 作為輸入。 語(yǔ)義調(diào)制模塊由一個(gè)語(yǔ)義對(duì)齊模塊和一個(gè)語(yǔ)義注入模塊組成。語(yǔ)義對(duì)齊模塊將文本編碼 e 作為 query,將潛在編碼 w 作為 key 和 Value。然后我們分別在 position 和 channel 維度上計(jì)算交叉注意力,從而得到兩個(gè)注意力圖。 接著我們使用線性變換將當(dāng)前的視覺(jué)空間轉(zhuǎn)換到與文本對(duì)應(yīng)的子空間,其中線性變換參數(shù)(即平移和縮放參數(shù))是基于這兩個(gè)注意力圖計(jì)算的。通過(guò)這種對(duì)齊方式,我們可以自動(dòng)的為每個(gè)文本找到相應(yīng)的視覺(jué)子空間。最后,語(yǔ)義注入模塊 [3] 通過(guò)之后的另一個(gè)線性變換修改子空間中的潛在代碼。 從 FFCLIP 的角度來(lái)看,[1, 2] 中子空間經(jīng)驗(yàn)選擇是我們?cè)谡Z(yǔ)義對(duì)齊模塊中線性變換的一種特殊形式。他們的組選擇操作類似于我們的縮放參數(shù)的二進(jìn)制值,以指示 w 的每個(gè)位置維度的用法。另一方面,我們觀察到 空間的語(yǔ)義仍然存在糾纏的現(xiàn)象,經(jīng)驗(yàn)設(shè)計(jì)無(wú)法找到 StyleGAN 的潛在空間和 CLIP 的文本語(yǔ)義空間之間的精確映射。 相反,我們的語(yǔ)義對(duì)齊模塊中的縮放參數(shù)自適應(yīng)地修改潛在代碼 w 以映射不同的文本提示嵌入。然后通過(guò)我們的平移參數(shù)進(jìn)一步改進(jìn)對(duì)齊方式。我們?cè)诨鶞?zhǔn)數(shù)據(jù)集上評(píng)估我們的方法,并將 FFCLIP 與最先進(jìn)的方法進(jìn)行比較。結(jié)果表明,F(xiàn)FCLIP 在傳達(dá)用戶意圖的同時(shí)能夠生成更加合理的內(nèi)容。

FFCLIP

圖 1 所展示的就是我們的整體框架。FFCLIP 首先通過(guò)預(yù)訓(xùn)練好的 GAN inversion 編碼器和文本編碼器得到圖像和文本的潛在編碼,其中圖像的潛在編碼則是之前提到的 StyleGAN 視覺(jué)語(yǔ)義空間 中的 w,而文本編碼則是 。我們和 StyleCLIP 一樣采用 e4e GAN inversion 編碼器 [4] 和 CLIP 中的文本編碼器來(lái)分別得到相應(yīng)的潛在編碼。接著我們將 和 w 作為調(diào)制模塊的輸入并輸出得到 w 的偏移量 ,最后將 與原始的 w 相加并放入預(yù)訓(xùn)練好的 StyleGAN 中得到相應(yīng)的結(jié)果。

9d2d681e-9011-11ed-bfe3-dac502259ad0.png

▲圖1. 整體框架圖

下圖二就是我們的語(yǔ)義調(diào)制模塊。在語(yǔ)義對(duì)齊模塊中(Semantic Alignment),我們可以清晰地看到我們將 設(shè)置為 Key 和 Value 并將 設(shè)置為 Query 來(lái)計(jì)算兩個(gè)注意力圖,這兩個(gè)注意力圖的大小分別是 18×1 以及 512×512。接著我們將 18×1 的注意力圖當(dāng)作線性變換中縮放系數(shù) S,我們計(jì)算該注意力圖的過(guò)程如下:

9d3e66dc-9011-11ed-bfe3-dac502259ad0.png

同時(shí)我們將 512×512 的注意力圖與 Value 相乘以后再經(jīng)過(guò) Pooling 操作得到顯性變換中的平移系數(shù) T。我們計(jì)算該注意力圖的過(guò)程如下:

9d4fe48e-9011-11ed-bfe3-dac502259ad0.png

擁有了平移和縮放系數(shù)后,我們就可以通過(guò)線性變換為當(dāng)前文本找到相對(duì)應(yīng)的視覺(jué)子空間,計(jì)算步驟如下:

9d619c38-9011-11ed-bfe3-dac502259ad0.png

其中 是我們第 i 個(gè)語(yǔ)義調(diào)制模塊的輸出結(jié)果。由于 的大小是 18×512,所以 18×1 和 512×512 的注意力圖分別是在 的 position 和 channel 兩個(gè)維度上進(jìn)行注意力圖的計(jì)算,這個(gè)操作類似于 Dual Attention [5]。

9d76c3d8-9011-11ed-bfe3-dac502259ad0.png

▲圖2. 語(yǔ)義調(diào)制模塊 我們通過(guò)以上的操作可以得到與文本對(duì)應(yīng)的視覺(jué)子空間,緊接著我們采用類似 AdaIN 的方式,將文本信息注入到這個(gè)空間中,從而得到最后的結(jié)果,我們稱這個(gè)操作為語(yǔ)義注入模塊(Semantic Injection)。整個(gè)模塊的實(shí)現(xiàn)步驟如下:

9d9f82a0-9011-11ed-bfe3-dac502259ad0.png

最終我們的 FFCLIP 中一共堆疊了 4 個(gè)語(yǔ)義調(diào)制模塊,并最終得到最后的偏移量 。

實(shí)驗(yàn)結(jié)果

9dcb6f14-9011-11ed-bfe3-dac502259ad0.png

9f940180-9011-11ed-bfe3-dac502259ad0.png

▲圖3. 視覺(jué)對(duì)比圖

如圖 3 所示,我們與 StyleCLIP [1],TediGAN [2] 以及 HairCLIP [3] 進(jìn)行了視覺(jué)上的對(duì)比:可以看到 FFCLIP 能夠更好的反應(yīng)文本的語(yǔ)義,并且生成更加真實(shí)的編輯圖像。同時(shí)相對(duì)應(yīng)的數(shù)值對(duì)比結(jié)果如下表所示,我們的方法無(wú)論是在客觀數(shù)值還是在主觀數(shù)值上都能取得最好的效果。

9ffe6a8e-9011-11ed-bfe3-dac502259ad0.png

▲表1.數(shù)值對(duì)比

同時(shí)我們的方法還展現(xiàn)出了非好的魯棒性,F(xiàn)FCLIP 在訓(xùn)練中并未見(jiàn)過(guò)詞的組合而是用單個(gè)的單詞進(jìn)行訓(xùn)練,但是在測(cè)試中能夠很好的針對(duì)詞組的語(yǔ)義對(duì)圖像進(jìn)行編輯,視覺(jué)效果如圖 4 所示。

a0181970-9011-11ed-bfe3-dac502259ad0.png

▲圖4. 詞組編輯

更多的實(shí)驗(yàn)結(jié)果和消融實(shí)驗(yàn)請(qǐng)看原文。

總結(jié)我們?cè)诒疚闹刑岢隽?FFCLIP,一種可以針對(duì)不同文本但只需要單個(gè)模型就能進(jìn)行有效圖像編輯的新方法。本文動(dòng)機(jī)是現(xiàn)有方法是根據(jù)已有的經(jīng)驗(yàn)來(lái)匹配當(dāng)前文本和 GAN 的語(yǔ)義子空間,因此一個(gè)編輯模型只能處理一個(gè)文本提示。我們通過(guò)對(duì)齊和注入的語(yǔ)義調(diào)制來(lái)改進(jìn)潛在映射。它有利于一個(gè)編輯模型來(lái)處理多個(gè)文本提示。多個(gè)數(shù)據(jù)集的實(shí)驗(yàn)表明我們的 FFCLIP 有效地產(chǎn)生語(yǔ)義相關(guān)和視覺(jué)逼真的結(jié)果。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    41237
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3517

    瀏覽量

    50400
  • 文本
    +關(guān)注

    關(guān)注

    0

    文章

    119

    瀏覽量

    17452

原文標(biāo)題:NIPS 2022 | 文本圖片編輯新范式:?jiǎn)蝹€(gè)模型實(shí)現(xiàn)多文本引導(dǎo)圖像編輯

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Copilot操作指南(一):使用圖片生成原理圖符號(hào)、PCB封裝

    “ ?上周推出支持圖片生成模型的華秋發(fā)行版之后,得到了很多小伙伴的肯定。但看到更多的回復(fù)是:為什么我的 Copilot 無(wú)法生成符號(hào)?只有普通的文本回復(fù)?今天就為大家詳細(xì)講解下圖片生成
    的頭像 發(fā)表于 07-15 11:14 ?124次閱讀
    Copilot操作指南(一):使用<b class='flag-5'>圖片</b>生成原理圖符號(hào)、PCB封裝

    把樹(shù)莓派打造成識(shí)別文本的“神器”!

    。RaspberryPi也能實(shí)現(xiàn)這種文本識(shí)別,而且并不困難。我們可以從靜態(tài)圖像或攝像頭的實(shí)時(shí)流中讀取文本。在本教程中,我們將探討如何使用RaspberryPi
    的頭像 發(fā)表于 03-25 09:30 ?405次閱讀
    把樹(shù)莓派打造成識(shí)別<b class='flag-5'>文本</b>的“神器”!

    ?VLM(視覺(jué)語(yǔ)言模型)?詳細(xì)解析

    視覺(jué)語(yǔ)言模型(Visual Language Model, VLM)是一種結(jié)合視覺(jué)(圖像/視頻)和語(yǔ)言(文本)處理能力的模態(tài)人工智能模型,
    的頭像 發(fā)表于 03-17 15:32 ?4045次閱讀
    ?VLM(視覺(jué)語(yǔ)言<b class='flag-5'>模型</b>)?詳細(xì)解析

    一文詳解視覺(jué)語(yǔ)言模型

    視覺(jué)語(yǔ)言模型(VLM)是一種模態(tài)、生成式 AI 模型,能夠理解和處理視頻、圖像文本
    的頭像 發(fā)表于 02-12 11:13 ?1753次閱讀
    一文詳解視覺(jué)語(yǔ)言<b class='flag-5'>模型</b>

    阿里云通義開(kāi)源長(zhǎng)文本模型Qwen2.5-1M

    。 Qwen2.5-1M模型提供了7B和14B兩種尺寸供用戶選擇,以滿足不同場(chǎng)景下的需求。在處理長(zhǎng)文本輸入時(shí),該模型能夠保持穩(wěn)定的性能,為用戶提供更加準(zhǔn)確、可靠的輸出結(jié)果。 除了推出新模型
    的頭像 發(fā)表于 02-05 14:01 ?520次閱讀

    圖紙模板中的文本變量

    進(jìn)行定義。無(wú)論是系統(tǒng)內(nèi)置的變量,還是用戶自定義的變量,都以這種方式表述。 系統(tǒng)內(nèi)置文本變量 以下表格展示系統(tǒng)內(nèi)置的文本變量,無(wú)需定義,可以直接使用: 比如說(shuō),如果在圖紙編輯器中定義了以下標(biāo)題欄: 當(dāng)該圖紙模板應(yīng)用于原理圖或PCB
    的頭像 發(fā)表于 11-13 18:21 ?650次閱讀
    圖紙模板中的<b class='flag-5'>文本</b>變量

    如何在文本字段中使用上標(biāo)、下標(biāo)及變量

    在KiCad的任何文本字段中,都可以通過(guò)以下的方式實(shí)現(xiàn)上標(biāo)、下標(biāo)、上劃線以及顯示變量及字段值的描述: 文本變量“文本變量”可以在 原理圖設(shè)置->工程->
    的頭像 發(fā)表于 11-12 12:23 ?655次閱讀
    如何在<b class='flag-5'>文本</b>字段中使用上標(biāo)、下標(biāo)及變量

    字節(jié)發(fā)布SeedEdit圖像編輯模型

    ,SeedEdit模型憑借其強(qiáng)大的技術(shù)實(shí)力,支持用戶通過(guò)一句簡(jiǎn)單的自然語(yǔ)言描述,即可輕松實(shí)現(xiàn)對(duì)圖像的多種編輯操作。無(wú)論是修圖、換裝、美化,還是轉(zhuǎn)化風(fēng)格、在指定區(qū)域添加或刪除元素等復(fù)雜任
    的頭像 發(fā)表于 11-12 10:43 ?753次閱讀

    利用OpenVINO部署Qwen2模態(tài)模型

    模態(tài)大模型的核心思想是將不同媒體數(shù)據(jù)(如文本圖像、音頻和視頻等)進(jìn)行融合,通過(guò)學(xué)習(xí)不同模態(tài)之間的關(guān)聯(lián),實(shí)現(xiàn)更加智能化的信息處理。簡(jiǎn)單來(lái)說(shuō)
    的頭像 發(fā)表于 10-18 09:39 ?1247次閱讀

    基于ArkTS語(yǔ)言的OpenHarmony APP應(yīng)用開(kāi)發(fā):圖片處理

    1、程序介紹本案例使用TextArea實(shí)現(xiàn)文本輸入,使用mediaLibrary實(shí)現(xiàn)在相冊(cè)中獲取圖片,使用image生成pixelMap,
    的頭像 發(fā)表于 09-20 08:07 ?1314次閱讀
    基于ArkTS語(yǔ)言的OpenHarmony APP應(yīng)用開(kāi)發(fā):<b class='flag-5'>圖片</b>處理

    vim編輯器命令模式使用方法

    Vim編輯器是一款功能強(qiáng)大的文本編輯器,廣泛應(yīng)用于程序員和開(kāi)發(fā)者的日常工作中。Vim編輯器擁有多種模式,其中命令模式(Command mode)是最基本的模式之一,它允許用戶執(zhí)行各種命令來(lái)操作
    的頭像 發(fā)表于 08-30 15:01 ?1051次閱讀

    vim編輯器如何使用

    Vim編輯器是一個(gè)功能強(qiáng)大的文本編輯器,它基于Vi進(jìn)行改進(jìn),并增加了許多新特性。Vim編輯器的使用主要涉及其不同的工作模式及相應(yīng)操作。以下是Vim編輯器的基本使用方法: 一、Vim
    的頭像 發(fā)表于 08-30 14:58 ?888次閱讀

    NVIDIA文本嵌入模型NV-Embed的精度基準(zhǔn)

    NVIDIA 的最新嵌入模型 NV-Embed —— 以 69.32 的分?jǐn)?shù)創(chuàng)下了嵌入準(zhǔn)確率的新紀(jì)錄海量文本嵌入基準(zhǔn)測(cè)試(MTEB)涵蓋 56 項(xiàng)嵌入任務(wù)。
    的頭像 發(fā)表于 08-23 16:54 ?2490次閱讀
    NVIDIA<b class='flag-5'>文本</b>嵌入<b class='flag-5'>模型</b>NV-Embed的精度基準(zhǔn)

    嵌入式學(xué)習(xí)-常用編輯器之Vim編輯

    在Linux下我們對(duì)文本進(jìn)行編輯,經(jīng)常用到的編輯器就是Vi/Vim,Vi/Vim命令眾多,功能強(qiáng)大,是大多數(shù)Linux程序員選擇使用的編輯器。下面先簡(jiǎn)單介紹Vim
    發(fā)表于 08-23 09:12

    常用編輯器之Vim編輯

    在Linux下我們對(duì)文本進(jìn)行編輯,經(jīng)常用到的編輯器就是Vi/Vim,Vi/Vim命令眾多,功能強(qiáng)大,是大多數(shù)Linux程序員選擇使用的編輯器。下面先簡(jiǎn)單介紹Vim
    發(fā)表于 08-22 09:48