99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

生成式 AI 研究通過引導(dǎo)式圖像結(jié)構(gòu)控制為創(chuàng)作者賦能

NVIDIA英偉達(dá) ? 來源:未知 ? 2023-07-24 19:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

新的研究正在通過一個文本引導(dǎo)的圖像編輯工具來提升生成式 AI 的創(chuàng)造性潛能。這項創(chuàng)新性的研究提出了一個使用即插即用擴(kuò)散特征(PnP DFs)的框架,可引導(dǎo)實現(xiàn)逼真而精確的圖像生成。通過這項研究,視覺內(nèi)容創(chuàng)作者只需一張?zhí)崾緢D片和幾個描述性詞語,就能將圖像轉(zhuǎn)化為視覺內(nèi)容。

可靠輕松編輯并生成內(nèi)容的能力有助于藝術(shù)家、設(shè)計師和創(chuàng)作者不斷擴(kuò)展創(chuàng)意的可能性。這也將為那些依賴動畫、視覺設(shè)計和圖像編輯的行業(yè)賦能。

這項研究的首席作者、魏茲曼科學(xué)研究院博士研究生 Narek Tumanyan 表示:“最新的文本到圖像生成模型標(biāo)志著數(shù)字內(nèi)容創(chuàng)作進(jìn)入了一個新時代。然而,將它們應(yīng)用于現(xiàn)實世界的主要挑戰(zhàn)在于缺乏用戶可控性,這在很大程度上局限于‘僅通過輸入文本來引導(dǎo)圖像生成’。我們的工作是最早為用戶提供圖像布局控制權(quán)的方法之一?!?/p>

生成式 AI 的最新突破為開發(fā)強(qiáng)大的文本到圖像模型提供了新方法。然而,復(fù)雜性、模糊性以及對定制內(nèi)容的需求限制了當(dāng)前渲染技術(shù)的發(fā)展。

這項研究引入了一種新方法,使用 PnP DFs 來改進(jìn)圖像編輯和生成過程,使創(chuàng)作者對最終產(chǎn)物有更大的控制權(quán)。

研究人員從一個簡單的問題入手:擴(kuò)散模型如何表現(xiàn)并捕捉圖像的形狀或輪廓?研究探索了圖像在生成過程中不斷演變的內(nèi)部表征,并研究了這些表征如何對形狀和語義信息進(jìn)行編碼。

這種新方法通過理解如何在預(yù)訓(xùn)練的文本到圖像模型中編碼空間信息來控制生成的圖像布局,而無需訓(xùn)練新的擴(kuò)散模型或?qū)ζ溥M(jìn)行微調(diào)。在生成過程中,模型從引導(dǎo)圖像中提取擴(kuò)散特征,并將其注入到整個過程中的每一個步驟,從而對新圖像的結(jié)構(gòu)進(jìn)行精細(xì)控制。

通過融合這些空間特征,擴(kuò)散模型可以完善新圖像,使其與引導(dǎo)結(jié)構(gòu)相匹配。它會反復(fù)進(jìn)行此過程,更新圖像特征,直到生成一張既保留引導(dǎo)圖像布局、又與文本提示相匹配的最終圖像。

作者寫道:“這就產(chǎn)生了一種簡單而有效的方法,即從引導(dǎo)圖像中提取的特征直接注入到轉(zhuǎn)化圖像的生成過程中,無需進(jìn)行訓(xùn)練或微調(diào)。”

這種方法為更先進(jìn)的可控生成和操作方法鋪平了道路。

視頻. 在 2023 年國際計算機(jī)視覺與模式識別會議(CVPR)上展示的“文本驅(qū)動的圖像到圖像翻譯的即插即用擴(kuò)散特征”研究概述

研究人員使用 cuDNN 加速的 PyTorch 框架在單個 NVIDIA A100 GPU 上開發(fā)并測試了這個 PNP 模型。該團(tuán)隊表示,GPU 的大容量使他們能夠?qū)W⒂陂_發(fā)方法。作為 NVIDIA 應(yīng)用研究加速器計劃的參與者,這些研究人員獲得了一塊 A100 GPU。

該框架部署在 A100 上,能夠在大約 50 秒內(nèi)從引導(dǎo)圖像和文本轉(zhuǎn)換為一個新圖像。

該過程不僅有高效,而且可靠,能準(zhǔn)確地生成令人驚嘆的圖像。除圖像外,它還適用于轉(zhuǎn)化草圖、繪圖和動畫,并能修改照明、色彩和背景。

圖 1.該方法的示例結(jié)果,保留了引導(dǎo)折紙圖像的結(jié)構(gòu),同時與目標(biāo)提示的描述相匹配(來源:Tumanyan, Narek 等人/CVPR 2023)

他們的方法還優(yōu)于現(xiàn)有的文本到圖像模型,在保留引導(dǎo)布局和偏離其外觀之間實現(xiàn)了卓越的平衡。

圖 2.示例結(jié)果,將該模型與 P2P、DiffuseIT、SDedit 和 VQ+CLIP 模型進(jìn)行三種不同噪聲水平的比較(來源:Tumanyan, Narek 等人/CVPR 2023)

然而,該模型確實存在一些局限性。當(dāng)編輯任意顏色的圖像區(qū)域時,它的表現(xiàn)并不理想,因為該模型無法從輸入圖像中提取語義信息。

目前,研究人員正在致力于將這種方法擴(kuò)展到文本引導(dǎo)的視頻編輯中。同時,該研究還證明對于其他利用擴(kuò)散模型分析圖像內(nèi)部表征的研究也具有重要價值。

例如,有一項研究正在利用該團(tuán)隊的研究成果來改進(jìn)計算機(jī)視覺任務(wù),例如語義點對應(yīng)。另一項研究則專注于擴(kuò)展文本到圖像生成的控制,包括物體的形狀、位置和外觀。

這項研究已在 GitHub 上開源。

點擊“閱讀原文”,或掃描下方海報二維碼,在 8 月 8日聆聽NVIDIA 創(chuàng)始人兼 CEO 黃仁勛在 SIGGRAPH 現(xiàn)場發(fā)表的 NVIDIA 主題演講,了解 NVIDIA 的新技術(shù),包括屢獲殊榮的研究,OpenUSD 開發(fā),以及最新的 AI 內(nèi)容創(chuàng)作解決方案。


原文標(biāo)題:生成式 AI 研究通過引導(dǎo)式圖像結(jié)構(gòu)控制為創(chuàng)作者賦能

文章出處:【微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3944

    瀏覽量

    93654

原文標(biāo)題:生成式 AI 研究通過引導(dǎo)式圖像結(jié)構(gòu)控制為創(chuàng)作者賦能

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    利用NVIDIA 3D引導(dǎo)生成AI Blueprint控制圖像生成

    AI 圖像生成技術(shù)突飛猛進(jìn),從早期模型會生成手指過多的人類
    的頭像 發(fā)表于 06-05 09:24 ?375次閱讀

    富士通如何解鎖生成AI紅利 從人才進(jìn)化到業(yè)務(wù)

    生成AI技術(shù)正以每周迭代一次的速度重塑商業(yè)世界。利用生成AI,營銷部門10分鐘就可以產(chǎn)出百張
    的頭像 發(fā)表于 02-25 17:32 ?815次閱讀

    聚云科技獲亞馬遜云科技生成AI能力認(rèn)證

    的應(yīng)用上展現(xiàn)出了卓越的能力。 聚云科技通過整合亞馬遜云科技的先進(jìn)技術(shù),從應(yīng)用范圍確定、模型選擇、數(shù)據(jù)處理、模型調(diào)優(yōu)到應(yīng)用集成與部署,為企業(yè)提供全方位的生成AI應(yīng)用落地支持。這不僅加速
    的頭像 發(fā)表于 02-19 10:33 ?487次閱讀

    生成AI工具好用嗎

    當(dāng)下,生成AI工具正以其強(qiáng)大的內(nèi)容生成能力,為用戶帶來了前所未有的便捷與創(chuàng)新。那么,生成
    的頭像 發(fā)表于 01-17 09:54 ?454次閱讀

    全方位創(chuàng)意工作流程:西部數(shù)據(jù)推出全新消費級存儲解決方案

    于一身,能夠完美適配家庭、工作室等各類創(chuàng)作場景,旨在幫助用戶更專注于創(chuàng)作出高質(zhì)量的內(nèi)容,啟迪他人靈感。 為提升與內(nèi)容創(chuàng)作者而生 全新的閃
    的頭像 發(fā)表于 01-08 11:52 ?725次閱讀
    全方位<b class='flag-5'>賦</b><b class='flag-5'>能</b>創(chuàng)意工作流程:西部數(shù)據(jù)推出全新消費級存儲解決方案

    Google兩款先進(jìn)生成AI模型登陸Vertex AI平臺

    新的 AI 模型,包括最先進(jìn)的視頻生成模型Veo以及最高品質(zhì)的圖像生成模型Imagen 3。近日,我們在 Google Cloud 上進(jìn)一步推動這一勢頭,客戶可以在Vertex
    的頭像 發(fā)表于 12-30 09:56 ?614次閱讀

    NVIDIA推出全新生成AI模型Fugatto

    NVIDIA 開發(fā)了一個全新的生成 AI 模型。利用輸入的文本和音頻,該模型可以創(chuàng)作出包含任意的音樂、人聲和聲音組合的作品。
    的頭像 發(fā)表于 11-27 11:29 ?812次閱讀

    NVIDIA生成AI閃耀CNCC2024大會

    在當(dāng)前數(shù)字化轉(zhuǎn)型的浪潮中,探索生成 AI 如何對新質(zhì)生產(chǎn)力提供強(qiáng)力,正成為推動社會進(jìn)步的重要課題。此前,10 月 24 - 26 日在
    的頭像 發(fā)表于 11-06 14:04 ?669次閱讀

    生成AI工具作用

    生成AI工具是指那些能夠自動生成文本、圖像、音頻、視頻等多種類型數(shù)據(jù)的人工智能技術(shù)。在此,petacloud.
    的頭像 發(fā)表于 10-28 11:19 ?745次閱讀

    Adobe發(fā)布人工智能視頻創(chuàng)作工具:Firefly Video Model

    Adobe公司于10月15日正式揭曉了其最新研發(fā)的人工智能視頻創(chuàng)作工具——Firefly Video Model。這一創(chuàng)新解決方案旨在借助AI技術(shù),視頻內(nèi)容
    的頭像 發(fā)表于 10-15 16:20 ?1325次閱讀

    商湯日日新大模型體系持續(xù)升級,為全行業(yè)創(chuàng)作者提供新質(zhì)生產(chǎn)力

    AIGC帶來的可能性不僅為創(chuàng)作者提供了廣闊的創(chuàng)作空間,也帶來了嶄新的藝術(shù)形式和語言。
    的頭像 發(fā)表于 09-26 10:18 ?1031次閱讀

    Freepik攜手Magnific AI推出AI圖像生成

    近日,設(shè)計資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這一里程碑
    的頭像 發(fā)表于 08-30 16:23 ?1578次閱讀

    西部數(shù)據(jù)推出針對內(nèi)容創(chuàng)作者的全新NVMe SSD,進(jìn)一步擴(kuò)展旗下WD Blue系列

    程。隨著搭載人工智能(AI)的應(yīng)用程序不斷生成規(guī)模日漸龐大的媒體素材,更高性能、更大容量的數(shù)據(jù)存儲解決方案變得越來越重要。 西部數(shù)據(jù)今日宣布,正式推出全新的WD Blue? SN5000 NVMe? SSD。這是一款為內(nèi)容創(chuàng)作者
    的頭像 發(fā)表于 08-27 15:47 ?809次閱讀

    索尼電影攝影機(jī)助力創(chuàng)作者實現(xiàn)影像夢想

    索尼一直致力于通過創(chuàng)新技術(shù),忠實還原創(chuàng)作者的意圖,憑借在廣播電視及專業(yè)影像業(yè)務(wù)中深厚的技術(shù)積累,助力創(chuàng)作者實現(xiàn)影像夢想,用創(chuàng)意和科技的力量感動世界。
    的頭像 發(fā)表于 08-16 10:54 ?1010次閱讀

    亞馬遜云科技Shulex打造基于生成AI的客服和消費者洞察

    "Shulex")在亞馬遜云科技的技術(shù)下,打造基于生成AI的"AI Agent客服機(jī)器人"
    的頭像 發(fā)表于 08-13 20:38 ?553次閱讀