99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌推出能一次生成完整視頻的擴(kuò)散模型

微云疏影 ? 來(lái)源:綜合整理 ? 作者:綜合整理 ? 2024-01-29 11:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌研究院近日發(fā)布了一款名為L(zhǎng)umiere的文生視頻擴(kuò)散模型,基于自家研發(fā)的Space-Time U-Net基礎(chǔ)架構(gòu),獨(dú)立生成具有高效、完整且動(dòng)作連貫性的視頻效果。

該公司指出,當(dāng)前眾多文生視頻模型普遍存在無(wú)法生成長(zhǎng)時(shí)、高品質(zhì)及動(dòng)作連貫的問(wèn)題。這些模型往往采用“分段生成視頻”策略,即先生成少量關(guān)鍵幀,再借助時(shí)間超級(jí)分辨率(TSM)技術(shù)生成其間的視頻文件。盡管此策略可減緩RAM負(fù)擔(dān),但難以生成理想的連續(xù)視頻效果。

針對(duì)此問(wèn)題,谷歌的Lumiere模型創(chuàng)新地引入了新型Space-Time U-Net基礎(chǔ)架構(gòu),這種架構(gòu)能在空間和時(shí)間兩個(gè)維度同時(shí)降低信號(hào)采樣率,使其具備更高的計(jì)算效率,進(jìn)而實(shí)現(xiàn)生成更具持續(xù)性、動(dòng)作連貫的視頻效果。

此外,開(kāi)發(fā)者們特別說(shuō)明,Lumiere每次可生成80幀視頻(在16FPS模式下相當(dāng)于5秒視頻,或在24FPS模式下為約3.34秒視頻)。盡管這一時(shí)光貌似短暫,然而他們強(qiáng)調(diào),事實(shí)上,這段5秒視頻所包含的鏡頭時(shí)長(zhǎng)已超出大多數(shù)媒體作品中單一鏡頭的平均時(shí)長(zhǎng)。

除運(yùn)用架構(gòu)創(chuàng)新以外,作為AI構(gòu)建基礎(chǔ)的預(yù)訓(xùn)練文生圖像模型也得到了谷歌團(tuán)隊(duì)的特別關(guān)注。該模型首次生成簡(jiǎn)單像素草稿作為視頻分幀,然后借助空間超分辨率(SRM)模型,逐步提高分幀分辨率,同時(shí)引入通用生成框架Multi-Diffusion以增強(qiáng)模型穩(wěn)定性,從而確保最終輸出的視頻效果一致且連續(xù)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108199
  • RAM
    RAM
    +關(guān)注

    關(guān)注

    8

    文章

    1392

    瀏覽量

    117594
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35194

    瀏覽量

    280305
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3522

    瀏覽量

    50452
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    種基于擴(kuò)散模型視頻生成框架RoboTransfer

    在機(jī)器人操作領(lǐng)域,模仿學(xué)習(xí)是推動(dòng)具身智能發(fā)展的關(guān)鍵路徑,但高度依賴大規(guī)模、高質(zhì)量的真實(shí)演示數(shù)據(jù),面臨高昂采集成本與效率瓶頸。仿真器雖提供了低成本數(shù)據(jù)生成方案,但顯著的“模擬到現(xiàn)實(shí)”(Sim2Real)鴻溝,制約了仿真數(shù)據(jù)訓(xùn)練策略的泛化能力與落地應(yīng)用。
    的頭像 發(fā)表于 07-09 14:02 ?208次閱讀
    <b class='flag-5'>一</b>種基于<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>的<b class='flag-5'>視頻生成</b>框架RoboTransfer

    谷歌生成式AI媒體模型登陸Vertex AI平臺(tái)

    我們?cè)?Vertex AI 上推出新一生成式 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?381次閱讀

    字節(jié)跳動(dòng)即將推出多模態(tài)視頻生成模型OmniHuman

    完整的AI視頻。 據(jù)即夢(mèng)AI相關(guān)負(fù)責(zé)人透露,OmniHuman模型在研發(fā)過(guò)程中融入了前沿的人工智能技術(shù),通過(guò)復(fù)雜的算法和深度學(xué)習(xí)機(jī)制,實(shí)現(xiàn)了圖片與音頻的精準(zhǔn)匹配和
    的頭像 發(fā)表于 02-08 10:53 ?768次閱讀

    谷歌 Gemini 2.0 Flash 系列 AI 模型上新

    谷歌旗下 AI 大模型 Gemini 系列全面上新,正式版 Gemini 2.0 Flash、Gemini 2.0 Flash-Lite 以及新代旗艦大模型 Gemini 2.0 P
    的頭像 發(fā)表于 02-07 15:07 ?723次閱讀

    阿里云通義萬(wàn)相2.1視頻生成模型震撼發(fā)布

    近日,阿里云旗下的通義萬(wàn)相迎來(lái)了重要升級(jí),正式推出了全新的萬(wàn)相2.1視頻生成模型。這創(chuàng)新成果標(biāo)志著阿里云在視頻生成技術(shù)領(lǐng)域的又
    的頭像 發(fā)表于 01-13 10:00 ?841次閱讀

    基于移動(dòng)自回歸的時(shí)序擴(kuò)散預(yù)測(cè)模型

    回歸取得了比傳統(tǒng)基于噪聲的擴(kuò)散模型更好的生成效果,并且獲得了人工智能頂級(jí)會(huì)議 NeurIPS 2024 的 best paper。 然而在時(shí)間序列預(yù)測(cè)領(lǐng)域,當(dāng)前主流的擴(kuò)散方法還是傳統(tǒng)的
    的頭像 發(fā)表于 01-03 14:05 ?905次閱讀
    基于移動(dòng)自回歸的時(shí)序<b class='flag-5'>擴(kuò)散</b>預(yù)測(cè)<b class='flag-5'>模型</b>

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    在快速發(fā)展的生成式 AI 領(lǐng)域,結(jié)合不同模型的優(yōu)勢(shì)可以帶來(lái)顯著的成果。通過(guò)利用谷歌的 Gemini 模型來(lái)制作詳細(xì)且富有創(chuàng)意的提示,然后使用 Imagen 3
    的頭像 發(fā)表于 01-03 10:38 ?907次閱讀
    借助<b class='flag-5'>谷歌</b>Gemini和Imagen<b class='flag-5'>模型</b><b class='flag-5'>生成</b>高質(zhì)量圖像

    OpenAI暫不推出Sora視頻生成模型API

    OpenAI近日宣布,目前暫無(wú)推出視頻生成模型Sora的應(yīng)用程序接口(API)的計(jì)劃。Sora模型能夠基于文本和圖像生成
    的頭像 發(fā)表于 12-20 14:23 ?534次閱讀

    OpenAI推出AI視頻生成模型Sora

    近日,備受期待的OpenAI再次推出了其創(chuàng)新之作——AI視頻生成模型Sora。這新品的發(fā)布,無(wú)疑為AI技術(shù)注入了新的活力。 據(jù)悉,Sora與OpenAI旗下的AI工具DALL-E有著
    的頭像 發(fā)表于 12-12 09:40 ?722次閱讀

    OpenAI開(kāi)放Sora視頻生成模型

    升級(jí),準(zhǔn)備迎接廣大用戶的深入探索與廣泛應(yīng)用。 據(jù)官方公告介紹,Sora Turbo作為Sora的升級(jí)版本,具備強(qiáng)大的視頻生成能力。它能夠根據(jù)用戶的文本提示,快速創(chuàng)建出最長(zhǎng)達(dá)20秒的高清視頻片段。更令人驚喜的是,Sora Turbo還能針對(duì)同
    的頭像 發(fā)表于 12-10 11:16 ?748次閱讀

    浙大、微信提出精確反演采樣器新范式,徹底解決擴(kuò)散模型反演問(wèn)題

    隨著擴(kuò)散生成模型的發(fā)展,人工智能步入了屬于?AIGC?的新紀(jì)元。擴(kuò)散生成模型可以對(duì)初始高斯噪聲進(jìn)
    的頭像 發(fā)表于 11-27 09:21 ?705次閱讀
    浙大、微信提出精確反演采樣器新范式,徹底解決<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>反演問(wèn)題

    字節(jié)跳動(dòng)自研視頻生成模型Seaweed開(kāi)放

    近日,字節(jié)跳動(dòng)旗下的AI內(nèi)容平臺(tái)即夢(mèng)AI傳來(lái)新消息,宣布自研的視頻生成模型Seaweed即日起正式面向平臺(tái)用戶開(kāi)放使用。這舉措標(biāo)志著字節(jié)跳動(dòng)在AI視頻領(lǐng)域邁出了堅(jiān)實(shí)的
    的頭像 發(fā)表于 11-11 14:31 ?710次閱讀

    擴(kuò)散模型的理論基礎(chǔ)

    擴(kuò)散模型的迅速崛起是過(guò)去幾年機(jī)器學(xué)習(xí)領(lǐng)域最大的發(fā)展之。在這本簡(jiǎn)單易懂的指南中,學(xué)習(xí)你需要知道的關(guān)于擴(kuò)散模型
    的頭像 發(fā)表于 10-28 09:30 ?1396次閱讀
    <b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>的理論基礎(chǔ)

    今日看點(diǎn)丨Vishay裁員800人,關(guān)閉上海等三家工廠;字節(jié)跳動(dòng)發(fā)布兩款視頻生成模型

    企業(yè)市場(chǎng)開(kāi)啟邀測(cè)。 ? 火山引擎介紹,豆包視頻生成模型基于DiT架構(gòu),通過(guò)高效的DiT融合計(jì)算單元,更充分地壓縮編碼視頻與文本,讓視頻在大
    發(fā)表于 09-25 15:48 ?957次閱讀

    火山引擎推出豆包·視頻生成模型

    在近期舉辦的2024火山引擎AI創(chuàng)新巡展上,火山引擎總裁譚待隆重推出了豆包·視頻生成模型,這舉措標(biāo)志著火山引擎在視頻內(nèi)容
    的頭像 發(fā)表于 09-25 14:11 ?654次閱讀