99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

視頻P圖新SOTA:推理速度快近15倍

OpenCV學(xué)堂 ? 來源:量子位 ? 作者:量子位 ? 2022-05-24 09:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

眾所周知:視頻是可以P的。

這不,在CVPR 2022收錄的論文中,就出現(xiàn)了這么一個P圖神器,它可以分分鐘給你上演各種人像消失大法,不留任何痕跡。

去水印、填補缺失更是不在話下,并且各種分辨率的視頻都能hold住。

正如你所見,這個模型如此絲滑的表現(xiàn)讓它在兩個基準數(shù)據(jù)集上都實現(xiàn)了SOTA性能。

812b2f9a-daac-11ec-ba43-dac502259ad0.png

△與SOTA方法的對比

同時它的推理時間和計算復(fù)雜表現(xiàn)也很搶眼:

前者比此前的方法快了近15倍,可以在Titan XP GPU上以每幀0.12秒的速度處理432 × 240的視頻;后者則是在所有比較的SOTA方法中實現(xiàn)了最低的FLOPs分數(shù)。

如此神器,什么來頭?

改善光流法

目前很多視頻修復(fù)算法利用的都是光流法(Optical flow)。

也就是利用圖像序列中像素在時間域上的變化以及相鄰幀之間的相關(guān)性,找到上一幀跟當(dāng)前幀之間存在的對應(yīng)關(guān)系,從而計算出相鄰幀之間物體的運動信息。

這個方法的缺點很明顯:計算量大、耗時長,也就是效率低。

為此,研究人員設(shè)計了三個可訓(xùn)練模塊,分別為流完成(flow completion)、特征傳播(feature propagation)和內(nèi)容幻想(content hallucination),提出了一個流引導(dǎo)(flow-guided)的端到端視頻修復(fù)框架:

E2FGVI。

這三個模塊與之前基于光流的方法的三個階段相對應(yīng),不過可以進行聯(lián)合優(yōu)化,從而實現(xiàn)更高效的修復(fù)過程。

8179012a-daac-11ec-ba43-dac502259ad0.png

具體來說,對于流完成模塊,該方法直接在mask viedo中一步完成操作,而不是像此前方法采用多個復(fù)雜的步驟。

對于特征傳播模塊,與此前的像素級傳播相比,該方法中的流引導(dǎo)傳播過程在特征空間中借助可變形卷積進行。

通過更多可學(xué)習(xí)的采樣偏移和特征級操作,傳播模塊釋放了此前不能準確進行流估計的壓力。

對于內(nèi)容幻想模塊,研究人員則提出了一種時間焦點Transformer來有效地建??臻g和時間維度上的長程依賴關(guān)系。

同時該模塊還考慮了局部和非局部時間鄰域,從而獲得更具時間相關(guān)性的修復(fù)結(jié)果。

81a552fc-daac-11ec-ba43-dac502259ad0.png

作者:希望成為新基線

定量實驗:

研究人員在數(shù)據(jù)集YouTube VOS和DAVIS上進行了定量實驗,將他們的方法與之前的視頻修復(fù)方法進行了比較。

如下表所示,E2FGVI在全部四個量化指標上都遠遠超過了這些SOTA算法,能夠生成變形更少(PSNR和SSIM)、視覺上更合理(VFID)和時空一致性更佳(Ewarp)的修復(fù)視頻,驗證了該方法的優(yōu)越性。

81ddb930-daac-11ec-ba43-dac502259ad0.png

此外,E2FGVI也具有最低的FLOPs值(計算復(fù)雜度),盡管訓(xùn)練是在432 × 240分辨率的視頻上進行,它的HQ版本做到了支持任意分辨率。

82209444-daac-11ec-ba43-dac502259ad0.png

定性實驗:

研究人員首先選擇了三種最有代表性的方法,包括CAP、FGVC(基于光流法)和Fuseformer(入選ICCV 2021),進行對象移除(下圖前三行)和缺失補全(下圖后兩行)的效果比較。

可以發(fā)現(xiàn),前三種方法很難在遮擋區(qū)域恢復(fù)出合理的細節(jié)、擦除人物也會造成模糊,但E2FGVI可以生成相對真實的紋理和結(jié)構(gòu)信息。

824b6d22-daac-11ec-ba43-dac502259ad0.png

此外,它們還選用了5種方法進行了用戶研究,結(jié)果大部分人都對E2FGVI修復(fù)后的效果更滿意。

綜上,研究人員也表示,希望他們提出的方法可以成為視頻修復(fù)領(lǐng)域新的強大基線。

作者介紹

82ac4304-daac-11ec-ba43-dac502259ad0.png

E2FGVI由南開大學(xué)和海思合作完成。

一作Li Zhen為南開大學(xué)博士生,共同一作Lu ChengZe也來自南開。

通訊作者為南開大學(xué)計算機學(xué)院教授程明明,主要研究方向是計算機視覺和圖形學(xué)。

目前,E2FGVI的代碼已經(jīng)開源,作者也提供了Colab實現(xiàn),未來還將在Hugging Face給出demo。

論文地址: https://arxiv.org/abs/2204.02663

GitHub主頁: https://github.com/MCG-NKU/E2FGVI

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1708

    瀏覽量

    46773
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25445

原文標題:CVPR 2022 | 視頻P圖新SOTA:推理速度快近15倍,任意分辨率均可上演人像消失大法

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    DeepSeek最新論文:訓(xùn)練速度提升9推理速度快11!

    是上一代Grok2的15左右。在Benchmarks中,Grok3毫無懸念成功地領(lǐng)先Deepseek R1、o3 mini等對手。 ? 不過用如此大規(guī)模的算力集群,花費上一代15
    的頭像 發(fā)表于 02-20 11:25 ?2057次閱讀
    DeepSeek最新論文:訓(xùn)練<b class='flag-5'>速度</b>提升9<b class='flag-5'>倍</b>,<b class='flag-5'>推理</b><b class='flag-5'>速度快</b>11<b class='flag-5'>倍</b>!

    大模型推理顯存和計算量估計方法研究

    過程中需要占用大量顯存,導(dǎo)致推理速度變慢,甚至無法進行。 計算量過大:大模型的計算量較大,導(dǎo)致推理速度慢,難以滿足實時性要求。 為了解決這些問題,本文將針對大模型
    發(fā)表于 07-03 19:43

    RK3588核心板在邊緣AI計算中的顛覆性優(yōu)勢與場景落地

    、ResNet50等模型,推理速度較純CPU方案(如i.MX8)5-10,無需外接加速卡。 全接口覆蓋: 原生支持PCIe 3.0、雙千兆網(wǎng)口、USB 3.1 Gen2、SATA
    發(fā)表于 04-15 10:48

    YOLOv5類中rgb888p_size這個參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎?一致會達到更好的效果?

    YOLOv5類中rgb888p_size這個參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎,一致會達到更好的效果
    發(fā)表于 03-11 08:12

    使用修改后的基準C++工具推斷灰度圖像時的推理速度慢怎么解決?

    修改了 基準測試 C++ 工具 ,以加載灰度圖像。 獲得的推理速度非常低。
    發(fā)表于 03-06 07:11

    k230如何將yolo分類視頻推理后的視頻結(jié)果保存到本地?

    請問k230如何將yolo分類視頻推理后的視頻結(jié)果保存到本地?
    發(fā)表于 02-08 08:09

    中國電提出大模型推理加速新范式Falcon

    中提出的 Falcon 方法是一種 增強半自回歸投機解碼框架 ,旨在增強 draft model 的并行性和輸出質(zhì)量,以有效提升大模型的推理速度。Falcon 可以實現(xiàn)約 2.91-3.51 的加速比,在多種數(shù)據(jù)集上獲得了很好
    的頭像 發(fā)表于 01-15 13:49 ?955次閱讀
    中國電提出大模型<b class='flag-5'>推理</b>加速新范式Falcon

    在ARM上實現(xiàn)模擬視頻的實時解碼,模擬相機的速度為1080p 30fps,TVP5150能達到這個速度嗎?

    最近需要在ARM上實現(xiàn)模擬視頻的實時解碼,模擬相機的速度為1080p 30fps, 我在這里想咨詢一下TVP5150能達到這個速度
    發(fā)表于 12-20 07:57

    谷歌正式發(fā)布Gemini 2.0 性能提升

    2.0在關(guān)鍵基準測試中相比前代產(chǎn)品Gemini 1.5 Pro的性能提升了。該模型支持圖像、視頻和音頻等多種輸入與輸出形式,例如可以實現(xiàn)文本與圖像的混合生成以及自定義的多語言文本轉(zhuǎn)語音(TTS)內(nèi)容。 此外,Gemini
    的頭像 發(fā)表于 12-12 14:22 ?818次閱讀

    FPGA和ASIC在大模型推理加速中的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型的推理做了優(yōu)化,因此相比GPU這種通過計算平臺,功耗更低、
    的頭像 發(fā)表于 10-29 14:12 ?2016次閱讀
    FPGA和ASIC在大模型<b class='flag-5'>推理</b>加速中的應(yīng)用

    6G測試速度達938Gbps,比5G速度快5000

    智能手機網(wǎng)絡(luò)連接速度的5000。典型的5G運行速度約為200Mbps,而在實際使用中,由于信號連接問題,其提供的速度往往遠低于100Mbps。
    的頭像 發(fā)表于 10-22 16:27 ?1246次閱讀

    內(nèi)存儲器的特點是速度快成本低容量小對嗎

    內(nèi)存儲器,通常指的是計算機系統(tǒng)中的隨機存取存儲器(RAM),是計算機硬件的重要組成部分。它負責(zé)存儲計算機運行時的數(shù)據(jù)和程序,以便處理器快速訪問。內(nèi)存儲器的特點包括速度快、容量相對較小,但成本并不是
    的頭像 發(fā)表于 10-14 10:05 ?1607次閱讀

    迅為【AI深度學(xué)習(xí)推理加速器】RKNPU2 從入門到實踐視頻教程3568開發(fā)板

    P1-00 前言-05:13 P2-01 初識RKNPU-17:08 P3-02 RKNPU軟件推理框架-20:05 P4-03_RKNN
    發(fā)表于 08-14 11:12

    超高速直線模組究竟有多快?飛創(chuàng)直線模組最快速度是多少?

    超高速直線模組速度每秒幾毫米至幾十米。飛創(chuàng)直線模組速度快,提供定制化服務(wù)。選擇時需考慮負載、行程、精度等因素,不同品牌和型號性能各異。
    的頭像 發(fā)表于 08-07 09:57 ?789次閱讀
    超高速直線模組究竟有多快?飛創(chuàng)直線模組最快<b class='flag-5'>速度</b>是多少?

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個研究熱點,旨在提高模型在處理復(fù)雜任務(wù)時的效率和響應(yīng)速度。以下是對LLM大模型推理加速關(guān)鍵技術(shù)的詳細探討,內(nèi)容將涵蓋模型壓縮、解碼方法優(yōu)化、底層優(yōu)化、分布式并行
    的頭像 發(fā)表于 07-24 11:38 ?1804次閱讀