99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌采用GANs與神經(jīng)網(wǎng)絡(luò)打造圖像壓縮新算法

中科院長春光機(jī)所 ? 來源:雪球 ? 作者:雪球 ? 2020-09-14 09:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

還在為圖像加載犯愁嗎? 最新的好消息是,谷歌團(tuán)隊(duì)采用了一種GANs與基于神經(jīng)網(wǎng)絡(luò)的壓縮算法相結(jié)合的圖像壓縮方式HiFiC,在碼率高度壓縮的情況下,仍能對(duì)圖像高保真還原。

GAN(Generative Adversarial Networks,生成式對(duì)抗網(wǎng)絡(luò))顧名思義,系統(tǒng)讓兩個(gè)神經(jīng)網(wǎng)絡(luò)相互「磨煉」,一個(gè)神經(jīng)網(wǎng)絡(luò)負(fù)責(zé)生成接近真實(shí)的數(shù)據(jù),另一個(gè)神經(jīng)網(wǎng)絡(luò)負(fù)責(zé)區(qū)分真實(shí)數(shù)據(jù)與生成的數(shù)據(jù)。

簡單來說,就是一個(gè)神經(jīng)網(wǎng)絡(luò)「造假」,另一個(gè)神經(jīng)網(wǎng)絡(luò)「打假」,而當(dāng)系統(tǒng)達(dá)到平衡時(shí),生成的數(shù)據(jù)看起來便會(huì)非常接近真實(shí)數(shù)據(jù),達(dá)到「以假亂真」的效果。

下面是這種算法展現(xiàn)出來的圖像與JPG格式圖像的對(duì)比。 可見,在圖像大小接近的情況下(HiFiC大小74kB,JPG圖像大小78kB),算法所展現(xiàn)出來的圖像壓縮效果要好得多。

而在與原圖進(jìn)行對(duì)比時(shí),HiFiC所展現(xiàn)出來的還原效果仍然非常優(yōu)秀。(真的不是在原圖中間畫了條線嗎?)

目前處于特殊時(shí)期,大量國外網(wǎng)友仍在家中隔離,Netflix和油管的播放量暴增,一些視頻網(wǎng)站甚至不得不被迫降低視頻在線播放的清晰度,以適應(yīng)激增的數(shù)據(jù)量。

但看慣了高清視頻的網(wǎng)友們,面對(duì)突如其來的「模糊打擊」自然怨聲載道。

用一位網(wǎng)友的話來說,如果視頻行業(yè)也能被應(yīng)用類似的技術(shù),相信Netflix和油管會(huì)特別高興,畢竟這種高清低碼率的圖像復(fù)原實(shí)在太誘惑。

哇,如果他們可以對(duì)視頻做同樣的事情的話,我相信Netflix和YouTube會(huì)很高興的。

事實(shí)上,在了解HiFiC算法的原理后,會(huì)發(fā)現(xiàn)它的確不難實(shí)現(xiàn)。

接近原圖的圖像重構(gòu)算法

此前,相關(guān)研究已有采用神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像壓縮的算法,而隨著近年來生成式對(duì)抗網(wǎng)絡(luò)興起,采用GANs生成以假亂真圖像的算法也不在少數(shù)。

如果能有辦法將二者結(jié)合,圖像壓縮的效果是不是會(huì)更好、更接近于人類的感知?

這次圖像壓縮的模型便是基于二者的特性設(shè)計(jì),在基于神經(jīng)網(wǎng)絡(luò)的壓縮圖像算法基礎(chǔ)上,采用GANs進(jìn)一步讓生成的圖片更接近于人類視覺,在圖像大小和視覺感知間達(dá)到一個(gè)平衡。

可以看見,HiFiC的架構(gòu)被分成了4個(gè)主要部分,其中E為編碼器,G為生成器,D為判別器,而P則是E的輸出E(x)的概率模型(這里用y表示),也就是P用于模擬y的概率分布。

GANs運(yùn)作的核心思想在于,需要讓架構(gòu)中的生成器G通過某種方法,「欺騙」判別器D判定樣本為真。

而概率模型P,則是達(dá)成這步操作的條件。

然后,將E、G、P參數(shù)化為卷積神經(jīng)網(wǎng)絡(luò),這樣就可以通過率失真優(yōu)化的條件,對(duì)這些網(wǎng)絡(luò)進(jìn)行共同訓(xùn)練。

同時(shí),研究者也對(duì)已有的幾種GANs算法架構(gòu)進(jìn)行了微調(diào),使其更適于HiFiC架構(gòu)。

研究發(fā)現(xiàn),將GANs與深度學(xué)習(xí)相結(jié)合的HiFiC算法取得了意想不到的效果。

模型評(píng)估

下圖是采用目前幾種主流圖像質(zhì)量評(píng)估標(biāo)準(zhǔn),對(duì)幾種前沿的圖像壓縮算法與HiFiC算法進(jìn)行比較的結(jié)果。

在圖中,評(píng)估標(biāo)準(zhǔn)后面自帶的箭頭,表示數(shù)據(jù)更低(↓)或數(shù)據(jù)更高(↑)表示圖像質(zhì)量更好。

為了更好地對(duì)比,結(jié)果分別采用了HiFiC算法(圖中紅點(diǎn)連線)、不帶GANs的對(duì)比算法(圖中橙方連線)、目前較為前沿的M&S算法(圖中藍(lán)方連線)和BPG算法(圖中藍(lán)點(diǎn)連線)。

從結(jié)果來看,HiFiC算法在FID、KID、NIQE、LPIPS幾種評(píng)估標(biāo)準(zhǔn)均為最優(yōu),而在MS-SSIM和PSNR標(biāo)準(zhǔn)中表現(xiàn)一般。

由評(píng)估標(biāo)準(zhǔn)間的差異可見,各項(xiàng)圖像質(zhì)量標(biāo)準(zhǔn)不一定是判斷壓縮技術(shù)的最好辦法。

用戶評(píng)測對(duì)比

畢竟,圖像是用來看的,最終的判斷權(quán)還得交回用戶手里。

圖像究竟是否「清晰」,某種程度上得通過人眼的判斷來決定。

出于這個(gè)考慮,團(tuán)隊(duì)采取了調(diào)研模式,讓一部分志愿者參與算法的比較。

他們先展示一張測試圖片的隨機(jī)裁切圖樣,當(dāng)志愿者對(duì)其中某張裁切圖樣感興趣時(shí),便用這一部分來進(jìn)行所有算法的對(duì)比。

志愿者將原圖與經(jīng)過算法處理后的圖像對(duì)比后,選出他們認(rèn)為「視覺上」更接近于原圖的壓縮算法。

在所有算法經(jīng)過選取后,將會(huì)出現(xiàn)一個(gè)排名,以衡量HiFiC的實(shí)際效果。(其中,HiFiC的角標(biāo)Hi、Mi和Lo分別為設(shè)置由高至低3種不同碼率閾值時(shí)的算法)

上圖中,評(píng)分越低,則代表圖像在用戶眼中「越清晰」。從圖中來看,HiFiC(Mi)在0.237bpp的壓縮效果下,甚至比兩倍碼率的0.504bpp的BPG算法在用戶眼里還要更好。

即使壓縮效果達(dá)到了0.120bpp,也比0.390bpp的BPG算法更好。

這項(xiàng)研究再次推動(dòng)了圖像壓縮技術(shù)的發(fā)展,正如網(wǎng)友所說,隨著圖像壓縮技術(shù)的發(fā)展,在線看4k電影也許真能實(shí)現(xiàn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108103
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103552
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對(duì)無刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進(jìn)遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過濾器修剪統(tǒng)計(jì)數(shù)據(jù)怎么查看?

    無法觀察神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過濾器修剪統(tǒng)計(jì)數(shù)據(jù)
    發(fā)表于 03-06 07:10

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?658次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反向傳播
    的頭像 發(fā)表于 02-12 15:18 ?763次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化
    的頭像 發(fā)表于 02-12 15:15 ?850次閱讀

    BP神經(jīng)網(wǎng)絡(luò)圖像識(shí)別中的應(yīng)用

    BP神經(jīng)網(wǎng)絡(luò)圖像識(shí)別中發(fā)揮著重要作用,其多層結(jié)構(gòu)使得網(wǎng)絡(luò)能夠?qū)W習(xí)到復(fù)雜的特征表達(dá),適用于處理非線性問題。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)圖像識(shí)別中應(yīng)
    的頭像 發(fā)表于 02-12 15:12 ?668次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?1180次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?1862次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    ),是深度學(xué)習(xí)的代表算法之一。 一、基本原理 卷積運(yùn)算 卷積運(yùn)算是卷積神經(jīng)網(wǎng)絡(luò)的核心,用于提取圖像中的局部特征。 定義卷積核:卷積核是一個(gè)小的矩陣,用于在輸入圖像上滑動(dòng),提取局部特征。
    的頭像 發(fā)表于 11-15 14:47 ?1772次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1124次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)圖像處理中的應(yīng)用

    長短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴關(guān)系。雖然LSTM最初是為處理序列數(shù)據(jù)設(shè)計(jì)的,但近年來,它在圖像處理領(lǐng)域也展現(xiàn)出了巨大的潛力。 LSTM基本原理
    的頭像 發(fā)表于 11-13 10:12 ?1612次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    Moku3.3版更新在Moku:Pro平臺(tái)新增了全新的儀器功能【神經(jīng)網(wǎng)絡(luò)】,使用戶能夠在Moku設(shè)備上部署實(shí)時(shí)機(jī)器學(xué)習(xí)算法,進(jìn)行快速、靈活的信號(hào)分析、去噪、傳感器調(diào)節(jié)校準(zhǔn)、閉環(huán)反饋等應(yīng)用。如果您
    的頭像 發(fā)表于 11-01 08:06 ?661次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    取特征的強(qiáng)大工具,例如識(shí)別音頻信號(hào)或圖像信號(hào)中的復(fù)雜模式就是其應(yīng)用之一。 1、什么是卷積神經(jīng)網(wǎng)絡(luò)? 神經(jīng)網(wǎng)絡(luò)是一種由神經(jīng)元組成的系統(tǒng)或結(jié)構(gòu),它使AI能夠更好地理解數(shù)據(jù),進(jìn)而解決復(fù)雜問
    發(fā)表于 10-24 13:56

    【飛凌嵌入式OK3576-C開發(fā)板體驗(yàn)】RKNN神經(jīng)網(wǎng)絡(luò)算法開發(fā)環(huán)境搭建

    download_model.sh 腳本,該腳本 將下載一個(gè)可用的 YOLOv5 ONNX 模型,并存放在當(dāng)前 model 目錄下,參考命令如下: 安裝COCO數(shù)據(jù)集,在深度神經(jīng)網(wǎng)絡(luò)算法中,模型的訓(xùn)練離不開大量的數(shù)據(jù)集,數(shù)據(jù)集用于
    發(fā)表于 10-10 09:28

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14