99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MelNet 捕捉“高層結(jié)構(gòu)”更勝一籌

WpOh_rgznai100 ? 來(lái)源:lq ? 2019-07-18 15:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

計(jì)算機(jī)生成語(yǔ)音領(lǐng)域,正在醞釀著和一場(chǎng)革命。Facebook 工程師們?cè)O(shè)計(jì)創(chuàng)建的機(jī)器學(xué)習(xí)模型 MelNet 就是一個(gè)啟示。

下面這段聽(tīng)起來(lái)怪異的話像極了比爾·蓋茨是吧?

但事實(shí)上,這幾句話是 Facebook 的工程師們?cè)O(shè)計(jì)創(chuàng)建的機(jī)器學(xué)習(xí)模型 MelNet 生成的。AI 合成逼真語(yǔ)音已不是新鮮事,George Takei、Jane Goodall、Stephen Hawking 等大佬的聲音早已被模仿了個(gè)遍,而且逼真程度讓人驚嘆。Facebook 此次合成的聲音樣本還有很多,可以在這里查看:https://audio-samples.github.io/

那么,這次合成比爾·蓋茨聲音背后的技術(shù)有何區(qū)別呢?答案是生成聲音的機(jī)器學(xué)習(xí)模型 MelNet是通過(guò)一種叫做頻譜圖的技術(shù)實(shí)現(xiàn)的。而且實(shí)驗(yàn)表明,這個(gè)模型的性能高于此前曾紅火一時(shí)的 SampleRNN 和 WaveNet 等模型。

MelNet 的出現(xiàn)并非平地一聲雷。最近幾年,語(yǔ)音克隆的質(zhì)量一直在穩(wěn)步提高,最近著名美國(guó)播客 Joe Rogan 的聲音克隆證明了我們到底已經(jīng)走了多遠(yuǎn)。追溯到 2016 年,AI 聲音克隆技術(shù)已經(jīng)有了很大的發(fā)展,SampleRNN 和 WaveNet 橫空出世,后者是由位于倫敦的人工智能實(shí)驗(yàn)室 DeepMind 創(chuàng)建的機(jī)器學(xué)習(xí)文本到語(yǔ)音轉(zhuǎn)換程序,該實(shí)驗(yàn)室現(xiàn)在為 Google 智能助理提供支持。

MelNet 技術(shù)解讀

在論文中,F(xiàn)acebook 的工程師對(duì) MelNet 進(jìn)行了詳解,我們從中摘取重要部分進(jìn)行了解讀。

論文地址:https://arxiv.org/pdf/1906.01083.pdf

本文的主要貢獻(xiàn)如下:

提出了 MelNet。一個(gè)語(yǔ)譜圖的生成模型,它結(jié)合了細(xì)粒度的自回歸模型和多尺度生成過(guò)程,能夠同時(shí)捕獲局部和全局的結(jié)構(gòu)。

展示了MelNet 在長(zhǎng)程依賴性上卓越的性能。

展示了MelNet 在多種音頻生成任務(wù)上優(yōu)秀的能力:無(wú)條件語(yǔ)音生成任務(wù)、音樂(lè)生成任務(wù)、文字轉(zhuǎn)語(yǔ)音合成任務(wù)。而且在這些任務(wù)上,MelNet 都是端到端的實(shí)現(xiàn)。

摘要

WaveNet、SampleRNN 和類似程序的基本方法是為 AU 系統(tǒng)提供大量數(shù)據(jù),并用它來(lái)分析人聲中的細(xì)微差別。(早一點(diǎn)的文本到語(yǔ)音系統(tǒng)不會(huì)生成音頻,而是進(jìn)行重構(gòu):將語(yǔ)音樣本切割成音素,然后拼接在一起創(chuàng)建新單詞。)當(dāng) WaveNet 和其他模型使用音頻波形進(jìn)行訓(xùn)練時(shí),F(xiàn)acebook 的 MelNet 已經(jīng)可以使用更多、包含更豐富信息的密集格式:頻譜圖。

(注:頻譜可以表示一個(gè)信號(hào)是由哪些頻率的弦波所組成,也可以看出各頻率弦波的大小及相位等信息,是分析振動(dòng)參數(shù)的主要工具)

為了捕獲音頻波形中的高級(jí)結(jié)構(gòu),本文將時(shí)域的波形轉(zhuǎn)化為二維時(shí)頻的表達(dá),通過(guò)將高度表達(dá)的概率模型和多尺度的生成模型相結(jié)合,提出了一種能夠生成高保真音頻樣本的模型,該模型能夠在時(shí)間尺度上捕獲結(jié)構(gòu)信息,而現(xiàn)存的時(shí)域模型尚未實(shí)現(xiàn)該功能。為了驗(yàn)證模型的有效性,本文將模型運(yùn)用到多種音頻生成任務(wù),包括無(wú)條件語(yǔ)音生成、音樂(lè)生成,以及文字轉(zhuǎn)語(yǔ)音合成。運(yùn)用人工判別和密度估計(jì)的評(píng)價(jià)方法,本文模型的效果都超越了現(xiàn)存的模型。

MelNet 捕捉“高層結(jié)構(gòu)”更勝一籌

在一篇隨附的論文(https://arxiv.org/pdf/1906.01083.pdf)中,F(xiàn)acebook 的研究人員指出,雖然 WaveNet 生成更高保真的音頻輸出,但 MelNet 在捕捉“高層結(jié)構(gòu)”方面更勝一籌——說(shuō)話者的聲音中包含了微妙的一致性,而這幾乎無(wú)法用文字描述,但是人的耳朵很好地辨別出來(lái)。

他們表示,這是因?yàn)轭l譜圖中捕獲的數(shù)據(jù)比音頻波形中的數(shù)據(jù)“更緊湊”。這種密度允許算法產(chǎn)生更一致的聲音,而不是被波形記錄的極端細(xì)節(jié)分散和磨練(使用過(guò)于簡(jiǎn)單的人類比喻)。

具體來(lái)說(shuō),在劇烈變化的時(shí)間尺度上,音頻波形具有復(fù)雜的結(jié)構(gòu),這對(duì)音頻生成模型提出了挑戰(zhàn)。局部結(jié)構(gòu)用于產(chǎn)生高保真音頻,跨越數(shù)萬(wàn)個(gè)時(shí)間步長(zhǎng)的長(zhǎng)程依賴性,則用于產(chǎn)生全局一致的音頻,同時(shí)捕獲局部結(jié)構(gòu)和長(zhǎng)程依賴性,是一項(xiàng)很具有挑戰(zhàn)的任務(wù)。WaveNet 和 SampleRNN 等現(xiàn)存的生成模型擅長(zhǎng)捕獲局部依賴性,但是它們無(wú)法捕獲長(zhǎng)時(shí)的高級(jí)結(jié)構(gòu)?;诖?,本文引入了一種新的音頻生成模型,它捕獲了比先存模型更為長(zhǎng)程的依賴性。該模型主要通過(guò)建模2D時(shí)頻表示來(lái)實(shí)現(xiàn)這一目標(biāo),如下圖所示。

建模頻譜圖可以簡(jiǎn)化捕獲全局結(jié)構(gòu)的任務(wù),但是會(huì)削弱與音頻保真度相關(guān)的局部特征的捕獲。為了減少信息損失,我們對(duì)高分辨率頻譜圖進(jìn)行了建模。為了限制過(guò)度平滑,我們使用了高度表達(dá)的自回歸模型,在時(shí)間和頻率維度上對(duì)分布進(jìn)行了分解。除此之外,為了捕獲具有數(shù)十萬(wàn)個(gè)維度的頻譜圖中的局部和全局結(jié)構(gòu),我們采用了多尺度的方法,由粗略到精細(xì)的方式生成了頻譜圖。結(jié)合這些表征和建模技術(shù),我們可以提出了高度表達(dá)、廣泛適用且完全端到端的音頻生成模型 MelNet。

缺陷:無(wú)法復(fù)制人類聲音在較長(zhǎng)時(shí)間內(nèi)的變化

但是,MelNet 也有一些缺陷,其中最重要的一點(diǎn)是該模型無(wú)法復(fù)制人類聲音在較長(zhǎng)時(shí)間內(nèi)的變化。有趣的是,這類似于我們?cè)?AI 文本生成中的限制,它只能捕獲表面級(jí)別的一致性,而不是長(zhǎng)期結(jié)構(gòu)。

拋開(kāi)這些缺陷,MelNet 取得的結(jié)果非常好。此外,MelNet 是一個(gè)多功能系統(tǒng),它不僅可以產(chǎn)生逼真的聲音,還可以用于生成音樂(lè)(雖然有時(shí)候輸出有點(diǎn)差強(qiáng)人意,但不能以商業(yè)用途標(biāo)準(zhǔn)來(lái)衡量)。

概率模型

本文使用了自回歸模型,將語(yǔ)譜圖 x 的聯(lián)合分布作為條件分布的乘積進(jìn)行分解。聯(lián)合概率分解如下:

然后,我們用高斯混合模型對(duì)其中的每個(gè)因子進(jìn)行建模,每個(gè)因子可以被分解如下:

其中圖片: https://uploader.shimo.im/f/EInGnyOdsdgBDRKS.png是某個(gè)神經(jīng)網(wǎng)絡(luò)的輸出,為了確保網(wǎng)絡(luò)輸出能夠參數(shù)化一個(gè)有效的高斯混合模型,網(wǎng)絡(luò)首先要計(jì)算無(wú)約束的參數(shù),讓后再對(duì)參數(shù)實(shí)施以下的限制:

上述限制保證了正的標(biāo)準(zhǔn)差,以及保證了混合系數(shù)的和為 1 。

MelNet 網(wǎng)絡(luò)結(jié)構(gòu)

類似圖像空間分布的逐點(diǎn)估計(jì),MelNet 模型在語(yǔ)譜圖的時(shí)間和頻率維度上,對(duì)元素的分布逐個(gè)進(jìn)行估計(jì)。由于語(yǔ)譜圖在頻率軸上,沒(méi)有平移不變性,因此本模型用多維遞歸代替了 2D 卷積。該模型和 Gated PixelCNN 的結(jié)構(gòu)較為相似,都采用了多層堆疊(stacks)的結(jié)構(gòu),它們用于提取輸入中不同片段的特征,進(jìn)而綜合所有的信息。該模型主要有兩類 stack:

Time-delayed stack: 綜合歷史所有頻譜幀的信息

Frequency-delayed stack: 針對(duì)某一頻譜幀,使用該幀中所有元素的信息,以及 time-dealyed stack 的輸出信息,從而計(jì)算所有提取到的信息。

這些 stacks 之間相互連接,簡(jiǎn)單來(lái)講,第 L 層 time-delayed stack 提取的特征,將作為第 L 層 frequency-delayed stack 的輸入。為了能夠訓(xùn)練更深的網(wǎng)路,兩類 stack 內(nèi)部都采用了殘差連接。最后一層 frequency-delayed stack 的輸出用于計(jì)算非受限的高斯混合參數(shù)。

Time-delayed stack

Time-delayed stack 使用了多層多維 RNN來(lái)提取歷史頻譜幀的信息,每層多維RNN 都由 3個(gè)1-D RNN組成:一個(gè)沿著頻率軸向前推進(jìn),一個(gè)沿著頻率軸向后推進(jìn),一個(gè)沿著時(shí)間軸向前推進(jìn),如下圖所示。

每個(gè) Time-delayed stack 的功能可以用下面的式子表示:

Frequency-delayed stack

Frequency-delayed stack 由1個(gè) 1-D RNN組成,該 RNN 沿頻率軸向前推進(jìn),如下圖所示。

Frequency-delayed stack 具有兩個(gè)輸入:前一層的 Frequency-delayed stack 輸出,以及當(dāng)前層的 Time-delayed stack 輸出。兩個(gè)輸入簡(jiǎn)單相加后作為當(dāng)前層的 Frequency-delayed stack 的最終輸入,表達(dá)式如下:

在網(wǎng)絡(luò)的最后一層中,對(duì) Frequency-delayed stack 進(jìn)行一個(gè)線性映射,從而得到非受限的高斯混合參數(shù):

下圖所示為網(wǎng)絡(luò)中每層的 Time-delayed stack 和 Frequency-delayed stack 的連接方式:

Centralized Stack

為了獲取更加集中的特征表示,MelNet 模型選擇性地加入了 Centralized Stack 。Centralized Stack 由一個(gè) RNN 組成,在每個(gè)時(shí)間步長(zhǎng)下,接受一整幀頻譜作為輸入,輸出由 RNN 隱狀態(tài)組成的單個(gè)向量,公式如下:

Centralized Stack 的輸出將作為 Frequency-delayed stack 的輸入,因此,F(xiàn)requency-delayed stack 將會(huì)有三個(gè)輸入。

條件信息

為了將額外的條件信息(例如說(shuō)話人 ID)加入到模型中,我們將條件特征 z 沿著輸入語(yǔ)譜圖 x 的方向,簡(jiǎn)單投影到輸入層,公式如下所示。

學(xué)習(xí)對(duì)齊

如何將語(yǔ)譜幀和離散字符對(duì)齊,是端到端文字轉(zhuǎn)語(yǔ)音任務(wù)的關(guān)鍵點(diǎn),為了學(xué)習(xí)這一功能,MelNet 模型采用了注意力機(jī)制,該機(jī)制是基于位置的高斯混合注意力的一種直接變體。如下圖所示,為本模型所學(xué)習(xí)到的對(duì)齊效果。

多尺度建模

為了提高合成音頻的保真度,我們生成了高分辨率的語(yǔ)譜圖,它與相應(yīng)的時(shí)域表示具有相同的維度。由于高維的分布對(duì)于自回歸模型具有很大的挑戰(zhàn),我們使用了一種多尺度的方法,有效地置換自回歸排序,從而由粗到細(xì)地生成語(yǔ)譜圖。

訓(xùn)練

首先對(duì)每幀語(yǔ)譜圖進(jìn)行降采樣,從而生成不同分辨率的語(yǔ)譜圖。具體做法如下:將語(yǔ)譜圖 x 的列標(biāo)記為奇列和偶列,所有偶列按順序組合成新的語(yǔ)譜圖,剩余的奇列重復(fù)前面的操作,從而得到不同分辨率的語(yǔ)譜圖,具體操作用 split 函數(shù)代替,如下所示:

然后我們用低分辨率的語(yǔ)譜圖來(lái)重建高分辨率的語(yǔ)譜圖。在此過(guò)程中,我們引入了由一個(gè)多維RNN組成的特征提取網(wǎng)絡(luò),它由4 個(gè) 1-D RNN 組成,用于在各個(gè)低分辨率語(yǔ)譜圖的兩個(gè)軸上雙向運(yùn)行,最終生成高分辨率的語(yǔ)譜圖。

采樣

為了得到高分辨率的結(jié)果,我們利用網(wǎng)絡(luò)學(xué)習(xí)到的參數(shù),在受限于圖片: https://uploader.shimo.im/f/vT2XqPWPsYYitpw7.png的情況下,迭代地對(duì)圖片: https://uploader.shimo.im/f/WkQfHvaeGq4yQdcd.png進(jìn)行采樣,公式如下:

當(dāng)一個(gè)完整的語(yǔ)譜圖生成后,采樣過(guò)程就停止了迭代,生成的各級(jí)別分辨率的語(yǔ)譜圖如下所示:

采樣過(guò)程的示意圖如下所示:

實(shí)驗(yàn)結(jié)果

數(shù)據(jù)集

Blizzard:由專業(yè)人士以高度動(dòng)畫(huà)的方式進(jìn)行的有聲讀物敘述

MAESTRO:包括超過(guò) 172 小時(shí)的鋼琴獨(dú)奏表演

VoxCeleb2:超過(guò) 2000 小時(shí)的語(yǔ)音數(shù)據(jù),包括笑聲、串?dāng)_、頻道效果、音樂(lè)和其他聲音。 該數(shù)據(jù)集也是多語(yǔ)言的,包括來(lái)自 145 個(gè)不同國(guó)籍的演講者,涵蓋了廣泛的口音、年齡、種族和語(yǔ)言

TED-LIUM 3:包括長(zhǎng)達(dá) 452 小時(shí)的 TED 演講

模型的超參數(shù)

結(jié)果

在無(wú)條件音頻生成任務(wù)上,F(xiàn)acebook 團(tuán)隊(duì)進(jìn)行了三個(gè)子實(shí)驗(yàn),分別是單說(shuō)活人語(yǔ)音生成,多說(shuō)話人語(yǔ)音生成,以及音樂(lè)生成,分別使用 Blizzard、VoxCeleb2 和 MAESTRO 數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)中,將本文的 MelNet 和 現(xiàn)存的 WaveNet 模型進(jìn)行比較,采用人工判別的方法來(lái)評(píng)價(jià)兩者的生成長(zhǎng)時(shí)結(jié)構(gòu)語(yǔ)音的性能,從下圖可以看出,MelNet 的性能要好于 WaveNet 。

在文字轉(zhuǎn)語(yǔ)音合成的任務(wù)上,進(jìn)行了三個(gè)子實(shí)驗(yàn),分別是單說(shuō)活人 TTS,多說(shuō)話人 TTS,以及密度估計(jì)實(shí)驗(yàn)。實(shí)驗(yàn)中,將本文的 MelNet 和 現(xiàn)存的 MAESTRO 模型進(jìn)行比較,從下圖可以看出,MelNet 的性能要好于 MAESTRO 。

對(duì)于密度估計(jì)實(shí)驗(yàn),將本文的衍生模型 MelNet: Gaussian 和 MelNet: GMM,與 Diagonal Gaussian、VAE: Global z、VAE: Local z 進(jìn)行比較,實(shí)驗(yàn)結(jié)果如下,可以看到 MelNet 可以極大地改善無(wú)條件語(yǔ)音生成和 TTS 的密度估計(jì)。

結(jié)論

這種用于語(yǔ)譜表示的生成模型 MelNet 將高度表達(dá)的自回歸模型與多尺度模型方案相結(jié)合,在局部和全局尺度上生成具有真實(shí)結(jié)構(gòu)的高分辨率語(yǔ)譜圖。與直接模擬時(shí)域信號(hào)的模型相比,MelNet 更加適合模擬長(zhǎng)程的時(shí)間依賴性。實(shí)驗(yàn)表明,MelNet 在各種任務(wù)中均表現(xiàn)了優(yōu)秀的性能。

老調(diào)重談:它是把雙刃劍

與以往一樣,這項(xiàng)技術(shù)同樣也是一把雙刃劍。它能帶來(lái)什么好處呢?答案很明顯,比如幫助創(chuàng)建更高質(zhì)量的 AI 助手;對(duì)于有語(yǔ)言障礙的人,它是實(shí)用的語(yǔ)音模型;此外,還可以用于娛樂(lè)業(yè)。危險(xiǎn)也顯而易見(jiàn)? 比如破壞對(duì)傳統(tǒng)證據(jù)形式的信任,以及音頻騷擾、詐騙和越來(lái)越普遍的誹謗。

還記得最近的一項(xiàng)研究嗎?如果你想對(duì)一段人物特寫(xiě)視頻進(jìn)行重新編輯,只需要對(duì)視頻所對(duì)應(yīng)的文本內(nèi)容進(jìn)行修改,隨后人臉會(huì)根據(jù)修改的文本內(nèi)容作出與之相配的動(dòng)作表達(dá),這會(huì)造成什么樣的后果難以想象。AI 科技大本營(yíng)在《“篡改”視頻腳本,讓特朗普輕松“變臉”?AI Deepfake再升級(jí)》中對(duì)此進(jìn)行報(bào)道。

當(dāng)然,等到類似技術(shù)更加普遍應(yīng)用之時(shí),會(huì)給傳統(tǒng)影視行業(yè)造成巨大沖擊倒是可以預(yù)見(jiàn)的,畢竟人臉可以生成,聲音可以生成,明星們連出鏡,甚至配音的麻煩都可以直接跳過(guò),因?yàn)?AI 可以幫他們一鍵搞定,也許某一天,我們會(huì)發(fā)現(xiàn),明星們的盈利模式將變成“人臉出租”?

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1432

    瀏覽量

    56797
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8505

    瀏覽量

    134677
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    89

    瀏覽量

    7118

原文標(biāo)題:Facebook頻譜圖模型生成比爾·蓋茨聲音,性能完勝WaveNet、MAESTRO

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Oculus Rift與PS VR:誰(shuí)會(huì)更勝一籌?

    對(duì)于用戶來(lái)說(shuō),究竟Oculus Rift和PlayStation VR誰(shuí)更勝一籌呢?我們來(lái)進(jìn)行下對(duì)比。
    發(fā)表于 03-21 15:12 ?1359次閱讀

    射頻技術(shù)和射頻標(biāo)識(shí)對(duì)比分析誰(shuí)更勝一籌?

    都說(shuō)射頻技術(shù)什么的,還有種叫做射頻標(biāo)識(shí)?這兩者有什么不同,兩者之間有什么聯(lián)系呢,誰(shuí)更勝一籌呢?射頻(RF)是Radio Frequency的縮寫(xiě),表示可以輻射到空間的電磁頻率,頻率范圍從
    發(fā)表于 10-30 07:53

    Si整流器與SiC二極管:誰(shuí)會(huì)更勝一籌

    Si整流器與SiC二極管:誰(shuí)會(huì)更勝一籌
    發(fā)表于 06-08 06:14

    生物識(shí)別技術(shù)有哪幾種?到底哪種會(huì)更勝一籌呢?

    生物識(shí)別技術(shù)是什么?生物識(shí)別技術(shù)有哪幾種?到底哪種生物識(shí)別技術(shù)更勝一籌呢?
    發(fā)表于 06-28 08:25

    為何現(xiàn)在的串行通信傳輸方式會(huì)更勝一籌

    為何現(xiàn)在的串行通信傳輸方式會(huì)更勝一籌?串行通信要比并行通信的速度更高嗎?
    發(fā)表于 10-15 09:09

    公共云與私有云大比拼 成本計(jì)算誰(shuí)更勝一籌

    如今,在計(jì)算公共云成本與私有云成本時(shí),IT專業(yè)人員有個(gè)新的資產(chǎn),以幫助他們應(yīng)用量化的數(shù)據(jù)來(lái)找到他們的答案。個(gè)更簡(jiǎn)單的計(jì)算可能有助于確定企業(yè)實(shí)施云計(jì)算最具成本意識(shí)的地方。 公共云與私有云大比拼 成本計(jì)算誰(shuí)更勝一籌? 多年來(lái),I
    發(fā)表于 11-11 09:55 ?1183次閱讀

    小米mix對(duì)比華為Mate9誰(shuí)更勝一籌?到底哪個(gè)值得買(mǎi)?

     華為mate9和小米mix哪個(gè)好呢?買(mǎi)小米mix還是華為mate9,誰(shuí)更勝一籌?華為mate9和小米mix配置參數(shù)到底有什么區(qū)別?華為mate9和小米mix到底哪個(gè)值得買(mǎi)?小米mix和華為mate9哪個(gè)性價(jià)比跟高?
    發(fā)表于 02-21 11:13 ?4166次閱讀

    努比亞M2今日發(fā)布,對(duì)比小米6s,誰(shuí)能更勝一籌?

    今天,努比亞又發(fā)布了兩款M系列新機(jī),努比亞M2和M2青春版,據(jù)悉,這兩款手機(jī)的主打領(lǐng)域是拍照和續(xù)航功能,3630mAh的電池,加上后置1300萬(wàn)的雙攝,配上機(jī)身的設(shè)計(jì)風(fēng)格,亮點(diǎn)確實(shí)不少,但是對(duì)比即將發(fā)布的小米6,誰(shuí)又能更勝一籌呢?
    發(fā)表于 03-21 23:28 ?2696次閱讀

    小米電視4 55吋與雷鳥(niǎo)I55參數(shù)對(duì)比,誰(shuí)能更勝一籌?

    那有沒(méi)有小伙伴好奇這兩款智能電視究竟誰(shuí)更勝一籌呢?本期內(nèi)容,小編就為大家?guī)?lái)小米電視4 55吋與雷鳥(niǎo)I55的參數(shù)對(duì)比。
    發(fā)表于 05-24 15:51 ?3474次閱讀

    串行傳輸方式都比并行傳輸方式更勝一籌

    無(wú)論從通信速度、造價(jià)還是通信質(zhì)量上來(lái)看,現(xiàn)今的串行傳輸方式都比并行傳輸方式更勝一籌
    的頭像 發(fā)表于 12-22 10:05 ?7468次閱讀
    串行傳輸方式都比并行傳輸方式<b class='flag-5'>更勝一籌</b>

    逐鹿新能源汽車:奔馳VS寶馬誰(shuí)更勝一籌?

    奔馳和寶馬,是大家最喜聞樂(lè)見(jiàn)的品牌,在中國(guó)人的傳統(tǒng)觀念里,奔馳寶馬是高性能豪華車品牌的象征,也是追求高質(zhì)量生活水平的佳品。隨著經(jīng)濟(jì)發(fā)達(dá),奔馳寶馬已經(jīng)走進(jìn)平常生活,但是,關(guān)于兩者的車誰(shuí)更勝一籌的話
    發(fā)表于 04-30 22:59 ?791次閱讀

    奔馳和寶馬面對(duì)新能源汽車時(shí)競(jìng)爭(zhēng)實(shí)力到底誰(shuí)更勝一籌

    奔馳和寶馬,是大家最喜聞樂(lè)見(jiàn)的品牌,在中國(guó)人的傳統(tǒng)觀念里,奔馳寶馬是高性能豪華車品牌的象征,也是追求高質(zhì)量生活水平的佳品。隨著經(jīng)濟(jì)發(fā)達(dá),奔馳寶馬已經(jīng)走進(jìn)平常生活,但是,關(guān)于兩者的車誰(shuí)更勝一籌的話
    發(fā)表于 04-28 17:46 ?4150次閱讀

    微軟、谷歌、英特爾都發(fā)力AI,3巨頭誰(shuí)更勝一籌

    這個(gè)五月科技界巨頭微軟、谷歌、英特爾先后舉辦開(kāi)發(fā)者大會(huì),這三次大會(huì)最大的共同點(diǎn)就是AI,都是他們大力發(fā)展的領(lǐng)域,那么三巨頭誰(shuí)更勝一籌呢?
    發(fā)表于 05-28 14:23 ?1990次閱讀

    在各項(xiàng)生物識(shí)別技術(shù)中,哪種識(shí)別技術(shù)更勝一籌

    據(jù)估算,到2020年生物識(shí)別技術(shù)市場(chǎng)規(guī)模將達(dá)到250億美元,5年內(nèi)年均增速約14%。其中,人臉識(shí)別增速最快,將從2015年的9億美元增長(zhǎng)到2020年的24億美元。生物識(shí)別市場(chǎng)為何如此之大?在各項(xiàng)生物識(shí)別技術(shù)中,哪種識(shí)別技術(shù)更勝一籌
    發(fā)表于 09-28 17:27 ?1588次閱讀

    UVLED面光源與傳統(tǒng)光源對(duì)比:誰(shuí)更勝一籌?

    之間的對(duì)比結(jié)果又如何呢?本文將對(duì)UVLED面光源與傳統(tǒng)光源進(jìn)行全面對(duì)比,以揭示誰(shuí)更勝一籌。 、能耗對(duì)比 在能耗方面,UVLED面光源相較于傳統(tǒng)光源具有顯著優(yōu)勢(shì)。UVLED面光源采用LED發(fā)光技術(shù),具有更高的發(fā)光效率和能量利用率。這意味著在相同的
    的頭像 發(fā)表于 05-10 15:28 ?1167次閱讀
    UVLED面光源與傳統(tǒng)光源對(duì)比:誰(shuí)<b class='flag-5'>更勝一籌</b>?