99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌全神經(jīng)元的設(shè)備端語(yǔ)音識(shí)別器再推新品

MqC7_CAAI_1981 ? 來(lái)源:YXQ ? 2019-03-28 17:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在近二十年來(lái),尤其是引入深度學(xué)習(xí)以后,語(yǔ)音識(shí)別取得了一系列重大突破,并一步步走向市場(chǎng)并搭載到消費(fèi)級(jí)產(chǎn)品中。然而在用戶體驗(yàn)上,「遲鈍」可以算得上這些產(chǎn)品最大的槽點(diǎn)之一,這也意味著語(yǔ)音識(shí)別的延遲問(wèn)題已經(jīng)成為了該領(lǐng)域研究亟待解決的難點(diǎn)。日前,谷歌推出了基于循環(huán)神經(jīng)網(wǎng)絡(luò)變換器(RNN-T)的全神經(jīng)元設(shè)備端語(yǔ)音識(shí)別器,能夠很好地解決目前語(yǔ)音識(shí)別所存在的延遲難題。谷歌也將這項(xiàng)成果發(fā)布在了官方博客上。

2012 年,語(yǔ)音識(shí)別研究表明,通過(guò)引入深度學(xué)習(xí)可以顯著提高語(yǔ)音識(shí)別準(zhǔn)確率,因此谷歌也較早地在語(yǔ)音搜索等產(chǎn)品中采用深度學(xué)習(xí)技術(shù)。而這也標(biāo)志著語(yǔ)音識(shí)別領(lǐng)域革命的開(kāi)始:每一年,谷歌都開(kāi)發(fā)出了從深度神經(jīng)網(wǎng)絡(luò)(DNN)到循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)、卷積網(wǎng)絡(luò)(CNNs)等一系列新的架構(gòu),進(jìn)一步地提高了語(yǔ)音識(shí)別的質(zhì)量。然而在此期間,延遲問(wèn)題依舊是該領(lǐng)域需要攻克的主要難點(diǎn)——當(dāng)語(yǔ)音助手能夠?qū)崿F(xiàn)快速回答問(wèn)題時(shí),用戶會(huì)感覺(jué)它有幫助得多。

日前,谷歌正式宣布推出端到端、全神經(jīng)元的設(shè)備端語(yǔ)音識(shí)別器,為 Gboard 中的語(yǔ)音輸入提供支持。在谷歌 AI 最近的一篇論文《移動(dòng)設(shè)備的流媒體端到端語(yǔ)音識(shí)別》(Streaming End-to-End Speech Recognition for Mobile Devices,論文閱讀地址:https://arxiv.org/abs/1811.06621)中,其研究團(tuán)隊(duì)提出了一種使用循環(huán)神經(jīng)網(wǎng)絡(luò)變換器(RNN-T,https://arxiv.org/pdf/1211.3711.pdf)技術(shù)訓(xùn)練的模型,該技術(shù)也足夠精簡(jiǎn)可應(yīng)用到手機(jī)端上。這就意味著語(yǔ)音識(shí)別不再存在網(wǎng)絡(luò)延遲或故障問(wèn)題——新的識(shí)別器即便處于離線狀態(tài)也能夠運(yùn)行。該模型處理的是字符水平的語(yǔ)音識(shí)別,因此當(dāng)人在說(shuō)話時(shí),它會(huì)逐個(gè)字符地輸出單詞,這就跟有人在實(shí)時(shí)鍵入你說(shuō)的話一樣,同時(shí)還能達(dá)到你對(duì)鍵盤聽(tīng)寫系統(tǒng)的預(yù)期效果。

谷歌全神經(jīng)元的設(shè)備端語(yǔ)音識(shí)別器再推新品

該圖對(duì)比了識(shí)別同一句語(yǔ)音時(shí),服務(wù)器端語(yǔ)音識(shí)別器(左邊)以及新的設(shè)備端語(yǔ)音識(shí)別器(右邊)的生成情況。

關(guān)于語(yǔ)音識(shí)別的一點(diǎn)歷史

傳統(tǒng)而言,語(yǔ)音識(shí)別系統(tǒng)由幾個(gè)部分組成:一個(gè)將語(yǔ)音分割(一般為 10 毫秒的框架)映射到音素的聲學(xué)模型;一個(gè)將因素合成單詞的發(fā)音模型;以及一個(gè)表達(dá)給定短語(yǔ)可能性的語(yǔ)言模型。在早期的系統(tǒng)中,對(duì)這些組成部分的優(yōu)化都是單獨(dú)進(jìn)行的。

在 2014 年左右,研究人員就開(kāi)始重點(diǎn)訓(xùn)練單個(gè)神經(jīng)網(wǎng)絡(luò),來(lái)直接將一個(gè)輸入語(yǔ)音波形映射到一個(gè)輸出句子。研究人員采用這種通過(guò)給定一系列語(yǔ)音特征生成一系列單詞或字母的序列到序列(sequence-to-sequence)方法開(kāi)發(fā)出了「attention-based」(https://arxiv.org/pdf/1506.07503.pdf)和「listen-attend-spell」(https://arxiv.org/pdf/1508.01211.pdf)模型。雖然這些模型在準(zhǔn)確率上表現(xiàn)很好,但是它們一般通過(guò)回顧完整的輸入序列來(lái)識(shí)別語(yǔ)音,同時(shí)當(dāng)輸入進(jìn)來(lái)的時(shí)候也無(wú)法讓數(shù)據(jù)流輸出一項(xiàng)對(duì)于實(shí)時(shí)語(yǔ)音轉(zhuǎn)錄必不可少的特征。

與此同時(shí),當(dāng)時(shí)的一項(xiàng)叫做CTC(connectionist temporal classification)的技術(shù)幫助將生產(chǎn)式識(shí)別器的延遲時(shí)間減半。事實(shí)證明,這項(xiàng)進(jìn)展對(duì)于開(kāi)發(fā)出 CTC 最新版本(改版本可以看成是 CTC 的泛化)中采用的 RNN-T 架構(gòu)來(lái)說(shuō),是至關(guān)重要的一步。

循環(huán)神經(jīng)網(wǎng)絡(luò)變換器(RNN-T)

RNN-T 是不采用注意力機(jī)制的序列到序列模型的一種形式。與大多數(shù)序列到序列模型需要處理整個(gè)輸入序列(本文案例中的語(yǔ)音波形)以生成輸出(句子)不同,RNN-T 能持續(xù)地處理輸入的樣本和數(shù)據(jù)流,并進(jìn)行符號(hào)化的輸出,這種符號(hào)化的輸出有助于進(jìn)行語(yǔ)音聽(tīng)寫。在谷歌研究人員的實(shí)現(xiàn)中,符號(hào)化的輸出就是字母表中的字符。當(dāng)人在說(shuō)話時(shí),RNN-T 識(shí)別器會(huì)逐個(gè)輸出字符,并進(jìn)行適當(dāng)留白。在這一過(guò)程中,RNN-T 識(shí)別器還會(huì)有一條反饋路徑,將模型預(yù)測(cè)的符號(hào)輸回給自己以預(yù)測(cè)接下來(lái)的符號(hào),具體流程如下圖所示:

谷歌全神經(jīng)元的設(shè)備端語(yǔ)音識(shí)別器再推新品

RNN-T 的表示:用 x 表示輸入語(yǔ)音樣本;用 y 表示預(yù)測(cè)的符號(hào)。預(yù)測(cè)的符號(hào)(Softmax 層的輸出)y(u-1)通過(guò)預(yù)測(cè)網(wǎng)絡(luò)被輸回給模型,確保預(yù)測(cè)同時(shí)考慮到當(dāng)前的語(yǔ)音樣本以及過(guò)去的輸出。預(yù)測(cè)和解碼網(wǎng)絡(luò)都是LSTM RNN,聯(lián)合的模型則是前饋網(wǎng)絡(luò)(feedforward network ,相關(guān)論文查看地址:https://www.isca-speech.org/archive/Interspeech_2017/pdfs/0233.PDF)。預(yù)測(cè)網(wǎng)絡(luò)由 2 個(gè)擁有 2048 個(gè)單元的層和 1 個(gè)有著 640 個(gè)維度的投射層組成。解碼網(wǎng)絡(luò)則由 8 個(gè)這樣的層組成。圖源:Chris Thornton

有效地訓(xùn)練這樣的模型本來(lái)就已經(jīng)很難了,然而使用谷歌開(kāi)發(fā)的這項(xiàng)能夠進(jìn)一步將單詞錯(cuò)誤率減少 5% 的新訓(xùn)練技術(shù),對(duì)計(jì)算能力也提出了更高的要求。對(duì)此,谷歌開(kāi)發(fā)了一種平行實(shí)現(xiàn)的方法,讓 RNN-T 的損失函數(shù)能夠大批地在谷歌的高性能云平臺(tái) TPUv2 芯片上高效運(yùn)行。

離線識(shí)別

在傳統(tǒng)的語(yǔ)音識(shí)別引擎中,上文中提到的聲學(xué)、發(fā)音和語(yǔ)言模型被「組合」成一個(gè)邊緣用語(yǔ)音單元及其概率標(biāo)記的大搜索圖(search graph)。在給定輸入信號(hào)的情況下,當(dāng)語(yǔ)音波形抵達(dá)識(shí)別器時(shí),「解碼器」就會(huì)在圖中搜索出概率最大的路徑,并讀出該路徑所采用的單詞序列。一般而言,解碼器假設(shè)基礎(chǔ)模型由 FST(Finite State Transducer)表示。然而,盡管現(xiàn)在已經(jīng)有精密的解碼技術(shù),但是依舊存在搜索圖太大的問(wèn)題——谷歌的生成式模型的搜索圖大小近 2GB。由于搜索圖無(wú)法輕易地在移動(dòng)電話上托管,因此采用這種方法的模型只有在在線連接的情況中才能正常工作。

為了提高語(yǔ)音識(shí)別的有效性,谷歌研究人員還試圖通過(guò)直接將在設(shè)備上托管新模型來(lái)避免通信網(wǎng)絡(luò)的延遲及其固有的不可靠性。因此,谷歌提出的這一端到端的方法,不需要在大型解碼器圖上進(jìn)行搜索。相反,它采取對(duì)單個(gè)神經(jīng)網(wǎng)絡(luò)進(jìn)行一系列搜索的方式進(jìn)行解碼。同時(shí),谷歌研究人員訓(xùn)練的 RNN-T 實(shí)現(xiàn)了基于服務(wù)器的傳統(tǒng)模型同樣的準(zhǔn)確度,但是該模型大小僅為 450MB,本質(zhì)上更加密集、更加智能地利用了參數(shù)和打包信息。不過(guò),即便對(duì)于如今的智能手機(jī)來(lái)說(shuō),450 MB 依舊太大了,這樣的話當(dāng)它通過(guò)如此龐大的網(wǎng)絡(luò)進(jìn)行網(wǎng)絡(luò)信號(hào)傳輸時(shí),速度就會(huì)變得很慢。

對(duì)此,谷歌研究人員通過(guò)利用其于 2016 年開(kāi)發(fā)的參數(shù)量化(parameter quantization )和混合內(nèi)核(hybrid kernel)技術(shù)(https://arxiv.org/abs/1607.04683),來(lái)進(jìn)一步縮小模型的大小,并通過(guò)采用 ensorFlow Lite 開(kāi)發(fā)庫(kù)中的模型優(yōu)化工具包來(lái)對(duì)外開(kāi)放。與經(jīng)過(guò)訓(xùn)練的浮點(diǎn)模型相比,模型量化的壓縮高出 4 倍,運(yùn)行速度也提高了 4 倍,從而讓 RNN-T 比單核上的實(shí)時(shí)語(yǔ)音運(yùn)行得更快。經(jīng)過(guò)壓縮后,模型最終縮小至 80MB。

谷歌全新的全神經(jīng)元設(shè)備端 Gboard 語(yǔ)音識(shí)別器,剛開(kāi)始僅能在使用美式英語(yǔ)的 Pixel 手機(jī)上使用??紤]到行業(yè)趨勢(shì),同時(shí)隨著專業(yè)化硬件和算法的融合不斷增強(qiáng),谷歌表示,希望能夠?qū)⑦@一技術(shù)應(yīng)用到更多語(yǔ)言和更廣泛的應(yīng)用領(lǐng)域中去。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108153
  • 語(yǔ)音識(shí)別
    +關(guān)注

    關(guān)注

    39

    文章

    1782

    瀏覽量

    114248

原文標(biāo)題:語(yǔ)音識(shí)別如何突破延遲瓶頸?谷歌推出了基于 RNN-T 的全神經(jīng)元設(shè)備端語(yǔ)音識(shí)別器

文章出處:【微信號(hào):CAAI-1981,微信公眾號(hào):中國(guó)人工智能學(xué)會(huì)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    無(wú)刷直流電機(jī)單神經(jīng)元自適應(yīng)智能控制系統(tǒng)

    摘要:針對(duì)無(wú)刷直流電機(jī)(BLDCM)設(shè)計(jì)了一種可在線學(xué)習(xí)的單神經(jīng)元自適應(yīng)比例-積分-微分(PID)智能控制,通過(guò)有監(jiān)督的 Hebb學(xué)習(xí)規(guī)則調(diào)整權(quán)值,每次采樣根據(jù)反饋誤差對(duì)神經(jīng)元權(quán)值進(jìn)行調(diào)整,以實(shí)現(xiàn)
    發(fā)表于 06-26 13:36

    無(wú)刷直流電機(jī)單神經(jīng)元PI控制的設(shè)計(jì)

    摘要:研究了一種基于專家系統(tǒng)的單神經(jīng)元PI控制,并將其應(yīng)用于無(wú)刷直流電機(jī)調(diào)速系統(tǒng)中??刂?b class='flag-5'>器實(shí)現(xiàn)了PI參數(shù)的在線調(diào)整,在具有PID控制良好動(dòng)態(tài)性能的同時(shí),減少微分項(xiàng)對(duì)系統(tǒng)穩(wěn)態(tài)運(yùn)行時(shí)的
    發(fā)表于 06-26 13:34

    蚌埠:傳感“神經(jīng)元”激活產(chǎn)業(yè)新脈動(dòng),智能傳感產(chǎn)業(yè)邁向千億新征程

    的"神經(jīng)元",用微小身軀傳遞著海量信號(hào)。而在安徽蚌埠,一場(chǎng)關(guān)于"感知"的產(chǎn)業(yè)革命正澎湃上演。 ? 群賢畢至探"智感",第七屆智能傳感產(chǎn)業(yè)發(fā)展大會(huì)啟幕 ? 5月24日,淮河之畔的蚌埠迎來(lái)一場(chǎng)科技盛宴——以"芯聚江淮 智感世界"為主題的
    的頭像 發(fā)表于 05-28 18:09 ?338次閱讀

    網(wǎng)絡(luò)語(yǔ)音控制是什么設(shè)備

    網(wǎng)絡(luò)語(yǔ)音控制,作為一種能夠通過(guò)語(yǔ)音識(shí)別技術(shù)接收并執(zhí)行用戶語(yǔ)音指令的智能設(shè)備,結(jié)合計(jì)算機(jī)、人工智
    的頭像 發(fā)表于 02-19 17:42 ?513次閱讀

    新品| Unit ASR,一體化離線語(yǔ)音識(shí)別單元

    UnitASR是一款A(yù)I語(yǔ)音識(shí)別單元,內(nèi)置AI智能離線語(yǔ)音模塊CI-03T。它具有語(yǔ)音識(shí)別、聲紋識(shí)別
    的頭像 發(fā)表于 02-14 18:34 ?422次閱讀
    <b class='flag-5'>新品</b>| Unit ASR,一體化離線<b class='flag-5'>語(yǔ)音</b><b class='flag-5'>識(shí)別</b>單元

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一層都由若干個(gè)神經(jīng)元構(gòu)成,神經(jīng)元之間通過(guò)權(quán)重連接。信號(hào)在神經(jīng)網(wǎng)絡(luò)中是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(luò)(CNN) : CNN主要由卷積層、池化層和全連接層組成。
    的頭像 發(fā)表于 02-12 15:53 ?672次閱讀

    請(qǐng)問(wèn)ADS1298稱為生理信號(hào)測(cè)量轉(zhuǎn)換,和傳統(tǒng)AD轉(zhuǎn)換有什么區(qū)別?

    請(qǐng)問(wèn)ADS1298稱為生理信號(hào)測(cè)量轉(zhuǎn)換,和傳統(tǒng)AD轉(zhuǎn)換有什么區(qū)別。我想使用其作為神經(jīng)元和肌肉細(xì)胞信號(hào)的檢測(cè),精度要達(dá)到0.1mV以下,不知道是否合適。
    發(fā)表于 01-01 06:39

    ASR與傳統(tǒng)語(yǔ)音識(shí)別的區(qū)別

    識(shí)別技術(shù)。 構(gòu)建更深更復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,利用大量數(shù)據(jù)進(jìn)行訓(xùn)練。 提高了語(yǔ)音識(shí)別的準(zhǔn)確率和穩(wěn)定性。 傳統(tǒng)語(yǔ)音
    的頭像 發(fā)表于 11-18 15:22 ?1354次閱讀

    ASR語(yǔ)音識(shí)別技術(shù)應(yīng)用

    ASR(Automatic Speech Recognition)語(yǔ)音識(shí)別技術(shù),是計(jì)算機(jī)科學(xué)與人工智能領(lǐng)域的重要突破,能將人類語(yǔ)音轉(zhuǎn)換為文本,廣泛應(yīng)用于智能家居、醫(yī)療、交通等多個(gè)領(lǐng)域。以下是對(duì)ASR
    的頭像 發(fā)表于 11-18 15:12 ?2071次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    神經(jīng)網(wǎng)絡(luò),也稱為全連接神經(jīng)網(wǎng)絡(luò)(Fully Connected Neural Networks,F(xiàn)CNs),其特點(diǎn)是每一層的每個(gè)神經(jīng)元都與下一層的所有神經(jīng)元相連。這種結(jié)構(gòu)簡(jiǎn)單直觀,但在
    的頭像 發(fā)表于 11-15 14:53 ?1878次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在語(yǔ)音識(shí)別中的應(yīng)用實(shí)例

    語(yǔ)音識(shí)別技術(shù)是人工智能領(lǐng)域的一個(gè)重要分支,它使計(jì)算機(jī)能夠理解和處理人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是長(zhǎng)短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)的引入,語(yǔ)音
    的頭像 發(fā)表于 11-13 10:03 ?1853次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    可以不局限于已知的訓(xùn)練圖像開(kāi)展識(shí)別。該神經(jīng)網(wǎng)絡(luò)需要映射到MCU中。 5、AI的模式識(shí)別內(nèi)部到底是什么? AI的神經(jīng)元網(wǎng)絡(luò)類似于人腦的生物神經(jīng)元
    發(fā)表于 10-24 13:56

    【飛凌嵌入式OK3576-C開(kāi)發(fā)板體驗(yàn)】RKNPU圖像識(shí)別測(cè)試

    )公司開(kāi)發(fā)的一種神經(jīng)網(wǎng)絡(luò)處理(Neural Processing Unit),專門用于加速神經(jīng)網(wǎng)絡(luò)計(jì)算。以下是關(guān)于RKNPU的詳細(xì)介紹: 2.1、定義與功能 定義 :RKNPU是在電路層模擬人類
    發(fā)表于 10-10 09:27

    WTK6900FC語(yǔ)音識(shí)別模塊

    語(yǔ)音識(shí)別
    WT-深圳唯創(chuàng)知音電子有限公司
    發(fā)布于 :2024年09月25日 17:35:07

    Python自動(dòng)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)

    人工神經(jīng)網(wǎng)絡(luò)(ANN)是機(jī)器學(xué)習(xí)中一種重要的模型,它模仿了人腦神經(jīng)元的工作方式,通過(guò)多層節(jié)點(diǎn)(神經(jīng)元)之間的連接和權(quán)重調(diào)整來(lái)學(xué)習(xí)和解決問(wèn)題。Python由于其強(qiáng)大的庫(kù)支持(如TensorFlow、PyTorch等),成為了實(shí)現(xiàn)和
    的頭像 發(fā)表于 07-19 11:54 ?703次閱讀