99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于科大訊飛對新一代語音識(shí)別系統(tǒng)技術(shù)原理的分析和介紹

訊飛開放平臺(tái) ? 來源:djl ? 2019-10-08 11:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作為國內(nèi)智能語音與人工智能產(chǎn)業(yè)領(lǐng)導(dǎo)者,科大訊飛在北京國家會(huì)議中心召開了以“AI復(fù)始,萬物更新”為主題的2015年年度發(fā)布會(huì)。在發(fā)布會(huì)上,科大訊飛介紹了訊飛超腦計(jì)劃的最新進(jìn)展,并發(fā)布了數(shù)款讓人印象深刻的創(chuàng)新型產(chǎn)品。特別值得一提的是,在發(fā)布會(huì)現(xiàn)場,科大訊飛全球首次將演講人的演講,同步轉(zhuǎn)寫成文字在大屏幕顯示,敢于接受現(xiàn)場數(shù)千參會(huì)者和數(shù)千萬觀看視頻直播觀眾的檢驗(yàn),系統(tǒng)的轉(zhuǎn)寫效果之好讓大家直呼驚艷。此次發(fā)布會(huì)轉(zhuǎn)寫系統(tǒng)就是依托于訊飛全球領(lǐng)先的中文語音識(shí)別系統(tǒng)。今天,我們就為大家從技術(shù)上揭秘科大訊飛的新一代語音識(shí)別系統(tǒng)。


劉慶峰董事長現(xiàn)場演講內(nèi)容同步轉(zhuǎn)寫成文字顯示在屏幕上

眾所周知,自2011年微軟研究院首次利用深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)在大規(guī)模語音識(shí)別任務(wù)上獲得顯著效果提升以來,DNN在語音識(shí)別領(lǐng)域受到越來越多的關(guān)注,目前已經(jīng)成為主流語音識(shí)別系統(tǒng)的標(biāo)配。然而,更深入的研究成果表明,DNN結(jié)構(gòu)雖然具有很強(qiáng)的分類能力,但是其針對上下文時(shí)序信息的捕捉能力是較弱的,因此并不適合處理具有長時(shí)相關(guān)性的時(shí)序信號(hào)。而語音是一種各幀之間具有很強(qiáng)相關(guān)性的復(fù)雜時(shí)變信號(hào),這種相關(guān)性主要體現(xiàn)在說話時(shí)的協(xié)同發(fā)音現(xiàn)象上,往往前后好幾個(gè)字對我們正要說的字都有影響,也就是語音的各幀之間具有長時(shí)相關(guān)性。

關(guān)于科大訊飛對新一代語音識(shí)別系統(tǒng)技術(shù)原理的分析和介紹

圖1:DNN和RNN示意圖

相比前饋型神經(jīng)網(wǎng)絡(luò)DNN,循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)在隱層上增加了一個(gè)反饋連接,也就是說,RNN隱層當(dāng)前時(shí)刻的輸入有一部分是前一時(shí)刻的隱層輸出,這使得RNN可以通過循環(huán)反饋連接看到前面所有時(shí)刻的信息,這賦予了RNN記憶功能,如圖1所示。這些特點(diǎn)使得RNN非常適合用于對時(shí)序信號(hào)的建模,在語音識(shí)別領(lǐng)域,RNN是一個(gè)近年來替換DNN的新的深度學(xué)習(xí)框架,而長短時(shí)記憶模塊(Long-Short Term Memory, LSTM)的引入解決了傳統(tǒng)簡單RNN梯度消失等問題,使得RNN框架可以在語音識(shí)別領(lǐng)域?qū)嵱没@得了超越DNN的效果,目前已經(jīng)在業(yè)界一些比較先進(jìn)的語音系統(tǒng)中使用。

除此之外,研究人員還在RNN的基礎(chǔ)上做了進(jìn)一步改進(jìn)工作,圖2是當(dāng)前語音識(shí)別中的主流RNN聲學(xué)模型框架,主要還包含兩部分:深層雙向LSTM RNN和CTC(Connectionist Temporal Classification)輸出層。其中雙向RNN對當(dāng)前語音幀進(jìn)行判斷時(shí),不僅可以利用歷史的語音信息,還可以利用未來的語音信息,可以進(jìn)行更加準(zhǔn)確的決策;CTC使得訓(xùn)練過程無需幀級(jí)別的標(biāo)注,實(shí)現(xiàn)有效的“端對端”訓(xùn)練。

關(guān)于科大訊飛對新一代語音識(shí)別系統(tǒng)技術(shù)原理的分析和介紹

圖2:基于LSTM RNN的主流聲學(xué)模型框架

目前,國際國內(nèi)已經(jīng)有不少學(xué)術(shù)或工業(yè)機(jī)構(gòu)掌握了RNN模型,并在上述某個(gè)或多個(gè)技術(shù)點(diǎn)進(jìn)行研究。然而,上述各個(gè)技術(shù)點(diǎn)單獨(dú)研究時(shí)一般可以獲得較好的結(jié)果,但是如果想將這些技術(shù)點(diǎn)融合在一起的時(shí)候,則會(huì)碰到一些問題。例如,多個(gè)技術(shù)結(jié)合在一起的提升幅度會(huì)比各個(gè)技術(shù)點(diǎn)幅度的疊加要小。又例如,傳統(tǒng)的雙向RNN方案,理論上需要看到語音的結(jié)束(即所有的未來信息),才能成功的應(yīng)用未來信息來獲得提升,因此只適合處理離線任務(wù),而對于要求即時(shí)響應(yīng)的在線任務(wù)(例如語音輸入法)則往往會(huì)帶來3-5s的硬延遲,這對于在線任務(wù)是不可接受的。再者,RNN對上下文相關(guān)性的擬合較強(qiáng),相對于DNN更容易陷入過擬合的問題,容易因?yàn)橛?xùn)練數(shù)據(jù)的局部不魯棒現(xiàn)象而帶來額外的異常識(shí)別錯(cuò)誤。最后,由于RNN具有比DNN更加復(fù)雜的結(jié)構(gòu),給海量數(shù)據(jù)下的RNN模型訓(xùn)練帶來了更大的挑戰(zhàn)。

鑒于上述問題,科大訊飛發(fā)明了一種名為前饋型序列記憶網(wǎng)絡(luò)FSMN(Feed-forward Sequential Memory Network)的新框架。在這個(gè)框架中,可以把上述幾點(diǎn)很好的融合,同時(shí)各個(gè)技術(shù)點(diǎn)對效果的提升可以獲得疊加。值得一提的是,我們在這個(gè)系統(tǒng)中創(chuàng)造性提出的FSMN結(jié)構(gòu),采用非循環(huán)的前饋結(jié)構(gòu),在只需要180ms延遲下,就達(dá)到了和雙向LSTM RNN相當(dāng)?shù)男Ч?。下面讓我們來具體看下它的構(gòu)成。

關(guān)于科大訊飛對新一代語音識(shí)別系統(tǒng)技術(shù)原理的分析和介紹

圖3:FSMN結(jié)構(gòu)示意圖

關(guān)于科大訊飛對新一代語音識(shí)別系統(tǒng)技術(shù)原理的分析和介紹

圖4:FSMN中隱層記憶塊的時(shí)序展開示意圖(左右各看一幀)

圖3即為FSMN的結(jié)構(gòu)示意圖,相比傳統(tǒng)的DNN,我們在隱層旁增加了一個(gè)稱為“記憶塊”的模塊,用于存儲(chǔ)對判斷當(dāng)前語音幀有用的歷史信息和未來信息。圖4畫出了雙向FSMN中記憶塊左右各記憶一幀語音信息(在實(shí)際任務(wù)中,可根據(jù)任務(wù)需要,人工調(diào)整所需記憶的歷史和未來信息長度)的時(shí)序展開結(jié)構(gòu)。

從圖中我們可以看出,不同于傳統(tǒng)的基于循環(huán)反饋的RNN,F(xiàn)SMN記憶塊的記憶功能是使用前饋結(jié)構(gòu)實(shí)現(xiàn)的。這種前饋結(jié)構(gòu)有兩大好處:首先,雙向FSMN對未來信息進(jìn)行記憶時(shí),沒有傳統(tǒng)雙向RNN必須等待語音輸入結(jié)束才能對當(dāng)前語音幀進(jìn)行判斷的限制,它只需要等待有限長度的未來語音幀即可,正如前文所說的,我們的雙向FSMN在將延遲控制在180ms的情況下就可獲得媲美雙向RNN的效果;其次,如前所述,傳統(tǒng)的簡單RNN因?yàn)橛?xùn)練過程中的梯度是按時(shí)間逐次往前傳播的,因此會(huì)出現(xiàn)指數(shù)衰減的梯度消失現(xiàn)象,這導(dǎo)致理論上具有無限長記憶的RNN實(shí)際上能記住的信息很有限,然而FSMN這種基于前饋時(shí)序展開結(jié)構(gòu)的記憶網(wǎng)絡(luò),在訓(xùn)練過程中梯度沿著圖4中記憶塊與隱層的連接權(quán)重往回傳給各個(gè)時(shí)刻即可,這些連接權(quán)重決定了不同時(shí)刻輸入對判斷當(dāng)前語音幀的影響,而且這種梯度傳播在任何時(shí)刻的衰減都是常數(shù)的,也是可訓(xùn)練的,因此FSMN用一種更為簡單的方式解決了RNN中的梯度消失問題,使得其具有類似LSTM的長時(shí)記憶能力。

另外,在模型訓(xùn)練效率和穩(wěn)定性方面,由于FSMN完全基于前饋神經(jīng)網(wǎng)絡(luò),所以不存在RNN訓(xùn)練中因mini-batch中句子長短不一需要補(bǔ)零而導(dǎo)致浪費(fèi)運(yùn)算的情況,前饋結(jié)構(gòu)也使得它的并行度更高,可最大化利用GPU計(jì)算能力。從最終訓(xùn)練收斂的雙向FSMN模型記憶塊中各時(shí)刻的加權(quán)系數(shù)分布我們觀察到,權(quán)重值基本上在當(dāng)前時(shí)刻最大,往左右兩邊逐漸衰減,這也符合預(yù)期。進(jìn)一步,F(xiàn)SMN可和CTC準(zhǔn)則結(jié)合,實(shí)現(xiàn)語音識(shí)別中的“端到端”建模。

最后,和其他多個(gè)技術(shù)點(diǎn)結(jié)合后,訊飛基于FSMN的語音識(shí)別框架可獲得相比業(yè)界最好的語音識(shí)別系統(tǒng)40%的性能提升,同時(shí)結(jié)合我們的多GPU并行加速技術(shù),訓(xùn)練效率可達(dá)到一萬小時(shí)訓(xùn)練數(shù)據(jù)一天可訓(xùn)練收斂。后續(xù)基于FSMN框架,我們還將展開更多相關(guān)的研究工作,例如:DNN和記憶塊更深層次的組合方式,增加記憶塊部分復(fù)雜度強(qiáng)化記憶功能,F(xiàn)SMN結(jié)構(gòu)和CNN等其他結(jié)構(gòu)的更深度融合等。在這些核心技術(shù)持續(xù)進(jìn)步的基礎(chǔ)上,科大訊飛的語音識(shí)別系統(tǒng)將不斷挑戰(zhàn)新的高峰!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 語音識(shí)別
    +關(guān)注

    關(guān)注

    39

    文章

    1782

    瀏覽量

    114252
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122806
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    打破交互困局:科大這樣出手

    十年深耕,科大智能交互如何引領(lǐng)未來
    的頭像 發(fā)表于 06-17 11:50 ?482次閱讀
    打破交互困局:<b class='flag-5'>科大</b><b class='flag-5'>訊</b><b class='flag-5'>飛</b>這樣出手

    回顧科大26周年慶精彩瞬間

    近日,科大26周年司慶上,董事長劉慶峰對這個(gè)作文題感觸很深:“從1999年創(chuàng)業(yè)時(shí)在“中國被人扼住了咽喉”背景下以語音合成系統(tǒng)破局,到這些
    的頭像 發(fā)表于 06-13 14:08 ?355次閱讀

    科大亮相第137屆廣交會(huì)

    今天,第137屆中國進(jìn)出口商品交易會(huì)(廣交會(huì))在廣州開幕。科大年參展,集中展示了星火
    的頭像 發(fā)表于 04-17 09:30 ?595次閱讀

    科大深度解析DeepSeek-V3/R1推理系統(tǒng)成本

    本篇分析來自科大技術(shù)團(tuán)隊(duì),深度解析了DeepSeek-V3 / R1 推理系統(tǒng)成本,旨在助力
    的頭像 發(fā)表于 04-15 13:46 ?2684次閱讀
    <b class='flag-5'>科大</b><b class='flag-5'>訊</b><b class='flag-5'>飛</b>深度解析DeepSeek-V3/R1推理<b class='flag-5'>系統(tǒng)</b>成本

    科大Air 2電紙書和掌閱Ocean4 Plus區(qū)別

    體驗(yàn)非常沉浸,尤其是在閱讀或書寫時(shí),感覺就像在紙上操作樣自然。內(nèi)置的星火大模型更是讓它如虎添翼,支持語音轉(zhuǎn)文字、會(huì)議紀(jì)要自動(dòng)整理、AI成稿等功能,簡直是職場人士的福音。尤其是它的
    發(fā)表于 03-03 14:01

    科大發(fā)布星火X1深度推理大模型

    近日,科大宣布了項(xiàng)重大突破,成功推出了當(dāng)前全國產(chǎn)算力平臺(tái)上唯的深度推理大模型——
    的頭像 發(fā)表于 01-16 10:46 ?803次閱讀

    科大發(fā)布星火深度推理模型X1,技術(shù)升級(jí)引領(lǐng)行業(yè)創(chuàng)新

    近日,科大飛在人工智能技術(shù)領(lǐng)域再次取得重大突破,正式發(fā)布星火深度推理模型X1。這創(chuàng)新成果的發(fā)布,標(biāo)志著科大
    的頭像 發(fā)表于 01-15 16:43 ?688次閱讀

    科大發(fā)布星火深度推理模型X1

    今天,科大正式發(fā)布星火深度推理模型X1,星火4.0 Turbo底座全面升級(jí),首發(fā)星火語音同傳大模型。
    的頭像 發(fā)表于 01-15 15:54 ?725次閱讀

    科大即將發(fā)布星火深度推理模型X1

    ,標(biāo)志著科大飛在AI技術(shù)領(lǐng)域的又次重大突破。星火深度推理模型X1將為
    的頭像 發(fā)表于 01-08 10:30 ?759次閱讀

    科大為華為Mate70提供技術(shù)支持

    簽約標(biāo)志著雙方將在技術(shù)創(chuàng)新、產(chǎn)業(yè)應(yīng)用以及商業(yè)合作等多個(gè)領(lǐng)域展開全方位、深層次的合作,共同致力于構(gòu)建更加完善的人工智能產(chǎn)業(yè)生態(tài)。 值得提的是,在華為最新發(fā)布的Mate70智能手機(jī)中,科大
    的頭像 發(fā)表于 12-19 11:03 ?2825次閱讀

    科大發(fā)布星火4.0 Turbo大模型及星火多語言大模型

    近日,科大正式推出了其最新研發(fā)成果——星火4.0 Turbo大模型。這發(fā)布不僅標(biāo)志著
    的頭像 發(fā)表于 10-24 13:58 ?912次閱讀

    科大發(fā)布星火4.0 Turbo:七大能力超GPT-4 Turbo

    10月24日,在科大全球1024開發(fā)者節(jié)上,科大董事長劉慶峰正式發(fā)布了
    的頭像 發(fā)表于 10-24 11:39 ?1085次閱讀

    科大AI總部園區(qū)正式啟用

    近日,安徽省科技創(chuàng)新領(lǐng)域迎來又重大里程碑,科大AI總部園區(qū)(小鎮(zhèn))正式宣告啟用,標(biāo)志著
    的頭像 發(fā)表于 09-03 16:06 ?1075次閱讀

    科大發(fā)布星火極速超擬人交互,重塑智能對話新體驗(yàn)

    8月19日,科大震撼宣布了項(xiàng)關(guān)于其明星產(chǎn)品——星火語音大模型的重大革新,即將推出的“星火極
    的頭像 發(fā)表于 08-20 16:46 ?742次閱讀

    科大發(fā)布智能辦公本Air 2

    近日,科大隆重舉辦了智能辦公本新品發(fā)布會(huì),正式推出了集前沿科技與高效辦公于體的智能辦公
    的頭像 發(fā)表于 08-08 10:43 ?985次閱讀