往往在放下手機之后你才會意識到,電話那頭的客服其實是個機器人;或者準確地說,是“一位”智能客服。
沒錯,今天越來越多的工作正在被交給人工智能技術(shù)去完成,文本轉(zhuǎn)語音(TTS,Text To Speech)就是其中非常成熟的一部分。它的發(fā)展,決定了今天我們聽到的許多“人聲”,是如此地逼真,以至于和真人發(fā)聲無異。
除了我們接觸最多的智能客服,智能家居中的語音助手、可以服務(wù)聽障人士的無障礙播報,甚至是新聞播報和有聲朗讀等服務(wù),事實上都基于TTS這項技術(shù)。它是人機對話的一部分——簡單地說,就是讓機器說人話。
它被稱為同時運用語言學和心理學的杰出之作。不過在今天,當我們稱贊它的杰出時,更多的是因為它在在線語音生成中表現(xiàn)出的高效。
要提升語音合成效率當然不是一件容易的事。這里的關(guān)鍵是如何讓神經(jīng)聲碼器高效地用于序列到序列聲學模型,來提高TTS質(zhì)量。
科學家已經(jīng)開發(fā)出了很多這樣的神經(jīng)網(wǎng)絡(luò)聲碼器,例如WaveNet、Parallel WaveNet、WaveRNN、LPCNet 和 Multiband WaveRNN等,它們各有千秋。
WaveNet聲碼器可以生成高保真音頻,但在計算上它那巨大的復雜性,限制了它在實時服務(wù)中的部署;
LPCNet聲碼器利用WaveRNN架構(gòu)中語音信號處理的線性預測特性,可在單個處理器內(nèi)核上生成超實時的高質(zhì)量語音;但可惜,這對在線語音生成任務(wù)而言仍不夠高效。
科學家們希望TTS能夠在和人的“交流”中,達到讓人無感的順暢——不僅是語調(diào)上的熱情、親切,或冷靜;更要“毫無”延遲。
新的突破出現(xiàn)在騰訊。騰訊 AI Lab(人工智能實驗室)和云小微目前已經(jīng)率先開發(fā)出了一款基于WaveRNN多頻帶線性預測的全新神經(jīng)聲碼器FeatherWave。經(jīng)過測試,這款高效高保真神經(jīng)聲碼器可以幫助用戶顯著提高語音合成效率。
英特爾的工程團隊也參與到了這項開發(fā)工作中。他們把面向第三代英特爾至強可擴展處理器所做的優(yōu)化進行了全面整合,并采用了英特爾深度學習加速技術(shù)(英特爾 DL Boost)中全新集成的 16 位 Brain Floating Point (bfloat16) 功能。
bfloat16是一個精簡的數(shù)據(jù)格式,與如今的32位浮點數(shù)(FP32)相比,bfloat16只通過一半的比特數(shù)且僅需對軟件做出很小程度的修改,就可達到與FP32同等水平的模型精度;與半浮點精度 (FP16) 相比,它可為深度學習工作負載提供更大的動態(tài)范圍;與此同時,它無需使用校準數(shù)據(jù)進行量化/去量化操作,因此比 INT8 更方便。這些優(yōu)勢不僅讓它進一步提升了模型推理能力,還讓它能為模型訓練提供支持。
事實上,英特爾至強可擴展處理器本就是專為運行復雜的人工智能工作負載而設(shè)計的。借助英特爾深度學習加速技術(shù),英特爾志強可擴展處理器將嵌入式 AI 性能提升至新的高度。目前,此種處理器現(xiàn)已支持英特爾高級矢量擴展 512 技術(shù)(英特爾AVX-512 技術(shù))和矢量神經(jīng)網(wǎng)絡(luò)指令 (VNNI)。
在騰訊推出的全新神經(jīng)聲碼器FeatherWave 聲碼器中,就應(yīng)用了這些優(yōu)化技術(shù)。
FeatherWave 聲碼器框圖
利用英特爾AVX-512技術(shù)和bfloat16指令,騰訊的科學家們確保了GRU模塊和Dense運算符中粗略部分/精細部分的所有SGEMV計算都使用512位矢量進行矢量化,并采用bfloat16點積指令;對于按元素逐個加/乘等運算以及其他非線性激活,都使用最新的英特爾AVX-512 指令運行。
在最終都性能測試中,通過優(yōu)化,相同質(zhì)量水平(MOS4.5)的文本轉(zhuǎn)語音速度比FP32提升了高達1.54倍。
此外,騰訊還以 GAN 和 Parallel WaveNet (PWaveNet)為基礎(chǔ),推出了一種改進后的模型,并基于第三代英特爾至強可擴展處理器對模型性能進行了優(yōu)化,最終使性能與采用FP32相比提升了高達1.89倍,同時質(zhì)量水平仍保持不變 (MOS4.4)。
騰訊在TTS領(lǐng)域的進展顯示出了人工智能領(lǐng)域的一個趨勢,那就是科學家們越來越多開始利用英特爾深度學習加速技術(shù)在CPU平臺上開展工作。
就像騰訊在針對TTS的探索中獲得了性能提升那樣,第二代和第三代英特爾至強可擴展處理器在集成了加速技術(shù)后,已經(jīng)顯著提升了人工智能工作負載的性能。
在更廣泛的領(lǐng)域內(nèi),我們已經(jīng)能夠清楚地看到這種變化——在效率表現(xiàn)上,由于針對常見人工智能軟件框架,如TensorFlow和PyTorch、庫和工具所做的優(yōu)化,CPU平臺可以幫助保持較高的性能功耗比和性價比。
尤其是擴展性上,用戶在設(shè)計系統(tǒng)時可以利用如英特爾以太網(wǎng)700系列,和英特爾傲騰內(nèi)存存儲技術(shù),來優(yōu)化網(wǎng)絡(luò)和內(nèi)存配置。這樣一來,他們就可以在充分利用現(xiàn)有硬件投資的情況下,輕松擴展人工智能訓練的工作負載,獲得更高的吞吐量,甚至處理巨大的數(shù)據(jù)集。
不止于處理器平臺本身,英特爾目前在面向人工智能優(yōu)化的軟件,以及市場就緒型人工智能解決方案兩個維度,都建立起了差異化的市場優(yōu)勢。
例如在軟件方面,英特爾2019年2月進行的 OpenVINO/ResNet50 INT8 性能測試顯示,使用 OpenVINO或TensorFlow和英特爾深度學習加速技術(shù)時,人工智能推理性能可提高多達 3.75 倍。
今天,英特爾已經(jīng)攜手解決方案提供商,構(gòu)建了一系列的精選解決方案。這些方案預先進行了配置,并對工作負載進行了優(yōu)化。這就包括了如基于人工智能推理的英特爾精選解決方案,以及面向在面向在Apache Spark上運行的BigDL的英特爾精選解決方案等。
這些變化和方案的出現(xiàn)對于那些希望能從整體業(yè)務(wù)視角,去觀察人工智能進展的機構(gòu)或企業(yè)的管理層顯然也很有意義——如果只通過優(yōu)化,就能在一個通用平臺上完成所有人工智能的探索和落地,那么投資的價值就能夠?qū)崿F(xiàn)最大化。
許多企業(yè)做出了這樣的選擇,GE醫(yī)療就是其中一家。作為GE集團旗下的醫(yī)療健康業(yè)務(wù)部門,它構(gòu)建了一個人工智能醫(yī)學影像部署架構(gòu)。
通過采用英特爾至強可擴展處理器,和英特爾固態(tài)盤,以及多項英特爾關(guān)鍵技術(shù)——例如英特爾深度學習開發(fā)工具包,和面向深度神經(jīng)網(wǎng)絡(luò)的英特爾數(shù)學核心函數(shù)庫等;GE醫(yī)療收獲了未曾預料到的成果:
這一解決方案最終比基礎(chǔ)解決方案的推理速度提升了多達14倍,且超過了GE原定推理目標5.9倍。
責任編輯:xj
-
機器人
+關(guān)注
關(guān)注
213文章
29748瀏覽量
212987 -
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4814瀏覽量
103690 -
智能化
+關(guān)注
關(guān)注
15文章
5128瀏覽量
57300
發(fā)布評論請先 登錄
用于LEGIC Advant UID/序列號的NFC讀卡器,為什么無法讀取這些卡的UID/序列號?
使用BP神經(jīng)網(wǎng)絡(luò)進行時間序列預測
如何使用MATLAB構(gòu)建Transformer模型

時空引導下的時間序列自監(jiān)督學習框架

評論