99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA發(fā)布Riva語音AI和大型LLM軟件

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Siddharth Sharma ? 2022-04-01 16:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NVIDIA 發(fā)布了 NVIDIA Riva 在語音人工智能方面的新突破, NVIDIA NeMo 在大規(guī)模語言建模( LLM )方面的新突破。 Riva 是一款 GPU 加速語音人工智能 SDK ,用于企業(yè)為其品牌和虛擬助手生成富有表現(xiàn)力的類人語音。 NeMo 是語音和 NLU 的加速培訓(xùn)框架,它現(xiàn)在有能力開發(fā)具有數(shù)萬億參數(shù)的大規(guī)模語言模型。

語音和語言人工智能的這些進步使企業(yè)和研究機構(gòu)能夠輕松構(gòu)建針對其行業(yè)和領(lǐng)域定制的最先進的對話人工智能功能。

英偉達 Riva

NVIDIA 發(fā)布了一個具有定制語音功能的新版本,企業(yè)只需 30 分鐘的語音數(shù)據(jù)即可輕松創(chuàng)建獨特的語音來代表其品牌。

此外, NVIDIA 宣布了Riva Enterprise,這是一項付費計劃,包括為需要大規(guī)模 Riva 部署的企業(yè)提供 NVIDIA 專家支持。 Riva 仍然免費提供給工作量較小的客戶和合作伙伴。

亮點包括:

在 A100 上用一天 30 分鐘的音頻數(shù)據(jù)創(chuàng)建一個新的神經(jīng)語音。

細粒度控件以生成富有表現(xiàn)力的聲音。

A100 上的 Fastpitch + HiFiGAN 比 V100 上的 Tacotron2 + WaveGlow 性能高 12 倍。

支持五種其他語言的世界級語音識別

擴展到成百上千的實時流。

在任何云端、本地和邊緣運行。

注冊以接收有關(guān) Riva Enterprise 的最新消息和更新,以進行大規(guī)模部署 》》

使用 Riva 開發(fā)應(yīng)用程序

閱讀此introductory post to了解 Riva 工作流中的組件。

接下來,按照本教程構(gòu)建您自己的端到端語音識別服務(wù):

Parthart: 1-EC6

Parthart: H2-Em7

Parthut: 3-ECEN-18

有關(guān)構(gòu)建virtual assistants和transcription with entity recognition等語音應(yīng)用程序的更多教程,請訪問Riva Getting Started. 》》

NVIDIA NeMo Megatron 、 Triton 多 – GPU 多節(jié)點推理和 Megatron 530B

NVIDIA 還推出了為企業(yè)構(gòu)建、定制和部署大型語言模型的功能。 NeMo Megatron 是 NeMo 框架中的一項新功能,用于培訓(xùn)多達數(shù)萬億個參數(shù)的大型語言模型( LLM )。

它包括Megatron方面的進步,這是一個由 NVIDIA 研究人員領(lǐng)導(dǎo)的開源項目,旨在開發(fā)有效培訓(xùn)法學(xué)碩士的技術(shù)。企業(yè)可以使用 NeMo Megatron 定制 LLM ,如 Megatron 530B ,并使用 NVIDIA Triton 推理服務(wù)器跨多個 GPU 和節(jié)點進行部署。

亮點包括:

在包含數(shù)十億頁文本的龐大數(shù)據(jù)集上自動化數(shù)據(jù)整理。

為新的域和語言培訓(xùn)Megatron 530B等模型。

從單節(jié)點擴展到超級計算機,包括數(shù)十個DGX A100系統(tǒng)。

導(dǎo)出到多個節(jié)點和 GPU s ,用于使用 NVIDIA Triton 推理服務(wù)器進行實時推理。

關(guān)于作者

Siddharth Sharma 是NVIDIA 加速計算的高級技術(shù)營銷經(jīng)理。在加入NVIDIA 之前, Siddharth 是 Mathworks Simulink 和 Stateflow 的產(chǎn)品營銷經(jīng)理,與汽車和航空航天公司密切合作,采用基于模型的設(shè)計來創(chuàng)建控制軟件。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5309

    瀏覽量

    106412
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    13

    文章

    9795

    瀏覽量

    87993
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49028

    瀏覽量

    249521
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    325

    瀏覽量

    841
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Love
    的頭像 發(fā)表于 06-12 15:37 ?604次閱讀
    使用<b class='flag-5'>NVIDIA</b> Triton和TensorRT-<b class='flag-5'>LLM</b>部署TTS應(yīng)用的最佳實踐

    LM Studio使用NVIDIA技術(shù)加速LLM性能

    隨著 AI 使用場景不斷擴展(從文檔摘要到定制化軟件代理),開發(fā)者和技術(shù)愛好者正在尋求以更 快、更靈活的方式來運行大語言模型(LLM)。
    的頭像 發(fā)表于 06-06 15:14 ?278次閱讀
    LM Studio使用<b class='flag-5'>NVIDIA</b>技術(shù)加速<b class='flag-5'>LLM</b>性能

    Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺,加速企業(yè)人工智能應(yīng)用

    -Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺,加速企業(yè)人工智能應(yīng)用 Cognizant將在關(guān)鍵增長領(lǐng)域提供解決方案,包括企業(yè)級AI智能體、定制化行業(yè)大型語言模型及搭載NVIDI
    的頭像 發(fā)表于 03-26 14:42 ?317次閱讀
    Cognizant將與<b class='flag-5'>NVIDIA</b>合作部署神經(jīng)人工智能平臺,加速企業(yè)人工智能應(yīng)用

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計算和推理軟件與 Oracle 的 AI 基礎(chǔ)設(shè)施以及生成式 AI 服務(wù)首
    發(fā)表于 03-19 15:24 ?358次閱讀
    Oracle 與 <b class='flag-5'>NVIDIA</b> 合作助力企業(yè)加速代理式 <b class='flag-5'>AI</b> 推理

    無法在OVMS上運行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時遇到錯誤。
    發(fā)表于 03-05 08:07

    NVIDIA發(fā)布全新NIM AI Guardrail微服務(wù)

    NVIDIA近期推出了一項旨在保障代理式AI應(yīng)用安全性的重要技術(shù)——NIM AI Guardrail微服務(wù)。這一全新微服務(wù)是NVIDIA NeMo Guardrails
    的頭像 發(fā)表于 01-18 11:48 ?795次閱讀

    NVIDIA 發(fā)布保障代理式 AI 應(yīng)用安全的 NIM 微服務(wù)

    務(wù)是 NVIDIA NeMo Guardrails 軟件工具系列的一部分。這些可移植且經(jīng)過優(yōu)化的推理微服務(wù)可幫助企業(yè)提高生成式 AI 應(yīng)用的安全性、精準(zhǔn)性
    發(fā)表于 01-17 16:29 ?161次閱讀

    NVIDIA推出面向RTX AI PC的AI基礎(chǔ)模型

    NVIDIA 今日發(fā)布能在 NVIDIA RTX AI PC 本地運行的基礎(chǔ)模型,為數(shù)字人、內(nèi)容創(chuàng)作、生產(chǎn)力和開發(fā)提供強大助力。
    的頭像 發(fā)表于 01-08 11:01 ?551次閱讀

    NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡稱 ReDrafter) 是蘋果公司為大語言模型 (LLM) 推理開發(fā)并開源的一種新型推測解碼技術(shù),該技術(shù)現(xiàn)在可與 NVIDIA TensorRT-LLM 一起使用。
    的頭像 發(fā)表于 12-25 17:31 ?756次閱讀
    在<b class='flag-5'>NVIDIA</b> TensorRT-<b class='flag-5'>LLM</b>中啟用ReDrafter的一些變化

    解鎖NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一個專為優(yōu)化大語言模型 (LLM) 推理而設(shè)計的庫。它提供了多種先進的優(yōu)化技術(shù),包括自定義 Attention Kernel、Inflight
    的頭像 發(fā)表于 12-17 17:47 ?871次閱讀

    NVIDIA TensorRT-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

    感謝眾多用戶及合作伙伴一直以來對NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現(xiàn)已在 GitHub 上公開發(fā)布
    的頭像 發(fā)表于 11-28 10:43 ?723次閱讀
    <b class='flag-5'>NVIDIA</b> TensorRT-<b class='flag-5'>LLM</b> Roadmap現(xiàn)已在GitHub上公開<b class='flag-5'>發(fā)布</b>

    NVIDIA助力Amdocs打造生成式AI智能體

    正在使用NVIDIA DGX Cloud 與 NVIDIA AI Enterprise軟件開發(fā)和交付基于商用大語言模型(LLM)和領(lǐng)域適配
    的頭像 發(fā)表于 11-19 14:48 ?912次閱讀

    LLM技術(shù)對人工智能發(fā)展的影響

    隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型(LLM)技術(shù)已經(jīng)成為推動AI領(lǐng)域進步的關(guān)鍵力量。LLM技術(shù)通過深度學(xué)習(xí)和自然語言處理技術(shù),使得機器能夠理解和生成自然語言,極大地擴展了人工智能
    的頭像 發(fā)表于 11-08 09:28 ?1855次閱讀

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國最具影響力的模型開源社區(qū),致力給開發(fā)者提供模型即服務(wù)的體驗。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語言模型的推理性能,方便了模型應(yīng)用部署,提高了大模型產(chǎn)業(yè)應(yīng)用效率,更大規(guī)模地釋放大模型的應(yīng)用價值?!?/div>
    的頭像 發(fā)表于 08-23 15:48 ?1141次閱讀

    NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型

    借助 NVIDIA AI Foundry,企業(yè)和各國現(xiàn)在能夠使用自有數(shù)據(jù)與 Llama 3.1 405B 和 NVIDIA Nemotron 模型配對,來構(gòu)建“超級模型” NVIDIA
    發(fā)表于 07-24 09:39 ?919次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 <b class='flag-5'>AI</b> 模型