99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA TensorRT插件的全自動生成工具

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2022-07-18 10:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NVIDIA TensorRT 是性能最優(yōu)、應(yīng)用最廣的 GPU 推理框架,但用戶常常因為不支持的算子而面臨手寫插件的痛點。為此,騰訊 TEG 與 NVIDIA 聯(lián)合開發(fā)了一款能自動生成插件的工具:TensorRT Plugin Autogen Tool,簡稱 TPAT。它能支持幾乎所有的 ONNX 算子,在節(jié)省人力成本的同時,性能對比手寫插件也毫不遜色。

騰訊 TEG(技術(shù)工程團(tuán)隊)為騰訊各個團(tuán)隊提供技術(shù)與工程服務(wù),日常任務(wù)是為各種產(chǎn)品提供工程設(shè)計與實現(xiàn),以滿足其他團(tuán)隊的業(yè)務(wù)需要。

隨著 AI 應(yīng)用的普及,騰訊 TEG 在深度學(xué)習(xí)模型的推理上也開始了技術(shù)積累。騰訊 TEG 選擇了TensorRT作為 NVIDIA GPU 上推理應(yīng)用的基礎(chǔ)軟件,開發(fā)了大量基于 TensorRT 的 AI 模型,并與 NVIDIA 展開了深入合作。

TensorRT 是一個由 NVIDIA 開發(fā)的用于推理的高性能 SDK,包含深度學(xué)習(xí)推理優(yōu)化器和運行時環(huán)境,可以為深度學(xué)習(xí)推理應(yīng)用提供低延遲和高吞吐量,這也是 TensorRT 相比其他框架最大的優(yōu)勢。

不過,TensorRT 也存在一定局限性,當(dāng)現(xiàn)有模型的算子不能被 TensorRT 直接支持時,工程師不得不手寫插件,比較耗時耗力。

騰訊 TEG 表示,手寫插件往往是 TensorRT 模型開發(fā)中最耗時的一部分,其難點在于:

手寫插件需要熟悉 TensorRT 插件的編程接口,需要學(xué)習(xí) GPU 和 CUDA 相關(guān)知識。

新入門的工程師通常需要 1~2 周時間來編寫一個算子實現(xiàn),模型中如果包含多個不支持算子,就需要更多時間來逐個編寫和調(diào)試。

如果有一種自動生成插件的工具,將極大地提高 TensorRT 模型開發(fā)的效率,于是騰訊 TEG 與 NVIDIA 開展了這方面的合作,歷時數(shù)月,共同開發(fā)了TPAT(TensorRT Plugin Autogen Tool)。

TPAT 本質(zhì)上是對 TensorRT 的功能擴(kuò)展。它要解決的關(guān)鍵問題在于如下方面:

為了生成通用的插件,需要開發(fā)出 TensorRT 插件的代碼模板。與此同時,需要提供部分插件的手工參考實現(xiàn),用于比對計算結(jié)果與性能。這一部分由 NVIDIA 負(fù)責(zé)。

對于給定的具體算子,其 GPU 上的 CUDA kernel 需要一種自動生成機制。經(jīng)騰訊 TEG 與 NVIDIA 協(xié)商,選擇 ONNX 作為候選算子集合,在編寫中間代碼之后由 TVM 生成 CUDA kernel。這一部分由騰訊 TEG 負(fù)責(zé)。

在完成上述開發(fā)之后,騰訊 TEG 與 NVIDIA 進(jìn)行聯(lián)調(diào),并后續(xù)同步進(jìn)行版本迭代。

歷經(jīng)騰訊 TEG 與 NVIDIA 工程師的共同努力,TPAT 已正式發(fā)布 1.0 版本。它基于 TVM 和 ONNX,實現(xiàn)了 TensorRT 插件的全自動生成,使得 TensorRT 的部署和上線能基本流程化,不再需要人工參與。

另外,TPAT 全自動生成一個算子插件耗時僅需要 30-60 分鐘的時間(該時間用于搜索算子的高性能 CUDA kernel),TensorRT 會因此成為一個真正端到端的推理框架。

0ba14cec-0431-11ed-ba43-dac502259ad0.png

TPAT 亮點:

覆蓋度:幾乎支持 ONNX 所有的算子

全自動:端到端全自動生成用戶指定的 TensorRT Plugin

高性能:大部分算子的性能與手寫插件相比并不遜色

值得一提的是,最新發(fā)布的 TPAT 也支持了動態(tài) batch,從而成為真正具有業(yè)界實用性的工具。

TPAT 已經(jīng)用在了騰訊游戲中心的多個游戲 AI 模型上,體現(xiàn)了優(yōu)秀的好用性與性能。此外,很多其他騰訊團(tuán)隊也對 TPAT 感興趣,在評估與嘗試部署 TPAT 生成的 TensorRT 模型。

“對內(nèi)部業(yè)務(wù)模型里的部分算子進(jìn)行了測試,TPAT 的性能幾乎全面達(dá)到甚至超越 CUDA 工程師手寫的插件,并且端到端的設(shè)計能夠大幅減少人力投入?!眮碜则v訊 TEG 的工程師邱騫表示。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5309

    瀏覽量

    106414
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4948

    瀏覽量

    131250

原文標(biāo)題:騰訊 TEG 與 NVIDIA 團(tuán)隊共同開發(fā) TPAT:TensorRT 插件的全自動生成工具

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    NVIDIA RTX AI加速FLUX.1 Kontext現(xiàn)已開放下載

    NVIDIA RTX 與 NVIDIA TensorRT 現(xiàn)已加速 Black Forest Labs 的最新圖像生成和編輯模型;此外,Gemma 3n 現(xiàn)可借助 RTX 和
    的頭像 發(fā)表于 07-16 09:16 ?250次閱讀

    HarmonyOS AI輔助編程工具(CodeGenie)UI生成

    路徑。若本地已下載安裝Git Bash,插件自動獲取其路徑 選擇將要生成的XML頁面(可在搜索框進(jìn)行搜索),勾選后點擊向右箭頭將選中的XML導(dǎo)入至右側(cè)。點擊Next開始生成。 配置
    發(fā)表于 07-10 11:51

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
    的頭像 發(fā)表于 06-12 15:37 ?608次閱讀
    使用<b class='flag-5'>NVIDIA</b> Triton和<b class='flag-5'>TensorRT</b>-LLM部署TTS應(yīng)用的最佳實踐

    NVIDIA Halos自動駕駛汽車安全系統(tǒng)發(fā)布

    NVIDIA 整合了從云端到車端的安全自動駕駛開發(fā)技術(shù)套件,涵蓋車輛架構(gòu)到 AI 模型,包括芯片、軟件、工具和服務(wù)。 物理 AI 正在為自動駕駛和機器人開發(fā)技術(shù)的交叉領(lǐng)域釋放新的可能性
    的頭像 發(fā)表于 03-25 14:51 ?619次閱讀

    NVIDIA Omniverse擴(kuò)展至生成式物理AI領(lǐng)域

    NVIDIA近日宣布,其Omniverse?平臺再次實現(xiàn)重大突破,成功推出多個生成式AI模型和藍(lán)圖,將Omniverse的應(yīng)用范圍進(jìn)一步擴(kuò)展至物理AI領(lǐng)域,包括機器人、自動駕駛汽車和視覺AI等多個
    的頭像 發(fā)表于 01-13 10:56 ?766次閱讀

    NVIDIA推出多個生成式AI模型和藍(lán)圖

    NVIDIA 宣布推出多個生成式 AI 模型和藍(lán)圖,將 NVIDIA Omniverse 一體化進(jìn)一步擴(kuò)展至物理 AI 應(yīng)用,如機器人、自動駕駛汽車和視覺 AI 等。全球軟件開發(fā)和專業(yè)
    的頭像 發(fā)表于 01-08 10:48 ?634次閱讀

    NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡稱 ReDrafter) 是蘋果公司為大語言模型 (LLM) 推理開發(fā)并開源的一種新型推測解碼技術(shù),該技術(shù)現(xiàn)在可與 NVIDIA TensorRT-LLM 一起使用。
    的頭像 發(fā)表于 12-25 17:31 ?756次閱讀
    在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM中啟用ReDrafter的一些變化

    解鎖NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一個專為優(yōu)化大語言模型 (LLM) 推理而設(shè)計的庫。它提供了多種先進(jìn)的優(yōu)化技術(shù),包括自定義 Attention Kernel、Inflight
    的頭像 發(fā)表于 12-17 17:47 ?874次閱讀

    NVIDIA TensorRT-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

    感謝眾多用戶及合作伙伴一直以來對NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現(xiàn)已在 GitHub 上公開發(fā)布!
    的頭像 發(fā)表于 11-28 10:43 ?723次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴(kuò)展了 Meta Llama 開源模型集的模型陣容,包含視覺語言模型(VLM)、小語言模型(SLM)和支持視覺的更新版 Llama Guard 模型。與 NVIDIA 加速
    的頭像 發(fā)表于 11-20 09:59 ?803次閱讀

    NVIDIA助力Amdocs打造生成式AI智能體

    Amdocs 是一家為通信和媒體提供商提供軟件與服務(wù)的領(lǐng)先供應(yīng)商。該公司構(gòu)建的 amAIz 特定領(lǐng)域生成式 AI 平臺幫助電信公司深入改變了客戶體驗,實現(xiàn)了流程自動化,并優(yōu)化了決策。Amdocs
    的頭像 發(fā)表于 11-19 14:48 ?912次閱讀

    TensorRT-LLM低精度推理優(yōu)化

    本文將分享 TensorRT-LLM 中低精度量化內(nèi)容,并從精度和速度角度對比 FP8 與 INT8。首先介紹性能,包括速度和精度。其次,介紹量化工具 NVIDIA TensorRT
    的頭像 發(fā)表于 11-19 14:29 ?1275次閱讀
    <b class='flag-5'>TensorRT</b>-LLM低精度推理優(yōu)化

    生成式AI工具作用

    生成式AI工具是指那些能夠自動生成文本、圖像、音頻、視頻等多種類型數(shù)據(jù)的人工智能技術(shù)。在此,petacloud.ai小編為您整理生成式AI
    的頭像 發(fā)表于 10-28 11:19 ?752次閱讀

    NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓(xùn)練數(shù)據(jù)

    Nemotron-4 340B 是針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進(jìn)的指導(dǎo)和獎勵模型,以及一個用于生成式 AI
    的頭像 發(fā)表于 09-06 14:59 ?738次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron-4 340B模型幫助開發(fā)者<b class='flag-5'>生成</b>合成訓(xùn)練數(shù)據(jù)

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國最具影響力的模型開源社區(qū),致力給開發(fā)者提供模型即服務(wù)的體驗。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語言模型的推理性能,方便了模型應(yīng)用部署,提高了大模型產(chǎn)業(yè)應(yīng)用效率,更大規(guī)模地釋放大模型的應(yīng)用價值?!?/div>
    的頭像 發(fā)表于 08-23 15:48 ?1141次閱讀