99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

點亮未來:TensorRT-LLM 更新加速 AI 推理性能,支持在 RTX 驅動的 Windows PC 上運行新模型

NVIDIA英偉達企業(yè)解決方案 ? 來源:未知 ? 2023-11-16 21:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

微軟 Ignite 2023 技術大會發(fā)布的新工具和資源包括 OpenAIChatAPI 的 TensorRT-LLM 封裝接口、RTX 驅動的性能改進 DirectMLforLlama2、其他熱門 LLM

Windows PC 上的 AI 標志著科技史上的關鍵時刻,它將徹底改變玩家、創(chuàng)作者、主播、上班族、學生乃至普通 PC 用戶的體驗。

AI 為 1 億多臺采用 RTX GPU 的 Windows PC 和工作站提高生產力帶來前所未有的機會。NVIDIA RTX 技術使開發(fā)者更輕松地創(chuàng)建 AI 應用,從而改變人們使用計算機的方式。

在微軟 Ignite 2023 技術大會上發(fā)布的全新優(yōu)化、模型和資源將更快地幫助開發(fā)者提供新的終端用戶體驗。

TensorRT-LLM 是一款提升 AI 推理性能的開源軟件,它即將發(fā)布的更新將支持更多大語言模型,在 RTX GPU 8GB 及以上顯存的 PC 和筆記本電腦上使要求嚴苛的 AI 工作負載更容易完成。

Tensor RT-LLM for Windows 即將通過全新封裝接口與 OpenAI 廣受歡迎的聊天 API 兼容。這將使數以百計的開發(fā)者項目和應用能在 RTX PC 的本地運行,而非云端運行,因此用戶可以在 PC 上保留私人和專有數據。

定制的生成式 AI 需要時間和精力來維護項目。特別是跨多個環(huán)境和平臺進行協作和部署時,該過程可能會異常復雜和耗時。

AI Workbench 是一個統(tǒng)一、易用的工具包,允許開發(fā)者在 PC 或工作站上快速創(chuàng)建、測試和定制預訓練生成式 AI 模型和 LLM。它為開發(fā)者提供一個單一平臺,用于組織他們的 AI 項目,并根據特定用戶需求來調整模型。

這使開發(fā)者能夠進行無縫協作和部署,快速創(chuàng)建具有成本效益、可擴展的生成式 AI 模型。加入搶先體驗名單,成為首批用戶以率先了解不斷更新的功能,并接收更新信息。

為支持 AI 開發(fā)者,NVIDIA 與微軟發(fā)布 DirectML 增強功能以加速最熱門的基礎 AI 模型之一的 Llama 2。除了全新性能標準,開發(fā)者現在有更多跨供應商部署可選。

便攜式 AI

2023 年 10 月,NVIDIA 發(fā)布 TensorRT-LLM for Windows —— 一個用于加速大語言模型(LLM)推理的庫。

本月底發(fā)布的 TensorRT-LLM v0.6.0 更新將帶來至高達 5 倍的推理性能提升,并支持更多熱門的 LLM,包括全新 Mistral 7B 和 Nemotron-3 8B。這些 LLM 版本將可在所有采用 8GB 及以上顯存的 GeForce RTX 30系列和 40系列 GPU 上運行,從而使最便攜的 Windows PC 設備也能獲得快速、準確的本地運行 LLM 功能。

wKgaomVWFwiAI5yYAAD9zpwM1bA457.jpg

TensorRT-LLM v0.6.0

帶來至高達 5 倍推理性能提升

新發(fā)布的 TensorRT-LLM 可在/NVIDIA/TensorRT-LLMGitHub 代碼庫中下載安裝,新調優(yōu)的模型將在ngc.nvidia.com提供。

從容對話

世界各地的開發(fā)者和愛好者將 OpenAI 的聊天 API 廣泛用于各種應用——從總結網頁內容、起草文件和電子郵件,到分析和可視化數據以及創(chuàng)建演示文稿。

這類基于云的 AI 面臨的一大挑戰(zhàn)是它們需要用戶上傳輸入數據,因此對于私人或專有數據以及處理大型數據集來說并不實用。

為應對這一挑戰(zhàn),NVIDIA 即將啟用 TensorRT-LLM for Windows,通過全新封裝接口提供與 OpenAI 廣受歡迎的 ChatAPI 類似的 API 接口,為開發(fā)者帶來類似的工作流,無論他們設計的模型和應用要在 RTX PC 的本地運行,還是在云端運行。只需修改一兩行代碼,數百個 AI 驅動的開發(fā)者項目和應用現在就能從快速的本地 AI 中受益。用戶可將數據保存在 PC 上,不必擔心將數據上傳到云端。

使用由 TensorRT-LLM 驅動的

Microsoft VS Code 插件 Continue.dev 編碼助手

此外,最重要的一點是這些項目和應用中有很多都是開源的,開發(fā)者可以輕松利用和擴展它們的功能,從而加速生成式 AI 在 RTX 驅動的 Windows PC 上的應用。

該封裝接口可與所有對 TensorRT-LLM 進行優(yōu)化的 LLM (如,Llama 2、Mistral 和 NV LLM)配合使用,并作為參考項目在 GitHub 上發(fā)布,同時發(fā)布的還有用于在 RTX 上使用 LLM 的其他開發(fā)者資源。

模型加速

開發(fā)者現可利用尖端的 AI 模型,并通過跨供應商 API 進行部署。NVIDIA 和微軟一直致力于增強開發(fā)者能力,通過 DirectML API 在 RTX 上加速 Llama。

在 10 月宣布的為這些模型提供最快推理性能的基礎上,這一跨供應商部署的全新選項使將 AI 引入 PC 變得前所未有的簡單。

開發(fā)者和愛好者可下載最新的 ONNX 運行時并按微軟的安裝說明進行操作,同時安裝最新 NVIDIA 驅動(將于 11 月 21 日發(fā)布)以獲得最新優(yōu)化體驗。

這些新優(yōu)化、模型和資源將加速 AI 功能和應用在全球 1 億臺 RTX PC 上的開發(fā)和部署,一并加入 400 多個合作伙伴的行列,他們已經發(fā)布了由 RTX GPU 加速的 AI 驅動的應用和游戲。

隨著模型易用性的提高,以及開發(fā)者將更多生成式 AI 功能帶到 RTX 驅動的 Windows PC 上,RTX GPU 將成為用戶利用這一強大技術的關鍵。

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國加州圣何塞會議中心舉行,線上大會也將同期開放。點擊“閱讀原文”掃描下方海報二維碼,立即注冊 GTC 大會。


原文標題:點亮未來:TensorRT-LLM 更新加速 AI 推理性能,支持在 RTX 驅動的 Windows PC 上運行新模型

文章出處:【微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3953

    瀏覽量

    93791

原文標題:點亮未來:TensorRT-LLM 更新加速 AI 推理性能,支持在 RTX 驅動的 Windows PC 上運行新模型

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    NVIDIA RTX AI加速FLUX.1 Kontext現已開放下載

    NVIDIA RTX 與 NVIDIA TensorRT 現已加速 Black Forest Labs 的最新圖像生成和編輯模型;此外,Gemma 3n 現可借助
    的頭像 發(fā)表于 07-16 09:16 ?245次閱讀

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應用原型驗證與產
    的頭像 發(fā)表于 07-04 14:38 ?662次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。
    的頭像 發(fā)表于 06-12 15:37 ?608次閱讀
    使用NVIDIA Triton和<b class='flag-5'>TensorRT-LLM</b>部署TTS應用的最佳實踐

    英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    NVIDIA Dynamo 提高了推理性能,同時降低了擴展測試時計算 (Scaling Test-Time Compute) 的成本; NVIDIA Blackwell 推理優(yōu)化
    的頭像 發(fā)表于 03-20 15:03 ?649次閱讀

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?721次閱讀
    使用NVIDIA<b class='flag-5'>推理</b>平臺提高<b class='flag-5'>AI</b><b class='flag-5'>推理性能</b>

    新品| LLM630 Compute Kit,AI 大語言模型推理開發(fā)平臺

    LLM630LLM推理,視覺識別,可開發(fā),靈活擴展···LLM630ComputeKit是一款AI大語言模型
    的頭像 發(fā)表于 01-17 18:48 ?698次閱讀
    新品| <b class='flag-5'>LLM</b>630 Compute Kit,<b class='flag-5'>AI</b> 大語言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>開發(fā)平臺

    NVIDIA推出面向RTX AI PCAI基礎模型

    NVIDIA 今日發(fā)布能在 NVIDIA RTX AI PC 本地運行的基礎模型,為數字人、內容創(chuàng)作、生產力和開發(fā)提供強大助力。
    的頭像 發(fā)表于 01-08 11:01 ?551次閱讀

    NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡稱 ReDrafter) 是蘋果公司為大語言模型 (LLM) 推理開發(fā)并開源的一種新型推測解碼技術,該技術現在可與 NVIDIA TensorRT-L
    的頭像 發(fā)表于 12-25 17:31 ?756次閱讀
    <b class='flag-5'>在</b>NVIDIA <b class='flag-5'>TensorRT-LLM</b>中啟用ReDrafter的一些變化

    解鎖NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一個專為優(yōu)化大語言模型 (LLM) 推理而設計的庫。它提供了多種先進的優(yōu)化技術,包括自定義 Attention Kernel、Inflight
    的頭像 發(fā)表于 12-17 17:47 ?871次閱讀

    Arm KleidiAI助力提升PyTorchLLM推理性能

    熱門的深度學習框架尤為突出,許多企業(yè)均會選擇其作為開發(fā) AI 應用的庫。通過部署 Arm Kleidi 技術,Arm 正在努力優(yōu)化 PyTorch,以加速基于 Arm 架構的處理器
    的頭像 發(fā)表于 12-03 17:05 ?1489次閱讀
    Arm KleidiAI助力提升PyTorch<b class='flag-5'>上</b><b class='flag-5'>LLM</b><b class='flag-5'>推理性能</b>

    NVIDIA TensorRT-LLM Roadmap現已在GitHub公開發(fā)布

    感謝眾多用戶及合作伙伴一直以來對NVIDIA TensorRT-LLM支持。TensorRT-LLM 的 Roadmap 現已在 GitHub 公開發(fā)布!
    的頭像 發(fā)表于 11-28 10:43 ?723次閱讀
    NVIDIA <b class='flag-5'>TensorRT-LLM</b> Roadmap現已在GitHub<b class='flag-5'>上</b>公開發(fā)布

    TensorRT-LLM低精度推理優(yōu)化

    本文將分享 TensorRT-LLM 中低精度量化內容,并從精度和速度角度對比 FP8 與 INT8。首先介紹性能,包括速度和精度。其次,介紹量化工具 NVIDIA TensorRT Model
    的頭像 發(fā)表于 11-19 14:29 ?1275次閱讀
    <b class='flag-5'>TensorRT-LLM</b>低精度<b class='flag-5'>推理</b>優(yōu)化

    開箱即用,AISBench測試展示英特爾至強處理器的卓越推理性能

    。 中國電子技術標準化研究院賽西實驗室依據國家標準《人工智能服務器系統(tǒng)性能測試規(guī)范》(征求意見稿)相關要求,使用AISBench?2.0測試工具,完成了第五代英特爾至強可擴展處理器的AI模型
    的頭像 發(fā)表于 09-06 15:33 ?823次閱讀
    開箱即用,AISBench測試展示英特爾至強處理器的卓越<b class='flag-5'>推理性能</b>

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國最具影響力的模型開源社區(qū),致力給開發(fā)者提供模型即服務的體驗。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語言模型
    的頭像 發(fā)表于 08-23 15:48 ?1141次閱讀

    LLM模型推理加速的關鍵技術

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型
    的頭像 發(fā)表于 07-24 11:38 ?1824次閱讀