99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA全面加快Meta Llama 3的推理速度

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2024-04-23 09:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Meta 最新開源大語言模型采用 NVIDIA 技術(shù)構(gòu)建,其經(jīng)過優(yōu)化后可在云、數(shù)據(jù)中心、邊緣和 PC 的 NVIDIA GPU 上運行。

NVIDIA 發(fā)布對其所有平臺的優(yōu)化措施,此舉將加快最新一代大語言模型(LLM)Meta Llama 3 的運行速度。

在與 NVIDIA 加速計算相結(jié)合后,該開源模型能夠使開發(fā)者、研究者和企業(yè)在各種應(yīng)用中負(fù)責(zé)任地進(jìn)行創(chuàng)新。

在 NVIDIA AI 上進(jìn)行訓(xùn)練

Meta 工程師在搭載 24,576 個 NVIDIA Tensor Core GPU 的計算機集群上對 Llama 3 進(jìn)行了訓(xùn)練,這些 GPU 通過 RoCE 和 NVIDIA Quantum-2 InfiniBand 網(wǎng)絡(luò)相連。

為進(jìn)一步推動生成式 AI 的發(fā)展,Meta 最近介紹了將其基礎(chǔ)設(shè)施擴展到 35 萬個 NVIDIA GPU 的計劃。

將 Llama 3 投入使用

通過 NVIDIA GPU 加速的各版本 Llama 3 目前可用于云、數(shù)據(jù)中心、邊緣和 PC。

開發(fā)者可通過瀏覽器在 ai.nvidia.com 上試用 Llama 3。該模型被打包成一項帶有標(biāo)準(zhǔn)應(yīng)用編程接口NVIDIA NIM 微服務(wù),可以部署在任何位置。

企業(yè)可使用 NVIDIA NeMo 和自己的數(shù)據(jù)對 Llama 3 進(jìn)行微調(diào)。NeMo 是一個 LLM 開源框架,通過安全、受支持的 NVIDIA AI Enterprise 平臺提供。自定義模型可使用 NVIDIA TensorRT-LLM 進(jìn)行推理性能優(yōu)化,并通過 NVIDIA Triton 推理服務(wù)器進(jìn)行部署。

在設(shè)備和 PC 上運行 Llama 3

Llama 3 還可在用于機器人和邊緣計算設(shè)備的 NVIDIA Jetson Orin 上運行,創(chuàng)建類似 Jetson AI Lab 中的交互式代理。

此外,用于工作站和 PC 的 NVIDIA RTXGeForce RTX GPU 也能加快 Llama 3 的推理速度。這些系統(tǒng)將開發(fā)者的目標(biāo)范圍擴大到全球超過 1 億臺由 NVIDIA 提供加速的系統(tǒng)。

利用 Llama 3 獲得最佳性能

為聊天機器人部署 LLM 的最佳實踐包括實現(xiàn)低延遲、快速讀取和最佳 GPU 利用率之間的平衡,并以此來降低成本。

這種服務(wù)需要以用戶閱讀速度的兩倍(約為每秒 10 個 token)提供 token(大致相當(dāng)于字詞)。

如果在使用 700 億參數(shù)級 Llama 3 進(jìn)行的初步測試中應(yīng)用這些指標(biāo),那么單個 NVIDIA Tensor Core GPU 每秒可生成約 3,000 個 token,足以同時為約 300 名用戶提供服務(wù)。

這意味著一臺搭載 8 個GPU 的 NVIDIA HGX 服務(wù)器每秒可提供 24,000 個 token,相當(dāng)于同時支持 2,400 多名用戶,進(jìn)一步降低了成本。

在邊緣設(shè)備方面,80 億參數(shù)版本的 Llama 3 在 Jetson AGX Orin 上每秒可生成多達(dá) 40 個 token,在 Jetson Orin Nano 上每秒可生成多達(dá) 15 個 token。

推進(jìn)社區(qū)模型的發(fā)展

作為一個積極的開源貢獻(xiàn)者,NVIDIA 致力于優(yōu)化社區(qū)軟件,幫助用戶應(yīng)對最嚴(yán)峻的挑戰(zhàn)。開源模型還能提高 AI 的透明度,讓廣大用戶享受到 AI 安全性和彈性方面的工作成果。


審核編輯:劉清
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5309

    瀏覽量

    106412
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    305

    瀏覽量

    6204
  • 邊緣計算
    +關(guān)注

    關(guān)注

    22

    文章

    3326

    瀏覽量

    50922
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3146

    瀏覽量

    4071

原文標(biāo)題:NVIDIA 全面加快 Meta Llama 3 的推理速度

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進(jìn)行推理時出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    NVIDIA 推出開放推理 AI 模型系列,助力開發(fā)者和企業(yè)構(gòu)建代理式 AI 平臺

    NVIDIA 后訓(xùn)練的全新 Llama Nemotron 推理模型,為代理式 AI 提供業(yè)務(wù)就緒型基礎(chǔ) 埃森哲、Amdocs、Atlassian、Box、Cadence、CrowdStrike
    發(fā)表于 03-19 09:31 ?237次閱讀
    <b class='flag-5'>NVIDIA</b> 推出開放<b class='flag-5'>推理</b> AI 模型系列,助力開發(fā)者和企業(yè)構(gòu)建代理式 AI 平臺

    無法在OVMS上運行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時遇到錯誤。
    發(fā)表于 03-05 08:07

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?721次閱讀
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>平臺提高AI<b class='flag-5'>推理</b>性能

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴展了 Meta Llama 開源模型集的模型陣容,包含視覺語言模型(VLM)、小語言模型(SLM)和支持視覺的更新版 Llama Guard 模型。與
    的頭像 發(fā)表于 11-20 09:59 ?803次閱讀

    Meta發(fā)布Llama 3.2量化版模型

    近日,Meta在開源Llama 3.2的1B與3B模型后,再次為人工智能領(lǐng)域帶來了新進(jìn)展。10月24日,Meta正式推出了這兩個模型的量化版本,旨在進(jìn)一步優(yōu)化模型性能,拓寬其應(yīng)用場景。
    的頭像 發(fā)表于 10-29 11:05 ?846次閱讀

    使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型

    前面我們分享了《三步完成Llama3在算力魔方的本地量化和部署》。2024年9月25日,Meta又發(fā)布了Llama3.2:一個多語言大型語言模型(LLMs)的集合。
    的頭像 發(fā)表于 10-12 09:39 ?1451次閱讀
    使用OpenVINO 2024.4在算力魔方上部署<b class='flag-5'>Llama</b>-3.2-1B-Instruct模型

    亞馬遜云科技上線Meta Llama 3.2模型

    亞馬遜云科技近日宣布,Meta公司的新一代模型Llama 3.2已在其平臺上正式上線。該模型包括Meta首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMaker中
    的頭像 發(fā)表于 10-11 18:08 ?747次閱讀

    亞馬遜云科技正式上線Meta Llama 3.2模型

    亞馬遜云科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMaker中正式可用。
    的頭像 發(fā)表于 10-11 09:20 ?874次閱讀

    Meta Llama 3.1系列模型可在Google Cloud上使用

    我們很高興宣布,Llama 3.1 系列模型已添加到 Vertex AI Model Garden,這包括全新的 405B,即 Meta 迄今為止功能最強大、用途最廣泛的模型。這些模型的添加,表明
    的頭像 發(fā)表于 08-02 15:42 ?739次閱讀

    NVIDIA攜手Meta推出AI服務(wù),為企業(yè)提供生成式AI服務(wù)

    NVIDIA近日宣布了一項重大舉措,正式推出NVIDIA AI Foundry服務(wù)與NVIDIA NIM(NVIDIA Inference Microservices)
    的頭像 發(fā)表于 07-25 16:57 ?847次閱讀

    PerfXCloud平臺成功接入Meta Llama3.1

    近日,Meta對外宣布推出迄今為止最強大的開源模型——Llama3.1 405B,同時還發(fā)布了全新優(yōu)化升級的70B和8B版本,技術(shù)革新的浪潮再次洶涌來襲!在此,我們滿懷欣喜地向您宣告,PerfXCloud平臺現(xiàn)已成功接入Llama
    的頭像 發(fā)表于 07-25 10:26 ?902次閱讀

    英偉達(dá)推出全新NVIDIA AI Foundry服務(wù)和NVIDIA NIM推理微服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM 推理微服務(wù),與同樣剛推出的 Llama 3.1
    的頭像 發(fā)表于 07-25 09:48 ?1061次閱讀

    Meta發(fā)布全新開源大模型Llama 3.1

    科技巨頭Meta近期震撼發(fā)布了其最新的開源人工智能(AI)模型——Llama 3.1,這一舉措標(biāo)志著Meta在AI領(lǐng)域的又一重大突破。Meta創(chuàng)始人馬克·扎克伯格親自站臺,盛贊
    的頭像 發(fā)表于 07-24 18:25 ?1785次閱讀

    NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型

    借助 NVIDIA AI Foundry,企業(yè)和各國現(xiàn)在能夠使用自有數(shù)據(jù)與 Llama 3.1 405B 和 NVIDIA Nemotron 模型配對,來構(gòu)建“超級模型” NVIDIA
    發(fā)表于 07-24 09:39 ?919次閱讀
    <b class='flag-5'>NVIDIA</b> AI Foundry 為全球企業(yè)打造自定義 <b class='flag-5'>Llama</b> 3.1 生成式 AI 模型