99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA加速微軟最新的Phi-3 Mini開(kāi)源語(yǔ)言模型

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2024-04-28 10:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開(kāi)源語(yǔ)言模型。TensorRT-LLM 是一個(gè)開(kāi)源庫(kù),用于優(yōu)化從 PC 到云端的 NVIDIA GPU 上運(yùn)行的大語(yǔ)言模型推理。

Phi-3 Mini 與 10 倍之于其大小的模型能力不相上下。不同于僅用于研究的 Phi-2,Phi-3 Mini 不僅可以用于研究,同時(shí)還可以用于多種商業(yè)用途。搭載 NVIDIA RTX GPU 的工作站或搭載 GeForce RTX GPU 的 PC 可以使用 Windows DirectML 或 TensorRT-LLM 在本地運(yùn)行該模型。

該模型有 38 億個(gè)參數(shù),在 512 個(gè) NVIDIA Tensor Core GPU 上使用 3.3 萬(wàn)億個(gè) token 訓(xùn)練而成,僅耗時(shí)七天時(shí)間。

Phi-3 Mini 有兩個(gè)版本,一個(gè)版本支持 4K token,另一個(gè)版本支持 128K token,是同類(lèi)模型中第一個(gè)支持超長(zhǎng)上下文的模型。因此,開(kāi)發(fā)者在向該模型提問(wèn)時(shí),可以使用 128,000 個(gè) token(模型能夠處理的最小語(yǔ)言單位),使模型能夠做出更加符合現(xiàn)實(shí)的回答。

開(kāi)發(fā)者可以在 ai.nvidia.com上試用帶有 128K 上下文窗口的 Phi-3 Mini。該模型被打包成 NVIDIA NIM,這是一項(xiàng)帶有標(biāo)準(zhǔn)應(yīng)用編程接口的微服務(wù),可以部署在任何位置。

在邊緣高效運(yùn)行

自主機(jī)器人和嵌入式設(shè)備開(kāi)發(fā)者可以通過(guò)社區(qū)教程(如 Jetson AI Lab)學(xué)習(xí)創(chuàng)建和部署生成式 AI,并在 NVIDIA Jetson 上部署 Phi-3。

Phi-3 Mini 模型只有 38 億個(gè)參數(shù),非常小巧緊湊,可以在邊緣設(shè)備上高效運(yùn)行。參數(shù)就像內(nèi)存中的旋鈕,可在模型訓(xùn)練過(guò)程中進(jìn)行精確的調(diào)整,使模型能夠?qū)斎氲奶崾咀龀龈叨葴?zhǔn)確的響應(yīng)。

Phi-3 可以在成本和資源受限的用例中提供幫助,尤其是較簡(jiǎn)單的任務(wù)。該模型在關(guān)鍵語(yǔ)言基準(zhǔn)測(cè)試中的表現(xiàn)優(yōu)于一些較大的模型,同時(shí)在滿(mǎn)足延遲要求的情況下給出結(jié)果。

TensorRT-LLM 將支持 Phi-3 Mini 的長(zhǎng)上下文窗口,并使用 LongRoPE、FP8/飛行批處理等眾多優(yōu)化措施和內(nèi)核來(lái)提高推理吞吐量,減少延遲。TensorRT-LLM 的應(yīng)用很快將在 GitHub 上的示例文件夾中提供。

開(kāi)發(fā)者可以轉(zhuǎn)換為 TensorRT-LLM 檢查點(diǎn)格式,該格式針對(duì)推理進(jìn)行了優(yōu)化,可以輕松地與 NVIDIA Triton 推理服務(wù)器一起部署。

開(kāi)發(fā)開(kāi)放式系統(tǒng)

NVIDIA 是開(kāi)源生態(tài)系統(tǒng)的積極貢獻(xiàn)者,已經(jīng)發(fā)布了 500 多個(gè)帶有開(kāi)源許可證的項(xiàng)目。

NVIDIA 為 JAX、Kubernetes、OpenUSD、PyTorch 和 Linux 內(nèi)核等眾多外部項(xiàng)目做出了貢獻(xiàn),還為各種開(kāi)源基金會(huì)和標(biāo)準(zhǔn)機(jī)構(gòu)提供支持。

此次發(fā)布建立在 NVIDIA 與微軟深厚的合作基礎(chǔ)上,雙方的合作為加速 DirectML、Azure 云、生成式 AI 研究以及醫(yī)療和生命科學(xué)等領(lǐng)域的創(chuàng)新鋪平了道路。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29726

    瀏覽量

    212800
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5308

    瀏覽量

    106342
  • 嵌入式設(shè)備
    +關(guān)注

    關(guān)注

    0

    文章

    116

    瀏覽量

    17415
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    305

    瀏覽量

    6196
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3138

    瀏覽量

    4059

原文標(biāo)題:小巧而強(qiáng)大:NVIDIA 加速微軟 Phi-3 開(kāi)源“小語(yǔ)言模型”

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    歐洲借助NVIDIA Nemotron優(yōu)化主權(quán)大語(yǔ)言模型

    NVIDIA 正攜手歐洲和中東的模型構(gòu)建商與云提供商,共同優(yōu)化主權(quán)大語(yǔ)言模型 (LLM),加速該地區(qū)各行業(yè)采用企業(yè)級(jí) AI。
    的頭像 發(fā)表于 06-12 15:42 ?412次閱讀

    NVIDIA攜手微軟加速代理式AI發(fā)展

    代理式 AI 正在重新定義科學(xué)探索,推動(dòng)各行各業(yè)的研究突破和創(chuàng)新發(fā)展。NVIDIA微軟正通過(guò)深化合作提供先進(jìn)的技術(shù),從云到 PC 加速代理式 AI 應(yīng)用的發(fā)展。
    的頭像 發(fā)表于 05-27 14:03 ?353次閱讀

    NVIDIA使用Qwen3系列模型的最佳實(shí)踐

    阿里巴巴近期發(fā)布了其開(kāi)源的混合推理大語(yǔ)言模型 (LLM) 通義千問(wèn) Qwen3,此次 Qwen3 開(kāi)源
    的頭像 發(fā)表于 05-08 11:45 ?1224次閱讀
    <b class='flag-5'>NVIDIA</b>使用Qwen<b class='flag-5'>3</b>系列<b class='flag-5'>模型</b>的最佳實(shí)踐

    Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺(tái),加速企業(yè)人工智能應(yīng)用

    -Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺(tái),加速企業(yè)人工智能應(yīng)用 Cognizant將在關(guān)鍵增長(zhǎng)領(lǐng)域提供解決方案,包括企業(yè)級(jí)AI智能體、定制化行業(yè)大型語(yǔ)言模型及搭載
    的頭像 發(fā)表于 03-26 14:42 ?311次閱讀
    Cognizant將與<b class='flag-5'>NVIDIA</b>合作部署神經(jīng)人工智能平臺(tái),<b class='flag-5'>加速</b>企業(yè)人工智能應(yīng)用

    NVIDIA Isaac GR00T N1開(kāi)源人形機(jī)器人基礎(chǔ)模型+開(kāi)源物理引擎Newton加速機(jī)器人開(kāi)發(fā)

    NVIDIA Isaac GR00T N1開(kāi)源人形機(jī)器人基礎(chǔ)模型+開(kāi)源物理引擎Newton加速機(jī)器人開(kāi)發(fā)
    的頭像 發(fā)表于 03-20 16:56 ?776次閱讀

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Dynamo開(kāi)源庫(kù)加速并擴(kuò)展AI推理模型

    DeepSeek-R1 上的吞吐量提高了 30 倍 NVIDIA 發(fā)布了開(kāi)源推理軟件 NVIDIA Dynamo,旨在以高效率、低成本加速并擴(kuò)展 AI 工廠中的 AI 推理
    的頭像 發(fā)表于 03-20 15:03 ?642次閱讀

    NVIDIA 發(fā)布全球首個(gè)開(kāi)源人形機(jī)器人基礎(chǔ)模型 Isaac GR00T N1——并推出加速機(jī)器人開(kāi)發(fā)的仿真框架

    推出完全可定制的 GR00T N1 基礎(chǔ)模型,為人形機(jī)器人賦予通用技能與推理技能 NVIDIA、Google DeepMind 和 Disney Research 合作開(kāi)發(fā)新一代開(kāi)源物理引擎
    發(fā)表于 03-19 09:30 ?442次閱讀
    <b class='flag-5'>NVIDIA</b> 發(fā)布全球首個(gè)<b class='flag-5'>開(kāi)源</b>人形機(jī)器人基礎(chǔ)<b class='flag-5'>模型</b> Isaac GR00T N1——并推出<b class='flag-5'>加速</b>機(jī)器人開(kāi)發(fā)的仿真框架

    在算力魔方上本地部署Phi-4模型

    智能水平上的一大飛躍。它不僅達(dá)到了之前只有Llama 3.1 405B模型才具備的智能水平,而且還超越了11月發(fā)布的GPT-4o模型。 本文我們將分享微軟剛剛發(fā)布的Phi-4
    的頭像 發(fā)表于 01-15 11:05 ?499次閱讀
    在算力魔方上本地部署<b class='flag-5'>Phi</b>-4<b class='flag-5'>模型</b>

    NVIDIA推出開(kāi)放式Llama Nemotron系列模型

    作為 NVIDIA NIM 微服務(wù),開(kāi)放式 Llama Nemotron 大語(yǔ)言模型和 Cosmos Nemotron 視覺(jué)語(yǔ)言模型可在任何
    的頭像 發(fā)表于 01-09 11:11 ?740次閱讀

    微軟尋求在365 Copilot中引入非OpenAI模型

    擔(dān)心企業(yè)用戶(hù)在使用365 Copilot時(shí)面臨的成本和速度問(wèn)題,因此正在尋求更多樣化的技術(shù)來(lái)源。盡管微軟與OpenAI之間有著緊密的合作關(guān)系,并允許微軟定制OpenAI的模型,但微軟
    的頭像 發(fā)表于 12-25 10:41 ?609次閱讀

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴(kuò)展了 Meta Llama 開(kāi)源模型集的模型陣容,包含視覺(jué)語(yǔ)言模型
    的頭像 發(fā)表于 11-20 09:59 ?790次閱讀

    搭建開(kāi)源語(yǔ)言模型服務(wù)的方法

    本文我們將總結(jié)5種搭建開(kāi)源語(yǔ)言模型服務(wù)的方法,每種都附帶詳細(xì)的操作步驟,以及各自的優(yōu)缺點(diǎn)。
    的頭像 發(fā)表于 10-29 09:17 ?687次閱讀

    NVIDIA NIM助力企業(yè)高效部署生成式AI模型

    Canonical、Nutanix 和 Red Hat 等廠商的開(kāi)源 Kubernetes 平臺(tái)集成了 NVIDIA NIM,將允許用戶(hù)通過(guò) API 調(diào)用來(lái)大規(guī)模地部署大語(yǔ)言模型。
    的頭像 發(fā)表于 10-10 09:49 ?764次閱讀

    開(kāi)放原子開(kāi)源大賽助力輕量級(jí)大語(yǔ)言模型應(yīng)用落地

    “Intel借助開(kāi)源大賽在全國(guó)的影響力,吸引更多開(kāi)發(fā)者加入大語(yǔ)言模型及其在人工智能領(lǐng)域的創(chuàng)新應(yīng)用?!必?fù)責(zé)BigDL-LLM賽題運(yùn)營(yíng)的Intel工作人員表示。
    的頭像 發(fā)表于 09-24 10:38 ?999次閱讀

    在英特爾酷睿Ultra7處理器上優(yōu)化和部署Phi-3-min模型

    2024年4月23日,微軟研究院公布Phi-3系列AI大模型,包含三個(gè)版本:mini(3.8B參數(shù))、small(7B參數(shù))以及medium(14B參數(shù))。
    的頭像 發(fā)表于 08-30 16:58 ?1360次閱讀
    在英特爾酷睿Ultra7處理器上優(yōu)化和部署<b class='flag-5'>Phi-3</b>-min<b class='flag-5'>模型</b>