99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達(dá)H100的最強(qiáng)替代者

傳感器技術(shù) ? 來源:半導(dǎo)體行業(yè)觀察 ? 2023-11-08 15:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在我們(指代servethehome)撰寫本文時(shí),NVIDIA H100 80GB PCIe 在 CDW 等在線零售商處的售價(jià)為 3.2 萬美元,并且缺貨了大約六個(gè)月??梢岳斫獾氖?,NVIDIA 的高端(幾乎)萬能 GPU 的價(jià)格非常高,需求也是如此。NVIDIA 為許多人工智能用戶和那些在企業(yè)中運(yùn)行混合工作負(fù)載的用戶提供了一種替代方案,但這種方案并不引人注目,但這是非常好的。NVIDIA L40S 是面向圖形的 L40 的變體,它正迅速成為人工智能領(lǐng)域最保守的秘密。讓我們深入了解原因。

NVIDIA A100、NVIDIA L40S 和 NVIDIA H100

首先,我們首先要說的是,如果您現(xiàn)在想要訓(xùn)練基礎(chǔ)模型(例如 ChatGPT),那么 NVIDIA H100 80GB SXM5 仍然是首選 GPU。一旦基礎(chǔ)模型經(jīng)過訓(xùn)練,通常可以在成本和功耗顯著降低的部件上根據(jù)特定領(lǐng)域的數(shù)據(jù)或推理來定制模型。

NVIDIA H100

目前,用于高端推理的 GPU 主要有三種:NVIDIA A100、NVIDIA H100 和新的 NVIDIA L40S。我們將跳過NVIDIA L4 24GB,因?yàn)樗袷堑投送评砜ā?/p>

NVIDIA H100 L40S A100 堆棧頂部

NVIDIA A100 和 H100 型號(hào)基于該公司各自代的旗艦 GPU。由于我們討論的是 PCIe 而不是 SXM 模塊,因此外形尺寸之間兩個(gè)最顯著的差異是 NVLink 和功耗。SXM 模塊專為更高功耗而設(shè)計(jì)(大約是 PCIe 版本的兩倍),并通過 NVLink 和多 GPU 組件中的 NVSwitch 拓?fù)溥M(jìn)行互連。

NVIDIA A100 PCIe于 2020 年以 40GB 型號(hào)推出,然后在 2021 年中期,該公司將產(chǎn)品更新為A100 80GB PCIe 附加卡。多年后,這些卡仍然很受歡迎。

NVIDIA A100 80GB PCIe

NVIDIA H100 PCIe是專為主流服務(wù)器設(shè)計(jì)的低功耗 H100??紤] PCIe 卡的一種方法是,在電壓/頻率曲線的不同部分運(yùn)行相似數(shù)量的芯片,旨在降低性能,但功耗也低得多。

NVIDIA H100 型號(hào)和 NVLink

即使在 H100 系列內(nèi)也存在一些差異。NVIDIA H100 PCIe 仍然是 H100,但在 PCIe 外形規(guī)格中,它降低了性能、功耗和一些互連(例如 NVLink 速度)。

bae4119c-7dc2-11ee-939d-92fbcf53809c.jpg

L40S 則完全不同。NVIDIA 采用了基礎(chǔ) L40(一款使用 NVIDIA 最新 Ada Lovelace 架構(gòu)的數(shù)據(jù)中心可視化 GPU),并更改了調(diào)整,使其更多地針對(duì) AI 而不是可視化進(jìn)行調(diào)整。

NVIDIA L40S 是一款令人著迷的 GPU,因?yàn)樗A袅?L40 的光線追蹤核心和 DisplayPort 輸出以及支持 AV1 的 NVENC / NVDEC 等功能。與此同時(shí),NVIDIA 將更多的功率用于驅(qū)動(dòng) GPU 人工智能部分的時(shí)鐘。

NVIDIA L40S 4x DisplayPort

我們將其放在圖表上以便更容易可視化。NVIDIA 的規(guī)格有時(shí)甚至?xí)鶕?jù) NVIDIA 來源單一視圖而有所不同,因此這是我們能找到的最好的規(guī)格,如果我們獲得規(guī)格更新,我們將對(duì)其進(jìn)行更新。我們還包括雙卡H100 NVL,它有兩個(gè)增強(qiáng)型 H100,它們之間有一個(gè) NVLink 橋,因此將其視為雙卡解決方案,而其余的都是單卡。

bb0417f8-7dc2-11ee-939d-92fbcf53809c.png

這里有幾點(diǎn)值得關(guān)注:

與 L40 相比,L40S 是一款在人工智能訓(xùn)練和推理方面大幅改進(jìn)的卡,但人們可以很容易地看到共同的傳統(tǒng)。

如果您需要絕對(duì)的內(nèi)存容量、帶寬或 FP64 性能,則 L40 和 L40S 不適合。鑒于目前 AI 工作負(fù)載取代傳統(tǒng) FP64 計(jì)算的相對(duì)份額,大多數(shù)人都會(huì)接受這種權(quán)衡。

L40S 的內(nèi)存看起來可能比 NVIDIA A100 少得多,而且物理上確實(shí)如此,但這并不是故事的全部。NVIDIA L40S 支持NVIDIA Transformer Engine和 FP8。使用 FP8 可以極大地減小數(shù)據(jù)大小,因此,與 FP16 值相比,F(xiàn)P8 值可以使用更少的內(nèi)存,并且需要更少的內(nèi)存帶寬來移動(dòng)。NVIDIA 正在推動(dòng) Transformer Engine,因?yàn)?H100 也支持它,有助于降低其 AI 部件的成本或提高其性能。

L40S 有一組更注重可視化的視頻編碼/解碼,而 H100 則專注于解碼方面。

NVIDIA H100 速度更快。它還花費(fèi)更多。從某種意義上說,在我們撰寫本文時(shí),在列出公開價(jià)格的 CDW 上,H100 的價(jià)格約為 L40S 價(jià)格的 2.6 倍。

另一個(gè)重要問題是可用性。如今,獲得 NVIDIA L40S 比排隊(duì)等待 NVIDIA H100 快得多。

秘密在于,在 AI 硬件方面取得領(lǐng)先的一種新的常見方法是不使用 H100 進(jìn)行模型定制和推理。相反,我們又回到了我們多年前介紹過的熟悉的架構(gòu),即密集 PCIe 服務(wù)器。2017 年,當(dāng)我們進(jìn)行DeepLearning11 時(shí),將 NVIDIA GeForce GTX 1080 Ti 塞進(jìn)服務(wù)器中的 10 倍 NVIDIA GTX 1080 Ti 單根深度學(xué)習(xí)服務(wù)器甚至是大公司(例如世界某些地區(qū)的搜索/網(wǎng)絡(luò)超大規(guī)模企業(yè))的首選架構(gòu)駕駛公司。

NVIDIA 更改了其 EULA,禁止此類配置,并且使其軟件更加關(guān)注用于 AI 推理和訓(xùn)練的數(shù)據(jù)中心部分,因此現(xiàn)在情況有所不同。

到 2023 年,考慮同樣的概念,但采用 NVIDIA L40S 技術(shù)(并且沒有服務(wù)器“humping”。)

通過購買 L40S 服務(wù)器并獲得比使用 H100 更低成本的 GPU,人們可以獲得類似的性能,而且價(jià)格可能更低。

NVIDIA L40S 與 H100 的其他考慮因素

L40S 還有其他幾個(gè)方面需要考慮。一是它支持NVIDIA Virtual GPU vGPU 16.1,而 H100 仍然只支持 vGPU 15。NVIDIA 正在將其 AI 芯片從 vGPU 支持方面進(jìn)行一些拆分。

bb239d62-7dc2-11ee-939d-92fbcf53809c.png

對(duì)于那些想要部署一種 GPU 機(jī)器然后能夠運(yùn)行不同類型的工作負(fù)載的人來說,像 L40S 這樣的東西是有意義的。鑒于其可視化根源,它還擁有支持 AV1 和 RT 內(nèi)核的 NVIDIA 視頻編碼引擎。

L40S 不支持一項(xiàng)功能,那就是 MIG。我們之前已經(jīng)研究過 MIG,但它允許將 H100 分成最多 7 個(gè)不同大小的分區(qū)。這對(duì)于在公共云中拆分 H100 GPU 非常有用,以便可以在客戶之間共享 GPU 資源。對(duì)于企業(yè)來說,這通常是一個(gè)較低興奮度的功能。

此外,部署 L40S 的功耗較低,僅為 SXM5 系統(tǒng)功耗的一半。這對(duì)于那些想要橫向擴(kuò)展但每個(gè)機(jī)架可能沒有大量電力預(yù)算的人來說非常有吸引力。

最重要的是,L40S 的速度不如 H100,但憑借 NVIDIA 的 FP8 和 Transformer Engine 支持,對(duì)于許多人來說,它比 H100 更可用、更容易部署,而且通常價(jià)格更低。

最后的話

關(guān)于 NVIDIA H100 PCIe 與 L40S 以及為什么人們會(huì)使用任一版本,目前有很多非常糟糕的信息。希望這有助于在更大程度上澄清這一點(diǎn)。對(duì)我們來說,L40S 并不便宜,但它讓我們想起 6 多年前,當(dāng)時(shí)人工智能領(lǐng)域的做法是在服務(wù)器中使用成本較低的 NVIDIA GPU,然后使用更多的 GPU。NVIDIA 再次推出該型號(hào),使用 L40S 和官方認(rèn)可的架構(gòu),支持多達(dá)數(shù)千個(gè) GPU。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5284

    瀏覽量

    106124
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4930

    瀏覽量

    130990
  • PCIe
    +關(guān)注

    關(guān)注

    16

    文章

    1333

    瀏覽量

    84940

原文標(biāo)題:英偉達(dá)H100的最強(qiáng)替代者

文章出處:【微信號(hào):WW_CGQJS,微信公眾號(hào):傳感器技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    GPU 維修干貨 | 英偉達(dá) GPU H100 常見故障有哪些?

    ABSTRACT摘要本文主要介紹英偉達(dá)H100常見的故障類型和問題。JAEALOT2025年5月5日今年,國家政府報(bào)告提出要持續(xù)推進(jìn)“人工智能+”行動(dòng),大力發(fā)展人工智能行業(yè),市場上對(duì)算力的需求持續(xù)
    的頭像 發(fā)表于 05-05 09:03 ?739次閱讀
    GPU 維修干貨 | <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b> GPU <b class='flag-5'>H100</b> 常見故障有哪些?

    特朗普要叫停英偉達(dá)對(duì)華特供版 英偉達(dá)H20出口限制 或損失55億美元

    是“中國特供版”人工智能芯片;是英偉達(dá)公司為符合美國出口規(guī)定專門為中國市場開發(fā)的定制芯片,H20芯片在訓(xùn)練AI模型方面不如英偉達(dá)其他芯片速度
    的頭像 發(fā)表于 04-16 16:59 ?1180次閱讀

    英偉達(dá)A100H100比較

    英偉達(dá)A100H100都是針對(duì)高性能計(jì)算和人工智能任務(wù)設(shè)計(jì)的GPU,但在性能和特性上存在顯著差異。以下是對(duì)這兩款GPU的比較: 1. 架構(gòu)與核心規(guī)格: A
    的頭像 發(fā)表于 02-10 17:05 ?3964次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>A<b class='flag-5'>100</b>和<b class='flag-5'>H100</b>比較

    軟銀攜手英偉達(dá)打造日本最強(qiáng)AI超算

    軟銀集團(tuán)近日宣布,將率先采用英偉達(dá)最新的Blackwell平臺(tái),打造日本最強(qiáng)的AI超級(jí)計(jì)算機(jī)。此舉旨在滿足日本在人工智能領(lǐng)域快速發(fā)展的迫切需求,推動(dòng)國內(nèi)AI技術(shù)的創(chuàng)新與應(yīng)用。
    的頭像 發(fā)表于 11-14 16:25 ?620次閱讀

    英偉達(dá)H100芯片市場降溫

    隨著英偉達(dá)新一代AI芯片GB200需求的不斷攀升,其上一代明星產(chǎn)品H100芯片卻遭遇了市場的冷落。據(jù)業(yè)內(nèi)人士透露,搭載H100的服務(wù)器通常以8卡的形式進(jìn)行出售或出租,而在去年,這類服務(wù)
    的頭像 發(fā)表于 10-28 15:42 ?1544次閱讀

    亞馬遜云科技宣布Amazon EC2 P5e實(shí)例正式可用 由英偉達(dá)H200 GPU提供支持

    現(xiàn)已正式可用。亞馬遜云科技是首個(gè)將英偉達(dá)H200 GPU用于生產(chǎn)環(huán)境的領(lǐng)先云提供商。與基于英偉達(dá)H100
    的頭像 發(fā)表于 09-19 16:16 ?841次閱讀

    英偉達(dá)Blackwell架構(gòu)揭秘:下一個(gè)AI計(jì)算里程碑?# 英偉達(dá)# 英偉達(dá)Blackwell

    英偉達(dá)行業(yè)資訊
    jf_02331860
    發(fā)布于 :2024年08月26日 10:58:09

    英偉達(dá)或取消B100轉(zhuǎn)用B200A代替

    今年3月份,英偉達(dá)在美國加利福尼亞州圣何塞會(huì)議中心召開的GTC 2024大會(huì)上推出了Blackwell架構(gòu)GPU。原定于今年底出貨的B100/B200被寄予厚望,將替代現(xiàn)行
    的頭像 發(fā)表于 08-08 17:19 ?936次閱讀

    英偉達(dá)TITAN AI顯卡曝光,性能狂超RTX 4090達(dá)63%!# 英偉達(dá)# 顯卡

    顯卡英偉達(dá)
    jf_02331860
    發(fā)布于 :2024年07月24日 17:18:28

    英偉達(dá)帶領(lǐng)芯片股飆升 英偉達(dá)大漲4.76%

    1.08%,道指漲0.32%。 AI浪潮之下,業(yè)界預(yù)期正不斷加強(qiáng),在AI算力需求的邊際拉動(dòng)下、疊加消費(fèi)電子復(fù)蘇,新一輪終端AI上新,相關(guān)行業(yè)正迎來具備較強(qiáng)持續(xù)性的上行周期;英偉達(dá)在生成式人工智能浪潮中脫穎而出,其高性能計(jì)算芯片如H100
    的頭像 發(fā)表于 07-23 16:26 ?596次閱讀

    英偉達(dá)在AI芯片市場還能領(lǐng)先多久?

    7月22日,國際媒體傳來消息,英偉達(dá)在近年來興起的生成式人工智能浪潮中脫穎而出,其高性能計(jì)算芯片如H100等廣受業(yè)界青睞,推動(dòng)了公司營收與利潤的大幅增長。這一強(qiáng)勁表現(xiàn)不僅助力英偉
    的頭像 發(fā)表于 07-22 16:18 ?948次閱讀

    英偉達(dá)H20 AI芯片:中國市場新動(dòng)向與業(yè)績預(yù)期

    在科技行業(yè)的持續(xù)關(guān)注下,英偉達(dá)再次成為焦點(diǎn)。據(jù)英國《金融時(shí)報(bào)》7月5日的報(bào)道,英偉達(dá)計(jì)劃在接下來的幾個(gè)月內(nèi)向中國市場交付超過100萬顆新款
    的頭像 發(fā)表于 07-05 16:56 ?1540次閱讀

    英偉達(dá)H200芯片將大規(guī)模交付

    英偉達(dá)AI GPU市場迎來新動(dòng)態(tài),其H200型號(hào)上游芯片端已于第二季度下旬正式進(jìn)入量產(chǎn)階段,預(yù)示著該產(chǎn)品將在第三季度后迎來大量交付。然而,英偉達(dá)
    的頭像 發(fā)表于 07-04 10:29 ?1250次閱讀

    馬斯克自曝訓(xùn)練Grok 3用了10萬塊NVIDIA H100

    在科技界的前沿陣地上,埃隆·馬斯克再次以其前瞻性的視野和大膽的嘗試引領(lǐng)著新的風(fēng)潮。近日,馬斯克在社交媒體X上的一則回應(yīng),不經(jīng)意間透露了其即將推出的AI聊天機(jī)器人Grok 3背后的驚人秘密——這款被馬斯克譽(yù)為“非常特別”的AI產(chǎn)品,竟然是通過10萬塊英偉達(dá)
    的頭像 發(fā)表于 07-03 14:16 ?1250次閱讀