99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

中科馭數(shù)高性能網(wǎng)卡產(chǎn)品 成就DeepSeek推理模型網(wǎng)絡(luò)底座

中科馭數(shù) ? 來(lái)源:中科馭數(shù) ? 作者:中科馭數(shù) ? 2025-03-31 11:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2025年初,DeepSeek-V3與DeepSeek-R1推理模型的開(kāi)源引爆了AI社區(qū),這兩款產(chǎn)品作為通用千億級(jí)模型與專用推理優(yōu)化模型,為全球AI技術(shù)生態(tài)帶來(lái)重大變革,不僅展示了中國(guó)AGI技術(shù)的突破性進(jìn)展,而且開(kāi)源模型發(fā)展帶來(lái)部署成本的極速下降,為定制化AGI服務(wù),推理本地化部署,帶來(lái)發(fā)展機(jī)遇,也掀起了新的一輪智算基礎(chǔ)設(shè)施建設(shè)浪潮。

與按Token生成數(shù)量計(jì)費(fèi)的AI云服務(wù)模式不同,出于數(shù)據(jù)安全的考慮,很多用戶選擇采用本地化部署推理集群的方式將AI能力集成到當(dāng)前業(yè)務(wù)流中。由于整個(gè)推理應(yīng)用的業(yè)務(wù)鏈條非常長(zhǎng),本地化部署需要綜合考慮如下各個(gè)方面與需求的匹配度:

硬件與基礎(chǔ)設(shè)施規(guī)劃:包括GPU與專用芯片選型、網(wǎng)絡(luò)架構(gòu)優(yōu)化與隔離、存儲(chǔ)方案評(píng)估

模型優(yōu)化與部署策略:包括量化壓縮等推理加速技術(shù)選型、資源動(dòng)態(tài)調(diào)度技術(shù)等

安全與合規(guī)性:需要綜合考慮數(shù)據(jù)使用的便捷性與合規(guī)要求

高可用與容災(zāi)設(shè)計(jì):包括故障自愈方案、數(shù)據(jù)備份等

成本控制:根據(jù)業(yè)務(wù)使用模式合理制定需求規(guī)格,嚴(yán)控成本

為了更好地服務(wù)客戶完成本地化推理集群的選型與部署工作,近期中科馭數(shù)作為國(guó)內(nèi)AI網(wǎng)絡(luò)的頭部DPU芯片產(chǎn)品供應(yīng)商,從網(wǎng)絡(luò)選型對(duì)推理集群性能影響的角度出發(fā),設(shè)計(jì)與執(zhí)行了一系列實(shí)驗(yàn)并收集了翔實(shí)的一手材料數(shù)據(jù)。

本實(shí)驗(yàn)環(huán)境共采用了DeepSeek-R1-Distill-Qwen-32B未量化版本作為基礎(chǔ)模型,基于vLLM搭建了推理集群,并采用evalscope對(duì)推理效果完成了評(píng)估。本次時(shí)延共使用了兩臺(tái)雙GPU服務(wù)器,服務(wù)器基本配置如下:

wKgZPGfqEmyAYGdXAABBxTO92jo515.png

首先,我們關(guān)注采用TCP方式作為底層推理網(wǎng)絡(luò)基礎(chǔ)時(shí),進(jìn)行了如下測(cè)試:

當(dāng)采用2TP+2PP的模型切割方式時(shí),獲得了如下基礎(chǔ)數(shù)據(jù):

wKgZO2fqEm2AfHMkAACuI4a0wyQ954.png

隨后切換到4TP+1PP模型切割模式,加大了不同節(jié)點(diǎn)間的矩陣數(shù)據(jù)交換需求,得到如下數(shù)據(jù):

wKgZPGfqEm2ATKkCAACg0byqwjM265.png

為了更好的體現(xiàn)測(cè)試數(shù)據(jù)的公平性,本測(cè)試隨后選擇行業(yè)領(lǐng)導(dǎo)企業(yè)的成熟網(wǎng)卡產(chǎn)品進(jìn)行了實(shí)驗(yàn),得出了基本一致的數(shù)據(jù)測(cè)試結(jié)果。并且在TCP模式下,中科馭數(shù)FlexFlow-2200T設(shè)備基本達(dá)到了與國(guó)際一線廠商相同的能力水平。

wKgZO2fqEm2AWR7HAAESY-R7iYQ492.png

隨后,本實(shí)驗(yàn)將底層基礎(chǔ)網(wǎng)絡(luò)技術(shù)切換為RDMA網(wǎng)絡(luò),進(jìn)行了測(cè)試驗(yàn)證并收集到如下數(shù)據(jù):

wKgZPGfqEm6ASuZiAAE2xuyU9TE948.png

通過(guò)對(duì)比可以得知在模型進(jìn)行良好切分設(shè)計(jì)的情況下,RDMA網(wǎng)絡(luò)并未能提升整體推理性能,但是在節(jié)點(diǎn)間需要傳遞張量數(shù)據(jù)的情況下,RDMA網(wǎng)絡(luò)可大幅提升模型推理性能,同時(shí)在大并發(fā)規(guī)模時(shí),能夠更好的保持推理集群的服務(wù)穩(wěn)定性。

wKgZO2fqEm6ANiufAAAtfole5AE22.webpwKgZPGfqEm6ABPWOAAAytATWCfA30.webp

通過(guò)一系列的實(shí)驗(yàn)結(jié)果,我們可以得出如下結(jié)論:

一、良好的模型切分設(shè)計(jì)可以大幅提升模型性能,此時(shí)無(wú)需引入復(fù)雜的RDMA網(wǎng)絡(luò)運(yùn)維,即可獲得最佳的推理性能體驗(yàn),從而獲得最高的投入產(chǎn)出比。

二、在單臺(tái)服務(wù)器GPU算力受限,不得不在節(jié)點(diǎn)間進(jìn)行張量切分時(shí),可以使用RDMA網(wǎng)絡(luò)保證推理模型的服務(wù)性能與穩(wěn)定性。但是引入RDMA帶來(lái)性能提升的同時(shí),成本的提升比例也是一致的。大家可以按照實(shí)際應(yīng)用場(chǎng)景,考慮多方因素后綜合選擇。

wKgZO2fqEm-ACDe5AAAeYNUAnHM46.webp

中科馭數(shù)的作為國(guó)內(nèi)全品種網(wǎng)卡的研發(fā)企業(yè),基于全自研、國(guó)產(chǎn)芯片K2-Pro打造的FlexFlow-2200T網(wǎng)卡,可以承擔(dān)智算大模型的網(wǎng)絡(luò)底座,為您的智算模型增加一顆“中國(guó)芯”。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 網(wǎng)卡
    +關(guān)注

    關(guān)注

    4

    文章

    327

    瀏覽量

    28087
  • DPU
    DPU
    +關(guān)注

    關(guān)注

    0

    文章

    393

    瀏覽量

    24938
  • DeepSeek
    +關(guān)注

    關(guān)注

    1

    文章

    798

    瀏覽量

    1757
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】書籍介紹+第一章讀后心得

    對(duì) DeepSeek性能突破形成直觀的認(rèn)識(shí)。同時(shí),介紹 DeepSeek模型家族 ,涵蓋通用語(yǔ)言模型、多模態(tài)
    發(fā)表于 07-17 11:59

    信而泰×DeepSeek:AI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    網(wǎng)絡(luò)智能診斷平臺(tái)。通過(guò)對(duì)私有化網(wǎng)絡(luò)數(shù)據(jù)的定向訓(xùn)練,信而泰打造了高性能、高可靠性的網(wǎng)絡(luò)診斷模型,顯著提升了AI輔助診斷的精準(zhǔn)度與實(shí)用性。該方案
    發(fā)表于 07-16 15:29

    【書籍評(píng)測(cè)活動(dòng)NO.62】一本書讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    。DeepSeek-V3 的發(fā)布幾乎沒(méi)有預(yù)熱和炒作,僅憑借其出色的效果和超低的成本迅速走紅。 DeepSeek-R1 則是在 DeepSeek-V3 的基礎(chǔ)上構(gòu)建的推理模型,它在后訓(xùn)練
    發(fā)表于 06-09 14:38

    詳解 LLM 推理模型的現(xiàn)狀

    領(lǐng)域的最新研究進(jìn)展,特別是自DeepSeekR1發(fā)布后興起的推理時(shí)間計(jì)算擴(kuò)展相關(guān)內(nèi)容。在LLM中實(shí)施和改進(jìn)推理簡(jiǎn)單來(lái)說(shuō),基于LLM的推理模型是一種旨在通過(guò)生成中間
    的頭像 發(fā)表于 04-03 12:09 ?509次閱讀
    詳解 LLM <b class='flag-5'>推理模型</b>的現(xiàn)狀

    如何使用OpenVINO運(yùn)行DeepSeek-R1蒸餾模型

    DeepSeek-R1在春節(jié)期間引發(fā)了全球科技界的熱度,DeepSeek-R1 是由 DeepSeek 開(kāi)發(fā)的開(kāi)源推理模型,用于解決需要邏輯推理
    的頭像 發(fā)表于 03-12 13:45 ?1432次閱讀
    如何使用OpenVINO運(yùn)行<b class='flag-5'>DeepSeek</b>-R1蒸餾<b class='flag-5'>模型</b>

    合肥市科技局蒞臨中科數(shù)調(diào)研

    近日,合肥市科技局副局長(zhǎng)呂波一行來(lái)訪中科數(shù)考察調(diào)研。
    的頭像 發(fā)表于 02-27 14:27 ?660次閱讀

    中科數(shù)K2-Pro芯片助力智算中心創(chuàng)新

    以其卓越的網(wǎng)絡(luò)處理能力,成為支撐國(guó)產(chǎn)化推理集群應(yīng)用需求的關(guān)鍵。該芯片不僅能夠滿足高性能計(jì)算、大數(shù)據(jù)分析等復(fù)雜任務(wù)對(duì)網(wǎng)絡(luò)帶寬和延遲的嚴(yán)苛要求,還在中科
    的頭像 發(fā)表于 02-19 15:00 ?561次閱讀

    OpenAI O3與DeepSeek R1:推理模型性能深度分析

    OpenAI剛推出的O3和DeepSeek的R1代表了推理模型領(lǐng)域的重大進(jìn)步。這兩種模型都因在各種基準(zhǔn)測(cè)試中的出色表現(xiàn)而備受關(guān)注,引發(fā)了人們對(duì)人工智能的未來(lái)及其對(duì)各個(gè)行業(yè)的潛在影響的討論。據(jù)我們所知
    的頭像 發(fā)表于 02-18 11:07 ?954次閱讀

    添越智創(chuàng)基于 RK3588 開(kāi)發(fā)板部署測(cè)試 DeepSeek 模型全攻略

    在 AI 技術(shù)日新月異的當(dāng)下,新的模型與突破不斷涌現(xiàn)。近期,DeepSeek(深度求索)模型以其卓越性能和親民成本,迅速在全球開(kāi)發(fā)者圈子里引發(fā)熱議。作為一款強(qiáng)大的語(yǔ)言
    發(fā)表于 02-14 17:42

    了解DeepSeek-V3 和 DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇

    功能對(duì)比: 1. 核心定位差異 維度 DeepSeek-V3 DeepSeek-R1 目標(biāo)場(chǎng)景 通用型任務(wù)(文本生成、多輪對(duì)話等) 復(fù)雜推理與數(shù)學(xué)能力優(yōu)先(如STEM領(lǐng)域) 優(yōu)化方向 平衡性能
    發(fā)表于 02-14 02:08

    摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務(wù)

    。 據(jù)悉,DeepSeek開(kāi)源模型在多語(yǔ)言理解與復(fù)雜推理任務(wù)中一直表現(xiàn)出卓越的性能,其V3、R1等系列模型更是備受業(yè)界關(guān)注。而此次摩爾線程所
    的頭像 發(fā)表于 02-06 13:49 ?823次閱讀

    科大訊飛發(fā)布星火深度推理模型X1

    今天,科大訊飛正式發(fā)布星火深度推理模型X1,星火4.0 Turbo底座全面升級(jí),首發(fā)星火語(yǔ)音同傳大模型。
    的頭像 發(fā)表于 01-15 15:54 ?721次閱讀

    中科數(shù)受邀出席華泰證券金融科技峰會(huì)

    近日中科數(shù)作為創(chuàng)新生態(tài)伙伴,受邀參與華泰證券在香港舉辦的2024年度金融科技峰會(huì)。中科數(shù)創(chuàng)始
    的頭像 發(fā)表于 12-13 15:19 ?665次閱讀

    澎峰科技高性能模型推理引擎PerfXLM解析

    自ChatGPT問(wèn)世以來(lái),大模型遍地開(kāi)花,承載大模型應(yīng)用的高性能推理框架也不斷推出,大有百家爭(zhēng)鳴之勢(shì)。在這種情況下,澎峰科技作為全球領(lǐng)先的智能計(jì)算服務(wù)提供商,在2023年11月25日發(fā)
    的頭像 發(fā)表于 09-29 10:14 ?1479次閱讀
    澎峰科技<b class='flag-5'>高性能</b>大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>引擎PerfXLM解析

    中科數(shù)云”解決方案入選2024中國(guó)云生態(tài)典型應(yīng)用案例

    2024年7月4日,在全球數(shù)字經(jīng)濟(jì)大會(huì)以“中國(guó)云生態(tài)”為主題的云融技術(shù)創(chuàng)新引領(lǐng)論壇上,中科數(shù)憑借其卓越的創(chuàng)新能力和深厚的技術(shù)積累,其“云”高性能
    的頭像 發(fā)表于 08-02 11:30 ?1183次閱讀
    <b class='flag-5'>中科</b><b class='flag-5'>馭</b><b class='flag-5'>數(shù)</b>“<b class='flag-5'>馭</b>云”解決方案入選2024中國(guó)云生態(tài)典型應(yīng)用案例