99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

超算訓(xùn)練大模型,不浪費(fèi)一丁點(diǎn)計(jì)算資源

E4Life ? 來(lái)源:電子發(fā)燒友網(wǎng) ? 作者:周凱揚(yáng) ? 2024-05-20 07:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/周凱揚(yáng))近年來(lái),有關(guān)大語(yǔ)言模型(LLM)的開發(fā)非?;钴S,尤其是在中國(guó)、美國(guó)等市場(chǎng)。以O(shè)penAI開發(fā)的ChatGPT為例,其迅速普及極大影響了技術(shù)研發(fā)、經(jīng)濟(jì)系統(tǒng)等,為此不少國(guó)家政府也投入到LLM的計(jì)算資源整合中來(lái),從而不至于落后這輪新的全球技術(shù)軍備戰(zhàn)。同樣的計(jì)算資源競(jìng)爭(zhēng)也發(fā)生在超算領(lǐng)域,而兩者的計(jì)算資源存在一定的重合,不少人開始借助超算來(lái)進(jìn)行LLM的開發(fā)。

超算訓(xùn)練大模型的天然優(yōu)勢(shì)

大語(yǔ)言模型的訓(xùn)練經(jīng)常會(huì)撞上GPU的內(nèi)存墻,比如訓(xùn)練一個(gè)萬(wàn)億參數(shù)的模型,就需要至少24TB的GPU內(nèi)存。好在對(duì)于現(xiàn)代超算系統(tǒng)而言,GPU已經(jīng)成為不可或缺的算力資源之一,不少超算的GPU規(guī)模與云服務(wù)廠商的數(shù)據(jù)中心相比,也不遑多讓。以目前排名第一的Frontier超算為例,就集成了37888塊AMD MI250X GPU。

美國(guó)橡樹嶺國(guó)家實(shí)驗(yàn)室的研究人員除了用Frontier完成科學(xué)計(jì)算任務(wù)以外,也使用了一部分GPU資源訓(xùn)練一個(gè)萬(wàn)億級(jí)參數(shù)的LLM。據(jù)他們發(fā)布的論文,使用3072塊MI250X GPU,他們訓(xùn)練了一個(gè)一萬(wàn)億參數(shù)的大語(yǔ)言模型,這樣的規(guī)模已經(jīng)與OpenAI的GPT-4在同一水平線上了。

絕大多數(shù)模型的內(nèi)存要求,除了來(lái)自參數(shù)量外,也來(lái)自梯度和優(yōu)化器狀態(tài)。盡管對(duì)大模型訓(xùn)練的任務(wù)進(jìn)行了并行分解,美國(guó)橡樹嶺國(guó)家實(shí)驗(yàn)室的研究人員發(fā)現(xiàn)訓(xùn)練一個(gè)萬(wàn)億級(jí)別的大模型還是需要14TB的內(nèi)存,好在單個(gè)MI250X就擁有64GB的顯存,足以滿足訓(xùn)練要求。

富岳大模型

日前,一隊(duì)日本研究員發(fā)布了富岳-LLM,一個(gè)專門針對(duì)日語(yǔ)能力進(jìn)行加強(qiáng)的大語(yǔ)言模型,由RIKEN的超算系統(tǒng)富岳訓(xùn)練。盡管目前GPU才是訓(xùn)練LLM的首選硬件,而富岳超算是基于自研的Arm架構(gòu)處理器構(gòu)筑的,只有CPU并沒有GPU。

為了在富岳上訓(xùn)練大語(yǔ)言模型,研究員們開發(fā)了分布式的訓(xùn)練方案,將深度學(xué)習(xí)框架Megatron-DeepSpeed移植到富岳上,從而優(yōu)化Transformer模型在富岳上的性能表現(xiàn)。通過加速Transformer的密集矩陣乘法庫(kù),并結(jié)合三種并行化技術(shù)優(yōu)化富岳的通信性能,富岳的并行訓(xùn)練能力得到了最大化。

富岳大模型有130億參數(shù),比目前已經(jīng)在日本廣泛使用的70億參數(shù)模型規(guī)模還要大,盡管市面上早已出現(xiàn)參數(shù)更大的模型,但對(duì)于富岳超算來(lái)說,這已經(jīng)是一個(gè)平衡高性能與計(jì)算資源的選擇了。

除此之外,不少日本公司開發(fā)的大模型采用持續(xù)學(xué)習(xí),采用海外開發(fā)的公開模型,用日本數(shù)據(jù)進(jìn)行持續(xù)訓(xùn)練。而富岳大模型則是采用團(tuán)隊(duì)自己的數(shù)據(jù)從頭開始訓(xùn)練的,所以在透明度和安全性上更高一籌。

富岳大模型用到了3800萬(wàn)個(gè)Token和富岳超算的13824個(gè)節(jié)點(diǎn),其數(shù)據(jù)60%為日語(yǔ),并與英語(yǔ)、數(shù)學(xué)運(yùn)算和代碼結(jié)合。該模型在人文和社會(huì)科學(xué)任務(wù)中獲得了9.18的基準(zhǔn)跑分,可以結(jié)合敬語(yǔ)或日語(yǔ)的其他特征進(jìn)行自然對(duì)話。

寫在最后

隨著各地區(qū)紛紛開始建設(shè)超算智算資源,如何提高這些計(jì)算資源的利用率也成了關(guān)鍵。而訓(xùn)練大模型恰好需要用到如此龐大的計(jì)算資源,也有助于為各行各業(yè)提供可用大模型應(yīng)用,由此看來(lái),未來(lái)超算上大模型訓(xùn)練的場(chǎng)景也會(huì)越來(lái)越普遍。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 超算
    +關(guān)注

    關(guān)注

    1

    文章

    117

    瀏覽量

    9352
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3139

    瀏覽量

    4062
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    力網(wǎng)絡(luò)的“神經(jīng)突觸”:AI互聯(lián)技術(shù)如何重構(gòu)分布式訓(xùn)練范式

    過程中,由于單個(gè)AI芯片的力提升速度無(wú)法跟上模型參數(shù)的增長(zhǎng)速率,再加上龐大的模型參數(shù)和訓(xùn)練數(shù)據(jù),已遠(yuǎn)遠(yuǎn)超出單個(gè)AI芯片甚至單臺(tái)服務(wù)器的能力范圍。因此,需要將數(shù)據(jù)樣本和
    的頭像 發(fā)表于 06-08 08:11 ?6414次閱讀
    <b class='flag-5'>算</b>力網(wǎng)絡(luò)的“神經(jīng)突觸”:AI互聯(lián)技術(shù)如何重構(gòu)分布式<b class='flag-5'>訓(xùn)練</b>范式

    AI原生架構(gòu)升級(jí):RAKsmart服務(wù)器在超大規(guī)模模型訓(xùn)練中的力突破

    近年來(lái),隨著千億級(jí)參數(shù)模型的崛起,AI訓(xùn)練對(duì)力的需求呈現(xiàn)指數(shù)級(jí)增長(zhǎng)。傳統(tǒng)服務(wù)器架構(gòu)在應(yīng)對(duì)分布式訓(xùn)練、高并發(fā)計(jì)算和顯存優(yōu)化等場(chǎng)景時(shí)逐漸顯露瓶
    的頭像 發(fā)表于 04-24 09:27 ?294次閱讀

    RAKsmart智能力架構(gòu):異構(gòu)計(jì)算+低時(shí)延網(wǎng)絡(luò)驅(qū)動(dòng)企業(yè)AI訓(xùn)練范式升級(jí)

    在AI大模型參數(shù)量突破萬(wàn)億、多模態(tài)應(yīng)用爆發(fā)的今天,企業(yè)AI訓(xùn)練正面臨力效率與成本的雙重挑戰(zhàn)。RAKsmart推出的智能力架構(gòu),以異構(gòu)計(jì)算
    的頭像 發(fā)表于 04-17 09:29 ?316次閱讀

    利用RAKsmart服務(wù)器托管AI模型訓(xùn)練的優(yōu)勢(shì)

    AI模型訓(xùn)練需要強(qiáng)大的計(jì)算資源、高效的存儲(chǔ)和穩(wěn)定的網(wǎng)絡(luò)支持,這對(duì)服務(wù)器的性能提出了較高要求。而RAKsmart服務(wù)器憑借其核心優(yōu)勢(shì),成為托管AI模型
    的頭像 發(fā)表于 03-18 10:08 ?259次閱讀

    讓大模型訓(xùn)練更高效,奇異摩爾用互聯(lián)創(chuàng)新方案定義下代AI計(jì)算

    ? 電子發(fā)燒友網(wǎng)報(bào)道(文/吳子鵬)近段時(shí)間以來(lái),DeepSeek現(xiàn)象級(jí)爆火引發(fā)產(chǎn)業(yè)對(duì)大規(guī)模數(shù)據(jù)中心建設(shè)的思考和爭(zhēng)議。在訓(xùn)練端,DeepSeek以開源模型通過算法優(yōu)化(如稀疏計(jì)算、動(dòng)態(tài)
    的頭像 發(fā)表于 02-18 09:19 ?1313次閱讀
    讓大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>更高效,奇異摩爾用互聯(lián)創(chuàng)新方案定義下<b class='flag-5'>一</b>代AI<b class='flag-5'>計(jì)算</b>

    國(guó)家平臺(tái)推出AI生態(tài)加速計(jì)劃

    向有需求的企業(yè)免費(fèi)開放為期三個(gè)月的DeepSeek API接口使用權(quán)。DeepSeek作為國(guó)家互聯(lián)網(wǎng)平臺(tái)的重要技術(shù)成果,其滿血版模型鏡像已正式上線,并將通過API接口的形式,為企業(yè)提供強(qiáng)大的AI
    的頭像 發(fā)表于 02-14 09:16 ?502次閱讀

    憶阻器存體技術(shù)深度解析

    AI領(lǐng)域正在經(jīng)歷場(chǎng)顛覆性的變革!DeepSeek,款近期火爆全球的開源AI大模型,正與GPT-4、Sora等模型起,掀起
    的頭像 發(fā)表于 02-13 17:32 ?793次閱讀
    憶阻器存<b class='flag-5'>算</b><b class='flag-5'>一</b>體技術(shù)深度解析

    GPU是如何訓(xùn)練AI大模型

    在AI模型訓(xùn)練過程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長(zhǎng)的。接下來(lái),AI部落小編帶您了解GPU是如何訓(xùn)練AI大
    的頭像 發(fā)表于 12-19 17:54 ?742次閱讀

    AI云端計(jì)算資源有哪些類型

    AI云端計(jì)算資源涵蓋了從基礎(chǔ)設(shè)施到軟件服務(wù)的多個(gè)層面,為AI模型訓(xùn)練、推理和部署提供了強(qiáng)大的支持。下面,AI部落小編為您詳細(xì)介紹AI云端計(jì)算
    的頭像 發(fā)表于 11-15 09:39 ?569次閱讀

    從零開始訓(xùn)練個(gè)大語(yǔ)言模型需要投資多少錢?

    關(guān)于訓(xùn)練技巧和模型評(píng)估的文章,但很少有直接告訴你如何估算訓(xùn)練時(shí)間和成本的。前面分享了些關(guān)于大模型/本地知識(shí)庫(kù)的安裝部署方法,無(wú)需編寫代碼,
    的頭像 發(fā)表于 11-08 14:15 ?786次閱讀
    從零開始<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>一</b>個(gè)大語(yǔ)言<b class='flag-5'>模型</b>需要投資多少錢?

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語(yǔ)言模型(LLM)是個(gè)復(fù)雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計(jì)算資源和專業(yè)知識(shí)
    的頭像 發(fā)表于 11-08 09:30 ?1509次閱讀

    ai模型訓(xùn)練需要什么配置

    AI模型訓(xùn)練個(gè)復(fù)雜且資源密集的過程,它依賴于高性能的硬件配置來(lái)確保訓(xùn)練的效率和效果。 、處
    的頭像 發(fā)表于 10-17 18:10 ?3835次閱讀

    模型訓(xùn)練時(shí)代,九章云極DataCanvas公司打造普惠力服務(wù)新范式

    在數(shù)據(jù)存儲(chǔ)與處理的關(guān)鍵環(huán)節(jié),大模型訓(xùn)練模式對(duì)系統(tǒng)的安全性提出了更高要求,以確保資源能夠無(wú)縫且安全地融入各類業(yè)務(wù)系統(tǒng)。依托業(yè)務(wù)系統(tǒng)與互聯(lián)網(wǎng)的海量數(shù)據(jù)
    的頭像 發(fā)表于 09-14 16:00 ?662次閱讀
    大<b class='flag-5'>模型</b>后<b class='flag-5'>訓(xùn)練</b>時(shí)代,九章云極DataCanvas公司打造普惠<b class='flag-5'>算</b>力服務(wù)新范式

    摩爾線程與羽人科技完成大語(yǔ)言模型訓(xùn)練測(cè)試

    近日,摩爾線程與羽人科技攜手宣布,雙方已成功實(shí)現(xiàn)夸娥(KUAE)千卡智集群與羽人系列模型解決方案的訓(xùn)練兼容適配。在本次測(cè)試中,羽人科技通過摩爾線程夸娥千卡智集群,高效完成了70億參
    的頭像 發(fā)表于 08-27 16:19 ?821次閱讀

    如何理解云計(jì)算?

    和硬件資源。 在數(shù)字化時(shí)代,互聯(lián)網(wǎng)已經(jīng)成為基礎(chǔ)設(shè)施。云計(jì)算使得數(shù)據(jù)中心能夠像臺(tái)計(jì)算機(jī)樣去工作。通過互聯(lián)網(wǎng)將
    發(fā)表于 08-16 17:02