99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

天數(shù)智芯天垓100率先完成百億級參數(shù)大模型訓(xùn)練

天數(shù)智芯 ? 來源:天數(shù)智芯 ? 2023-06-12 15:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

6月,在第五屆智源大會AI系統(tǒng)分論壇上,上海天數(shù)智芯半導(dǎo)體有限公司(以下簡稱“天數(shù)智芯”)對外宣布,在天垓100加速卡的算力集群,基于北京智源人工智能研究院(以下簡稱“智源研究院”)70億參數(shù)的Aquila語言基礎(chǔ)模型,使用代碼數(shù)據(jù)進(jìn)行繼續(xù)訓(xùn)練,穩(wěn)定運(yùn)行19天,模型收斂效果符合預(yù)期,證明天數(shù)智芯有支持百億級參數(shù)大模型訓(xùn)練的能力。

在北京市海淀區(qū)的大力支持下,智源研究院、天數(shù)智芯與愛特云翔共同合作,聯(lián)手開展基于自主通用GPU的大模型CodeGen(高效編碼)項(xiàng)目,通過中文描述來生成可用的C、JavaPython代碼以實(shí)現(xiàn)高效編碼。智源研究院負(fù)責(zé)算法設(shè)計、訓(xùn)練框架開發(fā)、大模型的訓(xùn)練與調(diào)優(yōu),天數(shù)智芯負(fù)責(zé)提供天垓100加速卡、構(gòu)建算力集群及全程技術(shù)支持,愛特云翔負(fù)責(zé)提供算存網(wǎng)基礎(chǔ)硬件及智能化運(yùn)維服務(wù)。

在三方的共同努力下,在基于天垓100加速卡的算力集群上,100B Tokens編程語料、70億參數(shù)量的AquilaCode大模型參數(shù)優(yōu)化工作結(jié)果顯示,1個Epoch后loss下降到0.8,訓(xùn)練速度達(dá)到87K Tokens/s,線性加速比高達(dá)95%以上。與國際主流的A100加速卡集群相比,天垓100加速卡集群的收斂效果、訓(xùn)練速度、線性加速比相當(dāng),穩(wěn)定性更優(yōu)。在HumanEval基準(zhǔn)數(shù)據(jù)集上,以Pass@1作為評估指標(biāo),自主算力集群訓(xùn)練出來的模型測試結(jié)果達(dá)到相近參數(shù)級別大模型的SOAT水平,在AI編程能力與國際主流GPU產(chǎn)品訓(xùn)練結(jié)果相近。

cfc30840-08ef-11ee-962d-dac502259ad0.png

圖 基于天垓100算力集群的AquilaCode大模型訓(xùn)練性能采樣

天垓100率先完成百億級參數(shù)大模型訓(xùn)練,邁出了自主通用GPU大模型應(yīng)用的重要的一步。這一成果充分證明了天垓產(chǎn)品可以支持大模型訓(xùn)練,打通了國內(nèi)大模型創(chuàng)新發(fā)展的關(guān)鍵“堵點(diǎn)”,對于我國大模型自主生態(tài)建設(shè)、產(chǎn)業(yè)鏈安全保障具有十分重大的意義。

接下來,天數(shù)智芯將與合作伙伴們繼續(xù)深入合作,建設(shè)更大規(guī)模的天垓100算力集群,完成更大參數(shù)規(guī)模的大模型訓(xùn)練,以自主通用GPU產(chǎn)品更好支持國內(nèi)大模型創(chuàng)新應(yīng)用,進(jìn)一步夯實(shí)我國算力基礎(chǔ),助力人工智能產(chǎn)業(yè)自主生態(tài)建設(shè)。
責(zé)任編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編程
    +關(guān)注

    關(guān)注

    88

    文章

    3689

    瀏覽量

    95237
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3519

    瀏覽量

    50409
  • 天數(shù)智芯
    +關(guān)注

    關(guān)注

    0

    文章

    99

    瀏覽量

    6174

原文標(biāo)題:天垓100率先完成百億級參數(shù)大模型訓(xùn)練,天數(shù)智芯迎來新的里程碑

文章出處:【微信號:IluvatarCoreX,微信公眾號:天數(shù)智芯】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    沐曦MXMACA軟件平臺在大模型訓(xùn)練方面的優(yōu)化效果

    在如今的人工智能浪潮中,大規(guī)模語言模型(上百億乃至千億參數(shù))正迅速改變著我們的工作和生活。然而,訓(xùn)練這些龐大的模型往往面臨“算力不足、顯存不
    的頭像 發(fā)表于 07-03 14:09 ?951次閱讀
    沐曦MXMACA軟件平臺在大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>方面的優(yōu)化效果

    率先展開文心系列模型深度技術(shù)合作

    6月30日,百度正式開源文心大模型4.5系列等10款模型,并實(shí)現(xiàn)預(yù)訓(xùn)練權(quán)重和推理代碼的完全開源,兆率先與文心系列
    的頭像 發(fā)表于 07-01 10:49 ?368次閱讀

    Say Hi to ERNIE!Imagination GPU率先完成文心大模型的端側(cè)部署

    ImaginationTechnologies宣布率先完成百度文心大模型(ERNIE4.5開源版)在其GPU硬件上的端側(cè)部署。適配完成后,開發(fā)者可在搭載ImaginationGPU的設(shè)
    的頭像 發(fā)表于 07-01 08:17 ?320次閱讀
    Say Hi to ERNIE!Imagination GPU<b class='flag-5'>率先</b><b class='flag-5'>完成</b>文心大<b class='flag-5'>模型</b>的端側(cè)部署

    MediaTek璣9400率先完成阿里Qwen3模型部署

    通義大模型團(tuán)隊(duì)在璣 9400 旗艦移動平臺上率先完成 Qwen3(千問 3)的端側(cè)部署。未來,搭載璣 9400 移動平臺的設(shè)備可充分發(fā)揮
    的頭像 發(fā)表于 05-08 10:11 ?482次閱讀

    AI原生架構(gòu)升級:RAKsmart服務(wù)器在超大規(guī)模模型訓(xùn)練中的算力突破

    近年來,隨著千億參數(shù)模型的崛起,AI訓(xùn)練對算力的需求呈現(xiàn)指數(shù)增長。傳統(tǒng)服務(wù)器架構(gòu)在應(yīng)對分布式訓(xùn)練、高并發(fā)計算和顯存優(yōu)化等場景時逐漸顯露瓶
    的頭像 發(fā)表于 04-24 09:27 ?294次閱讀

    首創(chuàng)開源架構(gòu),璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    PIX GP模型的整合,并且針對模型進(jìn)行全鏈路微秒分析,以確保最佳的端到端性能表現(xiàn)。在雙方的整個合作流程中,開發(fā)效率提升了30%。 璣AI生態(tài)同樣拓展到了智能座艙領(lǐng)域。聯(lián)發(fā)科和絕影
    發(fā)表于 04-13 19:52

    YOLOv5類中rgb888p_size這個參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎?一致會達(dá)到更好的效果?

    YOLOv5類中rgb888p_size這個參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎,一致會達(dá)到更好的效果
    發(fā)表于 03-11 08:12

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18

    完成DeepSeek-R1大模型本地化部署

    近日,行正式宣布完成 DeepSeek-R1 大模型本地化部署,實(shí)現(xiàn)在多場景、多產(chǎn)品中應(yīng)用。解鎖“”玩法,開啟“”未來!
    的頭像 發(fā)表于 02-24 15:17 ?889次閱讀

    天數(shù)加速DeepSeek全系列模型適配

    天數(shù)正攜手合作伙伴,以驚人的速度推進(jìn)DeepSeek全系列模型的適配與上線工作。目前,多款DeepSeek模型服務(wù)已正式登陸各大平臺,為用戶帶來多樣化的選擇。 其中,DeepSee
    的頭像 發(fā)表于 02-10 15:30 ?988次閱讀

    昆侖率先完成Deepseek訓(xùn)練推理全版本適配

    本文是昆侖適配DeepSeek系列推文第一篇,將于近期分別推出在昆侖P800上進(jìn)行DeepSeek-V3/R1推理、訓(xùn)練的深度文章,干貨滿滿、持續(xù)關(guān)注!
    的頭像 發(fā)表于 02-06 15:13 ?1454次閱讀
    昆侖<b class='flag-5'>芯</b><b class='flag-5'>率先</b><b class='flag-5'>完成</b>Deepseek<b class='flag-5'>訓(xùn)練</b>推理全版本適配

    天數(shù)與無問穹合作突破千卡集群訓(xùn)練優(yōu)化

    近日,天數(shù)與無問穹宣布達(dá)成深度合作,并在千卡集群訓(xùn)練優(yōu)化領(lǐng)域取得了重大技術(shù)突破。這一合作基于天數(shù)
    的頭像 發(fā)表于 01-21 14:31 ?865次閱讀

    紫光國翼云完成兼容互認(rèn)證

    近日,紫光國全國產(chǎn)服務(wù)器內(nèi)存模組SCC32GP12C2F1C-32AA與翼云CTyunOS系統(tǒng)V2.0完成了產(chǎn)品兼容性認(rèn)證,取得互認(rèn)證明。
    的頭像 發(fā)表于 01-06 16:55 ?669次閱讀

    什么是大模型、大模型是怎么訓(xùn)練出來的及大模型作用

    本文通俗簡單地介紹了什么是大模型、大模型是怎么訓(xùn)練出來的和大模型的作用。 ? 什么是大模型模型
    的頭像 發(fā)表于 11-25 09:29 ?1.3w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓(xùn)練</b>出來的及大<b class='flag-5'>模型</b>作用

    摩爾線程與羽人科技完成大語言模型訓(xùn)練測試

    近日,摩爾線程與羽人科技攜手宣布,雙方已成功實(shí)現(xiàn)夸娥(KUAE)千卡智算集群與羽人系列模型解決方案的訓(xùn)練兼容適配。在本次測試中,羽人科技通過摩爾線程夸娥千卡智算集群,高效完成了70億參數(shù)
    的頭像 發(fā)表于 08-27 16:19 ?821次閱讀