99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

浪潮、英偉達(dá)微軟相繼發(fā)布2500億、5300億參數(shù)的巨量模型,超過(guò)GPT-3

Carol Li ? 來(lái)源:電子發(fā)燒友網(wǎng)整理 ? 作者:李彎彎 ? 2021-10-18 14:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

由于模型越來(lái)越大,訓(xùn)練過(guò)程中硬件的優(yōu)化變得尤為重要。從2019年下半年開始,各家分別開發(fā)出大規(guī)模并行訓(xùn)練、模型擴(kuò)展技術(shù),以期開發(fā)出更大的NLP模型。英偉達(dá)Megatron-LM、谷歌T5、微軟Turing-NLG相繼出現(xiàn)。

2020年6月OpenAI在發(fā)布了GPT-3,這是當(dāng)時(shí)訓(xùn)練的最大模型,具有1750億個(gè)參數(shù)。近段時(shí)間,浪潮、英偉達(dá)與微軟相繼發(fā)布2500億參數(shù)、5300億參數(shù)的巨量模型,超過(guò)GPT-3。

中國(guó)工程院院士王恩東認(rèn)為,人工智能的大模型時(shí)代已經(jīng)到來(lái),利用先進(jìn)算法,整合大規(guī)模數(shù)據(jù),匯聚大量算力,訓(xùn)練出巨量人工智能模型是未來(lái)的發(fā)展方向……


英偉達(dá)與微軟聯(lián)合發(fā)布了5300億參數(shù)的“威震天-圖靈”

上周,英偉達(dá)與微軟聯(lián)合發(fā)布了5300億參數(shù)的“威震天-圖靈”自然語(yǔ)言生成模型(Megatron-TuringNLG)。據(jù)介紹,這樣的量級(jí)不僅讓它成為全球規(guī)模最大,同時(shí)也是性能最強(qiáng)的NLP模型。


訓(xùn)練過(guò)程一共使用了4480塊英偉達(dá)A100 GPU,最終使該模型在一系列自然語(yǔ)言任務(wù)中——包括文本預(yù)測(cè)、閱讀理解、常識(shí)推理、自然語(yǔ)言推理、詞義消歧——都獲得了前所未有的準(zhǔn)確率。

此模型簡(jiǎn)稱MT-NLG,是微軟Turing NLG和英偉達(dá)Megatron-LM兩者的“繼任者”。Turing NLG由微軟于2020年2月推出,參數(shù)為170億;Megatron-LM來(lái)自英偉達(dá),2019年8月推出,參數(shù)83億。它倆在當(dāng)時(shí)分別是第一、二大規(guī)模的Transfomer架構(gòu)模型。

我們都知道大參數(shù)規(guī)模的語(yǔ)言模型效果會(huì)更好,但訓(xùn)練起來(lái)也很有挑戰(zhàn)性,比如:即使是最大容量的GPU,也存不下如此規(guī)模的參數(shù);如果不特別注意優(yōu)化算法、軟件和硬件堆棧,那么所需的大量計(jì)算操作可能會(huì)導(dǎo)致訓(xùn)練時(shí)間過(guò)長(zhǎng)。

那這個(gè)參數(shù)已是GPT-3三倍的MT-NLG又是如何解決的呢?答案就是汲取“兩家”所長(zhǎng),融合英偉達(dá)最先進(jìn)的GPU加速訓(xùn)練設(shè)備,以及微軟最先進(jìn)的分布式學(xué)習(xí)系統(tǒng),來(lái)提高訓(xùn)練速度。并用上千億個(gè)token構(gòu)建語(yǔ)料庫(kù),共同開發(fā)訓(xùn)練方法來(lái)優(yōu)化效率和穩(wěn)定性。

具體來(lái)說(shuō),通過(guò)借鑒英偉達(dá)Megatron-LM模型的GPU并行處理,以及微軟開源的分布式訓(xùn)練框架DeepSpeed,創(chuàng)建3D并行系統(tǒng)。對(duì)于本文中這個(gè)5300億個(gè)參數(shù)的模型,每個(gè)模型副本跨越280個(gè)NVIDIA A100 GPU,節(jié)點(diǎn)內(nèi)采用Megatron-LM的8路張量切片(tensor-slicing),節(jié)點(diǎn)間采用35路管道并行(pipeline parallelism)。

然后再使用DeepSpeed的數(shù)據(jù)并行性進(jìn)一步擴(kuò)展到數(shù)千個(gè)GPU。最終在基于NVIDIA DGX SuperPOD的Selene超級(jí)計(jì)算機(jī)上完成混合精度訓(xùn)練。(該超級(jí)計(jì)算機(jī)由560個(gè)DGX A100服務(wù)器提供支持,每個(gè)DGX A100有8個(gè) NVIDIA A100 80GB Tensor Core GPU,通過(guò)NVLink 和 NVSwitch相互完全連接)。

該模型使用了Transformer解碼器的架構(gòu),層數(shù)、hidden dimension和attention head分別為 105、20480和128。訓(xùn)練所用數(shù)據(jù)集包括近20萬(wàn)本書的純文本數(shù)據(jù)集Books3、問(wèn)答網(wǎng)站Stack Exchange、維基百科、學(xué)術(shù)資源網(wǎng)站PubMed Abstracts、ArXiv、維基百科、GitHub等等,這些都是從他們先前搭建的Pile數(shù)據(jù)集中挑出的質(zhì)量較高的子集。最終一共提取了2700億個(gè)token。

浪潮發(fā)布2500億參數(shù)的中文AI巨量模型“源1.0”

9月28日,浪潮人工智能研究院發(fā)布浪潮發(fā)布了2500億參數(shù)的中文AI巨量模型“源1.0”。

“源1.0”不僅有高達(dá)5TB的全球最大中文高質(zhì)量數(shù)據(jù)集,在總計(jì)算量和訓(xùn)練效率優(yōu)化上都是空前的。源1.0幾乎把近5年整個(gè)中文互聯(lián)網(wǎng)的浩瀚內(nèi)容全部讀完,在收集并清洗數(shù)據(jù)后,最終獲得5TB高質(zhì)量數(shù)據(jù),成為迄今業(yè)界最大的高質(zhì)量中文數(shù)據(jù)集。

在語(yǔ)言智能方面,源1.0獲得中文語(yǔ)言理解評(píng)測(cè)基準(zhǔn)CLUE榜單零樣本學(xué)習(xí)和小樣本學(xué)習(xí)兩類總榜冠軍,獲得小樣本學(xué)習(xí)的文獻(xiàn)分類、商品分類、文獻(xiàn)摘要識(shí)別、名詞代詞關(guān)系等4項(xiàng)任務(wù)冠軍。

“在數(shù)據(jù)量、參數(shù)規(guī)模與模型精度方面,源1.0均居全球之最?!崩顺比斯ぶ悄苎芯吭菏紫芯繂T吳韶華說(shuō)。對(duì)標(biāo)OpenAI的GPT-3,源1.0參數(shù)規(guī)模為2457億,訓(xùn)練采用的中文數(shù)據(jù)集達(dá)5TB。相比GPT-3模型1750億參數(shù)量和570GB訓(xùn)練數(shù)據(jù)集,源1.0參數(shù)規(guī)模領(lǐng)先40%,訓(xùn)練數(shù)據(jù)集規(guī)模領(lǐng)先近10倍。

“得益于我們?cè)O(shè)計(jì)模型時(shí),對(duì)精度和計(jì)算性能的協(xié)同?!眳巧厝A說(shuō),“在算法上,我們解決了巨量模型訓(xùn)練不穩(wěn)定的業(yè)界難題,提出穩(wěn)定訓(xùn)練巨量模型的算法,打造了巨量模型推理方法創(chuàng)新;在數(shù)據(jù)方面,我們生成了迄今業(yè)界最大的高質(zhì)量中文數(shù)據(jù)集;在算力上,我們通過(guò)算法與算力協(xié)同優(yōu)化,極大提升了計(jì)算效率,在實(shí)現(xiàn)業(yè)界訓(xùn)練性能第一的同時(shí),還達(dá)到了業(yè)界領(lǐng)先的精度。”

巨量模型是未來(lái)的發(fā)展方向

“認(rèn)知智能是人工智能研究者追求的方向之一。”中國(guó)工程院院士王恩東告訴《中國(guó)科學(xué)報(bào)》,“除了加速深度學(xué)習(xí)技術(shù),開發(fā)全新的算法范式研究方向外,大規(guī)模數(shù)據(jù)訓(xùn)練超大參數(shù)量的巨量模型也是未來(lái)發(fā)展方向,即利用先進(jìn)的算法,整合大規(guī)模的數(shù)據(jù),匯聚大量算力,訓(xùn)練出巨量人工智能模型?!?br />
2020年6月,OpenAI發(fā)布了參數(shù)量高達(dá)1750億的大模型GPT-3,該模型一推出就引起人工智能學(xué)界和業(yè)界的轟動(dòng)?!罢Z(yǔ)言模型是全球AI界的‘必爭(zhēng)之地’。”一位人工智能研究領(lǐng)域的專家說(shuō),“參數(shù)規(guī)模大到遠(yuǎn)超我們想象的時(shí)候,會(huì)發(fā)生一些難以解釋的現(xiàn)象。”

浪潮信息副總裁劉軍同樣認(rèn)為,生命從簡(jiǎn)單進(jìn)化到復(fù)雜,這種智能水平本身就是一種模型。如果把模型比作元宇宙中的生命,大模型的這種綜合系統(tǒng)能力,可能會(huì)決定未來(lái)數(shù)字世界和智能世界里的智能水平?!叭说纳窠?jīng)元突觸超過(guò)100萬(wàn)億,而現(xiàn)有大模型的參數(shù)量還遠(yuǎn)遠(yuǎn)不夠,所以我們還有很遠(yuǎn)路要走”。

伴隨著人工智能應(yīng)用廣度與深度的不斷提升,眾多行業(yè)、諸多業(yè)務(wù)場(chǎng)景的智能化創(chuàng)新需求日益增多。然而當(dāng)前大多數(shù)AI模型只能用于某一特定領(lǐng)域,通用性不強(qiáng),這對(duì)AI技術(shù)提出了挑戰(zhàn),也限制了AI的產(chǎn)業(yè)化進(jìn)程。

大模型在今天初露崢嶸絕非偶然。技術(shù)、算力、資源、需求等多因素的“風(fēng)云際會(huì)”,讓被AI業(yè)界視為“核力量”的大模型嶄露頭角。

電子發(fā)燒友綜合報(bào)道,參考自量子位、浪潮服務(wù)器

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6686

    瀏覽量

    105777
  • 浪潮
    +關(guān)注

    關(guān)注

    1

    文章

    475

    瀏覽量

    24707
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3953

    瀏覽量

    93815
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    英偉達(dá)單季營(yíng)收破300美元!Q2全球半導(dǎo)體Top15,幾家歡喜幾家愁?

    8月28日,美國(guó)半導(dǎo)體芯片龍頭企業(yè)英偉達(dá)發(fā)布2025財(cái)年第二季度報(bào)告,英偉達(dá)Q2營(yíng)收達(dá)到300.4
    的頭像 發(fā)表于 08-30 01:06 ?4256次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>單季營(yíng)收破300<b class='flag-5'>億</b>美元!Q2全球半導(dǎo)體Top15,幾家歡喜幾家愁?

    英偉達(dá)2026財(cái)年Q1營(yíng)收公布 一季度營(yíng)收441美元 英偉達(dá)Q1凈利潤(rùn)187.8美元

    英偉達(dá)的業(yè)績(jī)暴漲神話依然在繼續(xù),在5月29日英偉達(dá)公司發(fā)布了2026財(cái)年第一季度財(cái)報(bào)。財(cái)報(bào)數(shù)據(jù)顯示,該季度
    的頭像 發(fā)表于 05-29 17:58 ?346次閱讀

    英偉達(dá)財(cái)報(bào)發(fā)布!Q4凈利潤(rùn)220.91美元

    %。 英偉達(dá)首席財(cái)務(wù)官克萊特·克雷斯披露,2025財(cái)年第四季度公司交付了110美元的Blackwell芯片。2025財(cái)年英偉達(dá)營(yíng)收達(dá)到13
    的頭像 發(fā)表于 02-27 15:30 ?485次閱讀

    英偉達(dá)四季度營(yíng)收393美元 英偉達(dá)第四財(cái)季凈利潤(rùn)增80%

    根據(jù)全球AI龍頭英偉達(dá)公司發(fā)布的截至1月26日的2025財(cái)年第四財(cái)季營(yíng)業(yè)數(shù)據(jù)報(bào)告顯示;第四財(cái)季營(yíng)收達(dá)到393.31美元,較去年同期增長(zhǎng)78%,高于分析師事前預(yù)期的380.5
    的頭像 發(fā)表于 02-27 15:18 ?731次閱讀

    英偉達(dá)一半員工凈資產(chǎn)破

    2500萬(wàn)美元(換算下來(lái)約合1.84元人民幣)的驚人水平。 在AI浪潮席卷全球的大背景下,自2019年以來(lái),英偉達(dá)公司的股價(jià)如同坐上了火
    的頭像 發(fā)表于 01-14 18:15 ?543次閱讀

    中國(guó)移動(dòng)與中國(guó)石油發(fā)布700參數(shù)昆侖大模型

    近日,中國(guó)移動(dòng)與中國(guó)石油在北京聯(lián)合舉辦了700參數(shù)昆侖大模型建設(shè)成果發(fā)布會(huì),正式推出了這一行業(yè)重量級(jí)的大模型。 據(jù)悉,700
    的頭像 發(fā)表于 12-04 11:17 ?900次閱讀

    英偉達(dá)擬1.65美元收購(gòu)OctoAI

    英偉達(dá)再次展現(xiàn)其在AI領(lǐng)域的雄心壯志,計(jì)劃以約1.65美元的價(jià)格收購(gòu)西雅圖軟件初創(chuàng)公司OctoAI。據(jù)OctoAI向股東披露的文件,英偉達(dá)
    的頭像 發(fā)表于 09-20 17:09 ?1149次閱讀

    英偉達(dá)預(yù)測(cè)機(jī)器人領(lǐng)域或迎“GPT-3時(shí)刻”

    未來(lái)2-3年內(nèi),機(jī)器人基礎(chǔ)模型的研究將迎來(lái)重大突破,這一時(shí)刻被形象地比喻為機(jī)器人領(lǐng)域的“GPT-3時(shí)刻”。
    的頭像 發(fā)表于 09-20 17:05 ?1078次閱讀

    Jim Fan展望:機(jī)器人領(lǐng)域即將迎來(lái)GPT-3式突破

    英偉達(dá)科學(xué)家9月19日,科技媒體The Decoder發(fā)布了一則引人關(guān)注的報(bào)道,英偉達(dá)高級(jí)科學(xué)家Jim Fan在近期預(yù)測(cè),機(jī)器人技術(shù)將在未來(lái)
    的頭像 發(fā)表于 09-19 15:13 ?951次閱讀

    英偉達(dá)市值蒸發(fā)近2000美元

    英偉達(dá)(Nvidia)在周四的美股交易中遭遇了重大挫折,股價(jià)暴跌超過(guò)6%,市值瞬間蒸發(fā)近2000美元。這一戲劇性下滑源于公司最新財(cái)報(bào)未能滿足華爾街的超高預(yù)期,盡管其上一季度收入實(shí)現(xiàn)了
    的頭像 發(fā)表于 08-30 15:38 ?759次閱讀

    英偉達(dá)高管解讀Q2財(cái)報(bào) 但是英偉達(dá)市值暴跌1.4萬(wàn)億元

    的150美元。英偉達(dá)算是交出了一份非常亮眼的成績(jī)單,但是英偉達(dá)公司發(fā)布的Q
    的頭像 發(fā)表于 08-30 13:03 ?1139次閱讀

    英偉達(dá)震撼發(fā)布:全新AI模型參數(shù)規(guī)模躍升至80量級(jí)

    8月23日,英偉達(dá)宣布,其全新AI模型面世,該模型參數(shù)規(guī)模高達(dá)80,具有精度高、計(jì)算效益大等優(yōu)
    的頭像 發(fā)表于 08-23 16:08 ?1108次閱讀

    英偉達(dá)市值暴增7500

    美東時(shí)間周一,科技股市場(chǎng)呈現(xiàn)分化態(tài)勢(shì),特斯拉股價(jià)小幅下滑,而蘋果與微軟則溫和上漲。然而,在這場(chǎng)科技盛宴中,AI芯片領(lǐng)域的領(lǐng)頭羊英偉達(dá)卻大放異彩,股價(jià)飆升超過(guò)4%,市值一夜之間暴增105
    的頭像 發(fā)表于 08-13 17:48 ?1342次閱讀

    AI芯片巨頭英偉達(dá)漲超4% 英偉達(dá)市值暴增7500

    誰(shuí)是美股最靚的仔?在人工智能浪潮之下AI芯片巨頭英偉達(dá)肯定有一席之地,特別是現(xiàn)在全球資本市場(chǎng)動(dòng)蕩之際,業(yè)界分析師多認(rèn)為英偉達(dá)是最佳“反彈股”
    的頭像 發(fā)表于 08-13 15:33 ?1451次閱讀