99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達(dá)聯(lián)手推出StarCoder2 LLM系列模型,成代碼生成領(lǐng)域新標(biāo)桿

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-02-29 10:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近期,英偉達(dá)與Hugging Face及ServiceNow攜手推出新品StarCoder2系列LLMs模型,致力于在代碼生成領(lǐng)域建立新的行業(yè)標(biāo)桿,憑借諸多優(yōu)勢凸顯性能、透明度以及經(jīng)濟性。

此系列共包含三款模型,其中ServiceNow負(fù)責(zé)訓(xùn)練的30億參數(shù)模型、Hugging Face訓(xùn)練的70億參數(shù)模型以及英偉達(dá)訓(xùn)練的150億參數(shù)模型。

新一代模型得以實現(xiàn),借助Stack v2代碼集,該數(shù)據(jù)集容量是上一代Stack v1的7倍之多。此外,創(chuàng)新性的訓(xùn)練技術(shù)使其能夠更精準(zhǔn)地解析低資源編程語言、數(shù)學(xué)和程序源代碼討論等內(nèi)容。

經(jīng)過619門編程語言的訓(xùn)練后,StarCoder2支持多種專業(yè)任務(wù),例如源代碼生成、工作流創(chuàng)建以及文本摘要等。英偉達(dá)承諾,開發(fā)者可借此進(jìn)行代碼填充、高層次代碼摘要以及代碼片段搜索等操作,以提升工作效率。

相比初版StarCoder LLM,這款30億參數(shù)的最新模型對優(yōu)質(zhì)參數(shù)進(jìn)行了更為精確的篩選,性能相當(dāng)于初版150億參數(shù)模型的StarCoder。

特別值得關(guān)注的是,StarCoder2特許使用BigCode Open RAIL-M許可證,無需支付任何版權(quán)費用即可享受使用權(quán)。IT之家建議有需用戶前往BigCode項目GitHub頁面下載源代碼,同時亦可在Hugging Face獲取模型信息。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編程語言
    +關(guān)注

    關(guān)注

    10

    文章

    1956

    瀏覽量

    36697
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25462
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3954

    瀏覽量

    93848
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    小白學(xué)大模型:從零實現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型LLM)的開發(fā)已經(jīng)成為一個熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復(fù)雜的任
    的頭像 發(fā)表于 04-30 18:34 ?521次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實現(xiàn) <b class='flag-5'>LLM</b>語言<b class='flag-5'>模型</b>

    詳解 LLM 推理模型的現(xiàn)狀

    領(lǐng)域的最新研究進(jìn)展,特別是自DeepSeekR1發(fā)布后興起的推理時間計算擴展相關(guān)內(nèi)容。在LLM中實施和改進(jìn)推理簡單來說,基于LLM的推理模型是一種旨在通過
    的頭像 發(fā)表于 04-03 12:09 ?515次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理<b class='flag-5'>模型</b>的現(xiàn)狀

    GMI Cloud推出基于英偉達(dá)H200的DeepSeek系列模型

    近日,GMI Cloud宣布成功上架了基于英偉達(dá)H200 GPU的DeepSeek系列模型。這一舉措標(biāo)志著DeepSeek在AI應(yīng)用領(lǐng)域邁出
    的頭像 發(fā)表于 02-08 09:41 ?513次閱讀

    英偉達(dá)推出基石世界模型Cosmos,解決智駕與機器人具身智能訓(xùn)練數(shù)據(jù)問題

    CES 2025展會上,英偉達(dá)推出了基石世界模型Cosmos,World Foundation Model基石世界模型,簡稱WFM。 物理
    的頭像 發(fā)表于 01-14 11:04 ?1294次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b><b class='flag-5'>推出</b>基石世界<b class='flag-5'>模型</b>Cosmos,解決智駕與機器人具身智能訓(xùn)練數(shù)據(jù)問題

    英偉達(dá)發(fā)布Cosmos世界基礎(chǔ)模型

    近日,在2025年1月6日于拉斯維加斯拉開帷幕的國際消費類電子產(chǎn)品展覽會(CES)上,英偉達(dá)宣布了一項重大創(chuàng)新——Cosmos世界基礎(chǔ)模型平臺。該平臺集成了先進(jìn)的生成世界基礎(chǔ)
    的頭像 發(fā)表于 01-09 10:23 ?718次閱讀

    NaVILA:加州大學(xué)與英偉達(dá)聯(lián)合發(fā)布新型視覺語言模型

    日前,加州大學(xué)的研究人員攜手英偉達(dá),共同推出了一款創(chuàng)新的視覺語言模型——NaVILA。該模型在機器人導(dǎo)航
    的頭像 發(fā)表于 12-13 10:51 ?691次閱讀

    什么是LLM?LLM在自然語言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語言處理(NLP)領(lǐng)域迎來了革命性的進(jìn)步。其中,大型語言模型LLM)的出現(xiàn),標(biāo)志著我們對語言理解能力的一次飛躍。LLM通過深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得
    的頭像 發(fā)表于 11-19 15:32 ?3671次閱讀

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語言模型LLM)是一個復(fù)雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計算資源和專業(yè)知識。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)鍵考慮因素: 定義目標(biāo)和需求 : 確定你的
    的頭像 發(fā)表于 11-08 09:30 ?1533次閱讀

    LLM技術(shù)對人工智能發(fā)展的影響

    隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型LLM)技術(shù)已經(jīng)成為推動AI領(lǐng)域進(jìn)步的關(guān)鍵力量。LLM技術(shù)通過深度學(xué)習(xí)和自然語言處理技術(shù),使得機器能夠理解和
    的頭像 發(fā)表于 11-08 09:28 ?1863次閱讀

    微軟攜手英偉達(dá)與GitHub推出生成式AI加速器

    近日,微軟宣布在英國推出一項重大合作項目——生成式人工智能加速器。這一項目由微軟、英偉達(dá)和GitHub三家科技巨頭強強聯(lián)手,旨在加速
    的頭像 發(fā)表于 11-05 14:58 ?840次閱讀

    英偉達(dá)與印度大企業(yè)聯(lián)手,共謀AI未來

    英偉達(dá)正積極與印度最大的企業(yè)——信實工業(yè)集團和印孚瑟斯等建立合作關(guān)系,這一舉動凸顯出印度在全球人工智能領(lǐng)域的重要地位,以及英偉達(dá)對這片人口眾
    的頭像 發(fā)表于 10-27 14:56 ?713次閱讀

    英偉達(dá)推出歸一化Transformer,革命性提升LLM訓(xùn)練速度

    英偉達(dá)團隊近日在AI領(lǐng)域投下了一枚震撼彈,他們提出了一種全新的神經(jīng)網(wǎng)絡(luò)架構(gòu)——歸一化Transformer(nGPT)。這一創(chuàng)新架構(gòu)基于超球面(hypersphere)進(jìn)行表示學(xué)習(xí),為AI領(lǐng)域
    的頭像 發(fā)表于 10-23 11:30 ?886次閱讀

    亞馬遜云科技宣布Amazon EC2 P5e實例正式可用 由英偉達(dá)H200 GPU提供支持

    1.7倍,GPU內(nèi)存寬帶提升1.5倍。Amazon EC2 P5e非常適用于復(fù)雜的大型語言模型(LLM)和多模態(tài)基礎(chǔ)模型(FM)的訓(xùn)練、微調(diào)和推理,用于支持最苛刻和計算密集型的
    的頭像 發(fā)表于 09-19 16:16 ?900次閱讀

    英偉達(dá)推出Eagle系列模型

    英偉達(dá)最新推出的Eagle系列模型,以其1024×1024像素的高分辨率處理能力,重新定義了視覺信息處理的邊界。該
    的頭像 發(fā)表于 09-03 16:13 ?835次閱讀

    LLM模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個研究熱點,旨在提高模型在處理復(fù)雜任務(wù)時的效率和響應(yīng)速度。以下是對
    的頭像 發(fā)表于 07-24 11:38 ?1832次閱讀