99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

刷屏的Groq芯片,速度遠超英偉達GPU!成本卻遭質疑

Carol Li ? 來源:電子發(fā)燒友 ? 作者:李彎彎 ? 2024-02-22 09:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/李彎彎)英偉達遇到勁敵了?近日,Groq芯片計算速度超過英偉達GPU的消息刷屏。Groq是一家成立于2016年的AI創(chuàng)企,該公司近日開放了自家產(chǎn)品的免費試用,相比其他AI聊天機器人,Groq閃電般的響應速度迅速引爆朋友圈,經(jīng)網(wǎng)友測試,Groq每秒生成速度接近500 tok/s,碾壓GPT-4的40 tok/s。

而這樣的速度背后,源于Groq自研了一種名為張量流處理器(TSP)的新型處理單元,Groq將其命名為語言處理單元,即LPU,它的工作原理與GPU截然不同。

Groq芯片跑大模型的速度有多快

Groq芯片跑大模型最突出的特點,便是快。有網(wǎng)友震驚地說:“它回復的速度比我眨眼還快。”在傳統(tǒng)生成AI中,等待是很平常的事,經(jīng)常是字符一個個往外蹦,回答完需要挺長時間。而有網(wǎng)友稱,在Groq近日開放的云服務體驗平臺上,你可以看到,當模型收到提示后,幾乎能夠立即生成答案。

電子郵件初創(chuàng)企業(yè)OthersideAI的首席執(zhí)行官兼聯(lián)合創(chuàng)始人馬特·舒默在演示中親自體驗了Groq的強大功能。他稱贊Groq快如閃電,能夠在不到一秒鐘的時間內生成數(shù)百個單詞的事實性、引用性答案。更令人驚訝的是,它超過3/4的時間用于搜索信息,而生成答案的時間卻短到只有幾分之一秒。

需要說明的是,Groq并沒有研發(fā)新模型,它只是一個模型啟動器,主頁上運行的是開源模型Mixtral 8x7B-32k和Llama 270B-4k。而驅動模型的硬件便是Groq自研的一種名為張量流處理器(TSP)的新型處理單元,Groq將其命名為語言處理單元,即LPU(Language Processing Units),它的工作原理與GPU截然不同。

各種測試結果和網(wǎng)友的體驗,都顯示Groq LPU的計算速度相當快。根據(jù)2024年一月的測試結果,由Groq LPU驅動Meta Llama 2模型,推理性能遙遙領先,是頂級云計算供應商的18倍。有報道稱,Groq LPU搭配Meta Llama 2 70B能在7分鐘內就能生成與莎士比亞《哈姆雷特》相同數(shù)量的單詞,比普通人的打字速度快75倍。

有網(wǎng)友測試同時用Gemini、GPT-4和Groq完成一個代碼調試問題,結果,Groq的輸出速度比Gemini快10倍,比GPT-4快18倍。

有從事人工智能開發(fā)的用戶稱贊,Groq是追求低延遲產(chǎn)品的“游戲規(guī)則改變者”。有用戶認為,Groq的LPU可能成為英偉達A100和H100芯片的“高性能硬件”的有力替代品。不過,也有AI行業(yè)的專家表示,Groq的LPU從成本上來看并不具優(yōu)勢,目前并不能代替英偉達。

Groq 開發(fā)的LPU與GPU有何不同

Groq開發(fā)的LPU到底是個怎樣的產(chǎn)品?據(jù)其官網(wǎng)介紹,LPU是一種專為AI推理所設計的芯片。驅動包括GPT等主流大模型的GPU,是一種為圖形渲染而設計的并行處理器,有數(shù)百個內核。而LPU架構則與GPU使用的SIMD(單指令,多數(shù)據(jù))不同,這種設計可以讓芯片更有效地利用每個時鐘周期,確保一致的延遲和吞吐量,也降低了復雜調度硬件的需求。

Groq的LPU推理引擎不是普通的處理單元;它是一個端到端系統(tǒng),專為需要大量計算和連續(xù)處理的應用(如LLM)提供最快的推理而設計。通過消除外部內存瓶頸,LPU推理引擎的性能比傳統(tǒng)GPU高出幾個數(shù)量級。

根據(jù)與Groq關系密切的投資人k_zeroS分享,LPU的工作原理與GPU截然不同。它采用了時序指令集計算機(TemporalInstructionSetComputer)架構,這意味著它無需像使用高帶寬存儲器(HBM)的GPU那樣頻繁地從內存中加載數(shù)據(jù)。這一特點不僅有助于避免HBM短缺的問題,還能有效降低成本。

Groq創(chuàng)始人兼首席執(zhí)行官Jonathan Ross此前在接受采訪的時候就談到,在大模型推理場景,Groq LPU芯片的速度比英偉達GPU快10倍,但價格和耗電量都僅為后者的十分之一。

Ross認為,對于在產(chǎn)品中使用人工智能的公司來說,推理成本正在成為一個問題,因為隨著使用這些產(chǎn)品的客戶數(shù)量增加,運行模型的成本也在迅速增加。與英偉達GPU相比,Groq LPU集群將為大模型推理提供更高的吞吐量、更低的延遲和更低的成本。

他強調,由于技術路徑不同,Groq的LPU芯片不依賴于三星或SK海力士的HBM,也不依賴于臺積電將外部HBM焊接到芯片上的CoWoS封裝技術。它在供應方面比英偉達更充足,不會被臺積電或者SK海力士等供應商卡脖子。

可以看到,Groq LPU芯片相當于是去掉了HBM,而只是依靠SRAM來計算。雖然這樣計算速度確實相當驚艷,然而其更低成本的問題卻遭到質疑。

有AI專家表示,Groq芯片的實際成本并不低,如人工智能專家賈揚清分析稱,因為Groq小的可憐的內存容量(230MB),在運行Llama-270b模型時,需要305張Groq卡才足夠,而用H100則只需要8張卡。從目前的價格來看,這意味著在同等吞吐量下,Groq的硬件成本是H100的40倍,能耗成本是10倍。

當然也有SRAM行業(yè)的專家非??春眠@種架構模式,他認為,賈揚清對Groq成本的估算不是很對,因為沒有考慮到Groq的per token cost明顯低于GPGPU。

可以看到,作為一種新的架構模式,Groq LPU當前必然還面臨一些潛在問題,然而它的出現(xiàn),也讓人們看到GPU之外的可能路徑。

Groq LPU芯片未來能否肩負起運行大模型的重任,或許再等等,就能看到明確答案。事實上,在去年年底的采訪中,Ross就表示,考慮到GPU的短缺和高昂的成本,他相信Groq未來的發(fā)展?jié)摿ΑKf到:“在未來12個月內,我們可以部署10萬個LPU,在24個月內,我們可以部署100萬個LPU。”

寫在最后

過去一年多時間,全球眾多科技公司都在研發(fā)大模型,今年將會是大模型落地部署的重要一年,而如眾多大模型的訓練和推理卻依賴英偉達的GPU。業(yè)界亟需除英偉達GPU之外的芯片,能夠用于大模型的部署推理,Groq的LPU芯片可以說是帶來了新的探索方向。

雖然Groq公司對自己的LPU芯片在性能和成本上都自信滿滿,然而業(yè)界對于其成本問題還是有所質疑。如果今年LPU芯片能夠如規(guī)劃那樣進行較大規(guī)模的部署,或許就能一定程度證明LPU芯片在成本上也在眾多用戶所能接受的范圍之內。












聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4949

    瀏覽量

    131307
  • 英偉達
    +關注

    關注

    22

    文章

    3953

    瀏覽量

    93842
  • Groq
    +關注

    關注

    0

    文章

    9

    瀏覽量

    149
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    AI大模型不再依賴英偉GPU?蘋果揭秘自研大模型

    ? 電子發(fā)燒友網(wǎng)報道(文/梁浩斌)過去幾年中爆發(fā)的AI算力需求,英偉GPU成為了最大的贏家,無論是自動駕駛還是AI大模型,比如特斯拉、小鵬、OpenAI、字節(jié)跳動等廠商都在爭相搶購英偉
    的頭像 發(fā)表于 08-05 06:07 ?4654次閱讀
    AI大模型不再依賴<b class='flag-5'>英偉</b><b class='flag-5'>達</b><b class='flag-5'>GPU</b>?蘋果揭秘自研大模型

    英偉擬再推中國特供GPU,今年6月量產(chǎn)!

    電子發(fā)燒友網(wǎng)綜合報道 近年來,美國政府對華半導體出口管制政策不斷收緊,英偉等半導體企業(yè)面臨嚴峻挑戰(zhàn)。為保持在中國市場的競爭力,英偉推出了多款特供版
    發(fā)表于 05-27 00:03 ?4395次閱讀

    新思科技攜手英偉加速芯片設計,提升芯片電子設計自動化效率

    解決方案在英偉 GPU英偉 CUDA-X庫上所實現(xiàn)的加速 基于英偉
    發(fā)表于 03-19 17:59 ?283次閱讀

    微軟大手筆采購英偉AI芯片

    ,微軟計劃購買的英偉Hopper架構芯片數(shù)量將遠超英偉在美國的第二大客戶——“元”公司。不僅
    的頭像 發(fā)表于 12-20 15:50 ?680次閱讀

    英偉新應用引發(fā)用戶不滿:游戲幀率受影響

    提供更加出色的游戲優(yōu)化體驗。 然而,一些用戶在安裝并使用這款新應用后,發(fā)現(xiàn)自己的游戲幀率出現(xiàn)了明顯的下降。這一問題在多個游戲和硬件配置上都得到了驗證,使得不少用戶開始質疑這款新應用的性能和穩(wěn)定性。 英偉
    的頭像 發(fā)表于 12-17 14:17 ?554次閱讀

    軟銀升級人工智能計算平臺,安裝4000顆英偉Hopper GPU

    軟銀公司宣布,其正在擴展的日本頂級人工智能計算平臺已安裝了約4000顆英偉Hopper GPU。這一舉措顯著提升了平臺的計算能力。據(jù)悉,該平臺自2023年9月開始運行,最初配備了大約2000顆
    的頭像 發(fā)表于 11-04 16:18 ?883次閱讀

    三星或重獲英偉游戲芯片訂單

    據(jù)外媒最新報道,三星電子有望重新獲得英偉的未來新款游戲芯片GPU)制造訂單,這一消息為三星的市場前景注入了新的活力。
    的頭像 發(fā)表于 10-21 18:11 ?858次閱讀

    英偉Blackwell GPU未來一年訂單爆滿

    據(jù)摩根士丹利(大摩)透露,人工智能(AI)芯片領域的領軍企業(yè)英偉(NVIDIA)的管理層在近期的一系列與投資人的會議中,分享了關于其下一代繪圖處理器(GPU)Blackwell的強勁
    的頭像 發(fā)表于 10-17 16:52 ?896次閱讀

    英偉Blackwell GPU量產(chǎn)加速,Q4營收沖刺百億美元大關

    近日,全球領先的圖形處理單元(GPU)及人工智能芯片制造商英偉傳來重大利好消息。據(jù)摩根士丹利最新發(fā)布的行業(yè)分析報告指出,英偉
    的頭像 發(fā)表于 09-26 15:58 ?649次閱讀

    挑戰(zhàn)英偉:聚焦本土GPU領軍企業(yè)崛起

    在全球圖形處理單元(GPU)市場的霸主地位,特別是其關鍵硬件對訓練大型AI模型(如ChatGPT背后的OpenAI模型)的不可或缺性,中國正積極尋求突破。盡管英偉仍向中國出口部分
    的頭像 發(fā)表于 09-18 15:24 ?1113次閱讀

    ARM進軍GPU領域,挑戰(zhàn)英偉與英特爾

    英國芯片設計巨頭ARM正悄然在以色列拉阿納納的研發(fā)中心布局其GPU(圖形處理器)戰(zhàn)略,意圖在全球圖形處理市場與英偉和英特爾等業(yè)界巨頭一較高下。據(jù)悉,ARM已在該開發(fā)中心組建了一支由約
    的頭像 發(fā)表于 08-21 10:19 ?843次閱讀

    AI芯片巨頭英偉漲超4% 英偉市值暴增7500億

    誰是美股最靚的仔?在人工智能浪潮之下AI芯片巨頭英偉肯定有一席之地,特別是現(xiàn)在全球資本市場動蕩之際,業(yè)界分析師多認為英偉是最佳“反彈股”
    的頭像 發(fā)表于 08-13 15:33 ?1453次閱讀

    英偉TITAN AI顯卡曝光,性能狂超RTX 409063%!# 英偉# 顯卡

    顯卡英偉
    jf_02331860
    發(fā)布于 :2024年07月24日 17:18:28

    英偉帶領芯片股飆升 英偉大漲4.76%

    英偉不愧是總龍頭,大漲4.76%。英偉帶領芯片股飆升;甚至可以說是帶動了美國股市上漲,在當?shù)貢r間22日,科技股反彈,帶動整體行情走高。美
    的頭像 發(fā)表于 07-23 16:26 ?633次閱讀