99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Untether AI引領(lǐng)通用AI推理加速器市場(chǎng)

工程師鄧生 ? 來(lái)源:Astroys ? 作者:Astroys ? 2022-08-31 09:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

憑借其獨(dú)特的at-memory計(jì)算架構(gòu),Untether AI希望引領(lǐng)通用AI推理加速器市場(chǎng)。這家初創(chuàng)公司能否取代主導(dǎo)AI訓(xùn)練領(lǐng)域、并將觸角伸向AI推理領(lǐng)域的領(lǐng)先CPUGPU供應(yīng)商?這些令人印象深刻的展示足以讓這家公司成功嗎? Untether AI是一家總部位于多倫多的AI芯片初創(chuàng)公司,上周在Hot Chips 2022上發(fā)布了其最新的通用AI推理加速器,名為speedAI,基于該公司的“at-memory”計(jì)算架構(gòu)。

SpeedAI旨在解決AI計(jì)算工作量的爆炸性增長(zhǎng),以及在廣泛的AI推理應(yīng)用中對(duì)更高精度、更低延遲、更靈活和更優(yōu)能效日益增長(zhǎng)的需求。

Untether AI專注于推理應(yīng)用,正試圖模仿Nvidia在AI訓(xùn)練方面的成功。

AI處理分為兩個(gè)階段。在訓(xùn)練階段,開(kāi)發(fā)人員向他們的模型提供一個(gè)經(jīng)過(guò)策劃的數(shù)據(jù)集,這樣它就可以“學(xué)習(xí)”它將分析的數(shù)據(jù)類(lèi)型所需的一切。然后,在推理階段,模型可以根據(jù)實(shí)時(shí)數(shù)據(jù)進(jìn)行預(yù)測(cè),產(chǎn)生可操作的結(jié)果。后者正是Untether AI所追求的細(xì)分市場(chǎng)。

Untether AI的目標(biāo)是否過(guò)于雄心勃勃?也許。但基于其芯片前所未有的30 TFLOPS/W和2 PFLOPS的性能,Untether AI相信它有機(jī)會(huì)。該公司聲稱其最新的推理加速器“為能效和計(jì)算密度設(shè)定了新的標(biāo)準(zhǔn)”。

Yole Intelligence計(jì)算和軟件技術(shù)和市場(chǎng)分析師Adrien Sanchez稱speedAI的30FLOPS/W“令人印象深刻”。他補(bǔ)充說(shuō),這擊敗了Nvidia的A100,并與Nvidia的Hopper設(shè)備相媲美。Sanchez說(shuō):“誠(chéng)然,將為訓(xùn)練量身定制的硬件與以推理為重點(diǎn)的硬件進(jìn)行比較是完全不同的,但這仍然令人印象深刻?!盇I推理市場(chǎng)涵蓋了從自動(dòng)駕駛汽車(chē)到智能城市/零售、自然語(yǔ)言處理和科學(xué)應(yīng)用等方方面面。

處在十字路口的AI推理

在當(dāng)今的通用AI處理器市場(chǎng),Nvidia無(wú)疑是訓(xùn)練領(lǐng)域的王者。盡管Nvidia的高功耗解決方案不太適合AI推理應(yīng)用,但在現(xiàn)實(shí)中,許多Nvidia客戶最終也會(huì)使用Nvidia基于GPU的解決方案來(lái)滿足他們的推理需求。

然而,AI推理市場(chǎng)正處于十字路口。許多用戶很難在AI推理引擎中找到能效和靈活性之間的折中方案。

一方面,有廣泛使用的基于CPU和GPU的解決方案。另一方面,許多推理處理器通常專門(mén)作為視覺(jué)處理器。Untether AI公司產(chǎn)品副總裁Bob Beachler表示,Mobileye和Ambarella等公司“可以在它們的SoC上實(shí)現(xiàn)一些AI功能,其中一些已經(jīng)成功實(shí)現(xiàn)了量產(chǎn)?!?

在目前碎片化的AI推理市場(chǎng)中,缺少一種能夠處理各種應(yīng)用中AI工作負(fù)載的推理引擎。

TechInsights的首席分析Linley Gwennap認(rèn)為,“考慮到神經(jīng)網(wǎng)絡(luò)的多樣性和變化”,即使是用于推理,最佳解決方案仍是通用AI處理器。另一種選擇是“一種更具體的處理器,例如,只在卷積網(wǎng)絡(luò)上工作”。

Gwennap說(shuō):“GPU更加通用,這就是為什么它如此普遍的原因。”Untether AI(在speedAI)增加了更多的靈活性,以滿足AI推理應(yīng)用的這些更廣泛的需求。

可擴(kuò)展的產(chǎn)品系列

Beachler表示,Untether AI將把speedAI變成一個(gè)可擴(kuò)展的系列。上周發(fā)布的SpeedAI 240被是最大的設(shè)備,而一些列的縮小版(在不同的功率節(jié)點(diǎn)上有更少的memory bank)正在開(kāi)發(fā)中。這些加速器的功率范圍從10W到5W甚至是亞瓦,Beachler說(shuō),因此“我們的芯片可以成為任何嵌入式SoC的協(xié)處理器,這取決于你可能需要多少AI計(jì)算?!?

SpeedAI 240計(jì)劃在2023年初出樣。按比例縮小的推理加速器計(jì)劃在明年晚些時(shí)候推出。

At-memory計(jì)算

Untether AI之所以出名,是因?yàn)樗约喊l(fā)明了一種“at-memory”計(jì)算架構(gòu)。

這家初創(chuàng)公司設(shè)計(jì)了at-memory計(jì)算,將其AI推理加速器從CPU和GPU馮·諾伊曼架構(gòu)固有的低能效中解放出來(lái)。這是因?yàn)樵隈T·諾伊曼架構(gòu)下,數(shù)據(jù)從DRAM傳輸?shù)奖镜鼐彺?,然后進(jìn)入處理元素的距離要遠(yuǎn)得多。

Untether AI的at-memory方案在數(shù)據(jù)駐留的地方處理,專用SRAM使用短而寬的總線。這種memory bank架構(gòu)允許AI計(jì)算所需的效率和帶寬,同時(shí)支持計(jì)算的大規(guī)模并行直接連接。

Untether AI使用At-Memory Computation進(jìn)行AI加速。

這并不是UntetherAI的at-memory計(jì)算架構(gòu)的第一次展示。該公司首先通過(guò)其最初的AI推理加速器runAI展示了其方法的優(yōu)勢(shì)。runAI于2020年秋季宣布將于本季度投產(chǎn)。

對(duì)于新的speedAI架構(gòu),Untether AI在能效、準(zhǔn)確性和吞吐量方面增加了許多改進(jìn)。它們包括第二代at-memory計(jì)算架構(gòu),超過(guò)1400個(gè)經(jīng)過(guò)優(yōu)化的RISC-V處理器與定制指令,并采用浮點(diǎn)數(shù)據(jù)類(lèi)型FP8,用于增強(qiáng)推理加速。這些指標(biāo)標(biāo)志著runAI的原始性能(Integer數(shù)據(jù)類(lèi)型為8個(gè)TOPS/W)提高到30TFLOPS/W(浮點(diǎn)計(jì)算)。

near-memory/馮·諾伊曼架構(gòu)帶來(lái)的吞吐量和能效不足等局限性是眾所周知的。像Mythics這樣的芯片設(shè)計(jì)公司一直在推廣所謂的“in-memory計(jì)算”。

然而,at-memory計(jì)算是不同的。Beachler:“人們?cè)噲D用內(nèi)存單元來(lái)做乘積。”他解釋說(shuō),問(wèn)題是“你試圖使用模擬技術(shù),這導(dǎo)致了模擬效應(yīng),意味著你需要在它周?chē)惭b很多補(bǔ)償電路。”他補(bǔ)充說(shuō),額外的電路并不能使in-memory計(jì)算設(shè)備更高效。

相比之下,在Untether AI,“我們將處理元素直接附加到標(biāo)準(zhǔn)SRAM單元上?!盨peedAI是數(shù)字化的,采用了TSMC 7nm CMOS技術(shù)。Beachler補(bǔ)充道:“我們圍繞SRAM做所有的事情,最大限度地降低功耗。我們不做緩存,每個(gè)算術(shù)邏輯單元都有自己的內(nèi)存?!?/p>

RISC-V處理器

Untether AI第二代at-memory計(jì)算架構(gòu)的獨(dú)特之處在于使用了RISC-V處理器。

兩年半前,當(dāng)Beachler加入U(xiǎn)ntether AI時(shí),他曾問(wèn)團(tuán)隊(duì):“我知道你們?yōu)槭裁床皇褂?a target="_blank">Arm,但你們?yōu)槭裁床皇褂肦ISC-V處理器呢?”

對(duì)于runAI,Untether AI必須設(shè)計(jì)一個(gè)定制的RISC處理器。Beachler說(shuō),RISC-V的生態(tài)系統(tǒng)“還沒(méi)有完全形成”。

對(duì)于speedAI,團(tuán)隊(duì)“添加了一堆擴(kuò)展指令,我們稱之為自定義指令,超過(guò)20多個(gè)”。Beachler解釋道:“這是特定于我們正在進(jìn)行的計(jì)算類(lèi)型的,包括神經(jīng)網(wǎng)絡(luò)計(jì)算,以及我們的at-memory計(jì)算架構(gòu)。”

Beachler指出,這種定制化是Untether AI即使在今天的Arm處理器上也無(wú)法做到的,因?yàn)锳rm不開(kāi)放其指令集。相反,“RISC-V允許這種情況發(fā)生。我們能夠用我們自己的指令設(shè)計(jì)自己的定制處理器,但我們?nèi)匀皇褂肦ISC-V指令集架構(gòu)?!?/p>

MemoryBank

Untether AI的第二代memory bank將使用RISC-V處理器,用于靈活、高效的AI加速。

據(jù)Untether AI稱,speedAI架構(gòu)中的每個(gè)memory bank都有512個(gè)處理元素,直接連接到專用SRAM。這些處理元素支持INT4、FP8、INT8和BF16數(shù)據(jù)類(lèi)型,以及用于節(jié)能的零檢測(cè)電路,并支持2:1結(jié)構(gòu)稀疏性。


SpeedAI加速器使用雙多線程RISC-V來(lái)提高memory bank的編程靈活性。

以8行64個(gè)處理元素排列,每一行有自己的專用行控制器和硬接線減少功能,以允許編程的靈活性和變壓器網(wǎng)絡(luò)功能的高效計(jì)算。

兩個(gè)RISC-V處理器(每個(gè)處理器都有20多條用于推理加速的定制指令)管理各行。該公司表示,這種靈活的memory bank可以適應(yīng)許多不同的神經(jīng)網(wǎng)絡(luò)架構(gòu),包括卷積、transformer和推薦網(wǎng)絡(luò)以及線性代數(shù)模型。

精度問(wèn)題

除了能效,UntetherAI團(tuán)隊(duì)還專注于提高其高速AI芯片的AI精度。Beachler說(shuō):“AI推理芯片的用戶發(fā)現(xiàn),當(dāng)他們進(jìn)行量化步驟時(shí),有時(shí)會(huì)出現(xiàn)不可接受的準(zhǔn)確性損失。對(duì)于某些應(yīng)用來(lái)說(shuō),這沒(méi)問(wèn)題,但當(dāng)AI推理加速器用于推薦引擎和自動(dòng)駕駛汽車(chē)時(shí)就不行了。”

Beachler解釋說(shuō),在AI推薦引擎中,“如果你的準(zhǔn)確率僅下降0.1%,就可能會(huì)損失5000萬(wàn)至1億美元的廣告收入,因?yàn)槟阆蛳M(fèi)者提供了錯(cuò)誤的廣告或推薦。準(zhǔn)確性很重要的另一個(gè)領(lǐng)域是自動(dòng)駕駛汽車(chē),因?yàn)檐?chē)廠在準(zhǔn)確性上不會(huì)妥協(xié)。”

今年早些時(shí)候,當(dāng)Nvidia宣布其Hopper架構(gòu)時(shí),這家GPU巨頭談到了一種新的8位浮點(diǎn)(FP8)數(shù)據(jù)類(lèi)型。與標(biāo)準(zhǔn)的FP16訓(xùn)練相比,F(xiàn)P8格式的吞吐量增加了一倍。

SpeedAI也在使用FP8。經(jīng)過(guò)自己的研究,該團(tuán)隊(duì)得出結(jié)論,兩種不同的FP8格式為AI推理提供了精度、范圍和效率的最佳組合。該公司解釋說(shuō),將4-尾數(shù)(FP8p用于精度)和3-尾數(shù)(FP8r用于范圍)相結(jié)合,為跨各種不同網(wǎng)絡(luò)的推理提供了最佳的精度和吞吐量?!?/p>

對(duì)于卷積網(wǎng)絡(luò),Untether AI聲稱,使用FP8“與使用BF16數(shù)據(jù)類(lèi)型相比,精度損失不到1%的十分之一,吞吐量和能效提高了四倍”。

不是“一刀切”

為什么市場(chǎng)需要一個(gè)通用的AI推理加速器?首先,因?yàn)锳I推理加速應(yīng)用的出現(xiàn)。

Beachler指出,除了中央計(jì)算系統(tǒng)必須處理越來(lái)越多感知數(shù)據(jù)的自動(dòng)駕駛汽車(chē)之外,智能城市還部署著廣泛的監(jiān)控市場(chǎng)。“他們需要聚集數(shù)百個(gè)攝像頭來(lái)生成實(shí)時(shí)可操作的情報(bào)?!边@同樣適用于軍事AI應(yīng)用,例如對(duì)抗無(wú)人機(jī)?!八麄?cè)噲D用不同的傳感器掃描天空,以對(duì)抗無(wú)人機(jī)?;蛘咚麄儠?huì)尋找雷達(dá)信號(hào),以了解空域內(nèi)的情況。”其他的AI推理應(yīng)用包括自然語(yǔ)言處理加速,Untether AI將其加入到speedAI中。

Yole Intelligence的Sanchez表示,通用AI推理的其他應(yīng)用包括實(shí)時(shí)分類(lèi)的智能零售、金融領(lǐng)域的語(yǔ)音到文本、企業(yè)數(shù)據(jù)中心和高性能計(jì)算領(lǐng)域的氣候建模。

其次,神經(jīng)網(wǎng)絡(luò)以及客戶在執(zhí)行AI時(shí)使用它們的方式有無(wú)數(shù)種變化。Beachler說(shuō):“我們已經(jīng)分析了50多個(gè)不同的客戶神經(jīng)網(wǎng)絡(luò)。每個(gè)都是不同的。他們可能從基本的開(kāi)始,但隨后他們會(huì)做出“適合他們數(shù)據(jù)集和訓(xùn)練”的偏差。

綜上所述,你需要的是具有擴(kuò)展性和靈活性的AI推理加速器架構(gòu)。

然而,目前許多AI應(yīng)用都依賴于現(xiàn)有的通用CPU和GPU。對(duì)于服務(wù)器中的AI應(yīng)用,Sanchez說(shuō):“我們看到大部分的推理都是由CPU完成的。這是因?yàn)閷?duì)推理任務(wù)的需求是零星的。對(duì)于客戶來(lái)說(shuō),使用幾個(gè)Xeon或Epyc內(nèi)核進(jìn)行快速推理比使用整個(gè)硬件池更方便?!?/p>

Untether AI面臨的一大挑戰(zhàn)是識(shí)別需要專用推理硬件的細(xì)分市場(chǎng)。Sanchez說(shuō):“超擴(kuò)展性和服務(wù)器分離可能會(huì)增加推理專用硬件應(yīng)對(duì)挑戰(zhàn)的機(jī)會(huì)?!?/p>

軟件陷阱

曾在Altera工作過(guò)的Beachler(就像Untether AI執(zhí)行團(tuán)隊(duì)的許多成員一樣)很清楚軟件和工具流的重要性。就像FPGA客戶遇到了軟件編譯問(wèn)題或擬議硬件架構(gòu)的利用率很差一樣,一些AI芯片客戶也遇到了類(lèi)似的問(wèn)題,“你不能編程,或者它太難編程。”

Beachler說(shuō):“正如我們?cè)贏ltera學(xué)到的,我們確保我們的工具永遠(yuǎn)是行業(yè)中最好的,我們?cè)赨ntether AI也在努力做同樣的事,對(duì)軟件進(jìn)行過(guò)度投資。”

然而,Untether AI還沒(méi)有提交給MLPerf對(duì)其AI芯片進(jìn)行基準(zhǔn)測(cè)試。Beachler說(shuō),公司的工程團(tuán)隊(duì)被50個(gè)客戶拉去做50個(gè)不同的神經(jīng)網(wǎng)絡(luò),這家初創(chuàng)公司的首要任務(wù)是“確保軟件能夠運(yùn)行所有這些不同的神經(jīng)網(wǎng)絡(luò)”。

他說(shuō),這些都是“任何AI初創(chuàng)公司都會(huì)遇到的成長(zhǎng)的痛苦”。但UntetherAI的首個(gè)AI加速器runAI已經(jīng)投入使用,并為客戶運(yùn)行網(wǎng)絡(luò)。

與大量現(xiàn)成的特定應(yīng)用AI推理引擎不同,Untether AI的AI推理加速器被設(shè)計(jì)為通用設(shè)備。然而,這家初創(chuàng)公司似乎被拉向了多個(gè)方向,以滿足客戶的不同需求。Untether AI成功的關(guān)鍵在于它的軟件和編程工具,讓客戶在使用Untether AI的加速器時(shí)能夠獨(dú)立地做出自己的偏差和修改。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19896

    瀏覽量

    235298
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11080

    瀏覽量

    217116
  • 加速器
    +關(guān)注

    關(guān)注

    2

    文章

    827

    瀏覽量

    39127
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4948

    瀏覽量

    131258
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI推理的存儲(chǔ),看好SRAM?

    看到了其前景并提前布局。AI推理也使得存儲(chǔ)HBM不再是唯一熱門(mén),更多存儲(chǔ)芯片與AI推理芯片結(jié)合,擁有了市場(chǎng)機(jī)會(huì)。 ? 已經(jīng)有不少
    的頭像 發(fā)表于 03-03 08:51 ?1693次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>的存儲(chǔ),看好SRAM?

    信而泰×DeepSeek:AI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    模態(tài)的技術(shù)特性,DeepSeek正加速推動(dòng)AI在金融、政務(wù)、科研及網(wǎng)絡(luò)智能化等關(guān)鍵領(lǐng)域的深度應(yīng)用。 信而泰:AI推理引擎賦能網(wǎng)絡(luò)智能診斷新范式信而泰深度整合DeepSeek-R1大模型
    發(fā)表于 07-16 15:29

    八天三次收購(gòu)!AMD收購(gòu)AI芯片制造商Untether AI團(tuán)隊(duì),刺激創(chuàng)新

    電子發(fā)燒友原創(chuàng) 章鷹 6月6日,美國(guó)芯片大廠AMD宣布收購(gòu)加拿大AI推理芯片公司Untether AI。這是AMD公司在短短八天之內(nèi)完成的第三筆收購(gòu)。
    的頭像 發(fā)表于 06-08 07:01 ?5337次閱讀
    八天三次收購(gòu)!AMD收購(gòu)<b class='flag-5'>AI</b>芯片制造商<b class='flag-5'>Untether</b> <b class='flag-5'>AI</b>團(tuán)隊(duì),刺激創(chuàng)新

    谷歌第七代TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命

    谷歌第七代TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命 Google 發(fā)布了 Ironwood,這是其第七代張量處理單元 (TPU),專為推理而設(shè)計(jì)。這款功能強(qiáng)大的 AI
    的頭像 發(fā)表于 04-12 11:10 ?1840次閱讀
    谷歌第七代TPU Ironwood深度解讀:<b class='flag-5'>AI</b><b class='flag-5'>推理</b>時(shí)代的硬件革命

    Banana Pi 發(fā)布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計(jì)算與嵌入式開(kāi)發(fā)

    低功耗特性。搭載 Renesas 獨(dú)有的 DRP-AI 加速器,支持 15 Sparse TOPS的 AI 計(jì)算能力,使其在計(jì)算機(jī)視覺(jué)、邊緣 AI 及智能制造等場(chǎng)景中大放異彩。 豐富接
    發(fā)表于 03-19 17:54

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計(jì)算和推理軟件與 Oracle 的 AI 基礎(chǔ)設(shè)施以及生成式 AI 服務(wù)首次實(shí)現(xiàn)集成,以幫助全球企業(yè)組織
    發(fā)表于 03-19 15:24 ?358次閱讀
    Oracle 與 NVIDIA 合作助力企業(yè)<b class='flag-5'>加速</b>代理式 <b class='flag-5'>AI</b> <b class='flag-5'>推理</b>

    嵌入式AI加速器DRP-AI 詳細(xì)介紹

    的嵌入式設(shè)備。此外,人工智能正在不斷發(fā)展,新的算法不時(shí)被開(kāi)發(fā)出來(lái)。 在人工智能快速發(fā)展的過(guò)程中,瑞薩開(kāi)發(fā)了人工智能加速器(DRP-AI)和軟件(DRP-AI翻譯),既提供高性能又提供
    的頭像 發(fā)表于 03-15 16:13 ?1015次閱讀
    嵌入式<b class='flag-5'>AI</b><b class='flag-5'>加速器</b>DRP-<b class='flag-5'>AI</b> 詳細(xì)介紹

    FPGA+AI王炸組合如何重塑未來(lái)世界:看看DeepSeek東方神秘力量如何預(yù)測(cè)......

    。? AI加速器的開(kāi)發(fā):FPGA被廣泛用于開(kāi)發(fā)專為AI算法優(yōu)化的加速器,例如深度學(xué)習(xí)推理加速器。
    發(fā)表于 03-03 11:21

    當(dāng)我問(wèn)DeepSeek AI爆發(fā)時(shí)代的FPGA是否重要?答案是......

    ,這為AI的持續(xù)創(chuàng)新提供了有力支持。 6.數(shù)據(jù)中心與云計(jì)算加速 ? 在云計(jì)算和數(shù)據(jù)中心中,F(xiàn)PGA被用作AI計(jì)算加速器,尤其是針對(duì)深度學(xué)習(xí)工作負(fù)載。例如,微軟在其數(shù)據(jù)中心中使用FPGA
    發(fā)表于 02-19 13:55

    英特爾Gaudi 2D AI加速器助力DeepSeek Janus Pro模型性能提升

    Pro模型進(jìn)行了深度優(yōu)化。 這一優(yōu)化舉措使得AI開(kāi)發(fā)者能夠以更低的成本和更高的效率實(shí)現(xiàn)復(fù)雜任務(wù)的部署與優(yōu)化。英特爾Gaudi 2D AI加速器通過(guò)其卓越的計(jì)算能力和高度優(yōu)化的軟件棧,為Janus Pro模型提供了強(qiáng)大的
    的頭像 發(fā)表于 02-10 11:10 ?627次閱讀

    生成式AI推理技術(shù)、市場(chǎng)與未來(lái)

    OpenAI o1、QwQ-32B-Preview、DeepSeek R1-Lite-Preview的相繼發(fā)布,預(yù)示著生成式AI研究正從預(yù)訓(xùn)練轉(zhuǎn)向推理(Inference),以提升AI邏輯推理
    的頭像 發(fā)表于 01-20 11:16 ?849次閱讀
    生成式<b class='flag-5'>AI</b><b class='flag-5'>推理</b>技術(shù)、<b class='flag-5'>市場(chǎng)</b>與未來(lái)

    Untether發(fā)布人工智能(AI)芯片

    初創(chuàng)企業(yè)Untether發(fā)布了一款專為汽車(chē)、農(nóng)業(yè)裝備及極端環(huán)境AI應(yīng)用設(shè)計(jì)的人工智能(AI)芯片。   相較于英偉達(dá)和AMD的旗艦AI芯片,它們主要服務(wù)于需要數(shù)千乃至數(shù)萬(wàn)個(gè)芯片協(xié)
    的頭像 發(fā)表于 10-29 13:59 ?833次閱讀

    SiFive發(fā)布MX系列高性能AI加速器IP

    AI技術(shù)日新月異的今天,RISC-V IP設(shè)計(jì)領(lǐng)域的領(lǐng)軍企業(yè)SiFive再次引領(lǐng)行業(yè)潮流,正式推出了其革命性的SiFive Intelligence XM系列高性能AI加速器IP。這
    的頭像 發(fā)表于 09-24 14:46 ?828次閱讀

    AMD助力HyperAccel開(kāi)發(fā)全新AI推理服務(wù)

    ( LLM )的推理,此類(lèi)模型通常具有數(shù)十億個(gè)參數(shù),例如 OpenAI 的 ChatGPT 和 Meta 的 Llama 3 等 Llama LLM。其 AI 芯片名為時(shí)延處理單元( LPU ),是專門(mén)用于 LLM 端到端推理
    的頭像 發(fā)表于 09-18 09:37 ?885次閱讀
    AMD助力HyperAccel開(kāi)發(fā)全新<b class='flag-5'>AI</b><b class='flag-5'>推理</b>服務(wù)<b class='flag-5'>器</b>

    下一代高功能新一代AI加速器(DRP-AI3):10x在高級(jí)AI系統(tǒng)高級(jí)AI中更快的嵌入處理

    電子發(fā)燒友網(wǎng)站提供《下一代高功能新一代AI加速器(DRP-AI3):10x在高級(jí)AI系統(tǒng)高級(jí)AI中更快的嵌入處理.pdf》資料免費(fèi)下載
    發(fā)表于 08-15 11:06 ?0次下載
    下一代高功能新一代<b class='flag-5'>AI</b><b class='flag-5'>加速器</b>(DRP-<b class='flag-5'>AI</b>3):10x在高級(jí)<b class='flag-5'>AI</b>系統(tǒng)高級(jí)<b class='flag-5'>AI</b>中更快的嵌入處理