99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

transformer專(zhuān)用ASIC芯片Sohu說(shuō)明

SSDFans ? 來(lái)源:未知 ? 2025-01-06 09:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2022年,我們打賭說(shuō)transformer會(huì)統(tǒng)治世界。

我們花了兩年時(shí)間打造Sohu,這是世界上第一個(gè)用于transformer(ChatGPT中的“T”)的專(zhuān)用芯片。

將transformer架構(gòu)燒到芯片中,我們無(wú)法運(yùn)行大多數(shù)傳統(tǒng)的AI模型:支持Instagram廣告的DLRM,像AlphaFold 2這樣的protein-folding模型,或者像Stable Diffusion 2這樣的舊圖像模型,也不能運(yùn)行CNN、RNN或LSTM。

但對(duì)于transformer來(lái)說(shuō),Sohu是有史以來(lái)最快的芯片。

借助Llama 70B每秒超過(guò)50萬(wàn)個(gè)token的吞吐量,Sohu可以讓您構(gòu)建在GPU上無(wú)法實(shí)現(xiàn)的產(chǎn)品。Sohu甚至比英偉達(dá)(NVIDIA)的下一代Blackwell (B200)GPU更快、更便宜。

今天,每個(gè)最先進(jìn)的AI模型都是一個(gè)transformer:ChatGPT,Sora, Gemini,Stable Diffusion 3等等。如果transformer被SSM、RWKV或任何新架構(gòu)所取代,我們的芯片將毫無(wú)用處。

但如果我們是對(duì)的,Sohu將改變世界。這就是我們打這個(gè)賭的原因。

超級(jí)智能所需要的是規(guī)模擴(kuò)展

在五年內(nèi),AI模型在大多數(shù)標(biāo)準(zhǔn)化測(cè)試中變得比人類(lèi)更聰明。因?yàn)镸eta在訓(xùn)練Llama 400B (2024 SoTA,比大多數(shù)人都聰明)時(shí)使用的計(jì)算比OpenAI在GPT-2 (2019 SoTA)上使用的計(jì)算多5萬(wàn)倍。

通過(guò)給AI模型提供更多的算力和更好的數(shù)據(jù),它們會(huì)變得更聰明。規(guī)模擴(kuò)展是唯一一個(gè)幾十年來(lái)一直有效的技巧,每一家大型AI公司(谷歌、OpenAI /微軟、Anthropic /亞馬遜等)在未來(lái)幾年都將花費(fèi)超過(guò)1000億美元來(lái)保持?jǐn)U展。我們生活在有史以來(lái)最大的基礎(chǔ)設(shè)施建設(shè)中。

2b541c5e-c969-11ef-9310-92fbcf53809c.png

“我認(rèn)為(我們)可以擴(kuò)大到1000億美元的規(guī)模,……我們將在幾年內(nèi)實(shí)現(xiàn)這一目標(biāo)。”

——Dario Amodei, Anthropic CEO

擴(kuò)展下一個(gè)1000倍將非常昂貴。下一代數(shù)據(jù)中心的成本將超過(guò)一個(gè)小國(guó)的GDP。以目前的速度,我們的硬件、電網(wǎng)和錢(qián)包都跟不上。

我們不擔(dān)心數(shù)據(jù)耗盡。無(wú)論是通過(guò)合成數(shù)據(jù)、標(biāo)注管道,還是新的AI標(biāo)記數(shù)據(jù)源,我們認(rèn)為數(shù)據(jù)問(wèn)題實(shí)際上是一個(gè)推理計(jì)算問(wèn)題。Mark Zuckerberg、Dario Amodei和Demis Hassabis似乎也同意這一點(diǎn)。

GPU正遇到壁壘

小秘密是GPU并沒(méi)有變得更好,而是變得更大了。該芯片每面積的算力(TFLOPS)四年來(lái)幾乎持平。

2b6010f4-c969-11ef-9310-92fbcf53809c.png

從2022年到2025年,AI芯片并沒(méi)有變得更好,而是變得更大了。英偉達(dá)的B200、AMD的MI300、英特爾的Gaudi 3和亞馬遜的Trainium2將兩個(gè)芯片作為一張卡來(lái)“加倍”性能。2022-2025年間的所有GPU性能提升都使用了這個(gè)技巧,除了Etched。

隨著摩爾定律的放緩,提高性能的唯一方法就是專(zhuān)業(yè)化。

專(zhuān)用芯片不可避免

在transformer占領(lǐng)世界之前,許多公司制造了靈活的AI芯片和GPU來(lái)處理數(shù)百種不同的架構(gòu)。舉幾個(gè)例子:

NVIDIA’s GPUs

Google’s TPUs

Amazon’s Trainium

AMD’s accelerators

Graphcore’s IPUs

SambaNova SN Series

Cerebras’s CS-2

Groq’s GroqNode

Tenstorrent’s Grayskull

D-Matrix’s Corsair

Cambricon’s Siyuan

Intel’s Gaudi

目前還沒(méi)有人開(kāi)發(fā)出專(zhuān)門(mén)針對(duì)算法的AI芯片(ASIC)。芯片項(xiàng)目耗資5000 -1億美元,需要數(shù)年時(shí)間才能投產(chǎn)。剛開(kāi)始的時(shí)候,沒(méi)有市場(chǎng)。

突然之間,情況發(fā)生了變化:

前所未有的需求:在ChatGPT之前,transformer推斷市場(chǎng)約為5000萬(wàn)美元,而現(xiàn)在是數(shù)十億美元。所有大型科技公司都使用transformer模型(OpenAI、b谷歌、亞馬遜、微軟、Facebook等)。

架構(gòu)融合:AI模型過(guò)去經(jīng)常發(fā)生變化。但自GPT-2以來(lái),最先進(jìn)的模型架構(gòu)幾乎保持相同!OpenAI的GPT家族,谷歌的PaLM, Facebook的LLaMa,甚至特斯拉的FSD都是transformer。

當(dāng)模型的訓(xùn)練成本超過(guò)10億美元,推理成本超過(guò)100億美元時(shí),專(zhuān)用芯片是不可避免的。在這個(gè)規(guī)模上,1%的改進(jìn)將證明一個(gè)5000 -1億美元的定制芯片項(xiàng)目是合理的。

實(shí)際上,ASIC比GPU要快幾個(gè)數(shù)量級(jí)。2014年,當(dāng)比特幣進(jìn)入市場(chǎng)時(shí),扔掉GPU比用它們挖比特幣更便宜。

隨著數(shù)十億美元的投入,AI也將面臨同樣的命運(yùn)。

2b749060-c969-11ef-9310-92fbcf53809c.png

transformer驚人地相似:像SwiGLU激活和RoPE編碼這樣的調(diào)整無(wú)處不在:LLM、嵌入模型、圖像繪制和視頻生成。

雖然GPT-2和Llama-3是最先進(jìn)的(SoTA)型號(hào),但它們的架構(gòu)幾乎相同。唯一的主要區(qū)別是規(guī)模。

transformer有一條巨大的護(hù)城河

我們相信硬件抽獎(jiǎng):獲勝的機(jī)型是那些在硬件上運(yùn)行最快、最便宜的機(jī)型。transformer功能強(qiáng)大、有用、利潤(rùn)豐厚,足以在替代產(chǎn)品出現(xiàn)之前主導(dǎo)每一個(gè)主要的AI計(jì)算市場(chǎng):

transformer為每一個(gè)大型AI產(chǎn)品提供動(dòng)力:從代理到搜索再到聊天。為了優(yōu)化用于transformer的GPU,AI實(shí)驗(yàn)室已經(jīng)投入了數(shù)億美元的研發(fā)資金。當(dāng)前和下一代最先進(jìn)的型號(hào)是transformer。

未來(lái)幾年,隨著模型規(guī)模從10億美元擴(kuò)大到100億美元,再到1000億美元的訓(xùn)練費(fèi)用,測(cè)試新架構(gòu)的風(fēng)險(xiǎn)也會(huì)飆升。與其重新測(cè)試縮放定律和性能,不如把時(shí)間花在構(gòu)建transformer的特性上,比如multi-token預(yù)測(cè)。

今天的軟件堆棧針對(duì)transformer進(jìn)行了優(yōu)化。每個(gè)流行的庫(kù)(TensorRT-LLM, vLLM, Huggingface TGI等)都有專(zhuān)門(mén)的內(nèi)核用于在GPU上運(yùn)行transformer模型。在transformer之上構(gòu)建的許多特性在替代方案中不容易得到支持(例如推測(cè)解碼、樹(shù)搜索)。

未來(lái)的硬件堆棧將針對(duì)transformer進(jìn)行優(yōu)化。NVIDIA的GB200對(duì)transformer(TransformerEngine)有特殊的支持。像Sohu這樣的ASIC進(jìn)入這個(gè)市場(chǎng)標(biāo)志著不可能再回頭了。transformer殺手需要在GPU上運(yùn)行的速度比在Sohu上運(yùn)行的速度快。如果發(fā)生這種情況,我們也將為此構(gòu)建一個(gè)ASIC !

遇見(jiàn)Sohu

Sohu是世界上第一個(gè)transformer專(zhuān)用集成電路。一臺(tái)8xSohu服務(wù)器替換160個(gè)H100 GPU。

2b8af12a-c969-11ef-9310-92fbcf53809c.png

通過(guò)專(zhuān)業(yè)化,Sohu獲得了前所未有的業(yè)績(jī)。一臺(tái)8xSohu服務(wù)器每秒可以處理超過(guò)500,000個(gè)Llama 70Btoken。

基準(zhǔn)是在FP8精度下的lama- 370B:無(wú)稀疏性,8倍模型并行,2048輸入/128輸出長(zhǎng)度。

用TensorRT-LLM 0.10.08(最新版本)計(jì)算8xH100,估計(jì)8xGB200的數(shù)字。

Sohu只支持transformer推理,無(wú)論是Llama還是Stable Diffusion3。Sohu支持目前所有的模型(谷歌,Meta, Microsoft, OpenAI,Anthropic等),并可以處理對(duì)未來(lái)模型的調(diào)整。

由于Sohu只能運(yùn)行一種算法,絕大多數(shù)控制流邏輯可以被移除,從而允許它擁有更多的數(shù)學(xué)塊。因此,Sohu擁有超過(guò)90%的FLOPS利用率(相比之下,使用TRT-LLM的GPU7只有30%)。

怎么能在芯片上容納比GPU更多的FLOPS呢?

NVIDIA H200具有989 TFLOPS的FP16/BF16無(wú)稀疏性計(jì)算。這是最先進(jìn)的(甚至超過(guò)了谷歌的新Trillium芯片),而在2025年推出的GB200只多了25%的計(jì)算能力(每芯片1,250 TFLOPS)。

由于GPU的絕大部分區(qū)域都致力于可編程性,專(zhuān)門(mén)研究transformer可以讓您適應(yīng)更多的計(jì)算。你可以從第一原理中證明這一點(diǎn):

構(gòu)建單個(gè)FP16/BF16/FP8乘加電路需要10,000個(gè)晶體管,這是所有矩陣數(shù)學(xué)的構(gòu)建模塊。H100 SXM有528個(gè)張量核,每個(gè)核有4*8*16個(gè)FMA電路。乘法告訴我們H100有27億個(gè)晶體管專(zhuān)用于張量核。

但是H100有800億個(gè)晶體管!這意味著H100 GPU上只有3.3%的晶體管用于矩陣乘法!

這是英偉達(dá)和其他靈活A(yù)I芯片深思熟慮的設(shè)計(jì)決策。如果想支持各種模型(CNN、LSTM、SSM等),你不能做得比這更好了。

通過(guò)只運(yùn)行transformer,我們可以在芯片上容納更多的FLOPS,而不會(huì)降低精度或稀疏性。

推理的瓶頸不應(yīng)該是在內(nèi)存帶寬上,而不是在計(jì)算上嗎?

事實(shí)上,對(duì)于像Llama-3這樣的現(xiàn)代模型來(lái)說(shuō),答案是no!

讓我們使用NVIDIA和AMD的標(biāo)準(zhǔn)基準(zhǔn):2048個(gè)輸入token和128個(gè)輸出token。大多數(shù)AI產(chǎn)品的提示都比完成時(shí)間長(zhǎng)得多(甚至一個(gè)新的Claude聊天在系統(tǒng)提示中也有1000多個(gè)token)。

在GPU和Sohu上,推理是批量運(yùn)行的。每個(gè)批處理一次加載所有模型權(quán)重,并在批處理中的每個(gè)token上重用它們。一般來(lái)說(shuō),LLM的輸入是計(jì)算綁定的,而LLM的輸出是內(nèi)存綁定的。當(dāng)我們將輸入和輸出token與連續(xù)批處理結(jié)合在一起時(shí),工作負(fù)載變得非常計(jì)算受限。

下面是LLM的連續(xù)批處理示例。這里我們正在運(yùn)行具有四個(gè)輸入token和四個(gè)輸出token的序列;每種顏色都是不同的序列。

2baa0844-c969-11ef-9310-92fbcf53809c.png

我們可以擴(kuò)展同樣的技巧來(lái)運(yùn)行Llama-3-70B,使用2048個(gè)輸入token和128個(gè)輸出token。每個(gè)批處理包含一個(gè)序列的2048個(gè)輸入token,以及127個(gè)不同序列的127個(gè)輸出token。

如果我們這樣做,每批將需要大約(2048 + 127)*70B params *2字節(jié)/ param = 304 TFLOPs,而只需要加載70B params *2字節(jié)/ param = 140 GB的模型權(quán)重和大約127 *64*8 *128*(2048 + 127)*2*2 = 72GB的KV緩存權(quán)重。這遠(yuǎn)遠(yuǎn)超過(guò)了內(nèi)存帶寬:一臺(tái)H200需要6.8 PFLOPS的計(jì)算才能最大限度地利用其內(nèi)存帶寬。這是在100%利用率下,如果利用率是30%,你需要3倍以上計(jì)算負(fù)載。

由于Sohu有如此多的計(jì)算和非常高的利用率,我們可以運(yùn)行巨大的吞吐量,而不會(huì)出現(xiàn)內(nèi)存帶寬的瓶頸。

在現(xiàn)實(shí)世界中,批處理要大得多,輸入長(zhǎng)度變化很大,請(qǐng)求以泊松分布到達(dá)。這種技術(shù)在這些情況下效果更好,但我們?cè)谶@個(gè)例子中使用2048/128基準(zhǔn),因?yàn)镹VIDIA和AMD使用它。

軟件是如何工作的?

在GPU和TPU上,軟件是一場(chǎng)噩夢(mèng)。處理任意CUDA和PyTorch代碼需要一個(gè)非常復(fù)雜的編譯器。第三方AI芯片(AMD、英特爾、AWS等)在軟件上總共花費(fèi)了數(shù)十億美元,但收效甚微。

但是Sohu只運(yùn)行transformer,我們只需要為transformer編寫(xiě)軟件!

大多數(shù)運(yùn)行開(kāi)源或內(nèi)部模型的公司使用特定于transformer的推理庫(kù),如TensorRT-LLM、vLLM或HuggingFace的TGI。這些框架非常嚴(yán)格——雖然可以調(diào)整模型超參數(shù),但并不真正支持更改底層模型代碼。但這很好——因?yàn)樗械膖ransformer模型都是如此相似(甚至是文本/圖像/視頻的),調(diào)整超參數(shù)是你真正需要的。

雖然這支持95%的AI公司,但最大的AI實(shí)驗(yàn)室都是定制的。他們有工程師團(tuán)隊(duì)手動(dòng)調(diào)整GPU內(nèi)核,以擠出更多的利用率,逆向工程,比如哪個(gè)寄存器對(duì)張量核心的延遲最低。

有了Etched,你再也不需要逆向工程了——我們的軟件,從驅(qū)動(dòng)程序到內(nèi)核再到服務(wù)棧,都將是開(kāi)源的。如果想實(shí)現(xiàn)自定義的transformer層,您的內(nèi)核向?qū)Э梢宰杂傻剡@樣做。

Etched將是第一個(gè)

如果這個(gè)賭注現(xiàn)在看起來(lái)很瘋狂,想象一下在2022年實(shí)現(xiàn)它。剛開(kāi)始的時(shí)候,ChatGPT還不存在!圖像和視頻生成模型是U-Nets,自動(dòng)駕駛汽車(chē)是由CNN驅(qū)動(dòng)的,transformer架構(gòu)遠(yuǎn)未普及。

幸運(yùn)的是,形勢(shì)已經(jīng)朝著有利于我們的方向轉(zhuǎn)變。從語(yǔ)言到視覺(jué),每個(gè)領(lǐng)域的頂級(jí)模型現(xiàn)在都是transformer。這種融合不僅證明了這一押注是正確的,而且也使Sohu成為這十年來(lái)最重要的硬件項(xiàng)目。

我們正在進(jìn)行歷史上最快的芯片發(fā)布之一:

頂尖的AI研究人員和硬件工程師離開(kāi)了重大的AI芯片項(xiàng)目,加入我們;

我們已經(jīng)直接與臺(tái)積電合作開(kāi)發(fā)他們的4nm工藝。我們已經(jīng)從頂級(jí)供應(yīng)商那里獲得了足夠的HBM和服務(wù)器供應(yīng),可以快速啟動(dòng)第一年的生產(chǎn);

我們的早期客戶(hù)已經(jīng)預(yù)訂了數(shù)千萬(wàn)美元的硬件.

?

如果我們是對(duì)的,Sohu將改變世界

如果AI模型一夜之間變得快20倍、便宜20倍,會(huì)發(fā)生什么?

今天,Gemini要花60秒回答一個(gè)關(guān)于視頻的問(wèn)題。編碼代理的成本高于軟件工程師,完成任務(wù)需要花費(fèi)數(shù)小時(shí)。視頻模型每秒生成一幀,甚至當(dāng)ChatGPT注冊(cè)用戶(hù)達(dá)到1000萬(wàn)(僅占世界的0.15%)時(shí),OpenAI的GPU容量也耗盡了。

我們并沒(méi)有在解決這個(gè)問(wèn)題的軌道上——即使我們繼續(xù)讓GPU變得更大,以每?jī)赡?.5倍的速度,也需要十年的時(shí)間才能實(shí)現(xiàn)實(shí)時(shí)視頻生成。

但有了Sohu,這將是即時(shí)的。當(dāng)實(shí)時(shí)視頻、電話、代理和搜索最終正常工作時(shí),會(huì)發(fā)生什么?

很快,你就會(huì)知道了。

原文鏈接:

https://www.etched.com/announcing-etched

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 芯片
    +關(guān)注

    關(guān)注

    460

    文章

    52520

    瀏覽量

    440990
  • asic
    +關(guān)注

    關(guān)注

    34

    文章

    1247

    瀏覽量

    122408
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    151

    瀏覽量

    6521

原文標(biāo)題:揭秘transformer專(zhuān)用ASIC芯片:Sohu!

文章出處:【微信號(hào):SSDFans,微信公眾號(hào):SSDFans】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    奶泡棒專(zhuān)用芯片詳細(xì)解析

    奶泡棒專(zhuān)用芯片詳細(xì)解析
    的頭像 發(fā)表于 02-24 11:23 ?350次閱讀

    JESD204B有專(zhuān)用于ADC/DAC和FPGA或ASIC的接口嗎?

    請(qǐng)問(wèn)各位大俠:JESD204B專(zhuān)用于ADC/DAC和FPGA或ASIC的接口嗎,該接口同Rapid/PCIe的物理層Serdes接口有何區(qū)別,謝謝!
    發(fā)表于 02-08 09:10

    如何使用MATLAB構(gòu)建Transformer模型

    Transformer 模型在 2017 年由 Vaswani 等人在論文《Attentionis All You Need》中首次提出。其設(shè)計(jì)初衷是為了解決自然語(yǔ)言處理(Nature
    的頭像 發(fā)表于 02-06 10:21 ?4050次閱讀
    如何使用MATLAB構(gòu)建<b class='flag-5'>Transformer</b>模型

    Neuchips展示大模型推理ASIC芯片

    領(lǐng)先的AI專(zhuān)用集成電路(ASIC)解決方案提供商N(yùn)euchips在CES 2024上展示了其革命性的Raptor Gen AI加速芯片(以前稱(chēng)為N3000)和Evo PCIe加速卡LLM解決方案
    的頭像 發(fā)表于 01-06 17:30 ?767次閱讀

    ASIC和GPU的原理和優(yōu)勢(shì)

    ? 本文介紹了ASIC和GPU兩種能夠用于AI計(jì)算的半導(dǎo)體芯片各自的原理和優(yōu)勢(shì)。 ASIC和GPU是什么 ASIC和GPU,都是用于計(jì)算功能的半導(dǎo)體
    的頭像 發(fā)表于 01-06 13:58 ?1761次閱讀
    <b class='flag-5'>ASIC</b>和GPU的原理和優(yōu)勢(shì)

    英偉達(dá)組建ASIC團(tuán)隊(duì),挖掘臺(tái)灣設(shè)計(jì)服務(wù)人才

    英偉達(dá)自2024年中旬起,便開(kāi)始了從臺(tái)灣地區(qū)半導(dǎo)體公司挖掘設(shè)計(jì)服務(wù)人才的行動(dòng)。這一系列舉措旨在組建自家的ASIC(專(zhuān)用集成電路)團(tuán)隊(duì),以在現(xiàn)有的Tensor Core GPU之外,開(kāi)辟一條全新的AI
    的頭像 發(fā)表于 01-03 14:39 ?682次閱讀

    Verilog 與 ASIC 設(shè)計(jì)的關(guān)系 Verilog 代碼優(yōu)化技巧

    Circuit,專(zhuān)用集成電路)設(shè)計(jì)是一個(gè)復(fù)雜的過(guò)程,涉及到邏輯設(shè)計(jì)、綜合、布局布線、物理驗(yàn)證等多個(gè)環(huán)節(jié)。在這個(gè)過(guò)程中,Verilog被用來(lái)描述數(shù)字電路的行為和結(jié)構(gòu),進(jìn)而實(shí)現(xiàn)ASIC的設(shè)計(jì)。 具體來(lái)說(shuō)
    的頭像 發(fā)表于 12-17 09:52 ?1042次閱讀

    FPGA與ASIC的區(qū)別 FPGA性能優(yōu)化技巧

    FPGA與ASIC的區(qū)別 FPGA(現(xiàn)場(chǎng)可編程門(mén)陣列)和ASIC專(zhuān)用集成電路)是兩種不同的集成電路技術(shù),它們?cè)诙鄠€(gè)方面存在顯著的區(qū)別: FPGA ASIC 基本定義 由通用的邏輯單元
    的頭像 發(fā)表于 12-02 09:51 ?1056次閱讀

    ASIC集成電路與通用芯片的比較

    ASIC集成電路與通用芯片在多個(gè)方面存在顯著差異。以下是對(duì)這兩者的比較: 一、定義與用途 ASIC集成電路 :ASIC(Application-Specific Integrated
    的頭像 發(fā)表于 11-20 15:56 ?2027次閱讀

    ASIC集成電路與FPGA的區(qū)別

    ASIC專(zhuān)用集成電路)與FPGA(現(xiàn)場(chǎng)可編程門(mén)陣列)是兩種不同的集成電路技術(shù),它們?cè)诙鄠€(gè)方面存在顯著的區(qū)別。以下是兩者的主要差異: 一、設(shè)計(jì)與制造 ASIC 是為特定應(yīng)用定制設(shè)計(jì)的集成電路。 需要
    的頭像 發(fā)表于 11-20 15:02 ?1203次閱讀

    ASIC集成電路設(shè)計(jì)流程

    ASIC(Application Specific Integrated Circuit)即專(zhuān)用集成電路,是指應(yīng)特定用戶(hù)要求和特定電子系統(tǒng)的需要而設(shè)計(jì)、制造的集成電路。ASIC集成電路設(shè)計(jì)流程可以
    的頭像 發(fā)表于 11-20 14:59 ?2074次閱讀

    Transformer模型的具體應(yīng)用

    如果想在 AI 領(lǐng)域引領(lǐng)一輪新浪潮,就需要使用到 Transformer。
    的頭像 發(fā)表于 11-20 09:28 ?1568次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應(yīng)用

    Transformer模型能夠做什么

    盡管名為 Transformer,但它們不是電視銀幕上的變形金剛,也不是電線桿上垃圾桶大小的變壓器。
    的頭像 發(fā)表于 11-20 09:27 ?1018次閱讀
    <b class='flag-5'>Transformer</b>模型能夠做什么

    想請(qǐng)教一下華芯拓遠(yuǎn)的工程師關(guān)于ASIC芯片調(diào)試軟件的問(wèn)題

    有沒(méi)有在華芯拓遠(yuǎn)工作的大佬呀?想請(qǐng)教一下是怎么讓ASIC芯片調(diào)試軟件兼容win10或win11系統(tǒng)的?希望能有大佬解答一下,十分感謝?。?!
    發(fā)表于 11-05 15:21

    FPGA與ASIC的優(yōu)缺點(diǎn)比較

    FPGA(現(xiàn)場(chǎng)可編程門(mén)陣列)與ASIC專(zhuān)用集成電路)是兩種不同的硬件實(shí)現(xiàn)方式,各自具有獨(dú)特的優(yōu)缺點(diǎn)。以下是對(duì)兩者優(yōu)缺點(diǎn)的比較: FPGA的優(yōu)點(diǎn) 可編程性強(qiáng) :FPGA具有高度的可編程性,可以靈活
    的頭像 發(fā)表于 10-25 09:24 ?1714次閱讀