99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Transformer的出現(xiàn)讓專用AI芯片變得岌岌可危

佐思汽車研究 ? 來源:佐思汽車研究 ? 作者:佐思汽車研究 ? 2022-08-10 14:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文將分析CNN,還有近期比較火的SwinTransformer以及存內(nèi)計(jì)算對(duì)AI芯片發(fā)展趨勢(shì)的影響,Transformer的出現(xiàn)讓專用AI芯片變得岌岌可危,命懸一線。 所謂AI芯片算力一般指INT8精度下每秒運(yùn)作次數(shù),INT8位即整數(shù)8比特精度。AI芯片嚴(yán)格地說應(yīng)該叫AI加速器,只是加速深度神經(jīng)網(wǎng)絡(luò)推理階段的加速,主要就是卷積的加速。一般用于視覺目標(biāo)識(shí)別分類,輔助駕駛或無人駕駛還有很多種運(yùn)算類型,需要用到多種運(yùn)算資源,標(biāo)量整數(shù)運(yùn)算通常由CPU完成,矢量浮點(diǎn)運(yùn)算通常由GPU完成,標(biāo)量、矢量運(yùn)算算力和AI算力同樣重要,三者是平起平坐的。AI算力遠(yuǎn)不能和燃油車的馬力對(duì)標(biāo),兩者相差甚遠(yuǎn)。 AI芯片的關(guān)鍵參數(shù)除了算力,還有芯片利用率或者叫模型利用率。AI芯片的算力只是峰值理論算力,實(shí)際算力與峰值算力之比就是芯片利用率。

baa4c488-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

上表為英偉達(dá)旗艦人工智能加速器T4的芯片利用率,芯片的利用率很低,大部分情況下93%的算力都是閑置的,這好比一條生產(chǎn)線,93%的工人都無所事事,但工資還是要付的。實(shí)際上芯片利用率超過50%就是非常優(yōu)秀,利用率低于10%是很常見的,極端情況只有1%,也就是說即使你用了4片英偉達(dá)頂級(jí)Orin,算力高達(dá)1000TOPS,實(shí)際算力可能只有10TOPS。 這也就是AI芯片主要的工作不是AI芯片本身,而是與之配套的軟件優(yōu)化,當(dāng)然也可以反過來,為自己的算法模型定制一塊AI芯片,如特斯拉。但應(yīng)用面越窄,出貨量就越低,攤在每顆芯片上的成本就越高,這反過來推高芯片價(jià)格,高價(jià)格進(jìn)一步縮窄了市場(chǎng),因此獨(dú)立的AI芯片必須考慮盡可能適配多種算法模型。 這需要幾方面的工作:

首先主流的神經(jīng)網(wǎng)絡(luò)模型自然要支持;

其次是壓縮模型的規(guī)模并優(yōu)化,將浮點(diǎn)轉(zhuǎn)換為定點(diǎn);

最后是提供編碼器Compiler,將模型映射為二進(jìn)制指令序列。

早期的AI運(yùn)算完全依賴GPU,以致于早期的神經(jīng)網(wǎng)絡(luò)框架如Caffee、TensorFlow、mxnet都必須考慮在GPU上優(yōu)化,簡單地說就是都得適應(yīng)GPU的編碼器CUDA,這也是英偉達(dá)為何如此強(qiáng)的原因,它無需優(yōu)化,因?yàn)樵缙诘纳窠?jīng)網(wǎng)絡(luò)就是為GPU訂做的。CUDA為英偉達(dá)筑起了高高的城墻,你要做AI運(yùn)算,不兼容CUDA是不可能的,所有的程序員都已經(jīng)用習(xí)慣了CUDA。但要兼容CUDA,CUDA的核心是不開源的,無論你如何優(yōu)化,都不如英偉達(dá)的原生CUDA更優(yōu)。車載領(lǐng)域好一點(diǎn),可以效仿特斯拉。 卷積運(yùn)算就是乘積累加,Cn=A×B+Cn-1,A是輸入矩陣,簡單理解就是一副圖像,用像素?cái)?shù)字矩陣來表示一副圖像,B是權(quán)重模型,就是深度學(xué)習(xí)搜集訓(xùn)練數(shù)據(jù),經(jīng)過幾千萬人民幣的數(shù)據(jù)中心訓(xùn)練出的算法模型,也可以看做是一種特殊的濾波器,右邊的C是上一次乘積的結(jié)果。左邊的C就是本次計(jì)算的輸出結(jié)果。卷積運(yùn)算后經(jīng)過全連接層輸出,畫出Bounding Box并識(shí)別。用代碼表示如下。

bab84774-1851-11ed-ba43-dac502259ad0.png

bae43000-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

這些計(jì)算中有大量相同的數(shù)據(jù)存取,如下表。

baf88302-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

每一次運(yùn)算都需要頻繁讀取內(nèi)存,很多是重復(fù)讀取,這非常耗費(fèi)時(shí)間和功率,顯然是一種浪費(fèi),AI芯片的核心工作就是提高數(shù)據(jù)的復(fù)用率。 AI芯片分為兩大流派,一是分塊矩陣的One Shot流派,也有稱之為GEMM通用矩陣乘法加速器,典型代表是英偉達(dá)、華為。二是如脈動(dòng)陣列的數(shù)據(jù)流流派,典型代表是谷歌、特斯拉。還有些非主流的主要用于FPGA的Spatial,F(xiàn)FT快速傅里葉變換。

華為AI芯片電路邏輯

bb105c66-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

以華為為例,其將矩陣A按行存放在輸入緩沖區(qū)中,同時(shí)將矩陣B按列存放在輸入緩沖區(qū)中,通過矩陣計(jì)算單元計(jì)算后得到的結(jié)果矩陣C按行存放在輸出緩沖區(qū)中。在矩陣相乘運(yùn)算中,矩陣C的第一元素由矩陣A的第一行的16個(gè)元素和矩陣B的第一列的16個(gè)元素由矩陣計(jì)算單元子電路進(jìn)行16次乘法和15次加法運(yùn)算得出。矩陣計(jì)算單元中共有256個(gè)矩陣計(jì)算子電路,可以由一條指令并行完成矩陣C的256個(gè)元素計(jì)算。 由于矩陣計(jì)算單元的容量有限,往往不能一次存放下整個(gè)矩陣,所以也需要對(duì)矩陣進(jìn)行分塊并采用分步計(jì)算的方式。將矩陣A和矩陣B都等分成同樣大小的塊,每一塊都可以是一個(gè)16×16的子矩陣,排不滿的地方可以通過補(bǔ)零實(shí)現(xiàn)。首先求C1結(jié)果子矩陣,需要分兩步計(jì)算:第一步將A1和B1搬移到矩陣計(jì)算單元中,并算出A1×B1的中間結(jié)果;第二步將A2和B2搬移到矩陣計(jì)算單元中,再次計(jì)算A2×B2 ,并把計(jì)算結(jié)果累加到上一次A1×B1的中間結(jié)果,這樣才完成結(jié)果子矩陣C1的計(jì)算,之后將C1寫入輸出緩沖區(qū)。由于輸出緩沖區(qū)容量也有限,所以需要盡快將C1子矩陣寫入內(nèi)存中,便于留出空間接收下一個(gè)結(jié)果子矩陣C2。 分塊矩陣的好處是只計(jì)算了微內(nèi)核,速度很快,比較靈活,編譯器好設(shè)計(jì),增加算力也很簡單,只要增加MAC的數(shù)量即可。成本低,消耗的SRAM容量小。

bb22093e-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

上圖為一個(gè)典型的脈動(dòng)陣列,右側(cè)是一個(gè)乘加單元即PE單元的內(nèi)部結(jié)構(gòu),其內(nèi)部有一個(gè)寄存器,在TPU內(nèi)對(duì)應(yīng)存儲(chǔ)Weight,此處存儲(chǔ)矩陣B。左圖是一個(gè)4×4的乘加陣列,假設(shè)矩陣B已經(jīng)被加載到乘加陣列內(nèi)部;顯然,乘加陣列中每一列計(jì)算四個(gè)數(shù)的乘法并將其加在一起,即得到矩陣乘法的一個(gè)輸出結(jié)果。依次輸入矩陣A的四行,可以得到矩陣乘法的結(jié)果。PE單元在特斯拉FSD中就是96*96個(gè)PE單元。

bb38cb06-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

不過最后還要添加累加器,需要多個(gè)SRAM加入。 脈動(dòng)式優(yōu)點(diǎn)是流水線式,不依賴一次一次的指令,一次指令即可啟動(dòng)。吞吐量很高。算力做到1000TOPS易如反掌,單PE占硅片面積小。但是其編譯器難度高,靈活度低,要做到高算力,需要大量SRAM,這反過來推高成本。 在實(shí)際應(yīng)用當(dāng)中,情況會(huì)比較復(fù)雜,完整的深度學(xué)習(xí)模型都太大,而內(nèi)存是很耗費(fèi)成本的,因此,模型都必須要壓縮和優(yōu)化,常見的壓縮有兩種,一種是Depthwise Convolution,還包括了Depthwise Separable Convolution。另一種是Pointwise Convolution。Depthwise層,只改變feature map的大小,不改變通道數(shù)。而Pointwise層則相反,只改變通道數(shù),不改變大小。這樣將常規(guī)卷積的做法(改變大小和通道數(shù))拆分成兩步走。

bb6131b8-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

常規(guī)卷積,4組(3,3,3)的卷積核進(jìn)行卷積,等于108。

bb749992-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

Depthwise卷積,分成了兩步走,第一步是3*3*3,第二步是1*1*3*4,合計(jì)是39,壓縮了很多。 谷歌TPU v1的算力計(jì)算是700MHz*256*256*2=92Top/s@int8,之所以乘2是因?yàn)檫€有個(gè)加法累積。高通AI100的最大算力計(jì)算是16*8192*2*1600MHz=419Top/s@int8,高通是16核,每個(gè)核心是8192個(gè)陣列,最高運(yùn)行頻率1.6GHz,最低估計(jì)是500MHz。

性能最大化對(duì)應(yīng)的模型要求

bb9dcd30-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

對(duì)谷歌TPU v1來說,其最優(yōu)性能是輸入為256,而不少Depthwise是3*3,其利用率為9/256,即3.5%。對(duì)高通AI100來說,如果算法模型輸入通道是256,那么效率會(huì)降低至16/256,即6.3%。顯然對(duì)于精簡算法模型,TPU非常不適合。對(duì)于精簡模型來說,高通AI100非常不適合。 以上這些都是針對(duì)CNN的,目前圖像領(lǐng)域的AI芯片也都是針對(duì)CNN的。近期大火的Swin Transformer則與之不同。2021年由微軟亞洲研究院開源的SwinTransformer的橫掃計(jì)算機(jī)視覺,從圖像分類的ViT,到目標(biāo)檢測(cè)的DETR,再到圖像分割的SETR以及3D人體姿態(tài)的METRO,大有壓倒CNN的態(tài)勢(shì)。但其原生Self-Attention的計(jì)算復(fù)雜度問題一直沒有得到解決,Self-Attention需要對(duì)輸入的所有N個(gè)token計(jì)算N的二次方大小的相互關(guān)系矩陣,考慮到視覺信息本來就是二維(圖像)甚至三維(視頻),分辨率稍微高一點(diǎn)就會(huì)暴增運(yùn)算量,目前所有視覺類AI芯片都完全無法勝任。

Swin Transformer的模型結(jié)構(gòu)

bbc96850-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

從圖上就能看出其采用了4*4卷積矩陣,而CNN是3*3,這就意味著目前的AI芯片有至少33%的效率下降。再者就是其是矢量與矩陣的乘法,這會(huì)帶來一定的浮點(diǎn)矢量運(yùn)算。 假設(shè)高和寬都為112,窗口大小為7,C為128,那么未優(yōu)化的浮點(diǎn)計(jì)算是4*112*112*128*128+2*112*112*112*112*128=41GFLOP/s。大部分AI芯片如特斯拉的FSD和谷歌的TPU,未考慮這種浮點(diǎn)運(yùn)算。不過華為和高通都考慮到了,英偉達(dá)就更不用說了,GPU天生就是針對(duì)浮點(diǎn)運(yùn)算的??雌饋?1GFLOP/s不高,但如果沒有專用浮點(diǎn)運(yùn)算處理器,效率也會(huì)急速下降。

bbf9153c-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

與CNN不同,Swin Transformer的數(shù)據(jù)選擇與布置占了29%的時(shí)間,矩陣乘法占了71%,而CNN中,矩陣乘法至少占95%。

bc1c4106-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

針對(duì)Swin Transformer的AI芯片最好將區(qū)塊模型與數(shù)據(jù)流模型分開,指令集與數(shù)據(jù)集當(dāng)然也最好分開。

bc456d38-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

針對(duì)Swin Transformer,理論上最好的選擇是存內(nèi)計(jì)算也叫存算一體,上圖是存內(nèi)計(jì)算架構(gòu)與傳統(tǒng)AI芯片的馮諾依曼架構(gòu)的功耗對(duì)比,存內(nèi)計(jì)算架構(gòu)在同樣算力的情況下,只有馮諾依曼架構(gòu)1/6的功耗。

馮諾依曼架構(gòu)與存內(nèi)計(jì)算架構(gòu)對(duì)比

bc752618-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

典型的存內(nèi)計(jì)算架構(gòu)芯片

bc8ab9ce-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

不過目前存內(nèi)計(jì)算離實(shí)用距離還非常遙遠(yuǎn):

第一,內(nèi)存行業(yè)由三星、美光和SK Hynix三家占了90%的市場(chǎng),行業(yè)門檻極高,這三家極力保持內(nèi)存價(jià)格穩(wěn)定。

第二,目前AI模型都是越來越大,用存內(nèi)計(jì)算存儲(chǔ)大容量AI模型成本極高。三星的存內(nèi)計(jì)算芯片測(cè)試用的是二十年前的MNIST手寫字符識(shí)別,這種AI模型是kb級(jí)別的。而自動(dòng)駕駛用的至少也是10MB以上。

第三,精度很低,當(dāng)前存內(nèi)計(jì)算研究的一個(gè)重點(diǎn)方法是使用電阻式RAM(ReRAM)實(shí)現(xiàn)位線電流檢測(cè)。由于電壓范圍,噪聲和PVT的變化,模擬位線電流檢測(cè)和ADC的精度受到限制,即使精度低到1比特也難以實(shí)現(xiàn),而輔助駕駛目前是8比特。

第四,電阻式RAM可靠性不高。經(jīng)常更新權(quán)重模型,可能導(dǎo)致故障。

最后,存內(nèi)計(jì)算的工具鏈基本為零。最樂觀的估計(jì),存內(nèi)計(jì)算實(shí)用化也要5年以上,且是用在很小規(guī)模計(jì)算,如AIoT領(lǐng)域,自動(dòng)駕駛領(lǐng)域十年內(nèi)都不可能見到存內(nèi)計(jì)算。即使存內(nèi)計(jì)算實(shí)用化,恐怕也是內(nèi)存三巨頭最有優(yōu)勢(shì)。

Transformer的出現(xiàn)讓專用AI芯片變得非常危險(xiǎn),難保未來不出現(xiàn)別的技術(shù),而適用面很窄的AI專用芯片會(huì)完全喪失市場(chǎng),通用性比較強(qiáng)的CPU或GPU還是永葆青春,至于算力,與算法模型高度捆綁,但捆綁太緊,市場(chǎng)肯定很小,且生命周期可能很短。 聲明:本文僅代表作者個(gè)人觀點(diǎn)。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103624
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1983

    瀏覽量

    35915
  • 算力
    +關(guān)注

    關(guān)注

    2

    文章

    1201

    瀏覽量

    15655

原文標(biāo)題:Transformer挑戰(zhàn)CNN,AI芯片需要改變

文章出處:【微信號(hào):zuosiqiche,微信公眾號(hào):佐思汽車研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI芯片:加速人工智能計(jì)算的專用硬件引擎

    人工智能(AI)的快速發(fā)展離不開高性能計(jì)算硬件的支持,而傳統(tǒng)CPU由于架構(gòu)限制,難以高效處理AI任務(wù)中的大規(guī)模并行計(jì)算需求。因此,專為AI優(yōu)化的芯片應(yīng)運(yùn)而生,成為推動(dòng)深度學(xué)習(xí)、計(jì)算機(jī)視
    的頭像 發(fā)表于 07-09 15:59 ?150次閱讀

    里程碑!亞馬遜第 100 萬個(gè)機(jī)器人上崗!人類員工岌岌可危?

    電子發(fā)燒友網(wǎng)報(bào)道(文 / 吳子鵬)亞馬遜宣布在全球部署 100 萬臺(tái)機(jī)器人,這一里程碑標(biāo)志著全球物流行業(yè)邁入智能化與自動(dòng)化的新階段。第 100 萬個(gè)機(jī)器人被送往日本東京的運(yùn)營中心,加入覆蓋全球 300 多個(gè)設(shè)施的機(jī)器人軍團(tuán)。從 2012 年收購 Kiva Systems 起步,亞馬遜用 11 年時(shí)間實(shí)現(xiàn)了機(jī)器人數(shù)量的指數(shù)級(jí)增長。 亞馬遜機(jī)器人持續(xù)進(jìn)化 2019 年,亞馬遜(Amazon)創(chuàng)始人杰夫?貝索斯(Jeff Bezos)預(yù)測(cè),在未來十年內(nèi),機(jī)器人系統(tǒng)將先進(jìn)到足以像人手一般靈活
    的頭像 發(fā)表于 07-08 09:22 ?4926次閱讀

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學(xué)習(xí)領(lǐng)域正在經(jīng)歷一場(chǎng)翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義了自然語言處理(NLP)的標(biāo)準(zhǔn),而且拓寬了視野,徹底改變了AI的許多方面。
    的頭像 發(fā)表于 06-10 14:24 ?345次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)概述

    【免費(fèi)工具】華秋AI電路識(shí)別助手:電路設(shè)計(jì)與分析變得輕松高效!

    電子工程師注意!還在為熬夜解析電路圖崩潰?AI黑科技電路設(shè)計(jì)與分析變得輕松高效!如果你還在為電路分析感到頭疼,那么一定要試試這款超好用的工具——華秋AI電路識(shí)別助手小程序!這是一款由
    的頭像 發(fā)表于 06-05 18:18 ?452次閱讀
    【免費(fèi)工具】華秋<b class='flag-5'>AI</b>電路識(shí)別助手:<b class='flag-5'>讓</b>電路設(shè)計(jì)與分析<b class='flag-5'>變得</b>輕松高效!

    蘋果正研發(fā)用于AI服務(wù)器的專用芯片

    據(jù)外媒報(bào)道,蘋果公司正研發(fā)用于AI服務(wù)器的專用芯片;據(jù)蘋果公司知情人士透露;蘋果芯片設(shè)計(jì)團(tuán)隊(duì)正在加速研發(fā)新芯片,面向的主要領(lǐng)域包括智能眼鏡
    的頭像 發(fā)表于 05-09 11:25 ?550次閱讀

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件端側(cè)AI模型接入得心應(yīng)手

    Studio提供了最優(yōu)解。Neuron Studio針對(duì)模型到應(yīng)用,提供一站式、全鏈路、自動(dòng)化的開發(fā)協(xié)助,不僅AI應(yīng)用開發(fā)的全流程可視化,更帶來整個(gè)多種工具的一站式開發(fā)能力,還支持神經(jīng)網(wǎng)絡(luò)自動(dòng)化調(diào)優(yōu)和跨
    發(fā)表于 04-13 19:52

    一文讀懂,重構(gòu)芯片為何是AI的完美搭檔

    在當(dāng)今數(shù)字化時(shí)代,人工智能(AI)無疑是最為耀眼的技術(shù)領(lǐng)域之一。從早期簡單的機(jī)器學(xué)習(xí)算法,到如今復(fù)雜的深度學(xué)習(xí)和Transformer模型,AI算法正以前所未有的速度快速發(fā)展。這種快速演進(jìn)使得
    的頭像 發(fā)表于 03-31 12:05 ?506次閱讀
    一文讀懂,<b class='flag-5'>可</b>重構(gòu)<b class='flag-5'>芯片</b>為何是<b class='flag-5'>AI</b>的完美搭檔

    重新定義智能安防邊界——SSD2351如何邊緣計(jì)算更高效

    置的智能處理單元(IPU)支持Transformer網(wǎng)絡(luò),靈活部署輕量化AI模型。例如,在工業(yè)場(chǎng)景中,結(jié)合RGB/YUV數(shù)據(jù)DMA傳輸功能,實(shí)時(shí)檢測(cè)生產(chǎn)線上的微小零件缺陷,并通過M
    發(fā)表于 02-27 16:14

    如何使用MATLAB構(gòu)建Transformer模型

    LanguageProcessing, NLP)中的序列到序列任務(wù),如機(jī)器翻譯。Transformer 通過引入自注意力機(jī)制使得處理長距離依賴關(guān)系時(shí)變得高效。因此 Vaswani 等人的論文強(qiáng)調(diào)“注意力是所需的一切”。
    的頭像 發(fā)表于 02-06 10:21 ?4049次閱讀
    如何使用MATLAB構(gòu)建<b class='flag-5'>Transformer</b>模型

    OpenAI計(jì)劃開發(fā)替代手機(jī)的生成式AI專用終端

    近日,據(jù)日經(jīng)報(bào)道,人工智能研究公司 OpenAI 的 CEO Sam Altman 在接受采訪時(shí)透露,OpenAI 計(jì)劃開發(fā)一款替代手機(jī)的生成式 AI 專用終端。 據(jù)了解,OpenAI 在生成式
    的頭像 發(fā)表于 02-05 14:50 ?484次閱讀

    transformer專用ASIC芯片Sohu說明

    2022年,我們打賭說transformer會(huì)統(tǒng)治世界。 我們花了兩年時(shí)間打造Sohu,這是世界上第一個(gè)用于transformer(ChatGPT中的“T”)的專用芯片。 將
    的頭像 發(fā)表于 01-06 09:13 ?1156次閱讀
    <b class='flag-5'>transformer</b><b class='flag-5'>專用</b>ASIC<b class='flag-5'>芯片</b>Sohu說明

    恒玄科技研發(fā)AI眼鏡專用芯片

    誕生于5至6年前,并非針對(duì)AI眼鏡這一新興消費(fèi)電子產(chǎn)品的特殊需求而專門設(shè)計(jì)的。因此,在性能、功耗以及適配性等方面,這些芯片可能無法完全滿足AI眼鏡的發(fā)展需求。 針對(duì)這一現(xiàn)狀,恒玄科技決定投入研發(fā)力量,打造一款真正適合
    的頭像 發(fā)表于 12-31 14:42 ?1771次閱讀

    TB1801線性車燈專用芯片完美替代LAN1165E

    TB1801線性車燈專用芯片完美替代LAN1165E1、產(chǎn)品概述TB1801 是一款專為 12V 燈珠設(shè)計(jì)的汽車燈專用的低壓差恒流芯片,輸
    發(fā)表于 12-31 10:00

    Transformer模型的具體應(yīng)用

    如果想在 AI 領(lǐng)域引領(lǐng)一輪新浪潮,就需要使用到 Transformer。
    的頭像 發(fā)表于 11-20 09:28 ?1568次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應(yīng)用

    新思科技解讀是什么AI芯片設(shè)計(jì)與眾不同?

    Intelligence)時(shí)代,人工智能(AI)和安全已經(jīng)成為超越傳統(tǒng)芯片設(shè)計(jì)界限的關(guān)鍵因素。 半導(dǎo)體行業(yè)的迅猛增長主要是由AI(人工智能)、ML(機(jī)器學(xué)習(xí))和DL(深度學(xué)習(xí))等技術(shù)的廣泛應(yīng)用所驅(qū)動(dòng)的,這些技術(shù)對(duì)計(jì)算要求極高,
    發(fā)表于 07-30 11:50 ?625次閱讀