99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用基于SRAM的測試芯片實現(xiàn)加速AI推理

石玉蘭 ? 來源:小點zze ? 作者:小點zze ? 2022-07-21 15:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

瑞薩電子開發(fā)了一種新的內(nèi)存處理器 (PIM) 技術(shù),用于在低功耗邊緣設(shè)備中加速 AI 推理。用于基于 SRAM 技術(shù)的測試芯片實現(xiàn)了 8.8 TOPS/W 的運行卷積神經(jīng)網(wǎng)絡(luò) (CNN) 工作負載,這是最常用于圖像識別的算法類型。

瑞薩電子現(xiàn)有一代 AI 推理加速器基于其動態(tài)可重構(gòu)處理器 (DRP) 架構(gòu),達到 1 TOPS/W 量級,足以在終端節(jié)點實現(xiàn)實時圖像識別。該公司表示,新的 PIM 技術(shù)在 TOPS/W 方面幾乎提高了一個數(shù)量級,并且可能成為在端點實施增量學(xué)習的基礎(chǔ)。

內(nèi)存處理器是一種越來越流行的人工智能推理工作負載技術(shù),其中涉及將大量輸入數(shù)據(jù)與權(quán)重因子相乘。在 PIM 設(shè)備中,當讀取數(shù)據(jù)時,在存儲器本身中執(zhí)行乘法累加 (MAC) 操作。

在瑞薩電子設(shè)備中,存儲權(quán)重的存儲單元可以通過控制單元的輸出開關(guān)與輸入數(shù)據(jù)相乘,從而控制輸出電流。測量位線中的電流然后有效地將所有輸出加在一起。以這種方式在內(nèi)存中執(zhí)行 MAC 操作,通過避免不必要的數(shù)據(jù)傳輸,消除了內(nèi)存和處理器之間的瓶頸。

三元SRAM

在接受 EETimes 的獨家采訪時,瑞薩電子高級首席工程師 Koichi Nose 解釋了用于提高精度和降低功耗的新技術(shù)。

“傳統(tǒng)的內(nèi)存處理器技術(shù)無法為大規(guī)模計算提供足夠的精度,”Nose 說,并強調(diào)了傳統(tǒng)上需要解決的變通辦法,以規(guī)避由工藝變化引起的低可靠性?!岸M制數(shù)據(jù)也不足以表達一些復(fù)雜的神經(jīng)網(wǎng)絡(luò)……它會導(dǎo)致準確性下降?!?/p>

新的 PIM 技術(shù)是三元的,這意味著每個單元都具有三種狀態(tài):-1、0 或 1。Nose 解釋說,這允許表示比二進制單元更復(fù)雜的數(shù)據(jù)。

如果三進制存儲單元保持+1或-1,則電流可以流入位線,但如果存儲單元存儲0,則沒有電流流動,這有助于保持低功耗。

“此外,重量數(shù)據(jù)可以很容易地擴展到任意位數(shù),”Nose 說?!吧窠?jīng)網(wǎng)絡(luò)中的權(quán)重數(shù)據(jù)是多位信息,一個零或一個大的正負值。在二進制單元中表達多位符號信息很困難。所提出的存儲器電路可以通過利用三元單元和簡單的數(shù)字計算塊的組合來輕松表達任意符號位操作......因為這可以支持每個用戶所需的不同計算精度,用戶可以優(yōu)化精度和精度之間的平衡能量消耗?!?/p>

能量消耗

Nose 表示,傳統(tǒng)的 PIM 拓撲使用 ADC 將位線電流轉(zhuǎn)換為輸出數(shù)據(jù)值,但盡管 ADC 很有效,但它們耗電大且占用寶貴的芯片面積。

瑞薩電子的 PIM 技術(shù)使用標準 SRAM 宏中的 1 位讀出放大器作為比較器,與可靈活控制電流的復(fù)制單元(相當于存儲單元的當前生成部分)結(jié)合使用。將復(fù)制單元電流與三元單元電流進行比較有效地檢測三元單元的電流輸出。

零檢測器還有助于降低功耗。如果 MAC 運算結(jié)果等于 0,則停止比較器的操作以節(jié)省能量。

“在 [典型] 神經(jīng)網(wǎng)絡(luò)電路中,幾乎所有節(jié)點都分配為零;只有少量的神經(jīng)元被激活,大約 1%。所以幾乎所有的計算結(jié)果都歸零,”Nose 說。“激活零檢測器電路會關(guān)閉比較器并有助于降低功耗。通過將比較器 AD 轉(zhuǎn)換器技術(shù)和零檢測器技術(shù)相結(jié)合,可以將功耗降低一個數(shù)量級。”

工藝變化

在 SRAM 陣列中,制造工藝的變化經(jīng)常導(dǎo)致故障。由于這些工藝變化,當將數(shù)據(jù)寫入具有顯著不同電氣特性的單個單元時,就會出現(xiàn)錯誤。

“為了避免這個問題,我們使用了神經(jīng)網(wǎng)絡(luò)的相同特征——幾乎所有節(jié)點都分配為零,”他說?!拔覀兛梢酝ㄟ^改組數(shù)據(jù)來避免計算錯誤,以便將零存儲在 [不利] 受影響的單元格中?!?/p>

在三進制存儲單元中,如果存儲零,則位線中沒有電流流動,因此求和結(jié)果不依賴于單元電流。

如何識別受到不利影響的細胞?

“我們正在開發(fā)其他一些錯誤單元檢測方法,但在這個芯片中,我們使用了一種簡單的方法,”他說?!拔覀儨y量神經(jīng)網(wǎng)絡(luò)的輸出并檢查結(jié)果是否正確,以識別[不存儲]正確輸出值的錯誤單元?!?/p>

測試芯片

Renesas 的 3×3 mm 測試芯片基于 12nm 工藝技術(shù)構(gòu)建,由四個集群組成,每個集群可以同時運行不同的 AI 工藝。在每個集群中,神經(jīng)網(wǎng)絡(luò)權(quán)重數(shù)據(jù)存儲在 PIM 塊中,MAC 運算結(jié)果存儲在標準 SRAM 塊中。

測試芯片包含 4 Mb 的 PIM 計算內(nèi)存和 1.5 MB 的 SRAM,足以在不使用外部存儲器的情況下評估緊湊型 CNN。該芯片實現(xiàn)了8.8 TOPS/W的功率效率。

原型 AI 模塊中的測試芯片的簡單演示還結(jié)合了小型電池、微控制器、相機和其他外圍設(shè)備,表明只需 5 mW 即可實現(xiàn)用于實時人員檢測的推理。

審核編輯 黃昊宇
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    460

    文章

    52529

    瀏覽量

    441308
  • sram
    +關(guān)注

    關(guān)注

    6

    文章

    786

    瀏覽量

    116001
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35194

    瀏覽量

    280252
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    AI推理的存儲,看好SRAM?

    看到了其前景并提前布局。AI推理也使得存儲HBM不再是唯一熱門,更多存儲芯片AI推理芯片結(jié)合,
    的頭像 發(fā)表于 03-03 08:51 ?1706次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>的存儲,看好<b class='flag-5'>SRAM</b>?

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代

    模態(tài)的技術(shù)特性,DeepSeek正加速推動AI在金融、政務(wù)、科研及網(wǎng)絡(luò)智能化等關(guān)鍵領(lǐng)域的深度應(yīng)用。 信而泰:AI推理引擎賦能網(wǎng)絡(luò)智能診斷新范式信而泰深度整合DeepSeek-R1大模型
    發(fā)表于 07-16 15:29

    谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命

    谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命 Google 發(fā)布了 Ironwood,這是其第七代張量處理單元 (TPU),專為推理而設(shè)計。這款功能強大的 AI
    的頭像 發(fā)表于 04-12 11:10 ?1844次閱讀
    谷歌第七代TPU Ironwood深度解讀:<b class='flag-5'>AI</b><b class='flag-5'>推理</b>時代的硬件革命

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理AI 模型新引擎?

    電子發(fā)燒友網(wǎng)報道(文 / 李彎彎)日前,谷歌在 Cloud Next 大會上,隆重推出了最新一代 TPU AI 加速芯片 ——Ironwood。據(jù)悉,該芯片預(yù)計于今年晚些時候面向 Go
    的頭像 發(fā)表于 04-12 00:57 ?2461次閱讀

    英偉達GTC2025亮點:Oracle與NVIDIA合作助力企業(yè)加速代理式AI推理

    Oracle 數(shù)據(jù)庫與 NVIDIA AI 相集成,使企業(yè)能夠更輕松、快捷地采用代理式 AI Oracle 和 NVIDIA 宣布,NVIDIA 加速計算和推理軟件與 Oracle 的
    的頭像 發(fā)表于 03-21 12:01 ?717次閱讀
    英偉達GTC2025亮點:Oracle與NVIDIA合作助力企業(yè)<b class='flag-5'>加速</b>代理式<b class='flag-5'>AI</b><b class='flag-5'>推理</b>

    英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    DeepSeek-R1 上的吞吐量提高了 30 倍 NVIDIA 發(fā)布了開源推理軟件 NVIDIA Dynamo,旨在以高效率、低成本加速并擴展 AI 工廠中的 AI
    的頭像 發(fā)表于 03-20 15:03 ?656次閱讀

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計算和推理軟件與 Oracle 的 AI 基礎(chǔ)設(shè)施以及生成式 AI 服務(wù)首次實現(xiàn)
    發(fā)表于 03-19 15:24 ?358次閱讀
    Oracle 與 NVIDIA 合作助力企業(yè)<b class='flag-5'>加速</b>代理式 <b class='flag-5'>AI</b> <b class='flag-5'>推理</b>

    FPGA+AI王炸組合如何重塑未來世界:看看DeepSeek東方神秘力量如何預(yù)測......

    ASIC、GPU)與FPGA的協(xié)同工作模式,例如通過芯片合封或系統(tǒng)集成,實現(xiàn)高性能的AI推理。 3.利用FPGA的獨特優(yōu)勢? 實時性與低延遲:在需要高實時性和低延遲的應(yīng)用中(如自動駕駛
    發(fā)表于 03-03 11:21

    黑芝麻智能芯片加速DeepSeek模型推理

    近日,黑芝麻智能宣布,其武當C1200家族芯片已成功完成DeepSeek模型推理的部署,而A2000芯片也將全面支持基于DeepSeek的多模態(tài)大模型推理。這一消息標志著黑芝麻智能在推
    的頭像 發(fā)表于 02-14 15:04 ?589次閱讀

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?726次閱讀
    使用NVIDIA<b class='flag-5'>推理</b>平臺提高<b class='flag-5'>AI</b><b class='flag-5'>推理</b>性能

    FPGA和ASIC在大模型推理加速中的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型的
    的頭像 發(fā)表于 10-29 14:12 ?2039次閱讀
    FPGA和ASIC在大模型<b class='flag-5'>推理</b><b class='flag-5'>加速</b>中的應(yīng)用

    NVIDIA助力麗蟾科技打造AI訓(xùn)練與推理加速解決方案

    麗蟾科技通過 Leaper 資源管理平臺集成 NVIDIA AI Enterprise,為企業(yè)和科研機構(gòu)提供了一套高效、靈活的 AI 訓(xùn)練與推理加速解決方案。無論是在復(fù)雜的
    的頭像 發(fā)表于 10-27 10:03 ?840次閱讀
    NVIDIA助力麗蟾科技打造<b class='flag-5'>AI</b>訓(xùn)練與<b class='flag-5'>推理</b><b class='flag-5'>加速</b>解決方案

    AMD助力HyperAccel開發(fā)全新AI推理服務(wù)器

    提高成本效率。HyperAccel 針對新興的生成式 AI 應(yīng)用提供超級加速芯片 IP/解決方案。HyperAccel 已經(jīng)打造出一個快速、高效且低成本的推理系統(tǒng),
    的頭像 發(fā)表于 09-18 09:37 ?885次閱讀
    AMD助力HyperAccel開發(fā)全新<b class='flag-5'>AI</b><b class='flag-5'>推理</b>服務(wù)器

    摩爾線程攜手東華軟件完成AI大模型推理測試與適配

    近日,摩爾線程與東華軟件云筑AI創(chuàng)新中心宣布,雙方已完成大模型推理測試與適配。依托摩爾線程的全功能GPU國產(chǎn)算力,東華軟件打造安全可信的基于私有化大模型的“智多型(A.I.Cogniflex)”
    的頭像 發(fā)表于 07-31 10:51 ?1993次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當前人工智能領(lǐng)域的一個研究熱點,旨在提高模型在處理復(fù)雜任務(wù)時的效率和響應(yīng)速度。以下是對LLM大模型推理加速關(guān)鍵技術(shù)的詳細探討,內(nèi)容將涵蓋模型壓縮、
    的頭像 發(fā)表于 07-24 11:38 ?1832次閱讀