99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

IBM Research AI團隊用大規(guī)模的模擬存儲器陣列訓練深度神經網絡

Qp2m_ggservicer ? 來源:未知 ? 作者:李倩 ? 2018-06-16 16:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

IBM 近日提出的全新芯片設計可以通過在數據存儲的位置執(zhí)行計算來加速全連接神經網絡的訓練。研究人員稱,這種「芯片」可以達到 GPU 280 倍的能源效率,并在同樣面積上實現 100 倍的算力。該研究的論文已經發(fā)表在上周出版的 Nature 期刊上。

在最近發(fā)表在Nature上的一篇論文中,IBM Research AI團隊用大規(guī)模的模擬存儲器陣列訓練深度神經網絡(DNN),達到了與GPU相當的精度。研究人員相信,這是在下一次AI突破所需要的硬件加速器發(fā)展道路上邁出的重要一步。

未來人工智能將需要大規(guī)模可擴展的計算單元,無論是在云端還是在邊緣,DNN都會變得更大、更快,這意味著能效必須顯著提高。雖然更好的GPU或其他數字加速器能在某種程度上起到幫助,但這些系統都不可避免地在數據的傳輸,也就是將數據從內存?zhèn)鞯接嬎闾幚韱卧缓蠡貍魃匣ㄙM大量的時間和能量。

模擬技術涉及連續(xù)可變的信號,而不是二進制的0和1,對精度具有內在的限制,這也是為什么現代計算機一般是數字型的。但是,AI研究人員已經開始意識到,即使大幅降低運算的精度,DNN模型也能運行良好。因此,對于DNN來說,模擬計算有可能是可行的。

但是,此前還沒有人給出確鑿的證據,證明使用模擬的方法可以得到與在傳統的數字硬件上運行的軟件相同的結果。也就是說,人們還不清楚DNN是不是真的能夠通過模擬技術進行高精度訓練。如果精度很低,訓練速度再快、再節(jié)能,也沒有意義。

在IBM最新發(fā)表的那篇Nature論文中,研究人員通過實驗,展示了模擬非易失性存儲器(NVM)能夠有效地加速反向傳播(BP)算法,后者是許多最新AI進展的核心。這些NVM存儲器能讓BP算法中的“乘-加”運算在模擬域中并行。

研究人員將一個小電流通過一個電阻器傳遞到一根導線中,然后將許多這樣的導線連接在一起,使電流聚集起來,就實現了大量計算的并行。而且,所有這些都在模擬存儲芯片內完成,不需要數字芯片里數據在存儲單元和和處理單元之間傳輸的過程。

IBM的大規(guī)模模擬存儲器陣列,訓練深度神經網絡達到了GPU的精度

(圖片來源:IBM Research)

由于當前NVM存儲器的固有缺陷,以前的相關實驗都沒有在DNN圖像分類任務上得到很好的精度。但這一次,IBM的研究人員使用創(chuàng)新的技術,改善了很多不完善的地方,將性能大幅提升,在各種不同的網絡上,都實現了與軟件級的DNN精度。

單獨看這個大規(guī)模模擬存儲器陣列里的一個單元,由相變存儲器(PCM)和CMOS電容組成,PCM放長期記憶(權重),短期的更新放在CMOS電容器里,之后再通過特殊的技術,消除器件與器件之間的不同。研究人員表示,這種方法是受了神經科學的啟發(fā),使用了兩種類型的“突觸”:短期計算和長期記憶。

這些基于NVM的芯片在訓練全連接層方面展現出了極強的潛力,在計算能效 (28,065 GOP/sec/W) 和通量(3.6 TOP/sec/mm^2)上,超過了當前GPU的兩個數量級。

這項研究表明了,基于模擬存儲器的方法,能夠實現與軟件等效的訓練精度,并且在加速和能效上有數量級的提高,為未來設計全新的AI芯片奠定了基礎。研究人員表示,他們接下來將繼續(xù)優(yōu)化,處理全連接層和其他類型的計算。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • IBM
    IBM
    +關注

    關注

    3

    文章

    1823

    瀏覽量

    75819
  • 存儲器
    +關注

    關注

    38

    文章

    7651

    瀏覽量

    167391
  • AI芯片
    +關注

    關注

    17

    文章

    1983

    瀏覽量

    35911

原文標題:GGAI 前沿 | IBM全新AI芯片設計登上Nature:算力是GPU的100倍

文章出處:【微信號:ggservicerobot,微信公眾號:高工智能未來】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    BP神經網絡與卷積神經網絡的比較

    多層。 每一層都由若干個神經元構成,神經元之間通過權重連接。信號在神經網絡中是前向傳播的,而誤差是反向傳播的。 卷積神經網絡(CNN) : CNN主要由卷積層、池化層和全連接層組成。
    的頭像 發(fā)表于 02-12 15:53 ?666次閱讀

    BP神經網絡的優(yōu)缺點分析

    自學習能力 : BP神經網絡能夠通過訓練數據自動調整網絡參數,實現對輸入數據的分類、回歸等任務,無需人工進行復雜的特征工程。 泛化能力強 : BP神經網絡通過
    的頭像 發(fā)表于 02-12 15:36 ?919次閱讀

    BP神經網絡深度學習的關系

    ),是一種多層前饋神經網絡,它通過反向傳播算法進行訓練。BP神經網絡由輸入層、一個或多個隱藏層和輸出層組成,通過逐層遞減的方式調整網絡權重,目的是最小化
    的頭像 發(fā)表于 02-12 15:15 ?859次閱讀

    如何訓練BP神經網絡模型

    BP(Back Propagation)神經網絡是一種經典的人工神經網絡模型,其訓練過程主要分為兩個階段:前向傳播和反向傳播。以下是訓練BP神經網絡
    的頭像 發(fā)表于 02-12 15:10 ?917次閱讀

    深度學習入門:簡單神經網絡的構建與實現

    深度學習中,神經網絡是核心模型。今天我們 Python 和 NumPy 構建一個簡單的神經網絡。 神經網絡由多個
    的頭像 發(fā)表于 01-23 13:52 ?528次閱讀

    卷積神經網絡的實現工具與框架

    : TensorFlow是由Google Brain團隊開發(fā)的開源機器學習框架,它支持多種深度學習模型的構建和訓練,包括卷積神經網絡。TensorFlow以其靈活性和可擴展性而聞名,適
    的頭像 發(fā)表于 11-15 15:20 ?670次閱讀

    卷積神經網絡與傳統神經網絡的比較

    深度學習領域,神經網絡模型被廣泛應用于各種任務,如圖像識別、自然語言處理和游戲智能等。其中,卷積神經網絡(CNNs)和傳統神經網絡是兩種常見的模型。 1. 結構差異 1.1 傳統
    的頭像 發(fā)表于 11-15 14:53 ?1869次閱讀

    深度學習中的卷積神經網絡模型

    深度學習近年來在多個領域取得了顯著的進展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經網絡作為深度學習的一個分支,因其在圖像處理任務中的卓越性能而受到廣泛關注。 卷積神經網絡
    的頭像 發(fā)表于 11-15 14:52 ?845次閱讀

    LSTM神經網絡訓練數據準備方法

    LSTM(Long Short-Term Memory,長短期記憶)神經網絡訓練數據準備方法是一個關鍵步驟,它直接影響到模型的性能和效果。以下是一些關于LSTM神經網絡訓練數據準備的
    的頭像 發(fā)表于 11-13 10:08 ?2117次閱讀

    關于卷積神經網絡,這些概念你厘清了么~

    必須通過決策閾值做出決定。 另一個區(qū)別是AI并不依賴固定的規(guī)則,而是要經過訓練。訓練過程需要將大量貓的圖像展示給神經網絡以供其學習。最終,神經網絡
    發(fā)表于 10-24 13:56

    【飛凌嵌入式OK3576-C開發(fā)板體驗】RKNN神經網絡算法開發(fā)環(huán)境搭建

    download_model.sh 腳本,該腳本 將下載一個可用的 YOLOv5 ONNX 模型,并存放在當前 model 目錄下,參考命令如下: 安裝COCO數據集,在深度神經網絡算法中,模型的訓練離不開大量的數據集,數據
    發(fā)表于 10-10 09:28

    FPGA在深度神經網絡中的應用

    隨著人工智能技術的飛速發(fā)展,深度神經網絡(Deep Neural Network, DNN)作為其核心算法之一,在圖像識別、語音識別、自然語言處理等領域取得了顯著成果。然而,傳統的深度神經網絡
    的頭像 發(fā)表于 07-24 10:42 ?1203次閱讀

    分享幾個FPGA實現的小型神經網絡

    今天我們分享幾個FPGA實現的小型神經網絡,側重應用。
    的頭像 發(fā)表于 07-24 09:30 ?1886次閱讀
    分享幾個<b class='flag-5'>用</b>FPGA實現的小型<b class='flag-5'>神經網絡</b>

    如何構建多層神經網絡

    構建多層神經網絡(MLP, Multi-Layer Perceptron)模型是一個在機器學習和深度學習領域廣泛使用的技術,尤其在處理分類和回歸問題時。在本文中,我們將深入探討如何從頭開始構建一個多層神經網絡模型,包括模型設計、
    的頭像 發(fā)表于 07-19 17:19 ?1565次閱讀

    Python自動訓練人工神經網絡

    人工神經網絡(ANN)是機器學習中一種重要的模型,它模仿了人腦神經元的工作方式,通過多層節(jié)點(神經元)之間的連接和權重調整來學習和解決問題。Python由于其強大的庫支持(如TensorFlow、PyTorch等),成為了實現和
    的頭像 發(fā)表于 07-19 11:54 ?702次閱讀