99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于相變?nèi)鈱W(xué)神經(jīng)元系統(tǒng)實(shí)現(xiàn)監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)

cMdW_icsmart ? 來源:YXQ ? 2019-05-12 11:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,Nature刊載IBM新研究,使用光學(xué)器件打造的“全光學(xué)”深度神經(jīng)網(wǎng)絡(luò)可以比傳統(tǒng)計(jì)算方式的能效更高,同時(shí)具備可擴(kuò)展性、無需光電轉(zhuǎn)換和高帶寬等優(yōu)勢。這一發(fā)現(xiàn)可能給未來光學(xué)神經(jīng)網(wǎng)絡(luò)加速器的出現(xiàn)打下基礎(chǔ)。

光纖能夠以光的形式在世界范圍內(nèi)傳輸數(shù)據(jù),成為現(xiàn)代電信技術(shù)的支柱。不過如果需要分析這些傳輸數(shù)據(jù),要將其從光信號轉(zhuǎn)換為電子信號,然后用電子設(shè)備進(jìn)行處理。曾經(jīng)有一段時(shí)間,光學(xué)被認(rèn)為是未來最具潛力的計(jì)算技術(shù)的基礎(chǔ),但與電子計(jì)算機(jī)的快速進(jìn)步相比,光學(xué)計(jì)算技術(shù)的競爭力明顯不足。

不過,在過去幾年中,業(yè)界越來越關(guān)注對計(jì)算能源的成本問題。因此,光學(xué)計(jì)算系統(tǒng)再次受到關(guān)注。光學(xué)計(jì)算的能耗低,又能作為AI算法(如深度神經(jīng)網(wǎng)絡(luò)(DNN))的專用加速硬件。 近日,F(xiàn)eldmann等人在《自然》期刊上發(fā)表了這種“全光學(xué)網(wǎng)絡(luò)實(shí)現(xiàn)”的最新進(jìn)展。

深度神經(jīng)網(wǎng)絡(luò)包括多層人工神經(jīng)元和人工突觸。這些連接的強(qiáng)度稱為網(wǎng)絡(luò)權(quán)重,可以是陽性,表示神經(jīng)元的興奮,或陰性,表示神經(jīng)元的抑制。網(wǎng)絡(luò)會(huì)盡力將實(shí)際輸出和期望輸出之間的差異實(shí)現(xiàn)最小化,從而改變突觸的權(quán)重,來執(zhí)行圖像識(shí)別等任務(wù)。

CPU和其他硬件加速器通常用于DNN的計(jì)算。DNN的訓(xùn)練可以使用已知數(shù)據(jù)集,而經(jīng)過訓(xùn)練后的DNN可以用來推理任務(wù)中的未知數(shù)據(jù)。雖然計(jì)算量很大,但計(jì)算操作的多樣性不會(huì)很高,因?yàn)椤俺朔ɡ奂印辈僮髟谠S多突觸權(quán)重和神經(jīng)元激勵(lì)中占主導(dǎo)地位。

DNN在計(jì)算精度較低時(shí)仍能正常工作。因此,DNN網(wǎng)絡(luò)代表了非傳統(tǒng)計(jì)算技術(shù)的潛在機(jī)會(huì)。研究人員正在努力打造基于新型非易失性存儲(chǔ)器件的DNN加速器。這類設(shè)備在切斷電源時(shí)也能保存信息,通過模擬電子計(jì)算提升DNN的速度和能效。

那么,為什么不考慮使用光學(xué)器件呢?導(dǎo)光部件中可以包含大量數(shù)據(jù) - 無論是用于電信的光纖還是用于光子芯片上的波導(dǎo)。在這種波導(dǎo)內(nèi)部,可以使用“波分復(fù)用”技術(shù),讓許多不同波長的光一起傳播。然后可以以與電子到光學(xué)調(diào)制和光電子檢測相關(guān)的可用帶寬限制的速率調(diào)制(以可以攜帶信息的方式改變)每個(gè)波長。

圖1 全光學(xué)脈沖神經(jīng)元回路

使用諧振器可以實(shí)現(xiàn)單個(gè)波長的添加或移除,就像對貨車的裝貨和卸貨一樣。使用微米級環(huán)形諧振器可以構(gòu)建DNN網(wǎng)絡(luò)突觸權(quán)重陣列。這種諧振器可以采用熱調(diào)制,電光調(diào)制,或通過相變材料調(diào)制。這些材料可以在非晶相和結(jié)晶相之間切換,不同的材料的吸光能力差別很大。在理想條件下,進(jìn)行乘法累加運(yùn)算的功耗很低。

Feldmann研究團(tuán)隊(duì)在毫米級光子芯片上實(shí)現(xiàn)了“全光學(xué)神經(jīng)網(wǎng)絡(luò)”,其中網(wǎng)絡(luò)內(nèi)沒有使用光電轉(zhuǎn)換。輸入的數(shù)據(jù)被電子調(diào)制到不同的波長上注入網(wǎng)絡(luò),但此后所有數(shù)據(jù)都保留在芯片上。利用集成相變材料實(shí)現(xiàn)突觸權(quán)重的調(diào)節(jié)和神經(jīng)元的集成。

圖2 人工神經(jīng)元的脈沖生成與操作

本文作者小規(guī)模地展示了有監(jiān)督和無監(jiān)督的學(xué)習(xí) - 即使用標(biāo)記數(shù)據(jù)實(shí)現(xiàn)訓(xùn)練(DNN學(xué)習(xí)的方式),以及使用未標(biāo)記的數(shù)據(jù)訓(xùn)練(類似人類的學(xué)習(xí)方式)。

圖3 基于相變?nèi)鈱W(xué)神經(jīng)元系統(tǒng)實(shí)現(xiàn)監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)

因?yàn)闄?quán)重表達(dá)是通過光的吸收實(shí)現(xiàn)的,所以負(fù)權(quán)重需要更大的偏置信號,該信號不能激活相變材料。一種替代方法是使用Mach-Zehnder干涉儀的裝置,將單個(gè)波導(dǎo)分成兩個(gè)臂,然后重新組合,這時(shí)的透射光量取決于兩個(gè)傳播路徑之間光學(xué)相位的差異。然而,要想將這種方法與波分復(fù)用相結(jié)合可能難度較大,因?yàn)槊總€(gè)干涉儀的臂需要為每個(gè)波長引入適當(dāng)?shù)南辔徊睢?/p>

全光學(xué)實(shí)現(xiàn)的DNN仍然存在重大挑戰(zhàn)。在理想情況下,它們的總功率使用率可能較低,經(jīng)常需要熱光功率來調(diào)節(jié)和維持每個(gè)Mach-Zehnder干涉儀臂中的光學(xué)相位差異。

圖4 全光學(xué)神經(jīng)網(wǎng)絡(luò)的可擴(kuò)展架構(gòu)

此外,對注入含有相變材料的系統(tǒng)的總光功率必須仔細(xì)校準(zhǔn),以使材料對輸入信號的響應(yīng)符合預(yù)期。盡管相變材料也可以用于調(diào)整Mach-Zehnder相位,但是材料吸收光的強(qiáng)度和減慢光速之間會(huì)出現(xiàn)不可避免的交叉耦合,這會(huì)增加系統(tǒng)的復(fù)雜性。

傳統(tǒng)的DNN規(guī)模已經(jīng)發(fā)展到很大,可能包含數(shù)千個(gè)神經(jīng)元和數(shù)百萬個(gè)突觸。但是光子網(wǎng)絡(luò)的波導(dǎo)需要彼此間隔很遠(yuǎn)才能防止耦合,并且避免急劇彎曲以防止光離開波導(dǎo)。因?yàn)閮蓚€(gè)波導(dǎo)的交叉可能會(huì)將不需要的功率注入錯(cuò)誤路徑,這對光子芯片設(shè)計(jì)的2D特性造成了實(shí)質(zhì)性的限制。

圖5 單層脈沖神經(jīng)網(wǎng)絡(luò)的實(shí)驗(yàn)實(shí)現(xiàn)

實(shí)現(xiàn)光學(xué)器件打造神經(jīng)網(wǎng)絡(luò)需要很長的距離和很大的面積,但是每個(gè)光學(xué)結(jié)構(gòu)的關(guān)鍵部分的制造需要高精度。這是因?yàn)椴▽?dǎo)和耦合區(qū)域,比如在每個(gè)微環(huán)諧振器的入口和出口處,必須達(dá)到相應(yīng)網(wǎng)絡(luò)性能所需的精確尺寸。對于如何制造小型微環(huán)諧振器也存在諸多限制。

最后,調(diào)制技術(shù)提供的光學(xué)效應(yīng)較弱,需要很長的相互作用區(qū)域,以使其對通過的光的有限影響能夠達(dá)到顯著水平。

Feldmann 團(tuán)隊(duì)的研究中所取得的進(jìn)步,有望推動(dòng)該領(lǐng)域的未來發(fā)展,該研究可能會(huì)為未來高能效、可擴(kuò)展的光學(xué)神經(jīng)網(wǎng)絡(luò)加速器的出現(xiàn)打下基礎(chǔ)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:下一代計(jì)算架構(gòu)革命,從“全光學(xué)神經(jīng)網(wǎng)絡(luò)”開始

文章出處:【微信號:icsmart,微信公眾號:芯智訊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進(jìn)來呢?

    的基本理論。了解監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的基本原理。例如,在監(jiān)督學(xué)習(xí)中,理解如何通過標(biāo)注數(shù)據(jù)來訓(xùn)練模型進(jìn)行分類或回歸任務(wù),像通過大量的貓和狗的圖片標(biāo)注數(shù)據(jù)來訓(xùn)練一個(gè)圖像分類模型,
    發(fā)表于 07-08 17:44

    無刷直流電機(jī)單神經(jīng)元自適應(yīng)智能控制系統(tǒng)

    摘要:針對無刷直流電機(jī)(BLDCM)設(shè)計(jì)了一種可在線學(xué)習(xí)的單神經(jīng)元自適應(yīng)比例-積分-微分(PID)智能控制器,通過有監(jiān)督的 Hebb學(xué)習(xí)規(guī)則調(diào)整權(quán)值,每次采樣根據(jù)反饋誤差對
    發(fā)表于 06-26 13:36

    無刷直流電機(jī)單神經(jīng)元PI控制器的設(shè)計(jì)

    摘要:研究了一種基于專家系統(tǒng)的單神經(jīng)元PI控制器,并將其應(yīng)用于無刷直流電機(jī)調(diào)速系統(tǒng)中??刂破?b class='flag-5'>實(shí)現(xiàn)了PI參數(shù)的在線調(diào)整,在具有PID控制器良好動(dòng)態(tài)性能的同時(shí),減少微分項(xiàng)對
    發(fā)表于 06-26 13:34

    機(jī)器學(xué)習(xí)異常檢測實(shí)戰(zhàn):用Isolation Forest快速構(gòu)建無標(biāo)簽異常檢測系統(tǒng)

    本文轉(zhuǎn)自:DeepHubIMBA無監(jiān)督異常檢測作為機(jī)器學(xué)習(xí)領(lǐng)域的重要分支,專門用于在缺乏標(biāo)記數(shù)據(jù)的環(huán)境中識(shí)別異常事件。本文深入探討異常檢測技術(shù)的理論基礎(chǔ)與實(shí)踐應(yīng)用,通過IsolationForest
    的頭像 發(fā)表于 06-24 11:40 ?644次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>異常檢測實(shí)戰(zhàn):用Isolation Forest快速構(gòu)建無標(biāo)簽異常檢測<b class='flag-5'>系統(tǒng)</b>

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?694次閱讀
    使用MATLAB進(jìn)行無<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)

    優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率是提高模型訓(xùn)練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率的方法: 一、理解學(xué)習(xí)率的重要性
    的頭像 發(fā)表于 02-12 15:51 ?943次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)步驟詳解

    網(wǎng)絡(luò)的層數(shù)、每層神經(jīng)元的數(shù)量以及激活函數(shù)。 初始化權(quán)重和偏置 : 隨機(jī)初始化輸入層與隱藏層、隱藏層與隱藏層、隱藏層與輸出層之間的連接權(quán)重,以及各層的偏置項(xiàng)。這些權(quán)重和偏置在訓(xùn)練過程中會(huì)逐漸調(diào)整。 設(shè)置學(xué)習(xí)率 : 學(xué)習(xí)率決定了
    的頭像 發(fā)表于 02-12 15:50 ?649次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Ba
    的頭像 發(fā)表于 02-12 15:15 ?867次閱讀

    深度學(xué)習(xí)入門:簡單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,
    的頭像 發(fā)表于 01-23 13:52 ?534次閱讀

    使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類的步驟

    (例如,高分辨率、不同光照條件等)。 2. 數(shù)據(jù)收集 獲取數(shù)據(jù)集 :收集或購買一個(gè)包含你想要分類的圖像的數(shù)據(jù)集。 數(shù)據(jù)標(biāo)注 :確保所有圖像都被正確標(biāo)注,這對于監(jiān)督學(xué)習(xí)是必要的。 3. 數(shù)據(jù)預(yù)處理 圖像尺寸標(biāo)準(zhǔn)化 :將所有圖像調(diào)整為相同的尺寸,
    的頭像 發(fā)表于 11-15 15:01 ?851次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    神經(jīng)網(wǎng)絡(luò),也稱為連接神經(jīng)網(wǎng)絡(luò)(Fully Connected Neural Networks,F(xiàn)CNs),其特點(diǎn)是每一層的每個(gè)神經(jīng)元都與下一層的所有
    的頭像 發(fā)表于 11-15 14:53 ?1882次閱讀

    時(shí)空引導(dǎo)下的時(shí)間序列自監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】最近,香港科技大學(xué)、上海AI Lab等多個(gè)組織聯(lián)合發(fā)布了一篇時(shí)間序列無監(jiān)督預(yù)訓(xùn)練的文章,相比原來的TS2Vec等時(shí)間序列表示學(xué)習(xí)工作,核心在于提出了將空間信息融入到預(yù)訓(xùn)練階段,即在預(yù)訓(xùn)練階段
    的頭像 發(fā)表于 11-15 11:41 ?773次閱讀
    時(shí)空引導(dǎo)下的時(shí)間序列自<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>框架

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    轉(zhuǎn)換成一個(gè)很長的一維向量。轉(zhuǎn)換是在所謂的壓平層中完成的,隨后是一個(gè)或兩個(gè)連接層。連接層的神經(jīng)元類似于圖2所示的結(jié)構(gòu)。神經(jīng)網(wǎng)絡(luò)最后一層的輸出要與需要區(qū)分的類別的數(shù)量一致。此外,在最后
    發(fā)表于 10-24 13:56

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語法結(jié)構(gòu)的學(xué)習(xí),還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監(jiān)督學(xué)習(xí):模型采用自監(jiān)督學(xué)習(xí)策略,在大量無標(biāo)簽文本數(shù)據(jù)上學(xué)習(xí)
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    章節(jié)最后總結(jié)了機(jī)器學(xué)習(xí)的分類:有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、自監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)。 1.3
    發(fā)表于 07-25 14:33