99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

時(shí)識(shí)科技提出新脈沖神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法 助推類腦智能產(chǎn)業(yè)落地

科技綠洲 ? 來(lái)源:SynSense時(shí)識(shí)科技 ? 作者:SynSense時(shí)識(shí)科技 ? 2022-06-20 14:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,SynSense時(shí)識(shí)科技技術(shù)團(tuán)隊(duì)發(fā)表題為“EXODUS: Stable and Efficient Training of Spiking Neural Networks”的文章,在文章中提出了新的脈沖神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法EXODUS。研究顯示:EXODUS能夠大大減低訓(xùn)練復(fù)雜程度,更具穩(wěn)定性,并提升了準(zhǔn)確度。

這項(xiàng)研究由SynSense時(shí)識(shí)科技瑞士技術(shù)團(tuán)隊(duì)算法應(yīng)用、機(jī)器學(xué)習(xí)工程師共同完成。具體見(jiàn):https://arxiv.org/abs/2205.10242v1

Code: https://github.com/synsense/sinabs-exodus

“EXODUS是一種更加嚴(yán)謹(jǐn)?shù)乃惴ǎ瑢?duì)SLAYER進(jìn)行了優(yōu)化,在多種基準(zhǔn)數(shù)據(jù)集中顯示出了更快速的收斂和更高的準(zhǔn)確性。”

——SynSense時(shí)識(shí)科技

高級(jí)算法總監(jiān)Sadique Sheik

在如今的機(jī)器學(xué)習(xí)任務(wù)中,功耗正在被置于越來(lái)越重要的地位。受生物大腦啟發(fā)的脈沖神經(jīng)網(wǎng)絡(luò)尤其在連接事件驅(qū)動(dòng)的傳感器及異步硬件時(shí),顯示出突出的低功耗、低延遲特征。因此,超低功耗脈沖神經(jīng)網(wǎng)絡(luò)也正在被廣泛接受。

研究人員設(shè)計(jì)了不同的方法用于脈沖神經(jīng)網(wǎng)絡(luò)訓(xùn)練。當(dāng)前,訓(xùn)練脈沖神經(jīng)網(wǎng)絡(luò)所運(yùn)用的基于時(shí)間的反向傳播(BPTT),卻較為耗時(shí)。來(lái)自NUS的Shrestha和Orchard此前提出了一種名為SLAYER的算法,能夠相當(dāng)程度上提升訓(xùn)練速度。然而,SLAYER并未在計(jì)算梯度中將神經(jīng)元膜電位重置機(jī)制納入考量,這也是造成數(shù)值不穩(wěn)定的一大原因。為了對(duì)抗這一缺陷,SLAYER引入了梯度縮放超參數(shù),并且需要手動(dòng)調(diào)試。

SynSense時(shí)識(shí)科技在最新研究中,對(duì)SLAYER進(jìn)行了改善并設(shè)計(jì)了一種名為EXODUS的算法。EXODUS將神經(jīng)元膜電位重置機(jī)制考慮在內(nèi),應(yīng)用了隱函數(shù)定理( Implicit Function Theorem /IFT) 來(lái)計(jì)算梯度,無(wú)需特置梯度縮放,大大減低了訓(xùn)練復(fù)雜程度。

SynSense時(shí)識(shí)科技在此研究過(guò)程中演示了3類類腦任務(wù):通過(guò)DVS Gesture、Heidelberg Spiking Digits(HSD)、Spiking speech commands (SSC) ,圍繞EXODUS及SLAYER進(jìn)行了對(duì)比,EXODUS顯示出了較SLAYER更高的準(zhǔn)確性。

驗(yàn)證準(zhǔn)確度提升及訓(xùn)練提速對(duì)比

自成立以來(lái),SynSense時(shí)識(shí)科技持續(xù)助推類腦智能產(chǎn)業(yè)落地,同時(shí)在這一進(jìn)程中,于腦科學(xué)、神經(jīng)網(wǎng)絡(luò)模型、算法、硬件架構(gòu)、芯片設(shè)計(jì)、系統(tǒng)級(jí)設(shè)計(jì)、應(yīng)用、軟件等類腦工程相關(guān)的各個(gè)領(lǐng)域持續(xù)創(chuàng)新,對(duì)國(guó)內(nèi)外科研領(lǐng)域產(chǎn)生了積極深刻的影響。SynSense時(shí)識(shí)科技核心團(tuán)隊(duì)在類腦芯片領(lǐng)域科研上的實(shí)力位于世界最頂級(jí)的行列,這也將作為強(qiáng)大驅(qū)動(dòng),加快SynSense時(shí)識(shí)科技類腦智能應(yīng)用落地,為類腦技術(shù)的更廣泛鋪開(kāi)而形成助力。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    時(shí)識(shí)科技首批入選智能產(chǎn)業(yè)創(chuàng)新發(fā)展聯(lián)盟

    近日,由中國(guó)信息通信研究院牽頭發(fā)起,上海智能產(chǎn)業(yè)三箭齊發(fā)——產(chǎn)業(yè)創(chuàng)新發(fā)展聯(lián)盟成立、未來(lái)產(chǎn)業(yè)
    的頭像 發(fā)表于 04-23 09:57 ?397次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率

    優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率是提高模型訓(xùn)練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率的方法: 一、理解學(xué)習(xí)率的重要性 學(xué)習(xí)率決定了模型參數(shù)在每次迭代時(shí)更新的幅度。過(guò)大的學(xué)習(xí)率可
    的頭像 發(fā)表于 02-12 15:51 ?928次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    自學(xué)習(xí)能力 : BP神經(jīng)網(wǎng)絡(luò)能夠通過(guò)訓(xùn)練數(shù)據(jù)自動(dòng)調(diào)整網(wǎng)絡(luò)參數(shù),實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的分類、回歸等任務(wù),無(wú)需人工進(jìn)行復(fù)雜的特征工程。 泛化能力強(qiáng) : BP神經(jīng)網(wǎng)絡(luò)通過(guò)
    的頭像 發(fā)表于 02-12 15:36 ?914次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反
    的頭像 發(fā)表于 02-12 15:18 ?764次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過(guò)反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過(guò)逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化
    的頭像 發(fā)表于 02-12 15:15 ?850次閱讀

    如何訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)模型

    BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)是一種經(jīng)典的人工神經(jīng)網(wǎng)絡(luò)模型,其訓(xùn)練過(guò)程主要分為兩個(gè)階段:前向傳播和反向傳播。以下是訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:10 ?904次閱讀

    SynSense時(shí)識(shí)科技亮相CES,展現(xiàn)智能“芯”實(shí)力

    近日,在萬(wàn)眾矚目的CES展會(huì)上,SynSense時(shí)識(shí)科技及其旗下iniVation作為全球領(lǐng)先的智能企業(yè),榮耀登臺(tái),向全球觀眾展示了其卓越的“芯”實(shí)力。 此次參展,SynSense
    的頭像 發(fā)表于 01-13 15:37 ?673次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?1183次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)<b class='flag-5'>方法</b>

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見(jiàn)的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?1865次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)準(zhǔn)備方法

    LSTM(Long Short-Term Memory,長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)準(zhǔn)備方法是一個(gè)關(guān)鍵步驟,它直接影響到模型的性能和效果。以下是一些關(guān)于LSTM神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-13 10:08 ?2101次閱讀

    SynSense時(shí)識(shí)科技收購(gòu)瑞士視覺(jué)傳感器公司iniVation 100%股權(quán)

    SynSense時(shí)識(shí)科技今日宣布成功收購(gòu)瑞士視覺(jué)傳感器公司iniVation 100%股權(quán)。隨著交割完成,SynSense時(shí)識(shí)科技成為全球首個(gè)同時(shí)擁有
    的頭像 發(fā)表于 07-19 18:09 ?1943次閱讀

    SynSense時(shí)識(shí)科技成功收購(gòu)瑞士視覺(jué)傳感器公司iniVation,智能航母蓄勢(shì)待發(fā)

    SynSense時(shí)識(shí)科技今日宣布 成功收購(gòu)瑞士視覺(jué)傳感器公司iniVation 100%股權(quán) 。隨著交割完成,SynSense時(shí)識(shí)科技成為全球首個(gè)同時(shí)擁有
    發(fā)表于 07-19 18:00 ?759次閱讀
    SynSense時(shí)<b class='flag-5'>識(shí)</b>科技成功收購(gòu)瑞士<b class='flag-5'>類</b><b class='flag-5'>腦</b>視覺(jué)傳感器公司iniVation,<b class='flag-5'>類</b><b class='flag-5'>腦</b><b class='flag-5'>智能</b>航母蓄勢(shì)待發(fā)

    Python自動(dòng)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)

    人工神經(jīng)網(wǎng)絡(luò)(ANN)是機(jī)器學(xué)習(xí)中一種重要的模型,它模仿了人腦神經(jīng)元的工作方式,通過(guò)多層節(jié)點(diǎn)(神經(jīng)元)之間的連接和權(quán)重調(diào)整來(lái)學(xué)習(xí)和解決問(wèn)題。Python由于其強(qiáng)大的庫(kù)支持(如TensorFlow、PyTorch等),成為了實(shí)現(xiàn)和
    的頭像 發(fā)表于 07-19 11:54 ?698次閱讀

    ai大模型訓(xùn)練方法有哪些?

    方法增加數(shù)據(jù)多樣性。 模型選擇 選擇合適的神經(jīng)網(wǎng)絡(luò)架構(gòu),如卷積神經(jīng)網(wǎng)絡(luò)(CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)等。 損
    的頭像 發(fā)表于 07-16 10:11 ?3158次閱讀