99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

沒有乘法的神經(jīng)網(wǎng)絡,你敢想象嗎?

倩倩 ? 來源:數(shù)據(jù)集 ? 2020-03-27 15:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

沒有乘法的神經(jīng)網(wǎng)絡,你敢想象嗎?無論是單個神經(jīng)元的運算還是卷積運算,都不可避免地要使用乘法。

然而乘法對硬件資源的消耗遠大于加法。如果不用乘法,全部改用加法應該可以讓運算速度大大提升。

去年年底,來自北京大學、華為諾亞方舟實驗室、鵬城實驗室的研究人員將這一想法付諸實踐,他們提出了一種只用加法的神經(jīng)網(wǎng)絡AdderNet(加法器網(wǎng)絡)。一作是華為諾亞方舟實習生,正在北大讀博三。

如今,這篇文章已經(jīng)被CVPR 2020收錄(Oral),官方也在GitHub上開放了源代碼。有興趣的同學不妨前往一試究竟。

加法器網(wǎng)絡簡介

加法器網(wǎng)絡的核心在于:用L1距離代替歐氏距離。

L1距離是求兩點之間坐標差值的絕對值之和,因此全程不涉及乘法。

在這種新的定義下,反向傳播中用到的求偏導數(shù)運算也變成了求減法。梯度下降的優(yōu)化過程也被叫做符號SGD(signSGD)。

在加法器網(wǎng)絡的新定義下,特征向量的空間分布也和CNN有很大的不同。

那么AdderNet的實際效果如何呢?

在CIFAR-10的圖像分類任務中,AdderNet相比當初Bengio等人提出的加法神經(jīng)網(wǎng)絡BNN性能有大幅提升,并且已經(jīng)接近了傳統(tǒng)CNN的結果。

開源代碼

官方的AdderNet基于Python3和PyTorch。

先按照PyTorch的官方文檔準備ImageNet數(shù)據(jù)集,運行程序評估它在驗證集上的效果:

python test.py —data_dir ‘path/to/imagenet_root/’

AdderNet可以在ImageNet數(shù)據(jù)集上達到74.9%的Top-1準確度和91.7%的Top-5準確度。

或者將CIFAR-10數(shù)據(jù)集下載到本地,測試一下它在CIFAR-10上的效果

python test.py —dataset cifar10 —model_dir models/ResNet20-AdderNet.pth —data_dir ‘path/to/cifar10_root/’

不過AdderNet仍需自己訓練,官方表示將很快發(fā)布預訓練模型。

現(xiàn)階段的AdderNet并非沒有缺陷,作者在項目主頁中說,由于AdderNet是用加法過濾器實現(xiàn)的,因此推理速度較慢,需要用CUDA編寫才能提高速度。

這與作者希望提高神經(jīng)網(wǎng)絡運算速度的初衷還有一段距離。

但這篇論文的作者表示,今后還會繼續(xù)加法器神經(jīng)網(wǎng)絡的研究,發(fā)表更多的成果,讓我們一起期待這項研究取得新的進展吧。

華為諾亞實驗室實習生領銜打造

AdderNet這篇文章的一作名叫陳漢亭,畢業(yè)于同濟大學數(shù)學系,現(xiàn)在在北京大學信息科學技術學院攻讀博士學位,同時在華為諾亞方舟實驗室實習。

在碩博連讀的前三年中,他已經(jīng)以一作身份發(fā)表了5篇論文,其中一篇《Data-Free Learning of Student Networks》被ICCV 2019收錄,另外它參與多篇論文還被NeurIPS、IJCAI、ICML等頂會收錄。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    BP神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡的比較

    BP神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡在多個方面存在顯著差異,以下是對兩者的比較: 一、結構特點 BP神經(jīng)網(wǎng)絡 : BP神經(jīng)網(wǎng)絡是一種多層的前饋神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 02-12 15:53 ?673次閱讀

    BP神經(jīng)網(wǎng)絡的優(yōu)缺點分析

    BP神經(jīng)網(wǎng)絡(Back Propagation Neural Network)作為一種常用的機器學習模型,具有顯著的優(yōu)點,同時也存在一些不容忽視的缺點。以下是對BP神經(jīng)網(wǎng)絡優(yōu)缺點的分析: 優(yōu)點
    的頭像 發(fā)表于 02-12 15:36 ?926次閱讀

    什么是BP神經(jīng)網(wǎng)絡的反向傳播算法

    BP神經(jīng)網(wǎng)絡的反向傳播算法(Backpropagation Algorithm)是一種用于訓練神經(jīng)網(wǎng)絡的有效方法。以下是關于BP神經(jīng)網(wǎng)絡的反向傳播算法的介紹: 一、基本概念 反向傳播算法是BP
    的頭像 發(fā)表于 02-12 15:18 ?775次閱讀

    BP神經(jīng)網(wǎng)絡與深度學習的關系

    BP神經(jīng)網(wǎng)絡與深度學習之間存在著密切的關系,以下是對它們之間關系的介紹: 一、BP神經(jīng)網(wǎng)絡的基本概念 BP神經(jīng)網(wǎng)絡,即反向傳播神經(jīng)網(wǎng)絡(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?863次閱讀

    BP神經(jīng)網(wǎng)絡的基本原理

    BP神經(jīng)網(wǎng)絡(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個核心過程。以下是關于BP神經(jīng)網(wǎng)絡基本原理的介紹: 一、網(wǎng)絡結構 BP神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 02-12 15:13 ?863次閱讀

    深度學習入門:簡單神經(jīng)網(wǎng)絡的構建與實現(xiàn)

    深度學習中,神經(jīng)網(wǎng)絡是核心模型。今天我們用 Python 和 NumPy 構建一個簡單的神經(jīng)網(wǎng)絡。 神經(jīng)網(wǎng)絡由多個神經(jīng)元組成,神經(jīng)元之間通過
    的頭像 發(fā)表于 01-23 13:52 ?531次閱讀

    人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學習的基礎知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡 ? 人工神經(jīng)網(wǎng)絡模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1203次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡</b>架構方法

    卷積神經(jīng)網(wǎng)絡與傳統(tǒng)神經(jīng)網(wǎng)絡的比較

    在深度學習領域,神經(jīng)網(wǎng)絡模型被廣泛應用于各種任務,如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡是兩種常見的模型。 1. 結構差異 1.1 傳統(tǒng)神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 11-15 14:53 ?1878次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡的區(qū)別

    神經(jīng)網(wǎng)絡是機器學習領域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術的發(fā)展,神經(jīng)網(wǎng)絡的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1133次閱讀

    LSTM神經(jīng)網(wǎng)絡的結構與工作機制

    LSTM(Long Short-Term Memory,長短期記憶)神經(jīng)網(wǎng)絡是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),設計用于解決長期依賴問題,特別是在處理時間序列數(shù)據(jù)時表現(xiàn)出色。以下是LSTM神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 11-13 10:05 ?1632次閱讀

    LSTM神經(jīng)網(wǎng)絡與傳統(tǒng)RNN的區(qū)別

    在深度學習領域,循環(huán)神經(jīng)網(wǎng)絡(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關注。然而,傳統(tǒng)RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM(長短期記憶)神經(jīng)網(wǎng)絡應運而生。 循環(huán)
    的頭像 發(fā)表于 11-13 09:58 ?1218次閱讀

    LSTM神經(jīng)網(wǎng)絡的基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠學習長期依賴信息。在處理序列數(shù)據(jù)時,如時間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時間序列中的長期依賴關系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1587次閱讀

    Moku人工神經(jīng)網(wǎng)絡101

    Moku3.3版更新在Moku:Pro平臺新增了全新的儀器功能【神經(jīng)網(wǎng)絡】,使用戶能夠在Moku設備上部署實時機器學習算法,進行快速、靈活的信號分析、去噪、傳感器調節(jié)校準、閉環(huán)反饋等應用。如果您
    的頭像 發(fā)表于 11-01 08:06 ?667次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡</b>101

    關于卷積神經(jīng)網(wǎng)絡,這些概念厘清了么~

    隨著人工智能(AI)技術的快速發(fā)展,AI可以越來越多地支持以前無法實現(xiàn)或者難以實現(xiàn)的應用。本文基于此解釋了 卷積神經(jīng)網(wǎng)絡 (CNN)及其對人工智能和機器學習的意義。CNN是一種能夠從復雜數(shù)據(jù)中提
    發(fā)表于 10-24 13:56

    matlab 神經(jīng)網(wǎng)絡 數(shù)學建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡 數(shù)學建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14