99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的一些重要趨勢(shì)

倩倩 ? 來(lái)源:IT168 ? 2020-04-17 14:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

神經(jīng)網(wǎng)絡(luò)的基本思想是模擬計(jì)算機(jī)“大腦”中的多個(gè)互連細(xì)胞,使它能夠從環(huán)境中學(xué)習(xí),識(shí)別不同的模式,通俗一點(diǎn)來(lái)說(shuō)就是模仿人類(lèi)的思維模式進(jìn)行決策。

一個(gè)基本神經(jīng)網(wǎng)絡(luò)包含數(shù)百萬(wàn)個(gè)被稱(chēng)為單元的人工神經(jīng)元。這些單元分層排列,每一層都互相連接。

單元?jiǎng)澐譃槿缦聨撞糠郑?/p>

輸入單元——用于接受外部環(huán)境的信息。

隱藏單元——最終輸入到輸出單元。每個(gè)隱藏單元都是其輸入的壓縮線性函數(shù)。

輸出單元——這些信號(hào)表示網(wǎng)絡(luò)應(yīng)如何響應(yīng)最近獲取的信息。

大多數(shù)神經(jīng)網(wǎng)絡(luò)都是互相連接的,這意味著每個(gè)隱藏單元和每個(gè)輸出單元都連接到層另一邊的每個(gè)單元上。每個(gè)單元之間的連接稱(chēng)為“重量”。重量可以是正的,也可以是負(fù)的,這取決于它對(duì)另一單元的影響程度。較高的權(quán)重對(duì)互連單元具有更高的權(quán)限。

當(dāng)神經(jīng)網(wǎng)絡(luò)被訓(xùn)練時(shí),或者在訓(xùn)練之后剛開(kāi)始運(yùn)行時(shí),使用不同的輸入單元將不同的信息模式饋送到網(wǎng)絡(luò)中。這些信息將觸發(fā)隱藏組的層,然后到達(dá)輸出單元。這被稱(chēng)為前饋網(wǎng)絡(luò),是常用的設(shè)計(jì)之一。

當(dāng)您使用訓(xùn)練模型對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行了充分訓(xùn)練后,它會(huì)達(dá)到一個(gè)階段,在該階段會(huì)呈現(xiàn)一組全新的輸入,這些輸入在訓(xùn)練階段沒(méi)有遇到,且它可以預(yù)測(cè)出令人滿(mǎn)意的輸出。

以下是當(dāng)今神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的一些重要趨勢(shì)。

膠囊網(wǎng)絡(luò)(Capsule Networks)

膠囊網(wǎng)絡(luò)是深度神經(jīng)網(wǎng)絡(luò)的一種新興形式。它模仿人類(lèi)大腦的方式處理信息。這意味著膠囊網(wǎng)絡(luò)可以維持層次關(guān)系。

這與卷積神經(jīng)網(wǎng)絡(luò)形成對(duì)比。盡管卷積神經(jīng)網(wǎng)絡(luò)是迄今為止使用最廣泛的神經(jīng)網(wǎng)絡(luò)之一,但它們沒(méi)有考慮簡(jiǎn)單及復(fù)雜對(duì)象之間存在的關(guān)鍵空間層次結(jié)構(gòu),這導(dǎo)致了高錯(cuò)誤率。

在進(jìn)行簡(jiǎn)單的識(shí)別任務(wù)時(shí),膠囊網(wǎng)絡(luò)能夠降低錯(cuò)誤率,實(shí)現(xiàn)了更高的準(zhǔn)確度,同時(shí)它們也不需要大量的培訓(xùn)模型數(shù)據(jù)。

卷積神經(jīng)網(wǎng)絡(luò)(CNN)

卷積神經(jīng)網(wǎng)絡(luò)已存在很多年,是一種前饋神經(jīng)網(wǎng)絡(luò)。它啟發(fā)于生物的發(fā)展過(guò)程,特別是人類(lèi)大腦對(duì)眼睛里接收到的信號(hào)的理解過(guò)程。目前,現(xiàn)有技術(shù)的視覺(jué)識(shí)別系統(tǒng)使用CNN算法來(lái)執(zhí)行圖像分類(lèi),定位和對(duì)象檢測(cè)。

隨著社會(huì)發(fā)展,人們對(duì)卷積神經(jīng)網(wǎng)絡(luò)的興趣也發(fā)生了轉(zhuǎn)移,目前它被廣泛應(yīng)用于智能監(jiān)控系統(tǒng)、社交網(wǎng)絡(luò)圖片標(biāo)記和圖像分類(lèi)、機(jī)器人、無(wú)人機(jī)自動(dòng)駕駛汽車(chē)。谷歌,亞馬遜,F(xiàn)acebook等數(shù)據(jù)科學(xué)家使用它來(lái)進(jìn)行各種圖像過(guò)濾和分類(lèi)。

與卷積神經(jīng)網(wǎng)絡(luò)密切相關(guān)的領(lǐng)域是計(jì)算機(jī)視覺(jué)的深度學(xué)習(xí),兩個(gè)常見(jiàn)的應(yīng)用:條形碼掃描儀、面目識(shí)別。為了深入學(xué)習(xí)計(jì)算機(jī)視覺(jué),市場(chǎng)上也相繼出現(xiàn)了大量的平臺(tái),例如Google的Vision API,Allegro.ai,Missinglink.ai等。

深度強(qiáng)化學(xué)習(xí)(DRL)

深度強(qiáng)化學(xué)習(xí)是神經(jīng)網(wǎng)絡(luò)的一種形式,深度強(qiáng)化學(xué)習(xí)將深度學(xué)習(xí)的感知能力和強(qiáng)化學(xué)習(xí)的決策能力相結(jié)合,可以直接根據(jù)輸入的圖像進(jìn)行控制,是一種更接近人類(lèi)思維方式的人工智能方法。一個(gè)著名的成功應(yīng)用案例就是AlphaGo圍棋機(jī)器人,AlphaGo是第一個(gè)擊敗人類(lèi)職業(yè)圍棋選手、第一個(gè)戰(zhàn)勝?lài)迨澜绻谲姷娜斯ぶ悄軝C(jī)器人。

DRL是開(kāi)發(fā)業(yè)務(wù)應(yīng)用程序中的通用技術(shù)之一。對(duì)于訓(xùn)練模型,它需要更少的數(shù)據(jù)。且它的另一個(gè)優(yōu)點(diǎn)是可以通過(guò)模擬來(lái)訓(xùn)練它,這完全消除了對(duì)標(biāo)記數(shù)據(jù)的需求。

精益學(xué)習(xí)

到目前為止,機(jī)器學(xué)習(xí),特別是深度學(xué)習(xí)最大的障礙就是用于訓(xùn)練神經(jīng)模型的大量標(biāo)記數(shù)據(jù)的可用性問(wèn)題。這兩種技術(shù)可以幫助解決這個(gè)問(wèn)題——合成新數(shù)據(jù)并將任務(wù)A和訓(xùn)練模型轉(zhuǎn)移到任務(wù)B。

像轉(zhuǎn)移學(xué)習(xí)(將學(xué)習(xí)從一個(gè)任務(wù)轉(zhuǎn)移到另一個(gè)任務(wù))或單次學(xué)習(xí)(在只有一個(gè)或沒(méi)有相關(guān)示例的情況下進(jìn)行學(xué)習(xí))這樣的技術(shù)使它們成為精益數(shù)據(jù)學(xué)習(xí)技術(shù)。同樣,當(dāng)使用插值或模擬來(lái)合成新數(shù)據(jù)時(shí),它有助于獲得更多訓(xùn)練數(shù)據(jù)。ML專(zhuān)家通常將此稱(chēng)為增加現(xiàn)有數(shù)據(jù)來(lái)改進(jìn)學(xué)習(xí)的方法。

此類(lèi)技術(shù)可用于解決更廣泛的問(wèn)題,尤其是較少歷史數(shù)據(jù)的情況下。

監(jiān)督模型

監(jiān)督模型是一種學(xué)習(xí)形式,其從先前標(biāo)記的訓(xùn)練數(shù)據(jù)推斷出特定功能。它使用監(jiān)督學(xué)習(xí)算法,該算法包含一組帶有相應(yīng)標(biāo)記正確輸出的輸入。

標(biāo)記的輸入和標(biāo)記的輸出進(jìn)行比較。鑒于兩者之間的差異,您可以計(jì)算錯(cuò)誤值,然后使用算法來(lái)學(xué)習(xí)輸入和輸出之間的映射。

這里的最終目標(biāo)是近似映射函數(shù),如果接收到新的輸入數(shù)據(jù),則可以預(yù)測(cè)準(zhǔn)確的輸出數(shù)據(jù)。類(lèi)似于教師監(jiān)督學(xué)習(xí)過(guò)程,當(dāng)算法達(dá)到令人滿(mǎn)意的性能或準(zhǔn)確度時(shí),學(xué)習(xí)過(guò)程停止。

具有內(nèi)存模型的網(wǎng)絡(luò)

人類(lèi)和機(jī)器的一個(gè)重要的區(qū)別就是謹(jǐn)慎工作和思考的能力。毫無(wú)疑問(wèn),計(jì)算機(jī)可以預(yù)先編程,以極高的精度完成特定的任務(wù)。但是,如果您將計(jì)算機(jī)放于不同的環(huán)境中工作,相應(yīng)的問(wèn)題就會(huì)出現(xiàn)。

想要提升機(jī)器對(duì)環(huán)境的適應(yīng)能力,神經(jīng)網(wǎng)絡(luò)必須能夠在不遺忘的情況下連續(xù)學(xué)習(xí)任務(wù)。神經(jīng)網(wǎng)絡(luò)必須能夠利用許多不同的強(qiáng)大架構(gòu)來(lái)克服災(zāi)難性遺忘。包括:

長(zhǎng)期內(nèi)存網(wǎng)絡(luò):可以處理和預(yù)測(cè)時(shí)間序列

彈性權(quán)重合并算法,可以根據(jù)先前完成的任務(wù)定義的優(yōu)先級(jí)減慢學(xué)習(xí)速度

不受災(zāi)難性遺忘影響的漸進(jìn)式神經(jīng)網(wǎng)絡(luò)能夠從已經(jīng)學(xué)過(guò)的網(wǎng)絡(luò)中提取有用的特征,以用于新的任務(wù)。

混合學(xué)習(xí)模型

各種類(lèi)型的深度神經(jīng)網(wǎng)絡(luò),包括GAN和DRL,在涉及其性能和不同類(lèi)型數(shù)據(jù)的廣泛應(yīng)用方面已表現(xiàn)出很不錯(cuò)的發(fā)展前景。也就是說(shuō),深度學(xué)習(xí)模型無(wú)法以貝葉斯或概率方法的方式對(duì)不確定性進(jìn)行建模。

混合學(xué)習(xí)模型可以將這兩種方法結(jié)合并利用每種方法的強(qiáng)度。這種混合模型的一些示例包括貝葉斯GAN和貝葉斯條件GAN。

混合學(xué)習(xí)模型可對(duì)解決業(yè)務(wù)問(wèn)題的領(lǐng)域進(jìn)行擴(kuò)展,包括不確定性的深度學(xué)習(xí)。這將提高性能和模型的可解釋性,獲得更廣泛的應(yīng)用。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    BP神經(jīng)網(wǎng)絡(luò)的調(diào)參技巧與建議

    BP神經(jīng)網(wǎng)絡(luò)的調(diào)參是個(gè)復(fù)雜且關(guān)鍵的過(guò)程,涉及多個(gè)超參數(shù)的優(yōu)化和調(diào)整。以下是一些主要的調(diào)參技巧與建議: 、學(xué)習(xí)率(Learning Rat
    的頭像 發(fā)表于 02-12 16:38 ?820次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?676次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)

    優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率是提高模型訓(xùn)練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率的方法:
    的頭像 發(fā)表于 02-12 15:51 ?943次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP
    的頭像 發(fā)表于 02-12 15:36 ?930次閱讀

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP
    的頭像 發(fā)表于 02-12 15:15 ?867次閱讀

    深度學(xué)習(xí)入門(mén):簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)
    的頭像 發(fā)表于 01-23 13:52 ?533次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工
    的頭像 發(fā)表于 01-09 10:24 ?1213次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實(shí)現(xiàn)工具和框架應(yīng)運(yùn)而生,為研究人員和開(kāi)發(fā)者提供了強(qiáng)大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?672次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常
    的頭像 發(fā)表于 11-15 14:53 ?1882次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來(lái)在多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識(shí)別、語(yǔ)音識(shí)別和自然語(yǔ)言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-15 14:52 ?850次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    ),是深度學(xué)習(xí)的代表算法之。 、基本原理 卷積運(yùn)算 卷積運(yùn)算是卷積神經(jīng)網(wǎng)絡(luò)的核心,用于提取圖像中的局部特征。 定義卷積核:卷積核是
    的頭像 發(fā)表于 11-15 14:47 ?1787次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在語(yǔ)音識(shí)別中的應(yīng)用實(shí)例

    語(yǔ)音識(shí)別技術(shù)是人工智能領(lǐng)域的個(gè)重要分支,它使計(jì)算機(jī)能夠理解和處理人類(lèi)語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是長(zhǎng)短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)的引
    的頭像 發(fā)表于 11-13 10:03 ?1856次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長(zhǎng)序列時(shí)存在梯度消失或梯度爆炸的問(wèn)題。為了解決這問(wèn)題,LSTM(長(zhǎng)短期記憶)
    的頭像 發(fā)表于 11-13 09:58 ?1220次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    不熟悉神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí),或者想了解神經(jīng)網(wǎng)絡(luò)如何優(yōu)化加速實(shí)驗(yàn)研究,請(qǐng)繼續(xù)閱讀,探索基于深度學(xué)習(xí)的現(xiàn)代智能化實(shí)驗(yàn)的廣闊應(yīng)用前景。什么是神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-01 08:06 ?668次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    FPGA在深度神經(jīng)網(wǎng)絡(luò)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)作為其核心算法之,在圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域取得了顯著成果。然而,傳統(tǒng)的深度
    的頭像 發(fā)表于 07-24 10:42 ?1212次閱讀