99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于深度學習的七大學習步驟

電子設(shè)計 ? 作者:電子設(shè)計 ? 2018-12-14 16:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Matthew Mayo 翻譯:Andrewseu

網(wǎng)上有很多的深度學習的免費學習資源,但是可能會對從哪里開始有些困惑。七步內(nèi)從對深度神經(jīng)網(wǎng)絡(luò)的模糊理解到知識淵博的從業(yè)者(knowledgeable practitioner)!

深度學習是機器學習的一個分支,擁有很多的相似性,但是卻也不同,深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)在自然語言處理、計算機視覺、生物信息學和其他領(lǐng)域解決了各種各樣的問題。深度學習經(jīng)歷了一場巨大的最近研究的重現(xiàn),并且在很多領(lǐng)域中已經(jīng)展現(xiàn)出最先進的成果。

本質(zhì)上,深度學習是超過一層隱藏神經(jīng)元的神經(jīng)網(wǎng)絡(luò)的執(zhí)行。但是,這是對深度學習的一個簡單的看法,并且不是一個沒有爭議的觀點。這些深層構(gòu)架也非常不同,對不同任務(wù)或目標優(yōu)化會有不同的執(zhí)行。在這樣一個恒定速率進行著的大量研究在以史上未有的速度展現(xiàn)新的和創(chuàng)新的深度學習模型。

關(guān)于深度學習的七大學習步驟

最近的一個白熱化的研究課題,深度學習似乎影響著機器學習的所有領(lǐng)域,相關(guān)的還有數(shù)據(jù)科學。粗略看看相關(guān)arXiv目錄下最近的論文,很容易看出大量正在被發(fā)表的論文都是深度學習相關(guān)的。鑒于已經(jīng)產(chǎn)生的令人驚嘆的成果,很多研究者,從業(yè)者和外行都在想深度學習是否是真正的人工智能的邊界。

這系列的閱讀材料和教程旨在給深度神經(jīng)網(wǎng)絡(luò)的新人提供一條路徑去理解這個巨大而復雜的課題。盡管我不假設(shè)對神經(jīng)網(wǎng)絡(luò)和深度學習真正的理解,但是我假設(shè)你對一般的機器學習理論和實踐具有某種程度的熟悉度。為了克服在一般機器學習理論和實踐的不足,你可以看看最近KDnuggets發(fā)布的7 Steps to Mastering Machine Learning With Python。由于我們也看用Python寫的例子的執(zhí)行,對語言有些熟悉會很有用。介紹和綜述的資源在previodsly mentioned post也是提供的。

這篇博客將以緊密結(jié)合的順序使用網(wǎng)絡(luò)上免費提供的材料在理論層面上獲得對深度神經(jīng)網(wǎng)絡(luò)的一些理解,然后繼續(xù)轉(zhuǎn)向一些實際的執(zhí)行。同樣的,借鑒過來的引用材料只屬于創(chuàng)建者,跟資源會一起被標注。如果你看到有人因為他們的工作沒有被正確引用,請告知我,我會很快修改的。

一個完全誠實的免責申明:深度學習是一個復雜而在廣度和深度(pun unintended?)變化很快的領(lǐng)域,因此這篇博客不保證包括所有成為深度學習專家的手冊;這樣的一個轉(zhuǎn)化將會需要更多的時間,很多附加材料和很多實際建立和測試的模型。但是,我相信的是,使用這里的資源可以幫你在這樣一個路徑下開始。

第一步:介紹深度學習

如果你正在讀這個并且對這個課題感興趣,你可能已經(jīng)對深度神經(jīng)網(wǎng)絡(luò)已經(jīng)熟悉,甚至在一個很基礎(chǔ)的層次。神經(jīng)網(wǎng)絡(luò)有一個故事性的歷史,但是我們將不會深入。但是,我們需要如果在開始就有一個普遍高層次的理解。

首先,看看DeepLearning .tv精彩的介紹視頻。在 寫完這個的時候已經(jīng)有14個視頻了;如果你喜歡看完他們,但是一定要看前五個,包含了神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)和一些更常見的結(jié)構(gòu)。

然后,仔細閱讀Geoff Hinton,Yoshua Bengioh和Yann LeCun的NIPS 2015 Deep Learning Tutorial,一個稍微更低層次的介紹。

完成我們的第一步,讀the first chapter of Neural Networks and Deep Learning,這個由Michael Nielden寫的精妙的,不斷更新的在線書,這會更近一步但是依然很粗淺。

第二步:學習技術(shù)

深度神經(jīng)網(wǎng)絡(luò)依賴代數(shù)和微積分的數(shù)學基礎(chǔ)。然而這篇博客不會產(chǎn)生任何理論上的數(shù)學,在繼續(xù)之前有一些理解將會很有幫助。

第一,看Andrew Ng的linear algebra review videos。但是不是絕對的必要,想要對線性代數(shù)了解更深的話,從Ng的斯坦福課程看看Zico Kolter 和Chuong Do寫的Linear Algebra Review and Reference.

然后看看Professor Leonard的Introduction to the Derivative of a Function. 視頻是很簡潔的,例子是很清晰的,并且提供了從數(shù)學的視角來看在反向傳播的過程中到底發(fā)生了什么。一會兒會更多。

接下來迅速瀏覽下維基Sigmoid function的詞條,一個在神經(jīng)網(wǎng)絡(luò)中經(jīng)常通過單個神經(jīng)元應(yīng)用的邊界差分函數(shù)。

最后,從數(shù)學上休息下閱讀谷歌研究科學家 Quoc Le的Deep Learning Tutorial.

第三步:反向傳播和梯度下降

神經(jīng)網(wǎng)絡(luò)包括現(xiàn)代深度構(gòu)架重要的一部分是反向傳播算法的錯誤,使用離輸入更近的神經(jīng)元通過網(wǎng)絡(luò)更新權(quán)重。非常坦率的說,這就是神經(jīng)網(wǎng)絡(luò)繼承他們”力量“(缺乏更好的術(shù)語)的地方。反向傳播和一個隨后分布式的最小化權(quán)重的優(yōu)化方法,為了最小化損失函數(shù)。在深度學習中一個常見的優(yōu)化方法是梯度下降。

首先,看看這些斯圖加特大學Marc Toussaint 寫的關(guān)于梯度下降的介紹筆記。

然后,看看Matt Mazur寫的this step by step example of backpropagation in action.

繼續(xù),閱讀Jeremy Kun關(guān)于 coding backpropagation in Python的信息博客。仔細看看完整代碼也是建議的,嘗試自己寫一遍代碼。

最后,讀Quoc Le寫的Deep Learning Tutorial的第二部分,為了獲取一些更具體更常見的深度結(jié)構(gòu)和他們用途的介紹。

第四步:實踐

具體的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的下一步介紹將會使用在現(xiàn)在研究中最流行的python深度學習庫包括實際執(zhí)行。在一些情況下,一些不同的庫的優(yōu)化是為了某個特定的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并且已經(jīng)在某些特定的領(lǐng)域立足,我們將會使用三個不同的深度學習庫。這不是多余的,在特定領(lǐng)域的實踐中與最新的庫保持一致時學習時很重要的一步。接下來的訓練也將會讓你自己評價不同的庫,并且形成一個在哪些問題上用哪個的直覺。

現(xiàn)在歡迎你選擇一個庫或者聯(lián)合庫進行安裝,是否繼續(xù)那些教程取決于你的選擇。如果你希望嘗試一個庫并且使用它來執(zhí)行接下來步驟的教程,我會推薦TensorFlow,原因如下,我會提到最相關(guān)的(至少是在我的眼中):它執(zhí)行自動分化(autodifferentiation),意味著你不需要擔心從頭執(zhí)行反向傳播,更可能使代碼更容易理解(尤其是對一個初學者來說)。

我寫關(guān)于TensorFlow的文章是在剛出來的時候TensorFlow Disappoints – Google Deep Learning Falls Shallow,這個標題暗示著比在實際中更失望;我最初關(guān)注的是它缺少GPU集叢的網(wǎng)絡(luò)訓練(很可能很快會有它自己的方式).無論如何,如果你沒有看列在下面的白皮書但是想看更多關(guān)于TensotFlow的材料,我建議讀我原始的文章,然后跟著Zachary Lipton's 寫的很好的部分,TensorFlow is Terrific – A Sober Take on Deep Learning Acceleration.

TensorFlow

Google的TensorFlow是基于數(shù)據(jù)流圖展現(xiàn)的一個通用的機器i學習庫。

安裝TensorFlow在這里

查看白皮書

嘗試它的

文檔

Theano

Theano是被蒙特利爾大學的LISA group積極開發(fā)的。

安裝Theano在這里

介紹教程

文檔

Caffe

Caffe是由加州大學伯克利分校的BVLC開發(fā)的。Theano和Tensorflow可以認為是通用的深度學習庫,Caffe是由一個計算機視覺的組開發(fā)的,主要考慮的解決那樣的問題;但是,它也是一個通用的庫為了為不同領(lǐng)域建立不同的深度學習框架。

在這里安裝Caffe

閱讀來進行熟悉

同時看看文檔

記住這些并不僅僅是現(xiàn)在流行的庫。事實上,還有很多很多可以選擇,這些選擇是基于教程的流行性,文檔和總體上研究上的接受程度。

其他的深度學習庫選擇包括:

Keras---一個用于Theano和TensorFlow高層、極簡Python神經(jīng)網(wǎng)絡(luò)庫

Lasagne---Theano頂上的輕量級python庫

Torch---Lua機器學習算法庫

DeepLearning4j---Jaav和Scala開源、分布式深度學習庫

Chainer---一個靈活的、直觀的python神經(jīng)網(wǎng)絡(luò)庫

Mocha---Juliade的一個深度學習框架

安裝好這些庫,現(xiàn)在我們可以繼續(xù)實踐。

第五步:卷積神經(jīng)網(wǎng)絡(luò)和計算機視覺

計算機視覺解決處理和理解圖片和它的符號信息。大部分領(lǐng)域最近的突破都是來自于深度神經(jīng)網(wǎng)絡(luò)的使用。特別的,卷積神經(jīng)網(wǎng)絡(luò)在最近扮演一個很重要的角色。

首先,讀Yoshua Bengio的deep learning with computer vision,為了對這個課題有一個理解。

然后。如果你安裝好了TensorFlow,閱讀并執(zhí)行這個教程,這個是用卷積i神經(jīng)網(wǎng)絡(luò)分類CIFAR-10圖片。如果你安裝了Caffe,對于上一個教程的替代,執(zhí)行Caffe中的卷積神經(jīng)網(wǎng)絡(luò)分類MNIST數(shù)據(jù)集圖片。

這里是一個粗略等同于Caffe 的練習Theano tutorial.

然后,讀Krizhevsky, Sutskever和Hinton的seminal convolutional neural network paper增加額外的視野。

第六步:遞歸網(wǎng)和語言處理

自然語言處理(NLP)是收益與深度學習的另一個領(lǐng)域。關(guān)心理解自然語言,NLP通過運用遞歸神經(jīng)網(wǎng)絡(luò)(RNN)有很多最新的成功。

Andrej Karpathy有一篇很贊的博客,題目是The Unreasonable Effectiveness of Recurrent Neural Networks,列出了RNN在訓練字符級語言模型的有效性的大綱。它提到的代碼是通過Torch用Lua寫的,所以你可以跳過;這個在純理論層次上依舊很有用。

這個教程為語言處理在TensorFlow上執(zhí)行RNN.

你也可以用Theano并且用這個教程嘗試,用文字嵌套執(zhí)行了一個RNN.

最后,你可以讀Yoon Kim的Convolutional Neural Networks for Sentence Classification,這是CNN在語言處理上的又一個應(yīng)用。Denny Britz 有一篇博客,題目是Implementing A CNN For Text Clasification in TensorFlow,使用的是電影的評論數(shù)據(jù)。

第七步:更深入的課題

上面的步驟在深度學習已經(jīng)從理論上進步到實踐。通過在前兩步執(zhí)行卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò),希望的是對它們力量和功能性的預(yù)先感知。與CNN和RNN一樣普遍的有很多其他隨著基礎(chǔ)研究出現(xiàn)的已經(jīng)存在的深度結(jié)構(gòu)。

有很多超過前面理論步驟展現(xiàn)的其他的考慮,同樣的,下面是這些另外結(jié)構(gòu)和考慮的快速的調(diào)研。

為了更深的理解適合時間序列預(yù)測的特定類型的RNN,長短項記憶網(wǎng)絡(luò),讀Christopher Olah寫的這篇文章。

Denny Britz寫的這篇文章是用LSTM和GRUs的 很好的一個關(guān)于RNN的教程??催@篇論文更深地討論GRUs和LSTMs.

很顯然這沒有包含所有的深度學習構(gòu)架。限制波爾茲曼機是一個腦中很明顯需要排除的,正如antoencoders,和一系列產(chǎn)生的相關(guān)的模型包括Generative Adversarial Networks. 但是,必須在某處畫一條線,不然這篇將會一直下去。

對那些感興趣其他深度學習構(gòu)架的,我建議看看Yshua Bengio的ftml.

對于我們的最終目標和有一些不同的東西,看看Google DeepMindShakir Mohamed的 A Statistical Analysis of Deep Learning。這個比我們平??吹降牟牧细碚撘恍侵档糜昧硪环N方法看我們熟悉的事物。Shakir對6個月的課程寫了一系列文章,展現(xiàn)測試wide-held beliefs,增強數(shù)據(jù)的連接,并且深度學習中要隱藏的東西。有一個所有發(fā)布的PDF集合.

希望足夠的信息已經(jīng)展現(xiàn),能夠給讀者一個對深度神經(jīng)網(wǎng)絡(luò)介紹性的綜述,并且提供一些想對這個課題繼續(xù)研究的熱情。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103663
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134639
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122805
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    最新!智慧燈桿七大應(yīng)用場景案例獨家匯總

    最新!智慧燈桿七大應(yīng)用場景案例獨家匯總
    的頭像 發(fā)表于 03-07 10:10 ?461次閱讀

    軍事應(yīng)用中深度學習的挑戰(zhàn)與機遇

    人工智能尤其是深度學習技術(shù)的最新進展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學習技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?540次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學習的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學習之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?863次閱讀

    清華大學師生到訪智行者科技交流學習

    近日,清華大學 “技術(shù)創(chuàng)新原理與實踐” 研究生課程師生一行到訪智行者進行交流學習。作為課程實踐環(huán)節(jié)的重要一站,此次來訪開啟了一場深度的參觀學習之旅。智行者董事長&CEO張德兆先生作為清
    的頭像 發(fā)表于 12-23 11:39 ?740次閱讀

    揭秘注塑機快速換模的七大步驟,助力智能制造升級

    注塑機快速換模優(yōu)化提升效率,含前期準備、停機鎖定、移除舊模、安裝新模、調(diào)試校驗、試運行及文檔記錄七大步驟,嚴格執(zhí)行可顯著提升智能制造企業(yè)效益。
    的頭像 發(fā)表于 12-18 15:57 ?964次閱讀

    NPU在深度學習中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學習作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學習
    的頭像 發(fā)表于 11-14 15:17 ?1922次閱讀

    深度學習模型的魯棒性優(yōu)化

    深度學習模型的魯棒性優(yōu)化是一個復雜但至關(guān)重要的任務(wù),它涉及多個方面的技術(shù)和策略。以下是一些關(guān)鍵的優(yōu)化方法: 一、數(shù)據(jù)預(yù)處理與增強 數(shù)據(jù)清洗 :去除數(shù)據(jù)中的噪聲和異常值,這是提高模型魯棒性的基礎(chǔ)步驟
    的頭像 發(fā)表于 11-11 10:25 ?1205次閱讀

    Pytorch深度學習訓練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學習訓練。
    的頭像 發(fā)表于 10-28 14:05 ?661次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學習</b>訓練的方法

    GPU深度學習應(yīng)用案例

    GPU在深度學習中的應(yīng)用廣泛且重要,以下是一些GPU深度學習應(yīng)用案例: 一、圖像識別 圖像識別是深度學習
    的頭像 發(fā)表于 10-27 11:13 ?1384次閱讀

    激光雷達技術(shù)的基于深度學習的進步

    信息。這使得激光雷達在自動駕駛、無人機、機器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學習技術(shù)的發(fā)展 深度學習是機器學習的一個分支,它通過模擬人
    的頭像 發(fā)表于 10-27 10:57 ?1072次閱讀

    FPGA加速深度學習模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學習模型是當前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學習模型的案例: 一、基于FPGA的AlexNet卷積運算加速 項目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1238次閱讀

    AI大模型與深度學習的關(guān)系

    AI大模型與深度學習之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學習是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2900次閱讀

    深度學習GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學習任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?617次閱讀

    FPGA做深度學習能走多遠?

    的發(fā)展前景較為廣闊,但也面臨一些挑戰(zhàn)。以下是一些關(guān)于 FPGA 在深度學習中應(yīng)用前景的觀點,僅供參考: ? 優(yōu)勢方面: ? 高度定制化的計算架構(gòu):FPGA 可以根據(jù)深度
    發(fā)表于 09-27 20:53

    NVIDIA推出全新深度學習框架fVDB

    在 SIGGRAPH 上推出的全新深度學習框架可用于打造自動駕駛汽車、氣候科學和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1152次閱讀