99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深入探討機(jī)器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)現(xiàn)狀和瓶頸

產(chǎn)業(yè)大視野 ? 來源:未知 ? 作者:胡薇 ? 2018-10-23 11:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

機(jī)器學(xué)習(xí)作為工具商業(yè)化較為廣泛的還是在B端,比如一些金融公司會(huì)輸出自己的風(fēng)控能力、反作弊能力。在一些高精密工業(yè)領(lǐng)域通過AR+AI的技術(shù),已經(jīng)可以幫助技術(shù)人員迅速測(cè)量出儀器的指標(biāo),并將相關(guān)數(shù)據(jù)回傳至控制系統(tǒng)中。大大滴減少了技術(shù)人員手工測(cè)量的工作,同時(shí)也減少了人工測(cè)量數(shù)據(jù)的誤差。

一、機(jī)器學(xué)習(xí)的現(xiàn)狀和瓶頸

機(jī)器學(xué)習(xí)如今已算是在互聯(lián)網(wǎng)圈家喻戶曉的名詞了?,F(xiàn)實(shí)生活中其實(shí)也早有很多應(yīng)用,什么無人駕駛,人臉識(shí)別,智能音響等等。去年七月國家發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,說明人工智能領(lǐng)域已經(jīng)上升到了國家戰(zhàn)略層面。身邊一直羨慕的土豪朋友們五年后的長線股也都已經(jīng)買好了。五年后的事情我不知道,但是對(duì)我印象最深的就是去年互聯(lián)網(wǎng)大會(huì),原先人們口中的互聯(lián)網(wǎng)現(xiàn)在都改名叫傳統(tǒng)互聯(lián)網(wǎng)了。當(dāng)我們還在理解什么是機(jī)器學(xué)習(xí)的時(shí)候,別人已經(jīng)開公司幫人制定解決方案了。

實(shí)際上當(dāng)前機(jī)器學(xué)習(xí)作為工具商業(yè)化較為廣泛的還是在B端,比如一些金融公司會(huì)輸出自己的風(fēng)控能力、反作弊能力。在一些高精密工業(yè)領(lǐng)域通過AR+AI的技術(shù),已經(jīng)可以幫助技術(shù)人員迅速測(cè)量出儀器的指標(biāo),并將相關(guān)數(shù)據(jù)回傳至控制系統(tǒng)中。大大滴減少了技術(shù)人員手工測(cè)量的工作,同時(shí)也減少了人工測(cè)量數(shù)據(jù)的誤差。更多的應(yīng)用場(chǎng)景比如安防領(lǐng)域,通過人臉識(shí)別技術(shù)可以快速記錄出入人員,從而把非結(jié)構(gòu)化數(shù)據(jù)變成結(jié)構(gòu)化。

不過機(jī)器學(xué)習(xí)也并不是在所有領(lǐng)域都能發(fā)揮出巨大作用,起碼是在現(xiàn)在這個(gè)階段。機(jī)器學(xué)習(xí)很多情況是需要很多標(biāo)注數(shù)據(jù)來供機(jī)器進(jìn)行學(xué)習(xí),通過對(duì)標(biāo)注數(shù)據(jù)不斷的學(xué)習(xí)和優(yōu)化從而使其建立一個(gè)泛化的模型,當(dāng)新的數(shù)據(jù)通過這個(gè)模型時(shí)機(jī)器便會(huì)對(duì)其進(jìn)行分類或者預(yù)測(cè)。

比如說如果要判斷一個(gè)病人是否患有血管癌,就需要有大量被標(biāo)注的血管病變數(shù)據(jù)。但這些標(biāo)注數(shù)據(jù)的工作是需要非常有臨床經(jīng)驗(yàn)的醫(yī)生一個(gè)一個(gè)的去判斷和標(biāo)注的。一方面是有經(jīng)驗(yàn)的專家醫(yī)生很少,另一方面對(duì)于這類數(shù)據(jù)本身數(shù)量也有限。另外醫(yī)療行業(yè)對(duì)于模型的準(zhǔn)確率要求肯定不會(huì)亞于無人駕駛。所以不可否認(rèn)機(jī)器學(xué)習(xí)的應(yīng)用的確有它的強(qiáng)大之處,但在不同領(lǐng)域中充滿的挑戰(zhàn)也非常多。

二、神經(jīng)網(wǎng)絡(luò)算法

按照慣例,簡(jiǎn)單介紹一下神經(jīng)網(wǎng)絡(luò)。

1、神經(jīng)元

人類對(duì)事物的感知是通過無數(shù)個(gè)神經(jīng)元通過彼此鏈接而形成的一個(gè)巨大神經(jīng)網(wǎng)絡(luò),然后每層神經(jīng)元會(huì)將接收到的信號(hào)經(jīng)過處理后逐層傳遞給大腦,最后再由大腦做出下一步?jīng)Q策。神經(jīng)網(wǎng)絡(luò)算法實(shí)際上就是在模仿這一生物原理。

2、監(jiān)督無監(jiān)督

神經(jīng)網(wǎng)絡(luò)算法是屬于有監(jiān)督學(xué)習(xí)的一種。有監(jiān)督學(xué)習(xí)實(shí)際上就是需要有大量的被標(biāo)注數(shù)據(jù)供其學(xué)習(xí)。反之無監(jiān)督就是不需要事先對(duì)數(shù)據(jù)進(jìn)行標(biāo)注,而是利用算法挖掘數(shù)據(jù)中潛在的規(guī)律,比如一些聚類算法。那么半監(jiān)督學(xué)習(xí),相信也不難理解。

3、權(quán)重參數(shù)

神經(jīng)網(wǎng)絡(luò)算法中的最小單元即為神經(jīng)元,一個(gè)神經(jīng)元可能會(huì)接受到n個(gè)傳遞過來的數(shù)據(jù)。每條數(shù)據(jù)在輸入神經(jīng)元時(shí)都需要乘以一個(gè)權(quán)重值w,然后將n個(gè)數(shù)據(jù)求和,在加上偏置量b。這時(shí)得到的值與該神經(jīng)元的閾值進(jìn)行比較,最后在通過激活函數(shù)輸出處理結(jié)果。

4、線性與非線性

實(shí)際上算法本身最核心的是一個(gè)線性函數(shù)y=wx+b。w為權(quán)重值,b為偏置量,x為輸入數(shù)據(jù),y為輸出數(shù)據(jù)。當(dāng)我們?cè)谔幚砟承?shù)據(jù)時(shí),理想情況是這些數(shù)據(jù)為線性可分的。這樣只要我們找到這條直線的w和b就可以作為某個(gè)模型來對(duì)數(shù)據(jù)進(jìn)行分類或預(yù)測(cè)了。如下圖:

但事實(shí)上大部分的數(shù)據(jù)并不是線性可分的,或者說一條直線無法很好的表達(dá)這些數(shù)據(jù)集。這時(shí)候怎么辦呢?這時(shí)候一般情況下就會(huì)通過增加多個(gè)神經(jīng)元以及激活函數(shù)來使模型擬合數(shù)據(jù)集。

5、激活函數(shù)

那么,什么是激活函數(shù)?說白了,激活函數(shù)就是一個(gè)能把線性函數(shù)掰彎的函數(shù)。比如下面的這組數(shù)據(jù)我們是無法通過一條直線將紅藍(lán)兩種數(shù)據(jù)分隔開。但是通過激活函數(shù),我們甚至可以將一條直線掰成一個(gè)圓。這樣我們就可以將兩組數(shù)據(jù)分隔開了。

所以理論上,我們可以將一條直線做任意的變化使其更加貼近數(shù)據(jù)集,并選取一條最優(yōu)曲線即為我們期望的最終訓(xùn)練模型。那么我們的目標(biāo)就很明確了。

6、優(yōu)化器

但是如何才能找到這么一條曲線?這時(shí)候我們可以引入一系列的優(yōu)化算法,比如梯度下降。通過優(yōu)化算法對(duì)函數(shù)求導(dǎo)我們可以使模型中的參數(shù)逐漸貼近真實(shí)值。同時(shí)在優(yōu)化過程中還需要加入損失函數(shù)。

7、損失函數(shù)

什么是損失函數(shù)?損失函數(shù)說白了可以理解成為一個(gè)驗(yàn)收者。損失函數(shù)會(huì)去衡量測(cè)試數(shù)據(jù)中的結(jié)果與實(shí)際值的偏差情況。如果偏差較大就要告訴優(yōu)化函數(shù)繼續(xù)優(yōu)化直到模型完全收斂。常用的損失函數(shù)如:交叉熵、平方差等。

8、過擬合欠擬合

不過需要注意的是,如果我們的曲線完美的擬合了所有數(shù)據(jù),那么這條曲線是否即為我們模型的最優(yōu)曲線呢?答案是否定的。這里我們還需要考慮一個(gè)模型泛化的問題。如果我們訓(xùn)練了一個(gè)模型,但是這個(gè)模型僅能在訓(xùn)練數(shù)據(jù)集中發(fā)揮很大效用,那么它實(shí)際的應(yīng)用意義其實(shí)并不大。我們需要的是通過這個(gè)模型能夠讓我們了解到我們未知的信息,而不是已知的。所以我們并不希望這條曲線能夠穿過所有的數(shù)據(jù),而是讓它盡可能的描繪出這個(gè)數(shù)據(jù)集。為了防止模型過擬合可以嘗試增加訓(xùn)練數(shù)據(jù)同時(shí)減小模型復(fù)雜度。同樣我們也不可能讓這條曲線完全偏離數(shù)據(jù)集。

三、深度學(xué)習(xí)框架

自己推導(dǎo)算法?自己設(shè)計(jì)模型?不存在的…大神們?cè)缇蛶湍惴庋b好了。安心做一個(gè)調(diào)包俠吧。

沒有訓(xùn)練數(shù)據(jù)?沒有測(cè)試樣本?不存在的…大神們?cè)缇蛶湍銣?zhǔn)備好了。安心做一個(gè)調(diào)參狗吧。

什么?還是不知道怎么做?不存在的!下面讓你秒變機(jī)器學(xué)習(xí)大神(裝逼狗)。

Keras

機(jī)器學(xué)習(xí)的框架這里就不枚舉了,不過Keras還是非常值得提一下。相比Tensorflow,Keras更容易新手上手,封裝的更加高級(jí)。建議在嘗試使用框架前先了解或?qū)W習(xí)一下python,然后直接Keras中文文檔吧。

那么如何秒變大神?Keras框架中其實(shí)已經(jīng)內(nèi)置了很多預(yù)訓(xùn)練好的模型,如ResNet50圖片分類器。你只需要將下圖中的代碼復(fù)制到你的Keras框架中并運(yùn)行。然后泡一杯咖啡,想象自己已經(jīng)成為吳恩達(dá)一樣的大神。靜靜的等待著深藏功與名的那一刻的到來。

大概半小時(shí)的時(shí)間,模型下載安裝完畢。激動(dòng)人心的時(shí)刻終于來臨,趕快來測(cè)一下這個(gè)模型。從百度上隨便搜索了一張貓的圖片,并將圖片的大小改為224*224像素。然后將圖片放到項(xiàng)目的根目錄中(不要忘記修改代碼中的圖片名稱),最后運(yùn)行程序。你會(huì)發(fā)現(xiàn)模型不僅能識(shí)別出來是一只貓,并且還知道是一只波斯貓。驚不驚喜?刺不刺激?是不是有很多小圖片想要嘗試?趕快玩起來吧。

通過對(duì)這個(gè)模型的封裝以及作為產(chǎn)品經(jīng)理的你,相信也可以YY出很多好玩的應(yīng)用。雖然通過Keras中的預(yù)置模型可以讓我們快速體驗(yàn)機(jī)器學(xué)習(xí)的能力,但是個(gè)人建議最好還是自己手動(dòng)搭建一套簡(jiǎn)單的模型會(huì)更加幫助理解。Keras是通過Sequential模型線性堆疊網(wǎng)絡(luò)層。其中一些常用的層Keras已經(jīng)封裝好了,同時(shí)上面說到的激活函數(shù)、優(yōu)化器、損失函數(shù)等等也都是任君挑選的。所以想要通過Keras搭建自己的模型其實(shí)也不難。上述內(nèi)容實(shí)際上也只是一個(gè)拋磚引玉,至少個(gè)人也是通過這些才開始對(duì)機(jī)器學(xué)習(xí)感興趣的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:【Robot 學(xué)院】機(jī)器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)現(xiàn)狀和瓶頸

文章出處:【微信號(hào):robotn,微信公眾號(hào):產(chǎn)業(yè)大視野】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?668次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)

    優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率是提高模型訓(xùn)練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率的方法: 一、理解學(xué)習(xí)率的重要性
    的頭像 發(fā)表于 02-12 15:51 ?940次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析
    的頭像 發(fā)表于 02-12 15:36 ?923次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立在梯度下降法的基礎(chǔ)上,是一種適合于多層神經(jīng)元網(wǎng)絡(luò)學(xué)習(xí)算法。該算法通過計(jì)算每層網(wǎng)絡(luò)的誤差,并將這
    的頭像 發(fā)表于 02-12 15:18 ?770次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度
    的頭像 發(fā)表于 02-12 15:15 ?862次閱讀

    深度學(xué)習(xí)入門:簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,
    的頭像 發(fā)表于 01-23 13:52 ?530次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工
    的頭像 發(fā)表于 01-09 10:24 ?1196次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)工具與框架

    : TensorFlow是由Google Brain團(tuán)隊(duì)開發(fā)的開源機(jī)器學(xué)習(xí)框架,它支持多種深度學(xué)習(xí)模型的構(gòu)建和訓(xùn)練,包括卷積神經(jīng)網(wǎng)絡(luò)。TensorFlow以其靈活性和可擴(kuò)展性而聞名,適
    的頭像 發(fā)表于 11-15 15:20 ?671次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?1872次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來在多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識(shí)別、語音識(shí)別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個(gè)分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:52 ?846次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN
    的頭像 發(fā)表于 11-15 09:42 ?1129次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與其他機(jī)器學(xué)習(xí)算法的比較

    隨著人工智能技術(shù)的飛速發(fā)展,機(jī)器學(xué)習(xí)算法在各個(gè)領(lǐng)域中扮演著越來越重要的角色。長短期記憶網(wǎng)絡(luò)(LSTM)作為一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),因其在處理序列數(shù)據(jù)方面的優(yōu)勢(shì)而受到廣泛關(guān)注。
    的頭像 發(fā)表于 11-13 10:17 ?2144次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實(shí)現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠學(xué)習(xí)長期依賴信息。在處理序列數(shù)據(jù)時(shí),如時(shí)間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時(shí)間序列中的長期依賴關(guān)系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1586次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    Moku3.3版更新在Moku:Pro平臺(tái)新增了全新的儀器功能【神經(jīng)網(wǎng)絡(luò)】,使用戶能夠在Moku設(shè)備上部署實(shí)時(shí)機(jī)器學(xué)習(xí)算法,進(jìn)行快速、靈活的信號(hào)分析、去噪、傳感器調(diào)節(jié)校準(zhǔn)、閉環(huán)反饋等應(yīng)用。如果您
    的頭像 發(fā)表于 11-01 08:06 ?666次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    如何構(gòu)建多層神經(jīng)網(wǎng)絡(luò)

    構(gòu)建多層神經(jīng)網(wǎng)絡(luò)(MLP, Multi-Layer Perceptron)模型是一個(gè)在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域廣泛使用的技術(shù),尤其在處理分類和回歸問題時(shí)。在本文中,我們將
    的頭像 發(fā)表于 07-19 17:19 ?1569次閱讀