99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何描述機(jī)器學(xué)習(xí)中的一些綜合能力

mK5P_AItists ? 來源:未知 ? 作者:鄧佳佳 ? 2018-04-04 11:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

當(dāng)我在閱讀機(jī)器學(xué)習(xí)相關(guān)文獻(xiàn)的時(shí)候, 我經(jīng)常思考這項(xiàng)工作是否:

提高了模型的表達(dá)能力;

使模型更易于訓(xùn)練;

提高了模型的泛化性能。

在這篇博文中, 我們討論當(dāng)前的機(jī)器學(xué)習(xí)研究:監(jiān)督學(xué)習(xí), 無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)在這些方面的表現(xiàn)。談到模型的泛化性能的時(shí)候, 我把它分為兩類:「弱泛化」和「強(qiáng)泛化」。我將會在后面分別討論它們。 下表總結(jié)了我眼中的研究現(xiàn)狀:

這篇博文涵蓋了相當(dāng)寬泛的研究領(lǐng)域,僅表達(dá)我個(gè)人對相關(guān)研究的看法,不反映我的同事和公司的觀點(diǎn)。歡迎讀者進(jìn)行討論以及給出修改的建議, 請?jiān)谠u論中提供反饋或發(fā)送電子郵件給我。

表達(dá)能力 expressivity

模型可以進(jìn)行什么樣的計(jì)算, 擬合多么復(fù)雜的函數(shù)?

模型的表達(dá)能力用來衡量參數(shù)化模型如神經(jīng)網(wǎng)絡(luò)的可以擬合的函數(shù)的復(fù)雜程度。深度神經(jīng)網(wǎng)絡(luò)的表達(dá)能力隨著它的深度指數(shù)上升, 這意味著中等規(guī)模的神經(jīng)網(wǎng)絡(luò)就擁有表達(dá)監(jiān)督、 半監(jiān)督、強(qiáng)化學(xué)習(xí)任務(wù)的能力[2]。 深度神經(jīng)網(wǎng)絡(luò)可以記住非常大的數(shù)據(jù)集就是一個(gè)很好的佐證。

最近在產(chǎn)生式模型研究上的突破證明了神經(jīng)網(wǎng)絡(luò)強(qiáng)大的表達(dá)能力:神經(jīng)網(wǎng)絡(luò)可以找到幾乎與真實(shí)數(shù)據(jù)難以分辨的極為復(fù)雜的數(shù)據(jù)流形(如音頻, 圖像數(shù)據(jù)的流形)。下面是NVIDIA研究人員提出的新的基于產(chǎn)生式對抗神經(jīng)網(wǎng)絡(luò)的模型的生成結(jié)果:

產(chǎn)生的圖像仍然不是很完美(注意不自然的背景),但是已經(jīng)非常好了。同樣的, 在音頻合成中,最新的 WaveNet 模型產(chǎn)生的音頻也已經(jīng)非常像人類了。

在強(qiáng)化學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)看起來也有足夠的表達(dá)能力。 很小的網(wǎng)絡(luò)(2個(gè)卷積層2個(gè)全連接層)就足夠解決Atari 和 MuJoCo 控制問題了(雖然它們的訓(xùn)練還是一個(gè)問題,我們將在下一個(gè)部分討論)。

模型的表達(dá)能力問題是最容易的(增加一些層即可), 但同時(shí)也是最神秘的:我們無法找到一個(gè)很好的方法來度量對于一個(gè)給定的任務(wù)我們需要多強(qiáng)的(或什么類型的)表達(dá)能力。

什么樣的問題會需要比我們現(xiàn)在用的神經(jīng)網(wǎng)絡(luò)大得多的網(wǎng)絡(luò)?為什么這些任務(wù)需要這么大量的計(jì)算?我們現(xiàn)有的神經(jīng)網(wǎng)絡(luò)是否有足夠的表達(dá)能力來表現(xiàn)像人類一樣的智能?要解決更加困難的問題的泛化問題會需要表達(dá)能力超級強(qiáng)的模型嗎?

人的大腦有比我們現(xiàn)在的大網(wǎng)絡(luò)(Inception-ResNet-V2 有大概 25e6 ReLU結(jié)點(diǎn))多很多數(shù)量級的「神經(jīng)節(jié)點(diǎn)」(1e11)。 這個(gè)結(jié)點(diǎn)數(shù)量上的差距已經(jīng)很巨大了, 更別提 ReLU 單元根本無法比擬生物神經(jīng)元。

訓(xùn)練難度 trainability

給定一個(gè)有足夠表達(dá)能力的模型結(jié)構(gòu), 我能夠訓(xùn)練出一個(gè)好的模型嗎(找到好的參數(shù))

任何一個(gè)從數(shù)據(jù)中學(xué)習(xí)到一定功能的計(jì)算機(jī)程序都可以被稱為機(jī)器學(xué)習(xí)模型。在「學(xué)習(xí)」過程中, 我們在(可能很大的)模型空間內(nèi)搜索一個(gè)比較好的, 利用數(shù)據(jù)中的知識學(xué)到的模型來做決策。 搜索的過程常常被構(gòu)造成一個(gè)在模型空間上的優(yōu)化問題。

優(yōu)化的不同類型

一個(gè)具體的例子:最小化平均交叉熵是訓(xùn)練神經(jīng)網(wǎng)絡(luò)分類圖像的標(biāo)準(zhǔn)方法。我們希望模型在訓(xùn)練集上的交叉熵?fù)p失達(dá)到最小時(shí), 模型在測試數(shù)據(jù)上可以以一定精度或召回來正確分類圖像。

搜索好的模型(訓(xùn)練)最終會變?yōu)橐粋€(gè)優(yōu)化問題——沒有別的途徑! 但是有時(shí)候我們很難去定義優(yōu)化目標(biāo)。 在監(jiān)督學(xué)習(xí)中的一個(gè)經(jīng)典的例子就是圖像下采樣:我們無法定義一個(gè)標(biāo)量可以準(zhǔn)確反映出我們?nèi)搜鄹惺艿降南虏蓸釉斐傻摹敢曈X損失」。

同樣地, 超分辨率圖像和圖像合成也非常困難,因?yàn)槲覀兒茈y把效果的好壞寫成一個(gè)標(biāo)量的最大化目標(biāo):想象一下, 如何設(shè)計(jì)一個(gè)函數(shù)來判斷一張圖片有多像一張真實(shí)的照片?事實(shí)上關(guān)于如何去評價(jià)一個(gè)產(chǎn)生式模型的好壞一直爭論到現(xiàn)在。

近年來最受歡迎的的方法是 「協(xié)同適應(yīng)」(co-adaptation)方法:它把優(yōu)化問題構(gòu)造成求解兩個(gè)相互作用演化的非平穩(wěn)分布的平衡點(diǎn)求解問題[3]。這種方法比較「自然」, 我們可以將它類比為捕食者和被捕食者之間的生態(tài)進(jìn)化過程。

捕食者會逐漸變得聰明, 這樣它可以更有效地捕獲獵物。然后被捕食者也逐漸變得更聰明以避免被捕食。兩種物種相互促進(jìn)進(jìn)化, 最終它們都會變得更加聰明。

演化策略通常把優(yōu)化看作是仿真。用戶對模型群體指定一些動力系統(tǒng), 在仿真過程中的每個(gè)時(shí)間步上, 根據(jù)動力系統(tǒng)的運(yùn)行規(guī)則來更新模型群體。 這些模型可能會相互作用也可能不會。 隨著時(shí)間的演變, 系統(tǒng)的動態(tài)特性可能會使模型群體最終收斂到好的模型上面。

David Ha所著的 《A Visual Guide to Evolution Strategies》 是一部非常好的演化策略在強(qiáng)化學(xué)習(xí)中應(yīng)用的教材(其中的「參考文獻(xiàn)和延伸閱讀」部分非常棒?。?/p>

研究現(xiàn)狀

監(jiān)督學(xué)習(xí)中前饋神經(jīng)網(wǎng)絡(luò)和有顯式目標(biāo)函數(shù)的問題已經(jīng)基本解決了(經(jīng)驗(yàn)之談, 沒有理論保障)。2015年發(fā)表的一些重要的突破(批歸一化 Batch Norm,殘差網(wǎng)絡(luò) Resnets,良好初始化 Good Init)現(xiàn)在被廣泛使用, 這使得前饋神經(jīng)網(wǎng)絡(luò)的訓(xùn)練變得非常容易。

事實(shí)上, 數(shù)百層的深度網(wǎng)絡(luò)已經(jīng)可以把大的分類數(shù)據(jù)集的訓(xùn)練損失減小到零。關(guān)于現(xiàn)代深度神經(jīng)網(wǎng)絡(luò)的硬件和算法基礎(chǔ)結(jié)構(gòu),參考 https://arxiv.org/abs/1703.09039。

有證據(jù)表明很多 RNN 結(jié)構(gòu)有相同的表達(dá)能力, 模型最終效果的差異僅僅是由于一些結(jié)構(gòu)比另一些更加易于訓(xùn)練[4]。

無監(jiān)督學(xué)習(xí)的模型輸出常常大很多(并不是總是),比如,1024 x 1024 像素的圖片, 很長的語音和文本序列。很不幸, 這導(dǎo)致模型更加難以訓(xùn)練。

最近 NVIDA 的工作改進(jìn)了Wasserstein GAN 使之對很多超參, 比如 BN 的參數(shù)、網(wǎng)絡(luò)結(jié)構(gòu)等不再敏感。模型的穩(wěn)定性在實(shí)踐和工業(yè)應(yīng)用中非常重要:穩(wěn)定性讓我們相信它會和我們未來的研究思路和應(yīng)用相兼容。

總的來講, 這些成果令人振奮, 因?yàn)檫@證明了我們的產(chǎn)生網(wǎng)絡(luò)有足夠的表達(dá)能力來產(chǎn)生正確的圖像, 效果的瓶頸在于訓(xùn)練的問題——不幸的是對于神經(jīng)網(wǎng)絡(luò)來講我們很難辯別一個(gè)模型表現(xiàn)較差僅僅是因?yàn)樗谋磉_(dá)能力不夠還是我們沒有訓(xùn)練到位。

不幸的是, 即使在僅僅考慮可訓(xùn)練性,不考慮泛化的情況下, 強(qiáng)化學(xué)習(xí)也遠(yuǎn)遠(yuǎn)地落在了后面。在有多于一個(gè)時(shí)間步的環(huán)境中, 我們實(shí)際是在首先搜索一個(gè)模型, 這個(gè)模型在推理階段會最大化獲得的獎勵(lì)。

強(qiáng)化學(xué)習(xí)比較困難,因?yàn)槲覀円靡粋€(gè)外部的(outer loop)、僅僅依賴角色(agent)見過的數(shù)據(jù)的優(yōu)化過程來找到最優(yōu)的模型, 同時(shí)用一個(gè)內(nèi)部的(inner loop)、模型引導(dǎo)的最優(yōu)控制(optimal control)過程來最大化獲得的獎勵(lì)。

不同環(huán)境下,實(shí)現(xiàn)同樣的算法我們經(jīng)常得到不同的結(jié)果, 因此強(qiáng)化學(xué)習(xí)文章中報(bào)告的結(jié)果我們也不能輕易完全相信。

如果我們把強(qiáng)化學(xué)習(xí)看作一個(gè)單純的優(yōu)化問題(先不考慮模型的泛化和復(fù)雜的任務(wù)), 這個(gè)問題同樣非常棘手。假設(shè)現(xiàn)在有一個(gè)環(huán)境, 只有在一個(gè)場景結(jié)束時(shí)才會有非常稀疏的獎勵(lì)(例如:保姆照看孩子, 只有在父母回家時(shí)她才會得到酬勞)。

因此, 要想估計(jì)模型優(yōu)化過程中任意一處的策略梯度, 我們都要采樣指數(shù)增長的動作空間(action space)中的樣本來獲得一些對學(xué)習(xí)有用的信號。這就像是我們想要使用蒙特卡洛方法關(guān)于一個(gè)分布計(jì)算期望(在所有動作序列上), 而這個(gè)分布集中于一個(gè)狄拉克函數(shù)(dirac delta distribution)(密度函數(shù)見下圖)。

在建議分布(proposal distribution)和獎勵(lì)分布(reward distribution)之間幾乎沒有重疊時(shí), 基于有限樣本的蒙特卡洛估計(jì)會失效,不管你采了多少樣本。

此外, 如果數(shù)據(jù)布不是平穩(wěn)的(比如我們采用帶有重放緩存 replay buffer 的離策略 off-policy 算法), 數(shù)據(jù)中的「壞點(diǎn)」會給外部的優(yōu)化過程(outer loop)提供不穩(wěn)定的反饋。

不從蒙特卡洛估計(jì)的角度, 而從優(yōu)化的角度來看的話:在沒有關(guān)于狀態(tài)空間的任何先驗(yàn)的情況下(比如對于世界環(huán)境的理解或者顯式地給角色 agent 一些明確的指示), 優(yōu)化目標(biāo)函數(shù)的形狀(optimization landscape)看起來就像「瑞士芝士」——一個(gè)個(gè)凸的極值(看作小孔)周圍都是大面積的平地,這樣平坦的「地形」上策略梯度信息幾乎沒用。這意味著整個(gè)模型空間幾乎不包含信息(非零的區(qū)域幾乎沒有,學(xué)習(xí)的信號在整個(gè)模型空間里是均勻的)。

如果沒有更好的表示方法,我們可能就僅僅是在隨機(jī)種子附近游走,隨機(jī)采樣一些策略,直到我們幸運(yùn)地找到一個(gè)恰好落在「芝士的洞里」的模型。事實(shí)上,這樣訓(xùn)練出的模型效果其實(shí)很好。這說明強(qiáng)化學(xué)習(xí)的優(yōu)化目標(biāo)函數(shù)形狀很有可能就是這樣子的。

我相信像 Atari 和 MuJoCo 這樣的強(qiáng)化學(xué)習(xí)基準(zhǔn)模型并沒有真正提高機(jī)器學(xué)習(xí)的能力極限, 雖然從一個(gè)單純優(yōu)化問題來看它們很有趣。這些模型還只是在一個(gè)相對簡單的環(huán)境中去尋找單一的策略來使模型表現(xiàn)得更好, 沒有任何的選擇性機(jī)制讓他們可以泛化。 也就是說, 它們還僅僅是單純的優(yōu)化問題, 而不是一個(gè)復(fù)雜的機(jī)器學(xué)習(xí)問題。

要想解決更高維,更復(fù)雜的強(qiáng)化學(xué)習(xí)問題, 在解決數(shù)值優(yōu)化問題之前,我們必須先考慮模型的泛化和一般的感性認(rèn)知能力。反之就會愚蠢地浪費(fèi)計(jì)算力和數(shù)據(jù)(當(dāng)然這可能會讓我們明白僅僅通過暴力計(jì)算我們可以做得多好)。

我們要讓每個(gè)數(shù)據(jù)點(diǎn)都給強(qiáng)化學(xué)習(xí)提供訓(xùn)練信息,也需要能夠在不用指數(shù)增長的數(shù)據(jù)時(shí)就能通過重要性采樣(importance sampling)獲得非常復(fù)雜的問題的梯度。只有在這樣的情況下, 我們才能確保通過暴力計(jì)算我們可以獲得這個(gè)問題的解。

最后做一個(gè)總結(jié):監(jiān)督學(xué)習(xí)的訓(xùn)練比較容易。 無監(jiān)督學(xué)習(xí)的訓(xùn)練相對困難但是已經(jīng)取得了很大的進(jìn)展。但是對于強(qiáng)化學(xué)習(xí),訓(xùn)練還是一個(gè)很大的問題。

泛化性能

在這三個(gè)問題中, 泛化性能是最深刻的,也是機(jī)器學(xué)習(xí)的核心問題。簡單來講, 泛化性能用來衡量一個(gè)在訓(xùn)練集上訓(xùn)練好的模型在測試集上的表現(xiàn)。

泛化問題主要可以分為兩大類:

1) 訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)來自于同一個(gè)分布(我們使用訓(xùn)練集來學(xué)習(xí)這個(gè)分布)。

2)訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)來自不同的分布(我們要讓在訓(xùn)練集上學(xué)習(xí)的模型在測試集上也表現(xiàn)良好)。

通常我們把(1)稱為「弱泛化」,把(2)稱為「強(qiáng)泛化」。我們也可以把它們理解為「內(nèi)插(interpolation)」和「外推(extrapolation)」,或「魯棒性(robustness)」與「理解(understanding)」。

弱泛化:考慮訓(xùn)練集與測試集數(shù)據(jù)服從兩個(gè)類似的分布

如果數(shù)據(jù)的分布發(fā)生了較小的擾動, 模型還能表現(xiàn)得多好?

在「弱泛化」中,我們通常假設(shè)訓(xùn)練集和數(shù)據(jù)集的數(shù)據(jù)分布是相同的。但是在實(shí)際問題中,即使是「大樣本」(large sample limit)情況下,二者的分布也總會有些許差異。

這些差異有可能來源于傳感器噪聲、物體的磨損、周圍光照條件的變化(可能攝影者收集測試集數(shù)據(jù)時(shí)恰好是陰天)。對抗樣本的出現(xiàn)也可能導(dǎo)致一些不同,對抗的擾動很難被人眼分辨,因此我們可以認(rèn)為對抗樣本也是從相同的分布里采出來的。

因此,實(shí)踐中把「弱泛化」看作是評估模型在「擾動」的訓(xùn)練集分布上的表現(xiàn)是有用的。

數(shù)據(jù)分布的擾動也會導(dǎo)致優(yōu)化目標(biāo)函數(shù)(optimization landscape)的擾動。

不能事先知道測試數(shù)據(jù)的分布為我們優(yōu)化帶來了一些困難。如果我們在訓(xùn)練集上優(yōu)化得過于充分(上圖藍(lán)色曲線左邊的最低的局部極小點(diǎn)), 我們會得到一個(gè)在測試集上并不是最好的模型(紅色曲線左邊的局部極小點(diǎn))。 這時(shí), 我們就在訓(xùn)練集上過擬合(overfitting)了, 模型在測試集上沒有很好地泛化。

「正則化」包含一切我們用來防止過擬合的手段。我們一點(diǎn)都不知道測試集分布的擾動是什么,所以我們只能在訓(xùn)練集或訓(xùn)練過程中加入噪聲,希望這些引入的噪聲中會包含測試集上的擾動。隨機(jī)梯度下降、隨機(jī)剪結(jié)點(diǎn)(dropout)、權(quán)值噪聲(weight noise)、 激活噪聲(activation noise)、 數(shù)據(jù)增強(qiáng)等都是深度學(xué)習(xí)中常用的正則化技術(shù)。在強(qiáng)化學(xué)習(xí)中,隨機(jī)仿真參數(shù)(randomizing simulation parameters)會讓訓(xùn)練變得更加魯棒。張馳原在 ICLR2017 的報(bào)告中認(rèn)為正則化是所有的可能「增加訓(xùn)練難度」的方法(而不是傳統(tǒng)上認(rèn)為的「限制模型容量」)。總的來講,讓優(yōu)化變得困難一些有助于模型的泛化。

對于弱泛化最大的挑戰(zhàn)可能就是對抗攻擊了。 對抗方法會產(chǎn)生對模型最糟糕的的干擾,在這些擾動下模型會表現(xiàn)得非常差。 我們現(xiàn)在還沒有對對抗樣本魯棒的深度學(xué)習(xí)方法, 但是我感覺這個(gè)問題最終會得到解決[5]。

現(xiàn)在有一些利用信息論的工作表明在訓(xùn)練過程中神經(jīng)網(wǎng)絡(luò)會明顯地經(jīng)歷一個(gè)由「記住」數(shù)據(jù)到」壓縮」數(shù)據(jù)的轉(zhuǎn)換。這種理論正在興起,雖然仍然有關(guān)于這種理論是不是真的有效的討論。請關(guān)注這個(gè)理論,這個(gè)關(guān)于「記憶」和」壓縮」的直覺是令人信服的。

強(qiáng)泛化:自然流形

在強(qiáng)泛化范疇,模型是在完全不同的數(shù)據(jù)分布上進(jìn)行評估的, 但是數(shù)據(jù)來自于同一個(gè)流形(或數(shù)據(jù)產(chǎn)生過程)

如果測試數(shù)據(jù)分布于訓(xùn)練數(shù)據(jù)分布「完全不同」,我們?nèi)绾蝸碛?xùn)練一個(gè)好的模型呢?實(shí)際上這些數(shù)據(jù)都來自同一個(gè)「自然數(shù)據(jù)流形」(natural data manifold)。只要來源于同一個(gè)數(shù)據(jù)產(chǎn)生過程,訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)仍然含有很多的信息交疊。

強(qiáng)泛化可以看作是模型可以多好地學(xué)到這個(gè)「超級流形」,訓(xùn)練這個(gè)模型只使用了流形上的很小一部分樣本。一個(gè)圖像分類器不需要去發(fā)現(xiàn)麥克斯韋方程組——它只需要理解與流形上的數(shù)據(jù)點(diǎn)相一致的事實(shí)。

在 ImageNet 上訓(xùn)練的現(xiàn)代分類器已經(jīng)基本上可以做到強(qiáng)泛化了。模型已經(jīng)可以理解基礎(chǔ)的元素比如邊緣、輪廓以及實(shí)體。這也是為什么常常會把這些分類器的權(quán)值遷移到其它數(shù)據(jù)集上來進(jìn)行少樣本學(xué)習(xí)(few shot learning)和度量學(xué)習(xí)(metric learning)。

和弱泛化一樣,我們可以對抗地采樣測試集來讓它的數(shù)據(jù)分布與訓(xùn)練集盡量不同。AlphaGo Zero 是我最喜歡的例子:在測試階段,它看到的是與它在訓(xùn)練階段完全不一樣的, 來自人類選手的數(shù)據(jù)。

遺憾的是, 強(qiáng)化學(xué)習(xí)的研究忽略了強(qiáng)泛化問題。 大部分的基準(zhǔn)都基于靜態(tài)的環(huán)境, 沒有多少認(rèn)知的內(nèi)容(比如人型機(jī)器人只知道一些關(guān)節(jié)的位置可能會帶來獎勵(lì), 而不知道它的它的世界和它的身體是什么樣子的)。

我相信解決強(qiáng)化學(xué)習(xí)可訓(xùn)練性問題的關(guān)鍵在于解決泛化性。我們的學(xué)習(xí)系統(tǒng)對世界的理解越多,它就更容易獲得學(xué)習(xí)的信號可能需要更少的樣本。這也是為什么說少樣本學(xué)習(xí)(few shot learning)、模仿學(xué)習(xí)(imitation learning)、學(xué)習(xí)如何學(xué)習(xí)(learning to learn)重要的原因了:它們將使我們擺脫采用方差大而有用信息少的暴力求解方式。

我相信要達(dá)到更強(qiáng)的泛化,我們要做到兩件事:

首先我們需要模型可以從觀察和實(shí)驗(yàn)中積極推理世界基本規(guī)律。符號推理(symbolic reasoning)和因果推理(causal inference)看起來已經(jīng)是成熟的研究了, 但是對任何一種無監(jiān)督學(xué)習(xí)可能都有幫助。

我們的基于模型的機(jī)器學(xué)習(xí)方法(試圖去「預(yù)測」環(huán)境的模型)現(xiàn)在正處于哥白尼革命之前的時(shí)期:它們僅僅是膚淺地基于一些統(tǒng)計(jì)原理進(jìn)行內(nèi)插,而不是提出深刻的,一般性的原理來解釋和推斷可能在數(shù)百萬光年以外或很久遠(yuǎn)的未來的事情。

注意人類不需要對概率論有很好的掌握就能推導(dǎo)出確定性的天體力學(xué),這就產(chǎn)生了一個(gè)問題:是否有可能在沒有明確的統(tǒng)計(jì)框架下進(jìn)行機(jī)器學(xué)習(xí)和因果推理?

讓我們的學(xué)習(xí)系統(tǒng)更具適應(yīng)性可以大大降低復(fù)雜性。我們需要訓(xùn)練可以在線實(shí)時(shí)地思考、記憶、學(xué)習(xí)的模型,而不僅僅是只能靜態(tài)地預(yù)測和行動的模型。

其次, 我們需要把足夠多樣的數(shù)據(jù)送給模型來促使它學(xué)到更為抽象的表示。

沒有這些限制的話,學(xué)習(xí)本身就是欠定義的,我們能夠恰好找到一個(gè)好的解的可能性也非常小。 也許如果人類不能站起來看到天空,就不會想要知道為什么星星會以這樣奇怪的橢圓形軌跡運(yùn)行,也就不會獲得智慧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35192

    瀏覽量

    280231
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49034

    瀏覽量

    249736
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8505

    瀏覽量

    134667

原文標(biāo)題:如何理解和評價(jià)機(jī)器學(xué)習(xí)中的表達(dá)能力、訓(xùn)練難度和泛化性能

文章出處:【微信號:AItists,微信公眾號:人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    FPGA在機(jī)器學(xué)習(xí)的具體應(yīng)用

    隨著機(jī)器學(xué)習(xí)和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無法滿足高效處理大規(guī)模數(shù)據(jù)和復(fù)雜模型的需求。FPGA(現(xiàn)場可編程門陣列)作為種靈活且高效的硬件加速平臺
    的頭像 發(fā)表于 07-16 15:34 ?577次閱讀

    Debian和Ubuntu哪個(gè)好一些?

    兼容性對比Debian和Ubuntu哪個(gè)好一些,并為您揭示如何通過RAKsmart服務(wù)器釋放Linux系統(tǒng)的最大潛能。
    的頭像 發(fā)表于 05-07 10:58 ?345次閱讀

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    和模擬切規(guī)律,但實(shí)際上,這個(gè)過程效率非常低,需要消耗大量的存儲空間描述網(wǎng)絡(luò)的參數(shù),并且需要大量的數(shù)據(jù)樣本覆蓋規(guī)律可能涉及到的情景。 優(yōu)秀的數(shù)學(xué)家們在過往的研究,已經(jīng)發(fā)現(xiàn)和總結(jié)出了一些
    的頭像 發(fā)表于 04-02 18:21 ?898次閱讀

    獨(dú)立服務(wù)器和云服務(wù)器哪個(gè)快一些

    獨(dú)立服務(wù)器和云服務(wù)器哪個(gè)快一些?在數(shù)字服務(wù)部署,獨(dú)立服務(wù)器與云服務(wù)器的速度差異并非絕對,需結(jié)合資源配置與應(yīng)用場景綜合判斷。以下是UU云對獨(dú)立服務(wù)器和云服務(wù)器的核心維度對比分析:
    的頭像 發(fā)表于 02-05 10:08 ?416次閱讀

    zeta在機(jī)器學(xué)習(xí)的應(yīng)用 zeta的優(yōu)缺點(diǎn)分析

    在探討ZETA在機(jī)器學(xué)習(xí)的應(yīng)用以及ZETA的優(yōu)缺點(diǎn)時(shí),需要明確的是,ZETA詞在不同領(lǐng)域可能有不同的含義和應(yīng)用。以下是根據(jù)不同領(lǐng)域的ZETA進(jìn)行的分析:
    的頭像 發(fā)表于 12-20 09:11 ?1129次閱讀

    傅立葉變換在機(jī)器學(xué)習(xí)的應(yīng)用 常見傅立葉變換的誤區(qū)解析

    傅里葉變換在機(jī)器學(xué)習(xí)的應(yīng)用 傅里葉變換是種將信號分解為其組成頻率分量的數(shù)學(xué)運(yùn)算,它在機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 12-06 17:06 ?1073次閱讀

    人工智能工程師高頻面試題匯總——機(jī)器學(xué)習(xí)

    ,或者深度學(xué)習(xí)的框架,還有怎么優(yōu)化模型,這些都是加分項(xiàng),能有效提高面試通過率。本篇小編整理了一些高頻的機(jī)器學(xué)習(xí)方面的面試題,這些題目都是從實(shí)際面試
    的頭像 發(fā)表于 12-04 17:00 ?1541次閱讀
    人工智能工程師高頻面試題匯總——<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>篇

    一些常見的動態(tài)電路

    無論是模電還是數(shù)電,理論知識相對來說還是比較枯燥,各種電路原理理解清楚不算容易,換種生動形象的方式或許會增加一些趣味性,也更容易理解這些知識。下面整理了一些常見的電路,以動態(tài)圖形的方式展示。 整流
    的頭像 發(fā)表于 11-16 09:26 ?1148次閱讀
    <b class='flag-5'>一些</b>常見的動態(tài)電路

    什么是機(jī)器學(xué)習(xí)?通過機(jī)器學(xué)習(xí)方法能解決哪些問題?

    計(jì)算機(jī)系統(tǒng)自身的性能”。事實(shí)上,由于“經(jīng)驗(yàn)”在計(jì)算機(jī)系統(tǒng)主要以數(shù)據(jù)的形式存在,因此機(jī)器學(xué)習(xí)需要設(shè)法對數(shù)據(jù)進(jìn)行分析學(xué)習(xí),這就使得它逐漸成為智能數(shù)據(jù)分析技術(shù)的創(chuàng)新源之
    的頭像 發(fā)表于 11-16 01:07 ?968次閱讀
    什么是<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>?通過<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問題?

    eda在機(jī)器學(xué)習(xí)的應(yīng)用

    機(jī)器學(xué)習(xí)項(xiàng)目中,數(shù)據(jù)預(yù)處理和理解是成功構(gòu)建模型的關(guān)鍵。探索性數(shù)據(jù)分析(EDA)是這一過程中不可或缺的部分。 1. 數(shù)據(jù)清洗 數(shù)據(jù)清洗 是機(jī)器
    的頭像 發(fā)表于 11-13 10:42 ?915次閱讀

    分享一些常見的電路

    理解模電和數(shù)電的電路原理對于初學(xué)者來說可能比較困難,但通過一些生動的教學(xué)方法和資源,可以有效地提高學(xué)習(xí)興趣和理解能力。 下面整理了一些常見的電路,以動態(tài)圖形的方式展示。 整流電路 單相
    的頭像 發(fā)表于 11-13 09:28 ?839次閱讀
    分享<b class='flag-5'>一些</b>常見的電路

    具身智能與機(jī)器學(xué)習(xí)的關(guān)系

    (如機(jī)器人、虛擬代理等)通過與物理世界或虛擬環(huán)境的交互來獲得、發(fā)展和應(yīng)用智能的能力。這種智能不僅包括認(rèn)知和推理能力,還包括感知、運(yùn)動控制和環(huán)境適應(yīng)能力。具身智能強(qiáng)調(diào)智能體的身體和環(huán)境在
    的頭像 發(fā)表于 10-27 10:33 ?1060次閱讀

    LED驅(qū)動器應(yīng)用的一些指南和技巧

    電子發(fā)燒友網(wǎng)站提供《LED驅(qū)動器應(yīng)用的一些指南和技巧.pdf》資料免費(fèi)下載
    發(fā)表于 09-25 11:35 ?0次下載
    LED驅(qū)動器應(yīng)用的<b class='flag-5'>一些</b>指南和技巧

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 簡單建議

    簡單評價(jià)這本書。 是這樣,在閱讀與實(shí)踐過程,我也發(fā)現(xiàn)了一些可以進(jìn)步提升用戶體驗(yàn)的細(xì)節(jié)之處。 例如,書中大量的代碼示例對于學(xué)習(xí)者來說無疑是寶貴的資源,但在快速復(fù)制粘貼的過程
    發(fā)表于 08-12 11:21

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識學(xué)習(xí)

    一些局限性。例如,模型可能無法完全理解文本的深層含義和語境信息;同時(shí),由于訓(xùn)練數(shù)據(jù)可能存在偏差和噪聲,生成的答案也可能存在不準(zhǔn)確或誤導(dǎo)性的情況。 總結(jié)以下,大語言模型通過深度學(xué)習(xí)和自然語言處理技術(shù)
    發(fā)表于 08-02 11:03