99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

讀懂NeurIPS2019最佳機器學(xué)習(xí)論文

倩倩 ? 來源:讀芯術(shù) ? 2020-01-16 09:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

NeurIPS是全球頂級的機器學(xué)習(xí)會議。沒有其他研究會議可以吸引6000多位該領(lǐng)域內(nèi)真正的精英同時參加。如果你非常想了解機器學(xué)習(xí)最新的研究進展,就需要關(guān)注NeurIPS。

每年,NeurIPS都會為機器學(xué)習(xí)領(lǐng)域的頂級研究論文頒發(fā)各類獎項。考慮到這些論文的前沿水平,它們對于大多數(shù)人來說通常晦澀難懂。

但是不用擔心!我瀏覽了這些優(yōu)秀論文,并在本文總結(jié)了要點!我的目的是通過將關(guān)鍵的機器學(xué)習(xí)概念分解為大眾易于理解的小點來幫助你了解每篇論文的本質(zhì)。

以下是我將介紹的三個NeurIPS2019最佳論文的獎項:

最佳論文獎

杰出新方向論文獎

經(jīng)典論文獎

讓我們深入了解吧!

NeurIPS 2019最佳論文獎

在NeurIPS 2019上獲得的最佳論文獎是:

具有Massart噪聲的半空間的獨立分布的PAC學(xué)習(xí)(Distribution-Independent PAC Learning of Halfspaces with MassartNoise)

這是一篇非常好的論文!這讓我開始思考機器學(xué)習(xí)中的一個基本概念:噪聲和分布。這需要對論文本身進行大量研究,我將盡力解釋論文的要點而不使其變得復(fù)雜。

我們先重述標題。本文的研究討論了一種用于學(xué)習(xí)半空間的算法,該算法在與分布無關(guān)的PAC模型中使用,且研究的半空間具有Massart噪聲。該算法是該領(lǐng)域中最有效的算法。

本文的關(guān)鍵術(shù)語如下。

回顧布爾函數(shù)和二進制分類的概念。本質(zhì)上,

一個半空間是一個布爾函數(shù),其中兩個類(正樣本和負樣本)由一個超平面分開。由于超平面是線性的,因此它也被稱為線性閾值函數(shù)(LTF)。

在數(shù)學(xué)上,線性閾值函數(shù)或半空間是一個閾值函數(shù),可以由以某個閾值T為邊界的輸入?yún)?shù)的線性方程表示。布爾函數(shù)如果具有以下形式,則為線性閾值函數(shù):

其中:

是權(quán)重

是特征

表示給出實數(shù)符號的符號函數(shù)

是閾值

我們也可以將LTF稱為感知器(此處需要使用神經(jīng)網(wǎng)絡(luò)知識?。?/p>

PAC(Probably Approximately Correct)模型是二分類的標準模型之一。

“Massart噪聲條件,或僅僅是Massart噪聲,是每個樣本/記錄的標簽以學(xué)習(xí)算法未知的很小概率進行的翻轉(zhuǎn)?!?/p>

翻轉(zhuǎn)的可能性受某個始終小于1/2的因子n的限制。為了找到使得誤分類錯誤較小的假設(shè),我們在先前的論文中進行了各種嘗試來限制錯誤以及與數(shù)據(jù)噪聲相關(guān)的風(fēng)險。

這項研究在確定樣本復(fù)雜性的同時,證明了多項式時間(1/epsilon)的額外風(fēng)險等于Massart噪聲水平加上epsilon。

本文是邁向僅實現(xiàn)ε過量風(fēng)險這一目標的巨大飛躍。

獲得NeurIPS杰出論文獎提名的其他論文:

1. Besov IPM損耗下GAN的非參數(shù)密度估計和收斂速度(Nonparametric Density Estimation & Convergence Rates for GANs under Besov IPM Losses)

2. 快速準確的最小均方求解(Fast andAccurate Least-Mean-Squares Solvers)

NeurIPS 2019杰出新方向論文

今年的NeurIPS2019為獲獎?wù)撐脑O(shè)置了一個新獎項杰出新方向論文獎。用主辦方的話來說: “該獎項旨在表彰為未來研究建立新途徑的杰出工作。”

該獎項的獲獎文章是 ——《一致收斂性可能無法解釋深度學(xué)習(xí)中的泛化性》(Uniform convergence may be unable to explain generalization in deeplearning)

今年我最喜歡的論文之一!本文從理論和實踐兩個方面闡述了當前的深度學(xué)習(xí)算法無法解釋深度神經(jīng)網(wǎng)絡(luò)中的泛化。讓我們來更詳細地了解這一點。

一致收斂性可能無法解釋深度學(xué)習(xí)中的泛化性(Uniform convergence may be unable to explain generalization in deeplearning)

大型網(wǎng)絡(luò)很好地概括了看不見的訓(xùn)練數(shù)據(jù),盡管這些數(shù)據(jù)已被訓(xùn)練為完全適合隨機標記。但是,當特征數(shù)量大于訓(xùn)練樣本的數(shù)量時,這些網(wǎng)絡(luò)的表現(xiàn)就沒那么好了。

盡管如此,它們?nèi)匀粸槲覀兲峁┝俗钚碌男阅苤笜?。這也表明這些超參數(shù)化模型過度地依賴參數(shù)計數(shù)而沒有考慮批量大小的變化。如果我們遵循泛化的基本方程:

測試誤差 – 訓(xùn)練誤差 《= 泛化界限

對于上面的方程式,我們采用所有假設(shè)的集合,并嘗試最小化復(fù)雜度并使這些界限盡可能地窄。

迄今為止的研究都集中于通過獲取假設(shè)類別的相關(guān)子集來收緊界限。在完善這些約束方面也有很多開創(chuàng)性的研究,所有這些都基于統(tǒng)一收斂的概念。

但是,本文解釋這些算法可能出現(xiàn)的兩種情況:

太大,并且其復(fù)雜度隨參數(shù)數(shù)量而增加;

很小,但是在修改后的網(wǎng)絡(luò)上設(shè)計而來

“該論文定義了一組用于泛化界限的標準,并通過一組演示實驗證明統(tǒng)一收斂為何無法完全解釋深度學(xué)習(xí)中的泛化。”

泛化界限如下:

1. 理想情況下必須 《1(空)

2. 隨著寬度的增加變小

3. 適用于由SGD(隨機梯度下降)學(xué)習(xí)的網(wǎng)絡(luò)

4. 隨著隨機翻轉(zhuǎn)的訓(xùn)練標簽的比例而增加

5. 應(yīng)該與數(shù)據(jù)集大小成反比

之前提到的實驗是在MNIST數(shù)據(jù)集上使用三種類型的過度參數(shù)化模型(均在SGD算法上進行訓(xùn)練)完成的:

1. 線性分類器

2. 具有ReLU的寬神經(jīng)網(wǎng)絡(luò)

3. 具有固定隱藏權(quán)重的無限寬度神經(jīng)網(wǎng)絡(luò)

本文繼而演示了針對不同訓(xùn)練集大小的不同超參數(shù)設(shè)置。

“一個非常有趣的發(fā)現(xiàn)是,盡管測試集誤差隨訓(xùn)練集大小的增加而減小,但泛化界限實際上卻有所增加。 ”

如果網(wǎng)絡(luò)只是記住了我們不斷添加到訓(xùn)練集中的數(shù)據(jù)點,該怎么辦?

以研究人員給出的例子為例。對于一個擁有1000個維度的數(shù)據(jù)集的分類任務(wù),使用SGD訓(xùn)練具有1個隱藏層ReLU和10萬個單位的超參數(shù)化模型。訓(xùn)練集大小的增加可提高泛化性并減少測試集錯誤。

盡管進行了泛化,它們?nèi)匀蛔C明了決策邊界非常復(fù)雜。這是它們違背統(tǒng)一收斂思想的地方。

因此,即使對于線性分類器,統(tǒng)一收斂也不能完全解釋泛化。實際上,當增加樣本數(shù)量時,這可以認為是導(dǎo)致界限增加的一個因素!

盡管先前的研究已將發(fā)展深度網(wǎng)絡(luò)的方向朝著依賴于算法的方向發(fā)展(以便堅持一致收斂),但本文提出了開發(fā)不依賴于算法的技術(shù)的需求,這些技術(shù)不會局限于一致收斂來解釋泛化。

我們可以清楚地知道,為什么該機器學(xué)習(xí)研究論文在NeurIPS 2019上獲得了杰出新方向論文獎。

研究人員已經(jīng)表明,僅僅用一致收斂不足以解釋深度學(xué)習(xí)中的泛化。同樣,不可能達到滿足所有5個標準的小界限。這開辟了一個全新的研究領(lǐng)域來探索可能解釋泛化的其他工具。

NeurIPS在杰出新方向論文獎上的其他提名包括:

1. 端到端:表征的梯度隔離學(xué)習(xí)(Putting AnEnd to End-to-End: Gradient-Isolated Learning of Representations)

2. 場景表示網(wǎng)絡(luò):連續(xù)的3D-結(jié)構(gòu)感知神經(jīng)場景表示(SceneRepresentation Networks: Continuous 3D-Structure-Aware Neural SceneRepresentations)

NeurIPS 2019的經(jīng)典論文獎

每年,NeurIPS還會獎勵10年前在大會上發(fā)表的一篇論文,該論文對該領(lǐng)域的貢獻產(chǎn)生了深遠的影響(也是廣受歡迎的論文)。

今年,“經(jīng)典論文獎”授予了LinXiao寫作的“正則隨機學(xué)習(xí)和在線優(yōu)化的雙重平均法”。這項研究基于基本概念,這些基本概念為眾所周知的現(xiàn)代機器學(xué)習(xí)奠定了基礎(chǔ)。

正則隨機學(xué)習(xí)和在線優(yōu)化的雙重平均法(Dual Averaging Method for Regularized Stochastic Learning and OnlineOptimization)

讓我們分解一下這篇極佳的論文中涵蓋的四個關(guān)鍵概念:

隨機梯度下降:隨機梯度下降已經(jīng)正式成為機器學(xué)習(xí)中的最優(yōu)化方法。它可以通過以下隨機優(yōu)化來實現(xiàn)?;仡橲GD和大樣本隨機優(yōu)化方程——這里,w是權(quán)重向量,z是輸入特征向量。對于t = 0,1,2…

在線凸優(yōu)化:另一項開創(chuàng)性的研究。它被模擬為游戲,玩家將嘗試預(yù)測權(quán)重向量,并在每個t處計算出最終的損失。主要目的是最大程度地減少這種損失——結(jié)果與我們使用隨機梯度下降進行優(yōu)化的方式非常相似

壓縮學(xué)習(xí):這包括套索回歸,L1正則化最小二乘和其他混合正則化方案

近端梯度法:與早期的技術(shù)相比,這是一種減少損耗且仍保留凸度的更快的方法

盡管先前的研究開發(fā)了一種收斂到O(1/t)的有效算法,但數(shù)據(jù)稀疏性是在那之前一直被忽略的一個因素。本文提出了一種新的正則化技術(shù),稱為正則化雙重平均法(RDA),用于解決在線凸優(yōu)化問題。

當時,這些凸優(yōu)化問題效率不高,特別是在可伸縮性方面。

這項研究提出了一種批處理優(yōu)化的新方法。這意味著最初僅提供一些獨立樣本,并且基于這些樣本(在當前時間t)計算權(quán)重向量。相對于當前權(quán)重向量的損失與次梯度一起計算。并在迭代中(在時間t + 1)再次使用它。

具體而言,在RDA中,考慮了平均次梯度,而不是當前的次梯度。

“當時,對于稀疏的MNIST數(shù)據(jù)集,此方法比SGD和其他流行技術(shù)獲得了更好的結(jié)果。實際上,隨著稀疏度的增加,RDA方法也具有明顯更好的結(jié)果?!?/p>

在進一步研究上述方法的多篇論文中,如流形識別、加速RDA等,都證明了這篇論文被授予經(jīng)典論文獎是當之無愧。

結(jié)語

NeurIPS 2019再次成為了一次極富教育意義和啟發(fā)性的會議。我對杰出新方向論文獎以及它如何解決深度學(xué)習(xí)中的泛化問題特別感興趣。

哪一篇機器學(xué)習(xí)研究論文引起了你的注意?或者是否有其他的論文,讓你想要去嘗試或者啟發(fā)了你?請在下面的評論區(qū)中告訴我們吧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 二進制
    +關(guān)注

    關(guān)注

    2

    文章

    807

    瀏覽量

    42331
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4381

    瀏覽量

    64881
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134619
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    機器學(xué)習(xí)賦能的智能光子學(xué)器件系統(tǒng)研究與應(yīng)用

    騰訊會議---六月直播 1.機器學(xué)習(xí)賦能的智能光子學(xué)器件系統(tǒng)研究與應(yīng)用 2.COMSOL聲學(xué)多物理場仿真技術(shù)與應(yīng)用 3.超表面逆向設(shè)計及前沿應(yīng)用(從基礎(chǔ)入門到論文復(fù)現(xiàn)) 4.智能光學(xué)計算成像技術(shù)
    的頭像 發(fā)表于 06-04 17:59 ?169次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>賦能的智能光子學(xué)器件系統(tǒng)研究與應(yīng)用

    STM32+Android實現(xiàn)的智能家政機器人電路代碼論文及項目源碼

    STM32+Android實現(xiàn)的智能家政機器人電路代碼論文及項目部分截圖:
    發(fā)表于 05-28 21:22

    機器學(xué)習(xí)模型市場前景如何

    當今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計算能力的飛速提升,機器學(xué)習(xí)模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機器學(xué)習(xí)模型市場的未來發(fā)展。
    的頭像 發(fā)表于 02-13 09:39 ?362次閱讀

    嵌入式機器學(xué)習(xí)的應(yīng)用特性與軟件開發(fā)環(huán)境

    作者:DigiKey Editor 在許多嵌入式系統(tǒng)中,必須采用嵌入式機器學(xué)習(xí)(Embedded Machine Learning)技術(shù),這是指將機器學(xué)習(xí)模型部署在資源受限的設(shè)備(如微
    的頭像 發(fā)表于 01-25 17:05 ?660次閱讀
    嵌入式<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>的應(yīng)用特性與軟件開發(fā)環(huán)境

    傳統(tǒng)機器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上一篇文章中,我們介紹了機器學(xué)習(xí)的關(guān)鍵概念術(shù)語。在本文中,我們會介紹傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多種算法特征,供各位老師選擇。 01 傳統(tǒng)機器
    的頭像 發(fā)表于 12-30 09:16 ?1188次閱讀
    傳統(tǒng)<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    如何選擇云原生機器學(xué)習(xí)平臺

    當今,云原生機器學(xué)習(xí)平臺因其彈性擴展、高效部署、低成本運營等優(yōu)勢,逐漸成為企業(yè)構(gòu)建和部署機器學(xué)習(xí)應(yīng)用的首選。然而,市場上的云原生機器
    的頭像 發(fā)表于 12-25 11:54 ?457次閱讀

    學(xué)習(xí)硬件的第一節(jié)課:學(xué)習(xí)讀懂原理圖

    學(xué)習(xí)硬件的第一節(jié)課:學(xué)習(xí)讀懂原理圖 讀懂原理圖對嵌入式軟件工程師和程序員尤為重要。在深入細節(jié)之前請注意,對所有的嵌入式設(shè)計人員來說、能懂得硬件工程師創(chuàng)建和使用的來描述其硬件設(shè)計的原理圖
    的頭像 發(fā)表于 12-16 16:04 ?2412次閱讀
    <b class='flag-5'>學(xué)習(xí)</b>硬件的第一節(jié)課:<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>讀懂</b>原理圖

    螞蟻數(shù)科與浙大團隊榮獲NeurIPS競賽冠軍

    近日,在機器學(xué)習(xí)領(lǐng)域的頂級國際會議NeurIPS的特設(shè)競賽中,螞蟻數(shù)科旗下的摩斯聯(lián)合浙江大學(xué)計算機體系結(jié)構(gòu)實驗室陳文智、魏成坤團隊組成的“Morse ARCLab”參賽隊伍憑借出色的表現(xiàn),成功在激烈的競爭中脫穎而出,為中國AI技
    的頭像 發(fā)表于 11-26 10:27 ?886次閱讀

    什么是機器學(xué)習(xí)?通過機器學(xué)習(xí)方法能解決哪些問題?

    來源:Master編程樹“機器學(xué)習(xí)”最初的研究動機是讓計算機系統(tǒng)具有人的學(xué)習(xí)能力以便實現(xiàn)人工智能。因為沒有學(xué)習(xí)能力的系統(tǒng)很難被認為是具有智能的。目前被廣泛采用的
    的頭像 發(fā)表于 11-16 01:07 ?965次閱讀
    什么是<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>?通過<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問題?

    NPU與機器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機器學(xué)習(xí)算法是實現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對計算資源的需求也在不斷增長。NPU作為一種專門為深度學(xué)習(xí)機器
    的頭像 發(fā)表于 11-15 09:19 ?1221次閱讀

    一文讀懂單燈控制器工作原理

    一文讀懂單燈控制器工作原理
    的頭像 發(fā)表于 11-11 13:13 ?1291次閱讀
    一文<b class='flag-5'>讀懂</b>單燈控制器工作原理

    具身智能與機器學(xué)習(xí)的關(guān)系

    具身智能(Embodied Intelligence)和機器學(xué)習(xí)(Machine Learning)是人工智能領(lǐng)域的兩個重要概念,它們之間存在著密切的關(guān)系。 1. 具身智能的定義 具身智能是指智能體
    的頭像 發(fā)表于 10-27 10:33 ?1049次閱讀

    人工智能、機器學(xué)習(xí)和深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI有很多技術(shù),但其中一個很大的子集是機器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)。
    發(fā)表于 10-24 17:22 ?2978次閱讀
    人工智能、<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別

    2024 年 19 種最佳大型語言模型

    ,當時一篇題為“通過聯(lián)合學(xué)習(xí)對齊和翻譯的神經(jīng)機器翻譯”的研究論文中引入了注意力機制(一種旨在模仿人類認知注意力的機器學(xué)習(xí)技術(shù))。2017年,
    的頭像 發(fā)表于 08-30 12:56 ?990次閱讀
    2024 年 19 種<b class='flag-5'>最佳</b>大型語言模型

    【「時間序列與機器學(xué)習(xí)」閱讀體驗】+ 簡單建議

    這本書以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時間序列分析與機器學(xué)習(xí)融合應(yīng)用的宏偉藍圖。作者不僅扎實地構(gòu)建了時間序列分析的基礎(chǔ)知識,更巧妙地展示了機器學(xué)習(xí)如何在這一領(lǐng)域發(fā)揮巨
    發(fā)表于 08-12 11:21