99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí):簡(jiǎn)單的術(shù)語(yǔ)帶你領(lǐng)略貝葉斯優(yōu)化之美

454398 ? 來(lái)源:機(jī)器之心 ? 作者:機(jī)器之心翻譯 ? 2020-10-12 15:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

貝葉斯優(yōu)化是機(jī)器學(xué)習(xí)超參數(shù)優(yōu)化的常用技術(shù)之一,本文不會(huì)使用艱深的數(shù)學(xué)論證,而是通過(guò)簡(jiǎn)單的術(shù)語(yǔ)帶你領(lǐng)略貝葉斯優(yōu)化之美。

假設(shè)有一個(gè)函數(shù) f(x)。其計(jì)算成本很高,它不一定是分析表達(dá)式,而且你不知道它的導(dǎo)數(shù)。

你的任務(wù):找到全局最小值。

當(dāng)然,這是一個(gè)困難的任務(wù),而且難度超過(guò)機(jī)器學(xué)習(xí)領(lǐng)域內(nèi)的其它優(yōu)化問(wèn)題。梯度下降就是一種解決方案,它能通過(guò)函數(shù)的導(dǎo)數(shù),利用數(shù)學(xué)捷徑來(lái)實(shí)現(xiàn)更快的表達(dá)式評(píng)估。

或者,在某些優(yōu)化場(chǎng)景中,函數(shù)的評(píng)估成本較低。如果你能在幾秒內(nèi)得到輸入 x 的變體的數(shù)百種結(jié)果,那么使用簡(jiǎn)單的網(wǎng)格搜索就能得到很好的結(jié)果。

或者,你還可以使用一整套非常規(guī)的非梯度優(yōu)化方法,比如粒子群或模擬退火。

不幸的是,當(dāng)前的任務(wù)沒(méi)有這樣的便利。我們的優(yōu)化受到了多個(gè)方面的限制,其中最顯著的包括:

計(jì)算成本高。理想情況下,只要我們查詢函數(shù)的次數(shù)足夠多,我們就能在實(shí)質(zhì)上將它復(fù)現(xiàn)出來(lái),但在實(shí)際情況下,輸入的采樣很有限,優(yōu)化方法必須在這種情況下也能有效工作。

導(dǎo)數(shù)未知。在深度學(xué)習(xí)以及其它一些機(jī)器學(xué)習(xí)算法中,梯度下降及其變體方法依然是最常用的方法,這當(dāng)然是有原因的。知道了導(dǎo)數(shù),能讓優(yōu)化器獲得一定的方向感——我們沒(méi)有這種方向感。

我們需要找到全局最小值,這個(gè)任務(wù)即使對(duì)于梯度下降這種復(fù)雜精細(xì)的方法來(lái)說(shuō)也很困難。我們的模型有時(shí)需要某種機(jī)制來(lái)避免被困于局部最小值。

解決方案:針對(duì)以最少的步驟尋找全局最小值的問(wèn)題,貝葉斯優(yōu)化是一個(gè)優(yōu)雅的框架。

我們來(lái)構(gòu)建一個(gè)假設(shè)的示例函數(shù) c(x),即一個(gè)模型在給定輸入 x 下的成本。當(dāng)然,這個(gè)函數(shù)的實(shí)際情況對(duì)優(yōu)化器來(lái)說(shuō)是未知的。假設(shè) c(x) 的實(shí)際形狀如下:這就是所謂的「目標(biāo)函數(shù)」。

貝葉斯優(yōu)化可通過(guò)一種名為「代理優(yōu)化(surrogate optimization)」的方法解決這一問(wèn)題。在語(yǔ)境中,代理母親(代孕媽媽)是指同意為其他人生小孩的女人。基于同樣的語(yǔ)境,代理函數(shù)是指目標(biāo)函數(shù)的一種近似。

代理函數(shù)可基于采樣得到的數(shù)據(jù)點(diǎn)而構(gòu)建。

我們可以根據(jù)代理函數(shù)來(lái)識(shí)別哪些點(diǎn)是有潛力的最小值。然后我們?cè)谶@些有潛力的區(qū)域執(zhí)行更多采樣,然后據(jù)此更新代理函數(shù)。

在每一次迭代中,我們都要繼續(xù)觀察當(dāng)前的代理函數(shù),通過(guò)采樣對(duì)相關(guān)區(qū)域有更多了解,然后更新函數(shù)。注意,代理函數(shù)可表示成評(píng)估成本低得多的數(shù)學(xué)形式(比如用 y=x 近似表示一個(gè)成本更高的函數(shù) y=arcsin((1-cos2x)/sin x) 的某個(gè)特定范圍)。

經(jīng)過(guò)一定數(shù)量的迭代之后,我們的目標(biāo)是抵達(dá)全局最小值,除非該函數(shù)的形狀非常古怪(比如其中有大量大起大落的部分),這時(shí)候你就要問(wèn)自己了:是不是數(shù)據(jù)有問(wèn)題?

我們先來(lái)欣賞一下這種方法的美妙之處。它不會(huì)對(duì)函數(shù)做出任何假設(shè)(只要它是可優(yōu)化的既可)、不需要導(dǎo)數(shù)的相關(guān)信息、可通過(guò)巧妙地使用不斷更新的近似函數(shù)來(lái)執(zhí)行常識(shí)推理。對(duì)原本的目標(biāo)函數(shù)的高成本估計(jì)也不再是問(wèn)題。

這是一種基于代理的優(yōu)化方法。但它的貝葉斯性質(zhì)體現(xiàn)在哪里?

貝葉斯統(tǒng)計(jì)和建模和本質(zhì)是基于新信息先驗(yàn)(之前的)信念,然后得到更新后的后驗(yàn)(之后的)信念。這里的代理優(yōu)化就是這樣工作的,使得其能通過(guò)貝葉斯系統(tǒng)、公式和思想很好地表示。

我們來(lái)更仔細(xì)地看看這個(gè)代理函數(shù),其通常表示成高斯過(guò)程,這可被看作是一種擲骰子過(guò)程,返回的是與給定數(shù)據(jù)點(diǎn)擬合的函數(shù)(比如 sin 或 log),而不是數(shù)字 1 到 6. 這個(gè)過(guò)程會(huì)返回若干函數(shù)以及它們各自的概率。

左圖:基于 4 個(gè)數(shù)據(jù)點(diǎn)生成的幾個(gè)基于高斯過(guò)程的函數(shù);右圖:將這些函數(shù)聚合之后。

Oscar Knagg 這篇文章直觀地介紹了高斯過(guò)程的工作方式:https://towardsdatascience.com/an-intuitive-guide-to-gaussian-processes-ec2f0b45c71d

為什么要使用高斯過(guò)程來(lái)建模代理函數(shù),而不是使用其它曲線擬合方法?這是因?yàn)楦咚惯^(guò)程本質(zhì)上就是貝葉斯模式的。高斯過(guò)程是一種概率分布,就像一個(gè)事件的最終結(jié)果分布一樣(比如擲硬幣的 1/2 概率),只不過(guò)高斯過(guò)程是在所有可能的函數(shù)上的分布。

舉個(gè)例子,我們也許可以定義當(dāng)前的數(shù)據(jù)點(diǎn)集可由函數(shù) a(x) 表示 40%、由函數(shù) b(x) 表示 10% 等等。通過(guò)將代理函數(shù)表示成概率分布,可使用新信息,通過(guò)固有的概率貝葉斯過(guò)程來(lái)完成更新。也許當(dāng)新信息被引入時(shí),a(x) 函數(shù)又只能表示 20% 的數(shù)據(jù)了。這樣的變化受貝葉斯公式的約束。

這會(huì)使得類似于新數(shù)據(jù)點(diǎn)的多項(xiàng)式回歸擬合這樣的目標(biāo)難以完成甚至不可能完成。

表示成先驗(yàn)概率分布的代理函數(shù)會(huì)通過(guò)一個(gè)「獲取函數(shù)(acquisition function)」而更新。這個(gè)函數(shù)負(fù)責(zé)在探索與利用權(quán)衡的基礎(chǔ)上,對(duì)提議的新點(diǎn)進(jìn)行測(cè)試。

利用的目標(biāo)是采樣代理模型能很好地預(yù)測(cè)目標(biāo)函數(shù)的地方。這會(huì)用到已知的有潛力的位置。但是,如果我們已經(jīng)充分探索了某個(gè)特定的區(qū)域,再繼續(xù)利用已知信息也收益不大了。

探索的目標(biāo)是采樣不確定度較高的位置。這能確??臻g中不留下未探索的主要區(qū)域——全局最小值可能就藏在此處。

太過(guò)重視利用而不太重視探索的獲取函數(shù)會(huì)讓模型駐留于其發(fā)現(xiàn)的第一個(gè)最小值(通常是局部最小值)。反過(guò)來(lái),重探索而輕利用的獲取函數(shù)則一開(kāi)始就不會(huì)留在某個(gè)最小值,不管是局部最小值還是全局最小值。因此,為了得到很好的結(jié)果,需要達(dá)到微妙精巧的平衡。

獲取函數(shù) a(x) 必須兼顧探索和利用。常見(jiàn)的獲取函數(shù)包括預(yù)期提升和提升的最大可能性,所有這些衡量的都是給定有關(guān)先驗(yàn)(高斯過(guò)程)的信息下,一個(gè)特定輸入在未來(lái)產(chǎn)生回報(bào)的概率。

我們歸總一下這些知識(shí)點(diǎn)。貝葉斯優(yōu)化的執(zhí)行方式為:

初始化一個(gè)高斯過(guò)程「代理函數(shù)」先驗(yàn)分布。

選擇幾個(gè)數(shù)據(jù)點(diǎn) x 使得獲取函數(shù) a(x) 在當(dāng)前先驗(yàn)分布上的結(jié)果是最大的。

在目標(biāo)成本函數(shù) c(x) 中評(píng)估數(shù)據(jù)點(diǎn) x 并獲取其結(jié)果 y。

使用新數(shù)據(jù)更新高斯過(guò)程先驗(yàn)分布,得到一個(gè)后驗(yàn)分布(這將作為下一步的先驗(yàn)分布)。

重復(fù)第 2-5 步并多次迭代。

解讀當(dāng)前的高斯過(guò)程分布(成本很低),找到全局最小值。

貝葉斯優(yōu)化的核心是將概率思想融入到代理優(yōu)化思想之中。這兩種思想組合到一起,能創(chuàng)造出一種強(qiáng)大的系統(tǒng)。該系統(tǒng)具有很多應(yīng)用場(chǎng)景,從醫(yī)藥產(chǎn)品開(kāi)發(fā)到自動(dòng)駕駛汽車。

不過(guò),貝葉斯優(yōu)化最常見(jiàn)的應(yīng)用領(lǐng)域還是機(jī)器學(xué)習(xí),尤其是超參數(shù)優(yōu)化任務(wù)。舉個(gè)例子,如果我們要訓(xùn)練一個(gè)梯度上升分類器,則會(huì)遇到幾十個(gè)超參數(shù),從學(xué)習(xí)率到最大深度再到最小不純度拆分值。在這里,x 表示模型的超參數(shù),c(x) 表示模型在給定超參數(shù) x 下的表現(xiàn)。

使用貝葉斯優(yōu)化的主要?jiǎng)訖C(jī)是:在有些場(chǎng)景中,評(píng)估輸出的成本非常高。首先,需要使用這些參數(shù)構(gòu)建一整個(gè)集成樹;其次,它們需要運(yùn)行并完成幾次預(yù)測(cè),這對(duì)于集成方法來(lái)說(shuō)成本高昂。

可以這樣說(shuō),在給定一組參數(shù)的條件下,使用神經(jīng)網(wǎng)絡(luò)來(lái)評(píng)估損失函數(shù)的速度更快:只是重復(fù)執(zhí)行矩陣乘法,這是非??斓?,尤其是使用專用計(jì)算硬件時(shí)。這是使用梯度下降的原因之一,也就是反復(fù)查詢以找到前進(jìn)的方向。

總結(jié)

代理優(yōu)化是使用一個(gè)代理函數(shù)或近似函數(shù)來(lái)通過(guò)采樣估計(jì)目標(biāo)函數(shù)。

貝葉斯優(yōu)化是通過(guò)將代理函數(shù)表示成概率分布而將代理優(yōu)化放入一個(gè)概率框架中,然后再使用新信息更新這個(gè)分布。

獲取函數(shù)則是用于基于已知的先驗(yàn),評(píng)估利用空間中的某個(gè)特定點(diǎn)得到「好」結(jié)果的概率。其關(guān)鍵在于探索與利用的平衡。

貝葉斯優(yōu)化的主要使用場(chǎng)景是目標(biāo)函數(shù)評(píng)估成本高的任務(wù),比如超參數(shù)調(diào)節(jié)。有一些用于該任務(wù)的軟件庫(kù),比如 HyperOpt。
編輯:hfy

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4381

    瀏覽量

    64898
  • 貝葉斯
    +關(guān)注

    關(guān)注

    0

    文章

    77

    瀏覽量

    12766
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134635
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)的樸素講解

    秦剛剛的機(jī)器學(xué)習(xí)成長(zhǎng)之路樸素
    發(fā)表于 05-15 14:41

    六大步驟學(xué)習(xí)算法

    學(xué)習(xí)算法的五個(gè)步驟
    發(fā)表于 07-16 16:57

    樸素法的優(yōu)缺點(diǎn)

    樸素法(1) 基礎(chǔ)概念
    發(fā)表于 08-05 11:32

    樸素法的惡意留言過(guò)濾

    樸素法(2) 惡意留言過(guò)濾
    發(fā)表于 08-26 14:40

    使用PyMC3包實(shí)現(xiàn)線性回歸

    分布。這個(gè)方法相當(dāng)復(fù)雜,原理方面我們這里不做詳細(xì)描述,這里只說(shuō)明一些簡(jiǎn)單的概念,為什么使用MCMC呢?  頻率主義和回歸方法之間的關(guān)鍵區(qū)別在于他們?nèi)绾翁幚韰?shù)。在頻率統(tǒng)計(jì)中,線性
    發(fā)表于 10-08 15:59

    網(wǎng)絡(luò)分析

    網(wǎng)絡(luò)
    發(fā)表于 03-31 10:40 ?2次下載

    機(jī)器學(xué)習(xí)樸素應(yīng)用教程

    今天介紹機(jī)器學(xué)習(xí)中一種基于概率的常見(jiàn)的分類方法,樸素,之前介紹的KNN, decision tree 等方法是一種 hard deci
    發(fā)表于 11-25 12:49 ?1470次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>之</b>樸素<b class='flag-5'>貝</b><b class='flag-5'>葉</b><b class='flag-5'>斯</b>應(yīng)用教程

    如何理解公式

    前言 大家經(jīng)??吹降?b class='flag-5'>貝公式(Bayes)是寫成如下圖的形式,通常以P(A|B),P(B|A)的形式表示,雖然數(shù)學(xué)上看著簡(jiǎn)單,那到底A,B是什么意思,應(yīng)該怎么去理解呢,然后怎么運(yùn)用于
    發(fā)表于 02-02 14:13 ?4351次閱讀
    如何理解<b class='flag-5'>貝</b><b class='flag-5'>葉</b><b class='flag-5'>斯</b>公式

    基于概率的常見(jiàn)的分類方法--樸素

    本文介紹機(jī)器學(xué)習(xí)中一種基于概率的常見(jiàn)的分類方法,樸素,之前介紹的KNN, decision tree 等方法是一種 hard deci
    的頭像 發(fā)表于 02-03 14:37 ?5558次閱讀
    基于概率的常見(jiàn)的分類方法--樸素<b class='flag-5'>貝</b><b class='flag-5'>葉</b><b class='flag-5'>斯</b>

    機(jī)器學(xué)習(xí)樸素

    學(xué)習(xí)過(guò)概率的人一定知道貝葉斯定理,在信息領(lǐng)域內(nèi)有著無(wú)與倫比的地位。算法是基于貝葉斯定理的一類算法,主要用來(lái)解決分類和回歸問(wèn)題。人工智能
    發(fā)表于 05-29 09:01 ?1024次閱讀

    統(tǒng)計(jì)的一個(gè)實(shí)踐案例讓你更快的對(duì)算法有更多的了解

    為了大家可以對(duì)算法有更多的了解,為大家整理過(guò)一篇關(guān)于算法的文章。今天將為大家介紹利用
    的頭像 發(fā)表于 07-16 17:15 ?1.5w次閱讀

    帶你入門常見(jiàn)的機(jī)器學(xué)習(xí)分類算法——邏輯回歸、樸素、KNN、SVM、決策樹

    樸素方法是一組基于貝葉斯定理的監(jiān)督學(xué)習(xí)算法,在給定類變量值的情況下,樸素假設(shè)每對(duì)特征之間存在條件獨(dú)立性。下面我將介紹幾種樸素
    的頭像 發(fā)表于 05-06 09:29 ?1.1w次閱讀

    一文秒懂優(yōu)化/Bayesian Optimization

    ,大神/優(yōu)化專家們求輕噴,覺(jué)得不錯(cuò)的記得幫點(diǎn)贊/在看/轉(zhuǎn)發(fā)幫擴(kuò)散哦!謝謝。 梳理這個(gè)問(wèn)題有這么兩個(gè)原因: 1、在工業(yè)界,最近我看到不少同學(xué)在探索并使用
    的頭像 發(fā)表于 04-09 11:26 ?1.7w次閱讀
    一文秒懂<b class='flag-5'>貝</b><b class='flag-5'>葉</b><b class='flag-5'>斯</b><b class='flag-5'>優(yōu)化</b>/Bayesian Optimization

    PyTorch教程22.9樸素

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程22.9樸素.pdf》資料免費(fèi)下載
    發(fā)表于 06-06 09:22 ?0次下載
    PyTorch教程22.9<b class='flag-5'>之</b>樸素<b class='flag-5'>貝</b><b class='flag-5'>葉</b><b class='flag-5'>斯</b>

    濾波和卡爾曼濾波的區(qū)別

    濾波和卡爾曼濾波是兩種常用的濾波方法,它們?cè)谛盘?hào)處理、導(dǎo)航、機(jī)器人定位等領(lǐng)域有著廣泛的應(yīng)用。
    的頭像 發(fā)表于 08-01 15:25 ?1412次閱讀