99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)算法中的知識(shí)分類

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來源:Datawhale干貨 ? 作者:Datawhale干貨 ? 2020-10-22 11:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Datawhale干貨譯者:張峰,Datawhale成員

本文將介紹機(jī)器學(xué)習(xí)算法中非常重要的知識(shí)—分類(classification),即找一個(gè)函數(shù)判斷輸入數(shù)據(jù)所屬的類別,可以是二類別問題(是/不是),也可以是多類別問題(在多個(gè)類別中判斷輸入數(shù)據(jù)具體屬于哪一個(gè)類別)。與回歸問題(regression)相比,分類問題的輸出不再是連續(xù)值,而是離散值,用來指定其屬于哪個(gè)類別。分類問題在現(xiàn)實(shí)中應(yīng)用非常廣泛,比如垃圾郵件識(shí)別,手寫數(shù)字識(shí)別,人臉識(shí)別,語(yǔ)音識(shí)別等。

一、指定閾值

邏輯回歸返回的是概率。你可以“原樣”使用返回的概率(例如,用戶點(diǎn)擊此廣告的概率為 0.00023),也可以將返回的概率轉(zhuǎn)換成二元值(例如,這封電子郵件是垃圾郵件)。

如果某個(gè)邏輯回歸模型對(duì)某封電子郵件進(jìn)行預(yù)測(cè)時(shí)返回的概率為 0.9995,則表示該模型預(yù)測(cè)這封郵件非??赡苁抢]件。相反,在同一個(gè)邏輯回歸模型中預(yù)測(cè)分?jǐn)?shù)為 0.0003 的另一封電子郵件很可能不是垃圾郵件??扇绻撤怆娮余]件的預(yù)測(cè)分?jǐn)?shù)為 0.6 呢?為了將邏輯回歸值映射到二元類別,你必須指定分類閾值(也稱為判定閾值)。如果值高于該閾值,則表示“垃圾郵件”;如果值低于該閾值,則表示“非垃圾郵件”。人們往往會(huì)認(rèn)為分類閾值應(yīng)始終為 0.5,但閾值取決于具體問題,因此你必須對(duì)其進(jìn)行調(diào)整。

我們將在后面的部分中詳細(xì)介紹可用于對(duì)分類模型的預(yù)測(cè)進(jìn)行評(píng)估的指標(biāo),以及更改分類閾值對(duì)這些預(yù)測(cè)的影響。

注意:

“調(diào)整”邏輯回歸的閾值不同于調(diào)整學(xué)習(xí)速率等超參數(shù)。在選擇閾值時(shí),需要評(píng)估你將因犯錯(cuò)而承擔(dān)多大的后果。例如,將非垃圾郵件誤標(biāo)記為垃圾郵件會(huì)非常糟糕。不過,雖然將垃圾郵件誤標(biāo)記為非垃圾郵件會(huì)令人不快,但應(yīng)該不會(huì)讓你丟掉工作。

二、陽(yáng)性與陰性以及正類別與負(fù)類別

在本部分,我們將定義用于評(píng)估分類模型指標(biāo)的主要組成部分先。不妨,我們從一則寓言故事開始:

伊索寓言:狼來了(精簡(jiǎn)版)有一位牧童要照看鎮(zhèn)上的羊群,但是他開始厭煩這份工作。為了找點(diǎn)樂子,他大喊道:“狼來了!”其實(shí)根本一頭狼也沒有出現(xiàn)。村民們迅速跑來保護(hù)羊群,但他們發(fā)現(xiàn)這個(gè)牧童是在開玩笑后非常生氣。(這樣的情形重復(fù)出現(xiàn)了很多次。)

一天晚上,牧童看到真的有一頭狼靠近羊群,他大聲喊道:“狼來了!”村民們不想再被他捉弄,都待在家里不出來。這頭饑餓的狼對(duì)羊群大開殺戒,美美飽餐了一頓。這下子,整個(gè)鎮(zhèn)子都揭不開鍋了??只乓搽S之而來。

我們做出以下定義:

“狼來了”是正類別。

“沒有狼”是負(fù)類別。

我們可以使用一個(gè) 2x2的混淆矩陣來總結(jié)我們的“狼預(yù)測(cè)”模型,該矩陣描述了所有可能出現(xiàn)的結(jié)果(共四種):

真正例是指模型將正類別樣本正確地預(yù)測(cè)為正類別。同樣,真負(fù)例是指模型將負(fù)類別樣本正確地預(yù)測(cè)為負(fù)類別。

假正例是指模型將負(fù)類別樣本錯(cuò)誤地預(yù)測(cè)為正類別,而假負(fù)例是指模型將正類別樣本錯(cuò)誤地預(yù)測(cè)為負(fù)類別。

在后面的部分中,我們將介紹如何使用從這四種結(jié)果中衍生出的指標(biāo)來評(píng)估分類模型。

三、準(zhǔn)確率

準(zhǔn)確率是一個(gè)用于評(píng)估分類模型的指標(biāo)。通俗來說,準(zhǔn)確率是指我們的模型預(yù)測(cè)正確的結(jié)果所占的比例。正式點(diǎn)說,準(zhǔn)確率的定義如下:

對(duì)于二元分類,也可以根據(jù)正類別和負(fù)類別按如下方式計(jì)算準(zhǔn)確率:

其中,TP = 真正例,TN = 真負(fù)例,F(xiàn)P = 假正例,F(xiàn)N = 假負(fù)例。讓我們來試著計(jì)算一下以下模型的準(zhǔn)確率,該模型將 100 個(gè)腫瘤分為惡性 (正類別)或良性(負(fù)類別):

準(zhǔn)確率為 0.91,即 91%(總共 100 個(gè)樣本中有 91 個(gè)預(yù)測(cè)正確)。這表示我們的腫瘤分類器在識(shí)別惡性腫瘤方面表現(xiàn)得非常出色,對(duì)吧?

實(shí)際上,只要我們仔細(xì)分析一下正類別和負(fù)類別,就可以更好地了解我們模型的效果。

在 100 個(gè)腫瘤樣本中,91 個(gè)為良性(90 個(gè) TN 和 1 個(gè) FP),9 個(gè)為惡性(1 個(gè) TP 和 8 個(gè) FN)。

在 91 個(gè)良性腫瘤中,該模型將 90 個(gè)正確識(shí)別為良性。這很好。不過,在 9 個(gè)惡性腫瘤中,該模型僅將 1 個(gè)正確識(shí)別為惡性。這是多么可怕的結(jié)果!9 個(gè)惡性腫瘤中有 8 個(gè)未被診斷出來!

雖然 91% 的準(zhǔn)確率可能乍一看還不錯(cuò),但如果另一個(gè)腫瘤分類器模型總是預(yù)測(cè)良性,那么這個(gè)模型使用我們的樣本進(jìn)行預(yù)測(cè)也會(huì)實(shí)現(xiàn)相同的準(zhǔn)確率(100 個(gè)中有 91 個(gè)預(yù)測(cè)正確)。換言之,我們的模型與那些沒有預(yù)測(cè)能力來區(qū)分惡性腫瘤和良性腫瘤的模型差不多。

當(dāng)你使用分類不平衡的數(shù)據(jù)集(比如正類別標(biāo)簽和負(fù)類別標(biāo)簽的數(shù)量之間存在明顯差異)時(shí),單單準(zhǔn)確率一項(xiàng)并不能反映全面情況。

在下一部分中,我們將介紹兩個(gè)能夠更好地評(píng)估分類不平衡問題的指標(biāo):精確率和召回率。

學(xué)習(xí)理解

在以下哪種情況下,高的準(zhǔn)確率值表示機(jī)器學(xué)習(xí)模型表現(xiàn)出色?

一只造價(jià)昂貴的機(jī)器雞每天要穿過一條交通繁忙的道路一千次。某個(gè)機(jī)器學(xué)習(xí)模型評(píng)估交通模式,預(yù)測(cè)這只雞何時(shí)可以安全穿過街道,準(zhǔn)確率為 99.99%。

一種致命但可治愈的疾病影響著 0.01% 的人群。某個(gè)機(jī)器學(xué)習(xí)模型使用其癥狀作為特征,預(yù)測(cè)這種疾病的準(zhǔn)確率為 99.99%。

在 roulette 游戲中,一只球會(huì)落在旋轉(zhuǎn)輪上,并且最終落入 38 個(gè)槽的其中一個(gè)內(nèi)。某個(gè)機(jī)器學(xué)習(xí)模型可以使用視覺特征(球的旋轉(zhuǎn)方式、球落下時(shí)旋轉(zhuǎn)輪所在的位置、球在旋轉(zhuǎn)輪上方的高度)預(yù)測(cè)球會(huì)落入哪個(gè)槽中,準(zhǔn)確率為 4%。

四、精確率和召回率

4.1 精確率

精確率指標(biāo)嘗試回答以下問題:在被識(shí)別為正類別的樣本中,確實(shí)為正類別的比例是多少?

精確率的定義如下:

注意:如果模型的預(yù)測(cè)結(jié)果中沒有假正例,則模型的精確率為 1.0。

讓我們來計(jì)算一下上一部分中用于分析腫瘤的機(jī)器學(xué)習(xí)模型的精確率:

該模型的精確率為 0.5,也就是說,該模型在預(yù)測(cè)惡性腫瘤方面的正確率是 50%。

4.2 召回率

召回率嘗試回答以下問題:在所有正類別樣本中,被正確識(shí)別為正類別的比例是多少?

從數(shù)學(xué)上講,召回率的定義如下:

注意:如果模型的預(yù)測(cè)結(jié)果中沒有假負(fù)例,則模型的召回率為 1.0。

讓我們來計(jì)算一下腫瘤分類器的召回率:

該模型的召回率是 0.11,也就是說,該模型能夠正確識(shí)別出所有惡性腫瘤的百分比是 11%。

4.3 精確率和召回率:一場(chǎng)拔河比賽

要全面評(píng)估模型的有效性,必須同時(shí)檢查精確率和召回率。遺憾的是,精確率和召回率往往是此消彼長(zhǎng)的情況。也就是說,提高精確率通常會(huì)降低召回率值,反之亦然。請(qǐng)觀察下圖來了解這一概念,該圖顯示了電子郵件分類模型做出的 30 項(xiàng)預(yù)測(cè)。分類閾值右側(cè)的被歸類為“垃圾郵件”,左側(cè)的則被歸類為“非垃圾郵件”。

圖 1. 將電子郵件歸類為垃圾郵件或非垃圾郵件

我們根據(jù)圖 1 所示的結(jié)果來計(jì)算精確率和召回率值:

精確率指的是被標(biāo)記為垃圾郵件的電子郵件中正確分類的電子郵件所占的百分比,即圖 1 中閾值線右側(cè)的綠點(diǎn)所占的百分比:

召回率指的是實(shí)際垃圾郵件中正確分類的電子郵件所占的百分比,即圖 1 中閾值線右側(cè)的綠點(diǎn)所占的百分比:

圖 2 顯示了提高分類閾值產(chǎn)生的效果。

圖2. 提高分類閾值

假正例數(shù)量會(huì)減少,但假負(fù)例數(shù)量會(huì)相應(yīng)地增加。結(jié)果,精確率有所提高,而召回率則有所降低:

相反,圖 3 顯示了降低分類閾值(從圖 1 中的初始位置開始)產(chǎn)生的效果。

圖 3.降低分類閾值

假正例數(shù)量會(huì)增加,而假負(fù)例數(shù)量會(huì)減少。結(jié)果這一次,精確率有所降低,而召回率則有所提高:

我們已根據(jù)精確率和召回率指標(biāo)制定了各種指標(biāo)。有關(guān)示例,請(qǐng)參閱 F1 值。

學(xué)習(xí)理解

讓我們以一種將電子郵件分為“垃圾郵件”或“非垃圾郵件”這兩種類別的分類模型為例。如果提高分類閾值,精確率會(huì)怎樣?

可能會(huì)提高。

一定會(huì)提高。

一定會(huì)降低。

可能會(huì)降低。

讓我們以一種將電子郵件分為“垃圾郵件”或“非垃圾郵件”這兩種類別的分類模型為例。如果提高分類閾值,召回率會(huì)怎樣?

始終下降或保持不變。

始終保持不變。

一定會(huì)提高。

以兩個(gè)模型(A 和 B)為例,這兩個(gè)模型分別對(duì)同一數(shù)據(jù)集進(jìn)行評(píng)估。以下哪一項(xiàng)陳述屬實(shí)?

如果模型 A 的精確率優(yōu)于模型 B,則模型 A 更好。

如果模型 A 的精確率和召回率均優(yōu)于模型 B,則模型 A 可能更好。

如果模型 A 的召回率優(yōu)于模型 B,則模型 A 更好。

五、ROC 和 AUC

5.1 ROC 曲線

ROC 曲線(接收者操作特征曲線)是一種顯示分類模型在所有分類閾值下的效果圖表。該曲線繪制了以下兩個(gè)參數(shù):

真正例率

假正例率

真正例率(TPR) 是召回率的同義詞,因此定義如下:

假正例率(FPR) 的定義如下:

ROC 曲線用于繪制采用不同分類閾值時(shí)的 TPR 與 FPR。降低分類閾值會(huì)導(dǎo)致將更多樣本歸為正類別,從而增加假正例和真正例的個(gè)數(shù)。下圖顯示了一個(gè)典型的 ROC 曲線。

圖 4. 不同分類閾值下的 TP 率與 FP 率

為了計(jì)算 ROC 曲線上的點(diǎn),我們可以使用不同的分類閾值多次評(píng)估邏輯回歸模型,但這樣做效率非常低。幸運(yùn)的是,有一種基于排序的高效算法可以為我們提供此類信息,這種算法稱為曲線下面積。

5.2 曲線下面積:ROC 曲線下面積

曲線下面積表示“ROC 曲線下面積”。也就是說,曲線下面積測(cè)量的是從 (0,0) 到 (1,1) 之間整個(gè) ROC 曲線以下的整個(gè)二維面積(參考積分學(xué))。

圖 5. 曲線下面積(ROC 曲線下面積)

曲線下面積對(duì)所有可能的分類閾值的效果進(jìn)行綜合衡量。曲線下面積的一種解讀方式是看作模型將某個(gè)隨機(jī)正類別樣本排列在某個(gè)隨機(jī)負(fù)類別樣本之上的概率。以下面的樣本為例,邏輯回歸預(yù)測(cè)從左到右以升序排列:

圖 6. 預(yù)測(cè)按邏輯回歸分?jǐn)?shù)以升序排列

曲線下面積表示隨機(jī)正類別(綠色)樣本位于隨機(jī)負(fù)類別(紅色)樣本右側(cè)的概率。

曲線下面積的取值范圍為 0-1。預(yù)測(cè)結(jié)果 100% 錯(cuò)誤的模型的曲線下面積為 0.0;而預(yù)測(cè)結(jié)果 100% 正確的模型的曲線下面積為 1.0。

曲線下面積因以下兩個(gè)原因而比較實(shí)用:

曲線下面積的尺度不變。它測(cè)量預(yù)測(cè)的排名情況,而不是測(cè)量其絕對(duì)值。

曲線下面積的分類閾值不變。它測(cè)量模型預(yù)測(cè)的質(zhì)量,而不考慮所選的分類閾值。

不過,這兩個(gè)原因都有各自的局限性,這可能會(huì)導(dǎo)致曲線下面積在某些用例中不太實(shí)用:

并非總是希望尺度不變。例如,有時(shí)我們非常需要被良好校準(zhǔn)的概率輸出,而曲線下面積無法告訴我們這一結(jié)果。

并非總是希望分類閾值不變。在假負(fù)例與假正例的代價(jià)存在較大差異的情況下,盡量減少一種類型的分類錯(cuò)誤可能至關(guān)重要。例如,在進(jìn)行垃圾郵件檢測(cè)時(shí),你可能希望優(yōu)先考慮盡量減少假正例(即使這會(huì)導(dǎo)致假負(fù)例大幅增加)。對(duì)于此類優(yōu)化,曲線下面積并非一個(gè)實(shí)用的指標(biāo)。

學(xué)習(xí)理解

以下哪條 ROC 曲線可產(chǎn)生大于 0.5 的 AUC 值?

將給定模型的所有預(yù)測(cè)結(jié)果都乘以 2.0(例如,如果模型預(yù)測(cè)的結(jié)果為 0.4,我們將其乘以 2.0 得到 0.8),會(huì)使按 AUC 衡量的模型效果產(chǎn)生何種變化?

這會(huì)使 AUC 變得更好,因?yàn)轭A(yù)測(cè)值之間相差都很大。

沒有變化。AUC 只關(guān)注相對(duì)預(yù)測(cè)分?jǐn)?shù)。

這會(huì)使 AUC 變得很糟糕,因?yàn)轭A(yù)測(cè)值現(xiàn)在相差太大。

六、預(yù)測(cè)偏差

邏輯回歸預(yù)測(cè)應(yīng)當(dāng)無偏差。即:

預(yù)測(cè)偏差指的是這兩個(gè)平均值之間的差值。即:

預(yù)測(cè)偏差=預(yù)測(cè)平均值?數(shù)據(jù)集中相應(yīng)標(biāo)簽的平均值

注意:“預(yù)測(cè)偏差”與偏差(“wx + b”中的“b”)不是一回事。

如果出現(xiàn)非常高的非零預(yù)測(cè)偏差,則說明模型某處存在錯(cuò)誤,因?yàn)檫@表明模型對(duì)正類別標(biāo)簽的出現(xiàn)頻率預(yù)測(cè)有誤。

例如,假設(shè)我們知道,所有電子郵件中平均有 1% 的郵件是垃圾郵件。如果我們對(duì)某一封給定電子郵件一無所知,則預(yù)測(cè)它是垃圾郵件的可能性為 1%。同樣,一個(gè)出色的垃圾郵件模型應(yīng)該預(yù)測(cè)到電子郵件平均有 1% 的可能性是垃圾郵件。(換言之,如果我們計(jì)算單個(gè)電子郵件是垃圾郵件的預(yù)測(cè)可能性的平均值,則結(jié)果應(yīng)該是 1%。)然而,如果該模型預(yù)測(cè)電子郵件是垃圾郵件的平均可能性為 20%,那么我們可以得出結(jié)論,該模型出現(xiàn)了預(yù)測(cè)偏差。

造成預(yù)測(cè)偏差的可能原因包括:

特征集不完整

數(shù)據(jù)集混亂

模型實(shí)現(xiàn)流水線中有錯(cuò)誤

訓(xùn)練樣本有偏差

正則化過強(qiáng)

你可能會(huì)通過對(duì)學(xué)習(xí)模型進(jìn)行后期處理來糾正預(yù)測(cè)偏差,即通過添加校準(zhǔn)層來調(diào)整模型的輸出,從而減小預(yù)測(cè)偏差。例如,如果你的模型存在 3% 以上的偏差,則可以添加一個(gè)校準(zhǔn)層,將平均預(yù)測(cè)偏差降低 3%。但是,添加校準(zhǔn)層并非良策,具體原因如下:

你修復(fù)的是癥狀,而不是原因。

你建立了一個(gè)更脆弱的系統(tǒng),并且必須持續(xù)更新。

使用校準(zhǔn)層來修復(fù)模型的所有錯(cuò)誤。

如果可能的話,請(qǐng)避免添加校準(zhǔn)層。使用校準(zhǔn)層的項(xiàng)目往往會(huì)對(duì)其產(chǎn)生依賴

最終,維護(hù)校準(zhǔn)層可能會(huì)令人苦不堪言。

注意:出色模型的偏差通常接近于零。即便如此,預(yù)測(cè)偏差低并不能證明你的模型比較出色。特別糟糕的模型的預(yù)測(cè)偏差也有可能為零。例如,只能預(yù)測(cè)所有樣本平均值的模型是糟糕的模型,盡管其預(yù)測(cè)偏差為零。

七、分桶偏差和預(yù)測(cè)偏差

邏輯回歸可預(yù)測(cè) 0 到 1 之間的值。不過,所有帶標(biāo)簽樣本都正好是 0(例如,0 表示“非垃圾郵件”)或 1(例如,1 表示“垃圾郵件”)。因此,在檢查預(yù)測(cè)偏差時(shí),你無法僅根據(jù)一個(gè)樣本準(zhǔn)確地確定預(yù)測(cè)偏差;你必須在“一大桶”樣本中檢查預(yù)測(cè)偏差。也就是說,只有將足夠的樣本組合在一起以便能夠比較預(yù)測(cè)值(例如 0.392)與觀察值(例如 0.394),邏輯回歸的預(yù)測(cè)偏差才有意義。

你可以通過以下方式構(gòu)建桶:

以線性方式分解目標(biāo)預(yù)測(cè)。

構(gòu)建分位數(shù)。

請(qǐng)查看以下某個(gè)特定模型的校準(zhǔn)曲線。每個(gè)點(diǎn)表示包含 1000 個(gè)值的分桶。兩個(gè)軸具有以下含義:

x 軸表示模型針對(duì)該桶預(yù)測(cè)的平均值。

y 軸表示該桶的數(shù)據(jù)集中的實(shí)際平均值。

兩個(gè)軸均采用對(duì)數(shù)尺度。

圖 7. 預(yù)測(cè)偏差曲線

為什么只有模型的某些部分所做的預(yù)測(cè)如此糟糕?以下是幾種可能性:

訓(xùn)練集不能充分表示數(shù)據(jù)空間的某些子集。

數(shù)據(jù)集的某些子集比其他子集更混亂。

該模型過于正則化。(不妨減小 lamdba的值。)

原文標(biāo)題:機(jī)器學(xué)習(xí)算法中分類知識(shí)總結(jié)!

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4381

    瀏覽量

    64897
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134632

原文標(biāo)題:機(jī)器學(xué)習(xí)算法中分類知識(shí)總結(jié)!

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    FPGA在機(jī)器學(xué)習(xí)的具體應(yīng)用

    ,越來越多地被應(yīng)用于機(jī)器學(xué)習(xí)任務(wù)。本文將探討 FPGA 在機(jī)器學(xué)習(xí)的應(yīng)用,特別是在加速神經(jīng)網(wǎng)
    的頭像 發(fā)表于 07-16 15:34 ?422次閱讀

    任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進(jìn)來呢?

    以下是一些可以從容加入AI第四次工業(yè)革命的方法: 一、教育與學(xué)習(xí)方面 基礎(chǔ)理論學(xué)習(xí) 深入學(xué)習(xí)數(shù)學(xué)知識(shí),特別是線性代數(shù)、概率論與數(shù)理統(tǒng)計(jì)、微積分等。這些是AI
    發(fā)表于 07-08 17:44

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】視覺實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    人部署,詳細(xì)介紹了基于顏色閾值和深度學(xué)習(xí)的巡線方法。 二維碼識(shí)別則廣泛應(yīng)用于機(jī)器人定位與任務(wù)觸發(fā),例如AGV(自動(dòng)導(dǎo)引車)的路徑規(guī)劃。 深度學(xué)習(xí)機(jī)器人視覺
    發(fā)表于 05-03 19:41

    請(qǐng)問STM32部署機(jī)器學(xué)習(xí)算法硬件至少要使用哪個(gè)系列的芯片?

    STM32部署機(jī)器學(xué)習(xí)算法硬件至少要使用哪個(gè)系列的芯片?
    發(fā)表于 03-13 07:34

    xgboost在圖像分類的應(yīng)用

    和易用性,在各種機(jī)器學(xué)習(xí)任務(wù)得到了廣泛應(yīng)用,包括分類、回歸和排序問題。在圖像分類領(lǐng)域,盡管深度學(xué)習(xí)
    的頭像 發(fā)表于 01-19 11:16 ?1015次閱讀

    華為云 Flexus X 實(shí)例部署安裝 Jupyter Notebook,學(xué)習(xí) AI,機(jī)器學(xué)習(xí)算法

    前言 由于本人最近在學(xué)習(xí)一些機(jī)器算法,AI 算法知識(shí),需要搭建一個(gè)學(xué)習(xí)環(huán)境,所以就在最近購(gòu)買的
    的頭像 發(fā)表于 01-02 13:43 ?538次閱讀
    華為云 Flexus X 實(shí)例部署安裝 Jupyter Notebook,<b class='flag-5'>學(xué)習(xí)</b> AI,<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上一篇文章,我們介紹了機(jī)器學(xué)習(xí)的關(guān)鍵概念術(shù)語(yǔ)。在本文中,我們會(huì)介紹傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多
    的頭像 發(fā)表于 12-30 09:16 ?1192次閱讀
    傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    《具身智能機(jī)器人系統(tǒng)》第1-6章閱讀心得之具身智能機(jī)器人系統(tǒng)背景知識(shí)與基礎(chǔ)模塊

    搜索策略等規(guī)劃算法,強(qiáng)調(diào)了軌跡規(guī)劃需要考慮機(jī)器人的運(yùn)動(dòng)學(xué)約束。在軌跡規(guī)劃,機(jī)器人需要同時(shí)考慮最大曲率、加速度限制等物理約束,生成平滑可行的運(yùn)動(dòng)軌跡。強(qiáng)化
    發(fā)表于 12-19 22:26

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法是實(shí)現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對(duì)計(jì)算資源的需求也在不斷增長(zhǎng)。NPU作為一種專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-15 09:19 ?1224次閱讀

    主動(dòng)學(xué)習(xí)在圖像分類技術(shù)的應(yīng)用:當(dāng)前狀態(tài)與未來展望

    本文對(duì)近年來提出的主動(dòng)學(xué)習(xí)圖像分類算法進(jìn)行了詳細(xì)綜述,并根據(jù)所用樣本數(shù)據(jù)處理及模型優(yōu)化方案,將現(xiàn)有算法分為三類:基于數(shù)據(jù)增強(qiáng)的算法,包括利用
    的頭像 發(fā)表于 11-14 10:12 ?1281次閱讀
    主動(dòng)<b class='flag-5'>學(xué)習(xí)</b>在圖像<b class='flag-5'>分類</b>技術(shù)<b class='flag-5'>中</b>的應(yīng)用:當(dāng)前狀態(tài)與未來展望

    eda在機(jī)器學(xué)習(xí)的應(yīng)用

    機(jī)器學(xué)習(xí)項(xiàng)目中,數(shù)據(jù)預(yù)處理和理解是成功構(gòu)建模型的關(guān)鍵。探索性數(shù)據(jù)分析(EDA)是這一過程不可或缺的一部分。 1. 數(shù)據(jù)清洗 數(shù)據(jù)清洗 是機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 11-13 10:42 ?905次閱讀

    【每天學(xué)點(diǎn)AI】KNN算法:簡(jiǎn)單有效的機(jī)器學(xué)習(xí)分類

    過程,其實(shí)就是一個(gè)簡(jiǎn)單的分類問題,而KNN(K-NearestNeighbors)算法正是模仿這種人類決策過程的機(jī)器學(xué)習(xí)算法。|什么是KNN
    的頭像 發(fā)表于 10-31 14:09 ?846次閱讀
    【每天學(xué)點(diǎn)AI】KNN<b class='flag-5'>算法</b>:簡(jiǎn)單有效的<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>分類</b>器

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 鳥瞰這本書

    清晰,從時(shí)間序列分析的基礎(chǔ)理論出發(fā),逐步深入到機(jī)器學(xué)習(xí)算法在時(shí)間序列預(yù)測(cè)的應(yīng)用,內(nèi)容全面,循序漸進(jìn)。每一章都經(jīng)過精心設(shè)計(jì),對(duì)理論知識(shí)進(jìn)行了
    發(fā)表于 08-12 11:28

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 簡(jiǎn)單建議

    這本書以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時(shí)間序列分析與機(jī)器學(xué)習(xí)融合應(yīng)用的宏偉藍(lán)圖。作者不僅扎實(shí)地構(gòu)建了時(shí)間序列分析的基礎(chǔ)知識(shí),更巧妙地展示了機(jī)器
    發(fā)表于 08-12 11:21

    FPGA在人工智能的應(yīng)用有哪些?

    ,F(xiàn)PGA可以有效地處理深度學(xué)習(xí)的大規(guī)模并行運(yùn)算,從而提高深度學(xué)習(xí)應(yīng)用的效率。 定制化計(jì)算:FPGA的高度可編程性使其可以針對(duì)特定的應(yīng)用場(chǎng)景和算法進(jìn)行定制化的硬件設(shè)計(jì)。這意味著,如果
    發(fā)表于 07-29 17:05