99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過簡(jiǎn)單的「圖像旋轉(zhuǎn)」預(yù)測(cè)便可為圖像特征學(xué)習(xí)提供強(qiáng)大監(jiān)督信號(hào)

mK5P_AItists ? 來源:未知 ? 作者:李倩 ? 2018-03-26 13:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在過去的幾年中,深度卷積神經(jīng)網(wǎng)絡(luò)(ConvNets)已經(jīng)改變了計(jì)算機(jī)視覺的領(lǐng)域,這是由于它們具有學(xué)習(xí)高級(jí)語(yǔ)義圖像特征的無與倫比的能力。然而,為了成功地學(xué)習(xí)這些特征,它們通常需要大量手動(dòng)標(biāo)記的數(shù)據(jù),這既昂貴又不可實(shí)行。因此,無監(jiān)督語(yǔ)義特征學(xué)習(xí),即在不需要手動(dòng)注釋工作的情況下進(jìn)行學(xué)習(xí),對(duì)于現(xiàn)今成功獲取大量可用的可視數(shù)據(jù)至關(guān)重要。

在我們的研究中,我們打算通過這種方式學(xué)習(xí)圖像特征:訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)來識(shí)別被應(yīng)用到作為輸入的圖像上的二維旋轉(zhuǎn)。我們從定性和定量?jī)煞矫孀C明,這個(gè)看似簡(jiǎn)單的任務(wù)實(shí)際上為語(yǔ)義特征學(xué)習(xí)提供了非常強(qiáng)大的監(jiān)督信號(hào)。我們?cè)诟鞣N無監(jiān)督的特征學(xué)習(xí)基準(zhǔn)中,對(duì)我們的方法進(jìn)行了詳盡的評(píng)估,并在所有這些基準(zhǔn)中展示出了最先進(jìn)的性能。

具體來說,我們?cè)谶@些基準(zhǔn)中的結(jié)果展現(xiàn)了在無監(jiān)督的表征學(xué)習(xí)中,較之先前最先進(jìn)的方法,我們的方法取得了巨大改進(jìn),從而顯著縮小了與監(jiān)督特征學(xué)習(xí)之間的差距。例如,在PASCAL VOC 2007檢測(cè)任務(wù)中,我們的無監(jiān)督預(yù)訓(xùn)練的AlexNet模型達(dá)到了54.4%的 最先進(jìn)的性能表現(xiàn)(在無監(jiān)督的方法中),比監(jiān)督學(xué)習(xí)的情況下僅少了2.4個(gè)百分點(diǎn)。當(dāng)我們將無監(jiān)督的學(xué)習(xí)特征遷移到其他任務(wù)上時(shí),我們得到了同樣的驚人結(jié)果,例如ImageNet分類、PASCAL分類、PASCAL分割和CIFAR-10分類。我們論文的代碼和模型將會(huì)發(fā)布在這里。

近年來,在計(jì)算機(jī)視覺中廣泛采用的深度卷積神經(jīng)網(wǎng)絡(luò)(LeCun等人于1998年提出),在這一領(lǐng)域取得了巨大的進(jìn)步。具體來說,通過在具有大量手動(dòng)標(biāo)記數(shù)據(jù)的目標(biāo)識(shí)別(Russakovsky等人于2015年提出)或場(chǎng)景分類(Zhou等人于2014年提出)任務(wù)上對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,它們成功學(xué)習(xí)到了適合于圖像理解任務(wù)的強(qiáng)大視覺表征。

例如,在這種監(jiān)督的方式下,卷積神經(jīng)網(wǎng)絡(luò)所學(xué)習(xí)的圖像特征在它們被遷移到其他視覺任務(wù)時(shí)取得了很好的效果,比如目標(biāo)檢測(cè)(Girshick于2015年提出)、語(yǔ)義分割(Long等人于2015年提出),或者圖像描述(Karpathy 和 Fei-Fei于2015年提出)。然而,監(jiān)督特征學(xué)習(xí)有一個(gè)主要的限制,那就是需要大量的手動(dòng)標(biāo)記工作。在如今擁有大量可用的可視數(shù)據(jù)的情況下,這既昂貴又不可實(shí)行。

以90°的隨機(jī)倍數(shù)(例如,0°、90°、180°、270°)旋轉(zhuǎn)的圖像。我們自監(jiān)督特征學(xué)習(xí)方法的核心觀念是,如果一個(gè)人對(duì)圖像中描述的對(duì)象沒有概念,那么他就不能識(shí)別應(yīng)用于它們的旋轉(zhuǎn)。

因此,最近人們對(duì)以無監(jiān)督的方式學(xué)習(xí)高級(jí)的基于卷積神經(jīng)網(wǎng)絡(luò)的表征越來越感興趣,這種方式避免了對(duì)視覺數(shù)據(jù)的手動(dòng)注釋。其中,一個(gè)突出的范例就是所謂的自監(jiān)督學(xué)習(xí),它界定了一個(gè)注解不受約束的借口任務(wù),只使用圖像或視頻上的視覺信息,從而給特征學(xué)習(xí)提供一個(gè)代理監(jiān)督信號(hào)。

例如,為了學(xué)習(xí)特征,Zhang等人和Larsson等人訓(xùn)練了卷積神經(jīng)網(wǎng)絡(luò)以對(duì)灰度圖像進(jìn)行著色,Doersch等人(于2015年)、Noroozi 和 Favaro(于2016年)預(yù)測(cè)了圖像塊的相對(duì)位置,以及Agrawal等人(于2015年)預(yù)測(cè)了在兩個(gè)連續(xù)幀之間正在移動(dòng)的車輛的運(yùn)動(dòng)(即自動(dòng))。

這種自監(jiān)督任務(wù)背后的基本原理是,解決這些問題將迫使卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)語(yǔ)義圖像特征,這對(duì)其他視覺任務(wù)是有用的。事實(shí)上,通過上述自監(jiān)督任務(wù)所學(xué)習(xí)的圖像表征,盡管它們沒能做到與監(jiān)督學(xué)習(xí)表征的性能相當(dāng),但它們已經(jīng)被證明在遷移到其他視覺任務(wù)上時(shí)是個(gè)好選擇,諸如目標(biāo)識(shí)別、目標(biāo)檢測(cè)和語(yǔ)義分割。其他成功的無監(jiān)督特征學(xué)習(xí)案例是基于聚類的方法、基于重構(gòu)的方法,和學(xué)習(xí)生成概率模型的方法。

我們所提出的用于語(yǔ)義特征學(xué)習(xí)的自監(jiān)督任務(wù)的說明圖

我們的研究遵循自監(jiān)督范例,并提出,通過訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(ConvNets)識(shí)別應(yīng)用于其作為輸入的圖像的幾何變換,從而學(xué)習(xí)圖像表示。更具體地說,首先,我們定義了一組離散的幾何變換,然后將這些幾何變換中的每一個(gè)應(yīng)用于數(shù)據(jù)集上的每個(gè)圖像,并且將生成的變換圖像饋送到經(jīng)過訓(xùn)練以識(shí)別每個(gè)圖像的變換的卷積神經(jīng)網(wǎng)絡(luò)模型中。在這個(gè)方法中,它是一組幾何變換,實(shí)際上定義了卷積神經(jīng)網(wǎng)絡(luò)模型所必須學(xué)習(xí)的分類接口任務(wù)(classification pretext task)。

因此,為了實(shí)現(xiàn)無監(jiān)督的語(yǔ)義特征學(xué)習(xí),正確地選擇這些幾何變換是至關(guān)重要的。我們提出的是將幾何變換定義為0°、90°、180°和270°的圖像旋轉(zhuǎn)。因此,卷積神經(jīng)網(wǎng)絡(luò)模型在識(shí)別四個(gè)圖像旋轉(zhuǎn)之一(見圖2)的4種圖像分類任務(wù)上進(jìn)行了訓(xùn)練。我們認(rèn)為,為了讓一個(gè)ConvNet模型能夠識(shí)別應(yīng)用于圖像中的旋轉(zhuǎn)變換,它需要理解圖像中所描述的對(duì)象的概念(參見圖1),例如它們?cè)趫D像中的位置、類型和、姿勢(shì)。在整篇論文中,我們從定性和定量的論證上支持這一理論。

此外,我們經(jīng)過實(shí)驗(yàn)證明,盡管我們的自監(jiān)督方法很簡(jiǎn)單,但預(yù)測(cè)旋轉(zhuǎn)變換的任務(wù)為特征學(xué)習(xí)提供了一個(gè)強(qiáng)大的替代監(jiān)督信號(hào)。在相關(guān)基準(zhǔn)測(cè)試上取得了顯著的進(jìn)步。

由AlexNet模型所生成的注意力圖(attention map),對(duì)(a)進(jìn)行訓(xùn)練以識(shí)別目標(biāo)(監(jiān)督),和對(duì)(b)進(jìn)行訓(xùn)練以識(shí)別圖像旋轉(zhuǎn)(自監(jiān)督)。為了生成一個(gè)卷積層的注意圖,我們首先計(jì)算該層的特征映射,然后我們提高power p上的每個(gè)特征激活,最后我們對(duì)特征映射的每個(gè)位置處的激活進(jìn)行求和。對(duì)于卷積層1,2和3,我們分別使用了p = 1、p = 2和p = 4

需要注意的是,我們的自監(jiān)督任務(wù)不同于Dosovitskiy等人于2014年和Agrawal等人于2015年所提出的研究方法,盡管他們也涉及到幾何變換。Dosovitskiy等人于2014年訓(xùn)練了卷積神經(jīng)網(wǎng)絡(luò)模型,以產(chǎn)生對(duì)圖像的區(qū)分性表征,同時(shí)不改變幾何和色度變換。相反,我們訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型來識(shí)別應(yīng)用于圖像的幾何變換。

這與Agrawal等人于2015年提出的自運(yùn)動(dòng)方法(egomotion method)有根本的不同,該方法采用了一種帶有孿生(siamese)結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)模型,該模型將兩個(gè)連續(xù)的視頻幀作為輸入,并進(jìn)行訓(xùn)練以預(yù)測(cè)(通過回歸)其相機(jī)轉(zhuǎn)換。相反,在我們的方法中,卷積神經(jīng)網(wǎng)絡(luò)將一個(gè)單一圖像作為輸入,我們已經(jīng)應(yīng)用了一個(gè)隨機(jī)幾何變換(旋轉(zhuǎn)),并經(jīng)過訓(xùn)練(通過分類)識(shí)別這種幾何變換,而不需要訪問初始圖像。

由AlexNet模型所學(xué)習(xí)第一層過濾器在(a)監(jiān)督目標(biāo)識(shí)別任務(wù)和(b)識(shí)別旋轉(zhuǎn)圖像的自監(jiān)督任務(wù)上進(jìn)行的訓(xùn)練

我們的貢獻(xiàn):

?我們提出了一個(gè)新的自監(jiān)督任務(wù),這個(gè)任務(wù)非常簡(jiǎn)單,與此同時(shí),我們也在文章中進(jìn)行了展示,為語(yǔ)義特征學(xué)習(xí)提供了強(qiáng)大的監(jiān)督信號(hào)。

?我們?cè)诟鞣N環(huán)境(例如半監(jiān)督或遷移學(xué)習(xí)環(huán)境)和各種視覺任務(wù)(即CIFAR-10、ImageNet、Places和PASCAL分類以及檢測(cè)或分割任務(wù))中詳細(xì)評(píng)估了我們的自監(jiān)督方法。

?我們提出的新的自監(jiān)督方法在各個(gè)方面都展現(xiàn)出了最先進(jìn)的成果,較先前的無監(jiān)督方法有了顯著改善。

?我們的研究表明,對(duì)于幾個(gè)重要的視覺任務(wù)而言,我們的自監(jiān)督學(xué)習(xí)方法顯著縮小了與無監(jiān)督和監(jiān)督特征學(xué)習(xí)之間的差距。

經(jīng)過研究,我們提出了一種用于自監(jiān)督特征學(xué)習(xí)的新方法,它通過訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型,使其能夠識(shí)別已經(jīng)用作輸入圖像的圖像旋轉(zhuǎn)。盡管我們的自監(jiān)督任務(wù)很簡(jiǎn)單,但我們證明,它可以成功地訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型,從而學(xué)習(xí)語(yǔ)義特征,這些語(yǔ)義特征對(duì)于各種視覺感知任務(wù)非常有用,例如目標(biāo)識(shí)別、目標(biāo)檢測(cè)和目標(biāo)分割。

我們?cè)诟鞣N無監(jiān)督和半監(jiān)督條件下對(duì)我們的方法進(jìn)行了詳盡的評(píng)估,并且在測(cè)試中實(shí)現(xiàn)了最先進(jìn)的性能。具體而言,我們的自監(jiān)督方法大幅度改進(jìn)了ImageNet分類、PASCAL分類、PASCAL檢測(cè)、PASCAL分割和CIFAR-10分類的無監(jiān)督特征學(xué)習(xí)的最新結(jié)果,超越了以往的方法,因此大幅縮小了無監(jiān)督和監(jiān)督特征學(xué)習(xí)之間的差距。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103719
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    41301

原文標(biāo)題:無監(jiān)督學(xué)習(xí)最新研究:通過簡(jiǎn)單的「圖像旋轉(zhuǎn)」預(yù)測(cè)便可為圖像特征學(xué)習(xí)提供強(qiáng)大監(jiān)督信號(hào)

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)技術(shù)在圖像處理中的應(yīng)用

    在本章中,我們將討論機(jī)器學(xué)習(xí)技術(shù)在圖像處理中的應(yīng)用。首先,定義機(jī)器學(xué)習(xí),并學(xué)習(xí)它的兩種算法——監(jiān)督算法和無
    的頭像 發(fā)表于 10-18 16:08 ?2772次閱讀

    50多種適合機(jī)器學(xué)習(xí)預(yù)測(cè)應(yīng)用的API,你的選擇是?(2018年版本)

    據(jù)分析服務(wù)。用戶可以建立一個(gè)數(shù)據(jù)源,并通過標(biāo)準(zhǔn)的HTTP創(chuàng)建模型來處理標(biāo)準(zhǔn)的有監(jiān)督和無監(jiān)督學(xué)習(xí)的機(jī)器學(xué)習(xí)任務(wù)。3.Google Cloud Prediction:
    發(fā)表于 05-03 16:41

    如何平滑地旋轉(zhuǎn)圖像?

    我正在嘗試創(chuàng)建一個(gè)繁忙的圈子(例如在加載網(wǎng)頁(yè)時(shí)顯示的圈子)。我想使用自定義圖像而不是圓圈。我為此使用了 TextureMapper。但是我沒有得到連續(xù)平滑的圖像旋轉(zhuǎn)。圖像
    發(fā)表于 12-27 08:20

    基于OpenCV的圖像特征智能識(shí)別系統(tǒng)設(shè)計(jì)

    對(duì)于圖像監(jiān)控而言,多數(shù)監(jiān)控只是簡(jiǎn)單的捕捉圖像、處理圖像,最后再通過人工進(jìn)行識(shí)別,缺少智能監(jiān)控,特別是針對(duì)某一特定需求的
    發(fā)表于 12-31 09:20 ?20次下載

    如何利用倍頻信號(hào)濾波的非規(guī)則圖像動(dòng)態(tài)特征

    圖像的沖擊脈沖信號(hào),采集的非規(guī)則圖像動(dòng)態(tài)特征信號(hào)輸入后作乘法運(yùn)算,輸出結(jié)果為兩者的乘積,再經(jīng)低通濾波將倍頻
    發(fā)表于 09-21 13:45 ?2次下載
    如何利用倍頻<b class='flag-5'>信號(hào)</b>濾波的非規(guī)則<b class='flag-5'>圖像</b>動(dòng)態(tài)<b class='flag-5'>特征</b>

    監(jiān)督的譜聚類圖像分割

    采用IRAM算法計(jì)算相似度矩陣的主導(dǎo)特征值,減小運(yùn)算時(shí)間。為解決譜聚類敏感于尺度參數(shù)的問題,提出利用少量監(jiān)督樣本求取每幅圖像特有的尺度參數(shù),進(jìn)行半監(jiān)督
    發(fā)表于 11-13 11:17 ?4次下載

    opencv如何實(shí)現(xiàn)圖像旋轉(zhuǎn)_原理是什么

    旋轉(zhuǎn)一般是指將圖像圍繞某一指定點(diǎn)旋轉(zhuǎn)一定的角度,圖像旋轉(zhuǎn)后會(huì)有一部分圖像轉(zhuǎn)出顯示區(qū)域,可以截圖那
    發(fā)表于 12-04 16:40 ?2.9w次閱讀
    opencv如何實(shí)現(xiàn)<b class='flag-5'>圖像</b><b class='flag-5'>旋轉(zhuǎn)</b>_原理是什么

    基于鄰域特征學(xué)習(xí)的單幅圖像超分辨重建

    針對(duì)圖像重建過程中待插值點(diǎn)灰度估計(jì)不準(zhǔn)確的問題,提出一種基于鄰域特征學(xué)習(xí)的單幅圖像超分辨回歸分析方法。在輸入低分辨率圖像后,利用
    發(fā)表于 02-07 15:59 ?1次下載
    基于鄰域<b class='flag-5'>特征</b><b class='flag-5'>學(xué)習(xí)</b>的單幅<b class='flag-5'>圖像</b>超分辨重建

    簡(jiǎn)單好上手的圖像分類教程!

    簡(jiǎn)單好上手的圖像分類教程!構(gòu)建圖像分類模型的一個(gè)突破是發(fā)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)(CNN)可以用來逐步地提取圖像內(nèi)容的更高層的表示。CNN不是預(yù)先處理數(shù)據(jù)以獲得紋理、形狀等
    的頭像 發(fā)表于 05-31 16:36 ?8524次閱讀
    <b class='flag-5'>簡(jiǎn)單</b>好上手的<b class='flag-5'>圖像</b>分類教程!

    基于SIFT特征圖像配準(zhǔn)(圖像匹配)

     SIFT圖像處理代碼,必須和三個(gè)文件一起下載使用:基于SIFT特征圖像配準(zhǔn)(Matlab源代碼)、基于SIFT特征圖像配準(zhǔn)(仿真圖片)
    發(fā)表于 08-06 08:00 ?3次下載

    采用自監(jiān)督CNN進(jìn)行單圖像深度估計(jì)的方法

    為了提高利用深度神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)圖像深度信息的精確度,提出了一種采用自監(jiān)督卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行單圖像深度估計(jì)的方法。首先,該方法通過在編解碼結(jié)構(gòu)中
    發(fā)表于 04-27 16:06 ?13次下載
    采用自<b class='flag-5'>監(jiān)督</b>CNN進(jìn)行單<b class='flag-5'>圖像</b>深度估計(jì)的方法

    基于成對(duì)學(xué)習(xí)圖像聚類的肺癌亞型識(shí)別

    基因診斷是近年來提高肺癌治愈率的一種新型且有效的方法,但這種方法存在基因檢測(cè)時(shí)間長(zhǎng)、費(fèi)用高、侵入式取樣損傷大的問題。文中提出了基于成對(duì)學(xué)習(xí)圖像聚類的無監(jiān)督學(xué)習(xí)的肺癌亞型識(shí)別方法。首先,采用無
    發(fā)表于 05-10 11:20 ?4次下載

    基于特征的基圖像提取和重構(gòu)方法

    圖像作為一種典型信號(hào),理論上可由一系列基本信號(hào)構(gòu)成。為尋找一組可重構(gòu)圖像的基本信號(hào),提出了基于特征
    發(fā)表于 06-16 16:01 ?19次下載

    如何縮小弱監(jiān)督信號(hào)與密集預(yù)測(cè)之間的差距

    導(dǎo)讀本文圍繞非完全監(jiān)督下的圖像分割方法最新綜述,講述用于解決“如何縮小弱監(jiān)督信號(hào)與密集預(yù)測(cè)之間的差距”的四種通用的啟發(fā)式先驗(yàn)。
    的頭像 發(fā)表于 07-13 10:51 ?1420次閱讀

    簡(jiǎn)單易懂常用的 Python 圖像處理庫(kù)

    圖像處理中的常見任務(wù)包括顯示圖像,基本操作(如裁剪、翻轉(zhuǎn)、旋轉(zhuǎn)等),圖像分割,分類和特征提取,圖像
    發(fā)表于 12-28 09:42 ?999次閱讀