99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

中山大學(xué)HCP實(shí)驗(yàn)室PAMI論文:低成本、可擴(kuò)展的三維人體位姿預(yù)測(cè)應(yīng)用

DPVg_AI_era ? 來(lái)源:lq ? 2019-01-26 09:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

論文提出的3D人體位姿預(yù)測(cè)框架:先使用一個(gè)輕量級(jí)CNN提取2D人體位姿特征和粗略估計(jì)3D人體位姿,然后用RNN學(xué)習(xí)時(shí)序相關(guān)性以得到流暢的三維人體位姿初步預(yù)測(cè)結(jié)果,最后使用自監(jiān)督學(xué)習(xí)引導(dǎo)機(jī)制,根據(jù)三維幾何一致性,優(yōu)化從2D到3D的預(yù)測(cè)結(jié)果。項(xiàng)目主頁(yè):http://www.sysu-hcp.net/3d_pose_ssl/

中山大學(xué)使用自監(jiān)督學(xué)習(xí)精準(zhǔn)預(yù)測(cè)三維人體位姿。新方法減少了對(duì)3D標(biāo)記數(shù)據(jù)的依賴,還能通過(guò)使用現(xiàn)有的大量2D標(biāo)記數(shù)據(jù)提高最終預(yù)測(cè)結(jié)果,實(shí)現(xiàn)低成本、可擴(kuò)展的3D人體位姿估計(jì)實(shí)際應(yīng)用。

3D人體位姿估計(jì)是當(dāng)前的一個(gè)熱點(diǎn)研究課題,也具有廣泛的應(yīng)用潛力。

深度神經(jīng)網(wǎng)絡(luò)已經(jīng)在2D人體位姿估計(jì)上取得了優(yōu)異的結(jié)果,如果想使用深度學(xué)習(xí),在3D人體位姿估計(jì)中也取得同樣的效果,那么首先就需要大量的3D人體位姿標(biāo)記數(shù)據(jù)。

但問(wèn)題是,現(xiàn)在沒(méi)有大量帶精準(zhǔn)標(biāo)記的3D人體位姿數(shù)據(jù)。

在一篇最新發(fā)表于《IEEE模式分析與機(jī)器智能會(huì)刊》(PAMI) 的論文[1]中,中山大學(xué)的研究人員提出了一種新的方法,讓計(jì)算機(jī)通過(guò)自監(jiān)督學(xué)習(xí)的方式,精準(zhǔn)預(yù)測(cè)視頻片段中的三維人體位姿,大幅減少對(duì)3D標(biāo)記數(shù)據(jù)的依賴。

“我們通過(guò)有效結(jié)合二維時(shí)空關(guān)系和三維幾何知識(shí),提出了一個(gè)由自監(jiān)督學(xué)習(xí)引導(dǎo)的快速精準(zhǔn)三維人體位姿估計(jì)方法?!闭撐囊蛔?、目前在加州大學(xué)洛杉磯分校 (UCLA) 朱松純教授實(shí)驗(yàn)室擔(dān)任博士后研究員的王可澤博士告訴新智元。在完成這篇論文時(shí),王可澤還是中山大學(xué)和香港理工大學(xué)的博士生,導(dǎo)師是中山大學(xué)HCP人機(jī)物智能融合實(shí)驗(yàn)室的林倞教授 (林教授也參與了這項(xiàng)工作) 和香港理工大學(xué)的張磊博士。

新方法在Human3.6M基準(zhǔn)測(cè)試中的一些可視化結(jié)果。(a)為2D-to-2D位姿變換模塊估計(jì)的中間3D人體位姿,(b)為3D-to-2D位姿映射模塊細(xì)化的最終3D人體位姿,(c)為ground-truth。估計(jì)的3D位姿被重新映射到圖像中,并在側(cè)面 (圖像旁邊) 顯示出來(lái)。如圖所示,與(a)相比,(b)中預(yù)測(cè)的3D位姿得到了顯著的修正。紅色和綠色分別表示人體左側(cè)和右側(cè)。來(lái)源:論文《自監(jiān)督學(xué)習(xí)引導(dǎo)的人體三維位姿估計(jì)》[1]

“該方法采用輕量級(jí)的神經(jīng)網(wǎng)絡(luò),有效減少了計(jì)算量,并克服了三維人體位姿標(biāo)注數(shù)據(jù)不夠豐富的難點(diǎn),能在實(shí)際應(yīng)用場(chǎng)景中流暢穩(wěn)定地進(jìn)行三維人體位姿預(yù)測(cè)?!?/p>

在單個(gè)的Nvidia GTX1080 GPU上運(yùn)行時(shí),新方法處理一幅圖像只需要51毫秒,而其他方法需要880毫秒。

使用自監(jiān)督學(xué)習(xí),減少對(duì)3D標(biāo)記數(shù)據(jù)的依賴

這篇論文題為《自監(jiān)督學(xué)習(xí)引導(dǎo)的人體三維位姿估計(jì)》(3D Human Pose Machines with Self-supervised Learning),作者是王可澤,林倞,江宸瀚,錢晨和魏朋旭。

研究人員向新智元介紹,他們這項(xiàng)工作的背景,是現(xiàn)有的基于彩色圖像視頻數(shù)據(jù)的三維人體位姿估計(jì)研究,在實(shí)際場(chǎng)景應(yīng)用中有兩大明顯的不足:

一是所需要的計(jì)算量大:當(dāng)前,絕大多數(shù)的現(xiàn)有三維人體位姿估計(jì)方法,都依賴最先進(jìn)的二維人體位姿估計(jì)來(lái)獲得精準(zhǔn)的二維人體位姿,然后再構(gòu)建神經(jīng)網(wǎng)絡(luò),實(shí)現(xiàn)從2D到3D人體位姿的映射。由于采用的二維人體位姿估計(jì)方法往往需要龐大的計(jì)算量,再加上所構(gòu)建的神經(jīng)網(wǎng)絡(luò)自身的運(yùn)算開(kāi)銷,難以滿足三維人體位姿估計(jì)在實(shí)際應(yīng)用中的時(shí)間需求;

二是應(yīng)用效果不理想:當(dāng)前的三維人體位姿數(shù)據(jù)集都是在受控的實(shí)驗(yàn)環(huán)境下創(chuàng)建的 (攝像機(jī)視角固定、背景單一),所包含的三維標(biāo)注信息不夠豐富,不能全面反映真實(shí)生活場(chǎng)景,使得現(xiàn)有方法所預(yù)測(cè)出的三維人體位姿質(zhì)量參差不齊,魯棒性差。

為了解決上述的問(wèn)題,研究人員進(jìn)行了深入的研究和分析,嘗試?yán)煤A康亩S人體位姿數(shù)據(jù)來(lái)彌補(bǔ)三維標(biāo)注信息不豐富的問(wèn)題。

同時(shí),他們受二維和三維空間彼此存在的聯(lián)系啟發(fā),根據(jù)三維人體位姿的映射是二維人體位姿這一幾何特性,結(jié)合之前的自監(jiān)督學(xué)習(xí)工作(參考王可澤博士等人此前的論文[2]),制定了2D到3D變換和3D到2D映射的自監(jiān)督學(xué)習(xí)任務(wù)。

這一關(guān)鍵的2D和3D相互轉(zhuǎn)換自監(jiān)督學(xué)習(xí)模塊架構(gòu)示意如下:

3D到2D人體位姿映射模塊訓(xùn)練階段示意圖

3D到2D人體位姿映射模塊測(cè)試階段示意圖

在這項(xiàng)研究中,作者使用MPII數(shù)據(jù)集,從圖像中提取2D人體位姿。然后,使用另一個(gè)名為“Human3.6M”的數(shù)據(jù)集,提取3D的ground truth數(shù)據(jù)。Human3.6M數(shù)據(jù)集包含有360萬(wàn)張?jiān)趯?shí)驗(yàn)室拍攝的照片,任務(wù)包括跑步、散步、吸煙、吃飯,等等。

初始化后,他們將預(yù)測(cè)的2D人體位姿和3D人體位姿替換為2D和3D的 ground-truth,從而以自監(jiān)督學(xué)習(xí)的方式優(yōu)化模型。

3D-to-2D人體位姿映射模塊的學(xué)習(xí)目標(biāo),就是將3D人體位姿的2D映射與預(yù)測(cè)的2D人體位姿兩者間的差異最小化,以實(shí)現(xiàn)對(duì)中間3D人體位姿預(yù)測(cè)的雙向校正 (或細(xì)化)。

“模型采用了序列訓(xùn)練的方法來(lái)捕獲人體多個(gè)部位之間的長(zhǎng)期時(shí)間一致性,并通過(guò)一種新的自監(jiān)督校正機(jī)制進(jìn)一步增強(qiáng)這種一致性,這包含兩個(gè)對(duì)偶學(xué)習(xí)任務(wù),即2D-to-3D位姿變換和3D-to-2D位姿映射,從而生成幾何一致的3D位姿預(yù)測(cè)。”

經(jīng)過(guò)自監(jiān)督校正以后的結(jié)果 (Ours) 比沒(méi)有經(jīng)過(guò)校正的 (Ours w/o self-correction) 更接近 Ground-truth。來(lái)源:論文

未來(lái)方向:非受限條件下三維人體位姿預(yù)測(cè)

研究人員在論文中指出,這項(xiàng)工作的主要貢獻(xiàn)有三方面:

提出了一種新的模型,可以學(xué)習(xí)整合豐富的時(shí)空長(zhǎng)程依賴性和3D幾何約束,而不是依賴于特定的手動(dòng)定義的身體平滑度或運(yùn)動(dòng)學(xué)約束;

開(kāi)發(fā)了一種簡(jiǎn)單有效的自監(jiān)督校正機(jī)制,以結(jié)合3D位姿幾何結(jié)構(gòu)信息;這一創(chuàng)新機(jī)制也可能啟發(fā)其他3D視覺(jué)任務(wù);

提出了自監(jiān)督校正機(jī)制,使模型能夠使用足夠的2D人體位姿數(shù)據(jù),顯著提高3D人體位姿估計(jì)的性能。

新方法 (Ours,紅框標(biāo)識(shí)) 顯著優(yōu)于其他同類方法,綠色代表右側(cè)手腳,紅色代表左側(cè) (下同):最右邊一列為Ground-truth;使用Human3.6M數(shù)據(jù)集。

新方法 (Ours) 與ICCV-17微軟危夷晨組在MPII數(shù)據(jù)集上的結(jié)果比較,后者使用弱監(jiān)督遷移學(xué)習(xí)將2D和3D標(biāo)記混合在一個(gè)統(tǒng)一的深度學(xué)習(xí)框架里,在2D和3D基準(zhǔn)上都取得了較好的結(jié)果。新方法在3D預(yù)測(cè)上更進(jìn)一步。

自監(jiān)督學(xué)習(xí)的價(jià)值顯然是人工智能研究的一個(gè)重點(diǎn)。

其他方法也采用了類似的“弱監(jiān)督”方法來(lái)預(yù)測(cè)位姿,甚至捕捉人體運(yùn)動(dòng)。例如,加州大學(xué)伯克利分校Sergey Levine教授的機(jī)器人實(shí)驗(yàn)室去年10月發(fā)表論文稱,他們能夠訓(xùn)練模擬機(jī)器人模仿人類活動(dòng),只使用YouTube視頻的無(wú)標(biāo)注數(shù)據(jù)。中山大學(xué)的這一工作未來(lái)或許能與伯克利的方法實(shí)現(xiàn)某種結(jié)合。

研究人員告訴新智元,接下來(lái),“我們會(huì)針對(duì)于實(shí)際非受限場(chǎng)景中更加復(fù)雜多變的三維人體位姿預(yù)測(cè)問(wèn)題,開(kāi)展進(jìn)一步研究;另外,進(jìn)一步優(yōu)化我們的方法,希望能在移動(dòng)端實(shí)現(xiàn)實(shí)時(shí)精準(zhǔn)的預(yù)測(cè)效果”。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2959

    瀏覽量

    110781
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103647

原文標(biāo)題:中山大學(xué)新突破:自監(jiān)督學(xué)習(xí)實(shí)現(xiàn)精準(zhǔn)3D人體姿態(tài)估計(jì)

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    中山大學(xué)匯編語(yǔ)言視頻教程鏈接

    中山大學(xué)匯編語(yǔ)言視頻教程!
    發(fā)表于 11-15 14:12

    [招聘]中山大學(xué)中山眼科中心招聘工程師

    中山大學(xué)中山眼科中心為國(guó)內(nèi)排名第一的眼科中心,也是唯一的眼科學(xué)國(guó)家重點(diǎn)實(shí)驗(yàn)室的依托單位,現(xiàn)組建成立廣東省眼科診斷與治療新技術(shù)工程中心,致力于眼光學(xué)成像和血管功能成像技術(shù)的探索,包括新型OCT的研發(fā)
    發(fā)表于 06-24 15:06

    實(shí)驗(yàn)室無(wú)線充電系統(tǒng)_論文

    實(shí)驗(yàn)室無(wú)線充電系統(tǒng)_論文
    發(fā)表于 01-24 17:35

    歐姆龍公司攜手中山大學(xué)建自動(dòng)化實(shí)驗(yàn)室

    歐姆龍公司攜手中山大學(xué)建自動(dòng)化實(shí)驗(yàn)室 近日,全球自動(dòng)化、傳感和控制領(lǐng)域的領(lǐng)先廠商歐姆龍公司與有80年歷史
    發(fā)表于 08-12 17:58 ?534次閱讀

    中山大學(xué)研發(fā)出首個(gè)基于人工智能的眼病篩查指導(dǎo)系統(tǒng)

    中山大學(xué)中山眼科中心9日發(fā)布消息稱,該中心人工智能與大數(shù)據(jù)科基于10萬(wàn)余例超廣域眼底彩照,研發(fā)出首個(gè)基于人工智能的眼病篩查指導(dǎo)系統(tǒng)。
    發(fā)表于 01-10 09:55 ?1142次閱讀

    中山大學(xué)應(yīng)用基于RFID技術(shù)的智能圖書(shū)館

    中山大學(xué)是首批國(guó)家“雙一流”A類、“985工程”、“211工程”的綜合性全國(guó)知名高校,作為其重要組成部分之一的中山大學(xué)圖書(shū)館是一個(gè)擁有1個(gè)主館和4個(gè)分館的圖書(shū)館群,圖書(shū)館擁有百余萬(wàn)冊(cè)(件)館藏,其中包括上萬(wàn)冊(cè)的珍稀善本。
    發(fā)表于 08-14 14:49 ?1553次閱讀

    中山大學(xué)提出新型行人重識(shí)別方法和史上最大最新評(píng)測(cè)基準(zhǔn)

    行人重識(shí)別,又稱行人再識(shí)別,是利用 CV 技術(shù)判斷圖像或視頻序列中是否存在特定行人的技術(shù)。常規(guī)的行人重識(shí)別方法往往需要高昂的人工標(biāo)注成本,計(jì)算復(fù)雜度也很大。在本文中,中山大學(xué)研究者提出的弱監(jiān)督行人重
    的頭像 發(fā)表于 01-05 14:29 ?2781次閱讀
    <b class='flag-5'>中山大學(xué)</b>提出新型行人重識(shí)別方法和史上最大最新評(píng)測(cè)基準(zhǔn)

    高校大學(xué)數(shù)字孿生教學(xué)實(shí)驗(yàn)室,虛擬仿真實(shí)訓(xùn)系統(tǒng)中心

    北京高校大學(xué)學(xué)院數(shù)字孿生教學(xué)實(shí)驗(yàn)室,虛擬仿真實(shí)訓(xùn)系統(tǒng)中心,數(shù)字孿生校園場(chǎng)景建設(shè)方案。北京高校大學(xué)學(xué)院數(shù)字孿生實(shí)驗(yàn)室教學(xué)平臺(tái)建設(shè)的主要工作:(1)通過(guò)
    的頭像 發(fā)表于 05-26 10:43 ?1660次閱讀
    高校<b class='flag-5'>大學(xué)</b>數(shù)字孿生教學(xué)<b class='flag-5'>實(shí)驗(yàn)室</b>,虛擬仿真實(shí)訓(xùn)系統(tǒng)中心

    三維天地助力計(jì)量實(shí)驗(yàn)室全方位資源管理

    企業(yè)內(nèi)部的計(jì)量實(shí)驗(yàn)室肩負(fù)著為企業(yè)內(nèi)部?jī)x器設(shè)備提供周期性校準(zhǔn)或委外檢定校準(zhǔn)的任務(wù),但如何確保按時(shí)、及時(shí)地進(jìn)行這些校準(zhǔn)任務(wù),一直是困擾企業(yè)內(nèi)計(jì)量實(shí)驗(yàn)室的挑戰(zhàn)。 北京三維天地科技股份有限公司長(zhǎng)期以來(lái)專注于
    的頭像 發(fā)表于 12-20 22:43 ?441次閱讀
    <b class='flag-5'>三維</b>天地助力計(jì)量<b class='flag-5'>實(shí)驗(yàn)室</b>全方位資源管理

    浙江大學(xué)機(jī)械工程學(xué)院—思看科技三維掃描實(shí)踐教學(xué)實(shí)驗(yàn)室正式揭牌!

    2024年4月22日,“浙江大學(xué)機(jī)械工程學(xué)院——思看科技三維掃描實(shí)踐教學(xué)實(shí)驗(yàn)室”揭牌暨簽約儀式在浙江大學(xué)機(jī)械工程學(xué)院實(shí)驗(yàn)教學(xué)中心成功舉行。
    的頭像 發(fā)表于 04-25 18:25 ?1263次閱讀
    浙江<b class='flag-5'>大學(xué)</b>機(jī)械工程學(xué)院—思看科技<b class='flag-5'>三維</b>掃描實(shí)踐教學(xué)<b class='flag-5'>實(shí)驗(yàn)室</b>正式揭牌!

    中山大學(xué)中山眼科中心與華為聯(lián)合發(fā)布ChatZOC眼科大模型

    [2024年6月6日]今天是第29個(gè)全國(guó)愛(ài)眼日,中山大學(xué)中山眼科中心與華為技術(shù)有限公司攜手合作,聯(lián)合發(fā)布基于人工智能技術(shù)研究構(gòu)建的眼科大模型ChatZOC,為守護(hù)人民群眾眼健康開(kāi)辟新路徑。 中山大學(xué)
    的頭像 發(fā)表于 06-06 19:04 ?2619次閱讀

    千呼萬(wàn)喚始出來(lái)!中山大學(xué)-創(chuàng)龍教儀RK3568教學(xué)實(shí)驗(yàn)室項(xiàng)目正式落地!

    1?院校簡(jiǎn)介//中山大學(xué)由孫中山先生創(chuàng)辦,有著一百多年辦學(xué)傳統(tǒng)。中山大學(xué)是教育部直屬“雙一流”高校(首批985和211重點(diǎn)高校)。學(xué)校學(xué)科門類覆蓋面廣,是教育部直屬高校中學(xué)科門類最齊全的學(xué)校之一。在
    的頭像 發(fā)表于 11-28 01:02 ?572次閱讀
    千呼萬(wàn)喚始出來(lái)!<b class='flag-5'>中山大學(xué)</b>-創(chuàng)龍教儀RK3568教學(xué)<b class='flag-5'>實(shí)驗(yàn)室</b>項(xiàng)目正式落地!

    中山大學(xué):在柔性觸覺(jué)傳感電子皮膚研究進(jìn)展

    【研究?jī)?nèi)容】 ? ? 中山大學(xué)衣芳教授團(tuán)隊(duì)在" 科學(xué)通報(bào)"期刊上發(fā)表了題為“ 柔性觸覺(jué)傳感電子皮膚研究進(jìn)展”的最新論文。本文主要綜述了近年來(lái)柔性觸覺(jué)傳感電子皮膚的研究進(jìn)展, 重點(diǎn)歸納總結(jié)了上述
    的頭像 發(fā)表于 02-12 17:03 ?1059次閱讀
    <b class='flag-5'>中山大學(xué)</b>:在柔性觸覺(jué)傳感電子皮膚研究進(jìn)展

    紫光同創(chuàng)攜手中山大學(xué)助力集成電路產(chǎn)業(yè)創(chuàng)新人才培養(yǎng)

    近日,紫光同創(chuàng)受邀參與中山大學(xué)電子與信息工程學(xué)院(微電子學(xué)院)開(kāi)設(shè)的《專業(yè)與行業(yè)認(rèn)知》課程,為現(xiàn)場(chǎng)近100名莘莘學(xué)子帶來(lái)了一場(chǎng)精彩的FPGA主題講座,助力集成電路產(chǎn)業(yè)創(chuàng)新人才培養(yǎng)。
    的頭像 發(fā)表于 06-20 17:36 ?624次閱讀

    洲明數(shù)字文化科技與中山大學(xué)旅游學(xué)院達(dá)成戰(zhàn)略合作

    近日,洲明集團(tuán)旗下AI子公司——深圳市洲明數(shù)字文化科技有限公司與中山大學(xué)旅游學(xué)院正式簽署戰(zhàn)略合作意向書(shū)。
    的頭像 發(fā)表于 06-23 15:46 ?373次閱讀