99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

視覺(jué)SLAM基于深度學(xué)習(xí)閉環(huán)檢測(cè)

新機(jī)器視覺(jué) ? 來(lái)源:知乎 ? 作者:知乎 ? 2021-03-20 09:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

原提問(wèn):

請(qǐng)問(wèn)有做視覺(jué)SLAM基于深度學(xué)習(xí)閉環(huán)檢測(cè)的嗎?

TurtleZhong:

相比現(xiàn)在基本都是用深度學(xué)習(xí)做的吧,只要涉及到場(chǎng)景光照變化大,相機(jī)視野變化大等等,傳統(tǒng)的DBoW,VLAD方法確實(shí)能力有限,那想必現(xiàn)在大多數(shù)都用的是基于深度學(xué)習(xí)來(lái)做閉環(huán)檢測(cè)的,具體的方法可以參考我前段時(shí)間寫的總結(jié):

https://github.com/TurtleZhong/Map-based-Visual-Localization

其實(shí)里面列舉了傳統(tǒng)方法和深度學(xué)習(xí)的方法,當(dāng)然可能不全,但是歡迎補(bǔ)充,另外覺(jué)得有用的話點(diǎn)個(gè)關(guān)注。

九歌:

俺就是在做深度學(xué)習(xí)與閉環(huán)檢測(cè)結(jié)合的工作的呀

目前將深度學(xué)習(xí)應(yīng)用到閉環(huán)檢測(cè)中已經(jīng)很普遍了吧。直接的想法是在bow框架下利用如superpoint、d2、r2d2等深度學(xué)習(xí)特征代替?zhèn)鹘y(tǒng)orb、sift等特征。也有如NetVLAD、CALC等用神經(jīng)網(wǎng)絡(luò)模擬傳統(tǒng)特征提取策略,以獲得更好魯棒性的。也有加入語(yǔ)義信息,如X-view、LoST、CALC2.0等利用圖像語(yǔ)義信息,實(shí)現(xiàn)閉環(huán)檢測(cè)的。

總的來(lái)說(shuō),如果只是關(guān)注閉環(huán)檢測(cè)中圖像檢索的部分,與深度學(xué)習(xí)相關(guān)的工作還是很多很好的。難點(diǎn)在于要應(yīng)對(duì)閉環(huán)檢測(cè)中的一些實(shí)際挑戰(zhàn),比如cross-view乃至opposite-view,appearance changes,perceptual aliasing,dynamics,textless這些問(wèn)題。

害,其實(shí)dbow和fabmap從效果和實(shí)時(shí)性的平衡上來(lái)說(shuō),不已經(jīng)超好了嘛

劉斯坦:

搜deep learning feature points matching,文章非常多。

具體結(jié)合SLAM的工作,今年剛出的這篇清華的就很不錯(cuò),還有代碼:
ivipsourcecode/dxslamgithub.com

基本是一個(gè)純工程的工作,很直觀,把各種成熟的深度學(xué)習(xí)特征點(diǎn)提取和匹配網(wǎng)絡(luò)(SuperPoint, D2-Net, HF-Net)的預(yù)訓(xùn)練模型直接拿來(lái)用,替換掉ORB-SLAM2里面的相關(guān)部分:

王小二:

1、不知道其它大佬的情況,現(xiàn)階段我做的方向就是深度學(xué)習(xí)和SLAM的結(jié)合方向,所以SLAM各個(gè)比較關(guān)鍵的環(huán)節(jié)如何使用深度學(xué)習(xí)來(lái)完成,我倒是看過(guò)部分文章,比如特征提取,回環(huán)檢測(cè),優(yōu)化等等。但是實(shí)際操作過(guò)的目前只有特征提取和描述子生成部分。詳情見(jiàn):https://zhuanlan.zhihu.com/p/214158164zhuanlan.zhihu.com

2、說(shuō)回到回環(huán)檢測(cè)這個(gè)問(wèn)題,其實(shí)從直觀上來(lái)說(shuō)和圖像檢測(cè),重識(shí)別等領(lǐng)域應(yīng)該是有共通之處的,所以我之前的考慮也是利用圖像檢索的方式來(lái)實(shí)現(xiàn)回環(huán)檢測(cè)。

3、說(shuō)到具體的操作,當(dāng)時(shí)考慮過(guò)的方向有:A、使用完整的圖像來(lái)完成特征提?。籅、圖像切塊或者提前感興趣區(qū)域提取特征;C、整體+興趣區(qū)域共同提取特征->企圖在查詢速度和精度做平衡

4、提取特征的方法考慮過(guò):A、使用傳統(tǒng)的特征來(lái)監(jiān)督CNN,比如ORB,SIFT,HOG等;B、學(xué)習(xí)人臉識(shí)別,重識(shí)別等使用triple loss,margin loss等使用圖片對(duì)或者圖片組來(lái)訓(xùn)練

5、說(shuō)起來(lái),也許可以看看小樣本分類識(shí)別的部分思路;細(xì)粒度識(shí)別分類的一些方案

6、現(xiàn)在已經(jīng)有的搜圖定位不妨也看看7、步子不要太大,是不是可以考慮CNN+傳統(tǒng)的詞袋模型一起使用?

Howie:

閉環(huán)過(guò)程使用深度學(xué)習(xí)中的圖像檢索,能有效的減少由于環(huán)境光照 季節(jié)更替,視角變化引起的匹配問(wèn)題。但是需要采集大量的樣本進(jìn)行訓(xùn)練,同時(shí)考慮網(wǎng)絡(luò)的大小和推理速度,以及自身的硬件平臺(tái)性能。在一些嵌入式應(yīng)用中,由深度學(xué)習(xí)帶來(lái)的性能提升 可能需要消耗巨大的資源,此時(shí)仍需以傳統(tǒng)算法為主。

實(shí)際使用中,若環(huán)境可布置如室內(nèi)環(huán)境,建議使用二維碼等人為標(biāo)志進(jìn)行回環(huán)檢測(cè),兼顧精度和速度。若是室外可變環(huán)境,則需要考慮自身的硬件性能,進(jìn)行傳統(tǒng)算法與深度學(xué)習(xí)方法的選擇,對(duì)于純粹的深度方向,應(yīng)考慮模型設(shè)計(jì)優(yōu)化,通過(guò)壓縮量化等手段提升模型速度。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • SLAM
    +關(guān)注

    關(guān)注

    24

    文章

    441

    瀏覽量

    32498
  • 圖像檢索
    +關(guān)注

    關(guān)注

    0

    文章

    28

    瀏覽量

    8139
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122793

原文標(biāo)題:視覺(jué)SLAM如何基于深度學(xué)習(xí)閉環(huán)檢測(cè)?

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于深度學(xué)習(xí)的增強(qiáng)版ORB-SLAM3詳解

    ORB-SLAM3雖是當(dāng)前最先進(jìn)的SLAM之一,但由于使用傳統(tǒng)的ORB(定向FAST和旋轉(zhuǎn)BRIEF)特征,在尺度、旋轉(zhuǎn)和光照發(fā)生顯著變化時(shí)可能會(huì)表現(xiàn)出局限性。
    的頭像 發(fā)表于 07-14 17:21 ?184次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的增強(qiáng)版ORB-<b class='flag-5'>SLAM</b>3詳解

    三維高斯?jié)姙R大規(guī)模視覺(jué)SLAM系統(tǒng)解析

    近期興起的神經(jīng)輻射場(chǎng)(NeRF)與三維高斯?jié)姙R(3DGS)技術(shù)在視覺(jué)SLAM中展現(xiàn)出令人鼓舞的突破性成果。然而,當(dāng)前主流方法多依賴RGBD傳感器,并且僅適用于室內(nèi)環(huán)境。在大規(guī)模室外場(chǎng)景中的重建魯棒性
    的頭像 發(fā)表于 05-27 14:13 ?314次閱讀
    三維高斯?jié)姙R大規(guī)模<b class='flag-5'>視覺(jué)</b><b class='flag-5'>SLAM</b>系統(tǒng)解析

    【「# ROS 2智能機(jī)器人開(kāi)發(fā)實(shí)踐」閱讀體驗(yàn)】視覺(jué)實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    : 一、機(jī)器人視覺(jué):從理論到實(shí)踐 第7章詳細(xì)介紹了ROS2在機(jī)器視覺(jué)領(lǐng)域的應(yīng)用,涵蓋了相機(jī)標(biāo)定、OpenCV集成、視覺(jué)巡線、二維碼識(shí)別以及深度學(xué)習(xí)
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機(jī)器人開(kāi)發(fā)實(shí)踐」閱讀體驗(yàn)】+ROS2應(yīng)用案例

    、深度學(xué)習(xí)視覺(jué)巡線、相機(jī)標(biāo)定、OpenCV圖像處理等。這些內(nèi)容雖然在本次閱讀體驗(yàn)中沒(méi)有詳細(xì)展開(kāi),但它們同樣對(duì)于機(jī)器人的視覺(jué)感知和環(huán)境理解具有重要作用。
    發(fā)表于 04-27 11:42

    行業(yè)首創(chuàng):基于深度學(xué)習(xí)視覺(jué)平臺(tái)的AI驅(qū)動(dòng)輪胎檢測(cè)自動(dòng)化

    全球領(lǐng)先的輪胎制造商 NEXEN TIRE 在其輪胎生產(chǎn)檢測(cè)過(guò)程中使用了基于友思特伙伴Neurocle開(kāi)發(fā)的AI深度學(xué)習(xí)視覺(jué)平臺(tái),實(shí)現(xiàn)缺陷檢測(cè)
    的頭像 發(fā)表于 03-19 16:51 ?442次閱讀
    行業(yè)首創(chuàng):基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>視覺(jué)</b>平臺(tái)的AI驅(qū)動(dòng)輪胎<b class='flag-5'>檢測(cè)</b>自動(dòng)化

    SLAMTEC Aurora:把深度學(xué)習(xí)“卷”進(jìn)機(jī)器人日常

    在人工智能和機(jī)器人技術(shù)飛速發(fā)展的今天,深度學(xué)習(xí)SLAM(同步定位與地圖構(gòu)建)技術(shù)的結(jié)合,正引領(lǐng)著智能機(jī)器人行業(yè)邁向新的高度。最近科技圈頂流DeepSeek簡(jiǎn)直殺瘋了!靠著逆天的深度
    的頭像 發(fā)表于 02-19 15:49 ?457次閱讀

    多維精密測(cè)量:半導(dǎo)體微型器件的2D&amp;3D視覺(jué)方案

    精密視覺(jué)檢測(cè)技術(shù)有效提升了半導(dǎo)體行業(yè)的生產(chǎn)效率和質(zhì)量保障。友思特自研推出基于深度學(xué)習(xí)平臺(tái)和視覺(jué)掃描系統(tǒng)的2D和3D
    的頭像 發(fā)表于 01-10 13:54 ?698次閱讀
    多維精密測(cè)量:半導(dǎo)體微型器件的2D&amp;3D<b class='flag-5'>視覺(jué)</b>方案

    利用VLM和MLLMs實(shí)現(xiàn)SLAM語(yǔ)義增強(qiáng)

    語(yǔ)義同步定位與建圖(SLAM)系統(tǒng)在對(duì)鄰近的語(yǔ)義相似物體進(jìn)行建圖時(shí)面臨困境,特別是在復(fù)雜的室內(nèi)環(huán)境中。本文提出了一種面向?qū)ο?b class='flag-5'>SLAM的語(yǔ)義增強(qiáng)(SEO-SLAM)的新型SLAM系統(tǒng),借
    的頭像 發(fā)表于 12-05 10:00 ?1365次閱讀
    利用VLM和MLLMs實(shí)現(xiàn)<b class='flag-5'>SLAM</b>語(yǔ)義增強(qiáng)

    AI干貨補(bǔ)給站03 | 工業(yè)AI視覺(jué)檢測(cè)項(xiàng)目實(shí)施第二步:數(shù)據(jù)收集

    注意事項(xiàng),為從業(yè)者提供知識(shí)積累,推動(dòng)AI視覺(jué)應(yīng)用的穩(wěn)健落地。本期亮點(diǎn)預(yù)告在現(xiàn)代制造業(yè)中,深度學(xué)習(xí)正逐漸成為推動(dòng)智能化轉(zhuǎn)型的重要力量。特別是在視覺(jué)檢測(cè)
    的頭像 發(fā)表于 11-22 01:06 ?631次閱讀
    AI干貨補(bǔ)給站03 | 工業(yè)AI<b class='flag-5'>視覺(jué)</b><b class='flag-5'>檢測(cè)</b>項(xiàng)目實(shí)施第二步:數(shù)據(jù)收集

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1905次閱讀

    AI干貨補(bǔ)給站 | 深度學(xué)習(xí)與機(jī)器視覺(jué)的融合探索

    ,幫助從業(yè)者積累行業(yè)知識(shí),推動(dòng)工業(yè)視覺(jué)應(yīng)用的快速落地。本期亮點(diǎn)預(yù)告本期將以“深度學(xué)習(xí)與機(jī)器視覺(jué)的融合探索”為主題,通過(guò)講解深度
    的頭像 發(fā)表于 10-29 08:04 ?575次閱讀
    AI干貨補(bǔ)給站 | <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>與機(jī)器<b class='flag-5'>視覺(jué)</b>的融合探索

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1353次閱讀

    從算法角度看 SLAM(第 2 部分)

    ,分別是基于濾波器的 SLAM、基于圖形的 SLAM 和基于深度學(xué)習(xí)SLAM。 基于濾波器的 SLA
    的頭像 發(fā)表于 10-02 16:39 ?789次閱讀
    從算法角度看 <b class='flag-5'>SLAM</b>(第 2 部分)

    一種適用于動(dòng)態(tài)環(huán)境的實(shí)時(shí)視覺(jué)SLAM系統(tǒng)

    既能保證效率和精度,又無(wú)需GPU,行業(yè)第一個(gè)達(dá)到此目標(biāo)的視覺(jué)動(dòng)態(tài)SLAM系統(tǒng)。
    的頭像 發(fā)表于 09-30 14:35 ?1340次閱讀
    一種適用于動(dòng)態(tài)環(huán)境的實(shí)時(shí)<b class='flag-5'>視覺(jué)</b><b class='flag-5'>SLAM</b>系統(tǒng)

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    ,共同進(jìn)步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問(wèn)題(一) Q:FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?現(xiàn)在用FPGA做深度學(xué)習(xí)加速成為一個(gè)熱門,深鑒科技,商湯,曠視科技等都有基于FPG
    發(fā)表于 09-27 20:53