99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

使用自監(jiān)督學習重建動態(tài)駕駛場景

NVIDIA英偉達企業(yè)解決方案 ? 來源:未知 ? 2023-12-16 16:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

wKgaomV9W2eACTqvAI2RUKtEaQ8569.gif

無論是單調的高速行車,還是平日的短途出行,駕駛過程往往平淡無奇。因此,在現(xiàn)實世界中采集的用于開發(fā)自動駕駛汽車(AV)的大部分訓練數(shù)據(jù)都明顯偏向于簡單場景。

這給部署魯棒的感知模型帶來了挑戰(zhàn)。自動駕駛汽車必須接受全面的訓練、測試和驗證,以便能夠應對復雜的場景,而這需要大量涵蓋此類場景的數(shù)據(jù)。

在現(xiàn)實世界中,收集此類場景數(shù)據(jù)要耗費大量時間和成本。而現(xiàn)在,仿真提供了另一個可選方案。但要大規(guī)模生成復雜動態(tài)場景仍然困難重重。

在近期發(fā)布的一篇論文中,NVIDIA Research 展示了一種基于神經(jīng)輻射場(NeRF)的新方法——EmerNeRF 及其如何使用自監(jiān)督學習準確生成動態(tài)場景。通過自監(jiān)督方法訓練,EmerNeRF 在動靜態(tài)場景重建上的表現(xiàn)超越了之前其他 NeRF 方法。詳細情況請參見 EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision。

wKgaomV9W2iAWIQRAIG3gjsjUmk047.gif

wKgaomV9W2qAEBhsAHW-H-Nc2wI223.gif

wKgaomV9W2uADx4ZAGFS9lTdEQ0746.gif

圖 1. EmerNeRF 重建動態(tài)駕駛場景的示例

相比其他 NeRF 重建方法,EmerNeRF 的動態(tài)場景重建準確率高出 15%,靜態(tài)場景高出 11%。新視角合成的準確率也高出 12%。

打破 NeRF 方法的局限性

NeRF 將一組靜態(tài)圖像重建成逼真的 3D 場景。這使得依據(jù)駕駛日志重建用于 DNN 訓練、測試驗證的高保真仿真環(huán)境成為可能。

然而,目前基于 NeRF 的重建方法在處理動態(tài)物體時十分困難,而且實踐證明難以擴展。例如有些方法可以生成靜態(tài)和動態(tài)場景,但它們依賴真值(GT)標簽。這就意味著必須使用自動標注或人工標注員先來準確標注出駕駛日志中的每個物體。

其他 NeRF 方法則依賴于額外的模型來獲得完整的場景信息,例如光流。

為了打破這些局限性,EmerNeRF 使用自監(jiān)督學習將場景分解為靜態(tài)、動態(tài)和流場(flow fields)。該模型從原始數(shù)據(jù)中學習前景、背景之間的關聯(lián)和結構,而不依賴人工標注的 GT 標簽。然后,對場景做時空渲染,并不依賴外部模型來彌補時空中的不完整區(qū)域,而且準確性更高。

wKgaomV9W22ANZJBAIreJrPM29Q814.gif

圖 2. EmerNeRF 將圖 1 第一段視頻中的場景分解為動態(tài)場、靜態(tài)場和流場

因此,其他模型往往會產(chǎn)生過于平滑的背景和精度較低的動態(tài)物體(前景),而 EmerNeRF 則能重建高保真的背景及動態(tài)物體(前景),同時保留場景的細節(jié)。

wKgaomV9W22AEIs2AAHQ9VA5HZs560.png

表 1. 將 EmerNeRF 與其他基于 NeRF 的動態(tài)場景重建方法進行比較后的評估結果,分為場景重建性能和新視角合成性能兩個類別

wKgaomV9W22AfcY9AAA2G6E-KP4237.png

表 2. 將 EmerNeRF 與其他基于 NeRF 的靜態(tài)場景重建方法進行比較后的評估結果

EmerNeRF 方法

EmerNeRF 使用的是自監(jiān)督學習,而非人工注釋或外部模型,這使得它能夠避開之前方法所遇到的難題。

wKgaomV9W26AEUZHAAIDIitNPLA183.png

圖 3.EmerNeRF 分解和重建管線

EmerNeRF 將場景分解成動態(tài)和靜態(tài)元素。在場景分解的同時,EmerNeRF 還能估算出動態(tài)物體(如汽車和行人)的流場,并通過聚合流場在不同時間的特征以進一步提高重建質量。其他方法會使用外部模型提供此類光流數(shù)據(jù),但通常會引入偏差。

通過將靜態(tài)場、動態(tài)場和流場結合在一起,EmerNeRF 能夠充分表達高密度動態(tài)場景,這不僅提高了重建精度,也方便擴展到其他數(shù)據(jù)源。

使用基礎模型加強語義理解

EmerNeRF 對場景的語義理解,可通過(視覺)基礎大模型監(jiān)督進一步增強。基礎大模型具有更通用的知識(例如特定類型的車輛或動物)。EmerNeRF 使用視覺 Transformer(ViT)模型,例如 DINO, DINOv2,將語義特征整合到場景重建中。

這使 EmerNeRF 能夠更好地預測場景中的物體,并執(zhí)行自動標注等下游任務。

wKgaomV9W2-AXLGcAEMAJKXvMk4609.gif

圖 4. EmerNeRF 使用 DINO 和 DINOv2 等基礎模型加強對場景的語義理解

不過,基于 Transformer 的基礎模型也帶來了新的挑戰(zhàn):語義特征可能會表現(xiàn)出與位置相關的噪聲,從而大大限制下游任務的性能。

wKgaomV9W3CAHehyAD0gOpmySM4007.gif

圖 5. EmerNeRF 使用位置嵌入消除基于 Transformer 的基礎模型所產(chǎn)生的噪聲

為了解決噪聲問題,EmerNeRF 通過位置編碼分解來恢復無噪聲的特征圖。如圖 5 所示,這樣就解鎖了基礎大模型在語義特征上全面、準確的表征能力。

評估 EmerNeRF

正如 EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision 中所述,研究人員整理出了一個包含 120 個獨特場景的數(shù)據(jù)集來評估 EmerNeRF 的性能,這些場景分為 32 個靜態(tài)場景、32 個動態(tài)場景和 56 個多樣化場景,覆蓋了高速、低光照等具有挑戰(zhàn)性的場景。

然后根據(jù)數(shù)據(jù)集的不同子集,評估每個 NeRF 模型重建場景和合成新視角的能力。

如表 1 所示,據(jù)此,EmerNeRF 在場景重建和新視角合成方面的表現(xiàn)始終明顯優(yōu)于其他方法。

EmerNeRF 的表現(xiàn)還優(yōu)于專門用于靜態(tài)場景的方法,這表明將場景分解為靜態(tài)和動態(tài)元素的自監(jiān)督分解既能夠改善靜態(tài)重建,還能夠改善動態(tài)重建。

總結

自動駕駛仿真只有在能夠準確重建現(xiàn)實世界的情況下才會有效。隨著場景的日益動態(tài)化和復雜化,對保真度的要求也越來越高,而且更難實現(xiàn)。

與以前的方法相比,EmerNeRF 能夠更準確地表現(xiàn)和重建動態(tài)場景,而且無需人工監(jiān)督或外部模型。這樣就能大規(guī)模地重建和編輯復雜的駕駛數(shù)據(jù),解決目前自動駕駛汽車訓練數(shù)據(jù)集的不平衡問題。

NVIDIA 正迫切希望研究 EmerNeRF 帶來的新功能,如端到端駕駛、自動標注和仿真等。

如要了解更多信息,請訪問 EmerNeRF 項目頁面并閱讀 EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision

了解更多

  • 適用于自動駕駛汽車的解決方案

    https://www.nvidia.cn/self-driving-cars/

  • EmerNeRF 項目頁面

    https://emernerf.github.io/

  • 閱讀 EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision.

    https://arxiv.org/abs/2311.02077

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國加州圣何塞會議中心舉行,線上大會也將同期開放。點擊“閱讀原文”掃描下方海報二維碼,立即注冊 GTC 大會


原文標題:使用自監(jiān)督學習重建動態(tài)駕駛場景

文章出處:【微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3953

    瀏覽量

    93809

原文標題:使用自監(jiān)督學習重建動態(tài)駕駛場景

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    機器學習異常檢測實戰(zhàn):用Isolation Forest快速構建無標簽異常檢測系統(tǒng)

    本文轉:DeepHubIMBA無監(jiān)督異常檢測作為機器學習領域的重要分支,專門用于在缺乏標記數(shù)據(jù)的環(huán)境中識別異常事件。本文深入探討異常檢測技術的理論基礎與實踐應用,通過IsolationForest
    的頭像 發(fā)表于 06-24 11:40 ?640次閱讀
    機器<b class='flag-5'>學習</b>異常檢測實戰(zhàn):用Isolation Forest快速構建無標簽異常檢測系統(tǒng)

    動態(tài)BGP與靜態(tài)BGP的區(qū)別?

    支持自動發(fā)現(xiàn)(通常通過監(jiān)聽端口) 適用場景小型網(wǎng)絡、連接少量對等網(wǎng)絡大型網(wǎng)絡、頻繁變動的對等關系 可維護性修改需人工操作,靈活性差可自動發(fā)現(xiàn)/建立鄰居,運維更自動化 路由學習來源通常結合靜態(tài)路由導入來自動態(tài)
    發(fā)表于 06-24 06:57

    一種適用于動態(tài)環(huán)境的3DGS-SLAM系統(tǒng)

    當前基于神經(jīng)輻射場(NeRF)或3D高斯?jié)姙R(3DGS)的SLAM方法在重建靜態(tài)3D場景方面表現(xiàn)出色,但在動態(tài)環(huán)境中的跟蹤和重建方面卻面臨著挑戰(zhàn)。
    的頭像 發(fā)表于 06-13 10:10 ?306次閱讀
    一種適用于<b class='flag-5'>動態(tài)</b>環(huán)境的3DGS-SLAM系統(tǒng)

    使用MATLAB進行無監(jiān)督學習

    監(jiān)督學習是一種根據(jù)未標注數(shù)據(jù)進行推斷的機器學習方法。無監(jiān)督學習旨在識別數(shù)據(jù)中隱藏的模式和關系,無需任何監(jiān)督或關于結果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?690次閱讀
    使用MATLAB進行無<b class='flag-5'>監(jiān)督學習</b>

    康謀分享 | 3DGS:革新自動駕駛仿真場景重建的關鍵技術

    3DGS技術為自動駕駛仿真場景重建帶來突破,通過3D高斯點精確表達復雜場景的幾何和光照特性,顯著提升渲染速度與圖像質量。康謀aiSim平臺結合3DGS,提供高保真虛擬環(huán)境與
    的頭像 發(fā)表于 03-05 09:45 ?3446次閱讀
    康謀分享 | 3DGS:革新自動<b class='flag-5'>駕駛</b>仿真<b class='flag-5'>場景</b><b class='flag-5'>重建</b>的關鍵技術

    汽車雷達回波發(fā)生器的技術原理和應用場景

    的波束并向前傳播,以模擬真實的雷達工作環(huán)境。應用場景 自動駕駛系統(tǒng)的開發(fā)和測試:在自動駕駛系統(tǒng)的開發(fā)和測試過程中,汽車電子雷達回波發(fā)生器可以模擬各種交通場景下的目標回波,評估雷達系統(tǒng)在
    發(fā)表于 11-15 14:06

    時空引導下的時間序列監(jiān)督學習框架

    【導讀】最近,香港科技大學、上海AI Lab等多個組織聯(lián)合發(fā)布了一篇時間序列無監(jiān)督預訓練的文章,相比原來的TS2Vec等時間序列表示學習工作,核心在于提出了將空間信息融入到預訓練階段,即在預訓練階段
    的頭像 發(fā)表于 11-15 11:41 ?769次閱讀
    時空引導下的時間序列<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學習</b>框架

    HarmonyOS NEXT應用元服務開發(fā)內(nèi)容動態(tài)變化場景

    適用場景:界面上重要內(nèi)容在動態(tài)變化后,需要實時發(fā)送變化后的朗讀內(nèi)容 說明:如果界面上內(nèi)容發(fā)生動態(tài)變化且其內(nèi)容對用戶具有必要的提示/告知/指導作用,則其發(fā)生變化后需對其變化內(nèi)容進行朗讀,可調用無障礙
    發(fā)表于 10-29 10:52

    基于場景的自動駕駛驗證策略

    可選方案是將實際交通狀況做出總結生成具有高度代表性的交通場景,通過仿真分析自動駕駛系統(tǒng)在這些場景上的安全性。然而交通場景中元素的復雜性與失敗事件的罕見性導致難于準確分析系統(tǒng)失敗的概率和
    的頭像 發(fā)表于 10-22 16:14 ?815次閱讀
    基于<b class='flag-5'>場景</b>的自動<b class='flag-5'>駕駛</b>驗證策略

    連數(shù)字化健康管理方案應用全場景

    連智能終端產(chǎn)品系列中,有 兩款 藍牙網(wǎng)關是動態(tài)健康管理的理想解決方案。 DGW412網(wǎng)關 藍牙轉4G數(shù)據(jù)傳輸功能 ??適用于佩戴動態(tài)監(jiān)測設備進行較大范圍移動,數(shù)據(jù)需要穩(wěn)定傳輸?shù)?b class='flag-5'>場景
    的頭像 發(fā)表于 09-09 18:29 ?1350次閱讀
    <b class='flag-5'>自</b>連數(shù)字化健康管理方案應用全<b class='flag-5'>場景</b>

    神經(jīng)重建在自動駕駛模擬中的應用

    AD和ADAS系統(tǒng)需要在能代表真實世界的3D環(huán)境條件下,依靠閉環(huán)驗證確保安全性和性能,然而手工構建的3D環(huán)境很難解決Sim2Real的差距并且在可擴展方面存在一定的局限性。為此康謀為您介紹神經(jīng)重建如何打破限制,在自動駕駛模擬中的具體應用。
    的頭像 發(fā)表于 08-21 10:03 ?1307次閱讀
    神經(jīng)<b class='flag-5'>重建</b>在自動<b class='flag-5'>駕駛</b>模擬中的應用

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    收集海量的文本數(shù)據(jù)作為訓練材料。這些數(shù)據(jù)集不僅包括語法結構的學習,還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 監(jiān)督學習:模型采用
    發(fā)表于 08-02 11:03

    基于大模型的仿真系統(tǒng)研究一——三維重建大模型

    問題,賽目推出了基于大模型的仿真系統(tǒng),利用機器學習、深度學習等人工智能技術,不僅推出自動標注大模型、多模態(tài)檢測大模型和場景生成大模型等模塊,并且引入三維重建大模型加強渲染畫面真實性。
    的頭像 發(fā)表于 07-30 14:51 ?2656次閱讀
    基于大模型的仿真系統(tǒng)研究一——三維<b class='flag-5'>重建</b>大模型

    RISC-V適合什么樣的應用場景

    解決方案,適用于邊緣計算、智能攝像頭、智能音箱等場景。 靈活性:RISC-V的開放性使得其能夠更容易地與各種AI框架和算法集成,滿足不同的AI應用需求。 4. 自動駕駛和汽車電子 定制化芯片:RISC-V
    發(fā)表于 07-29 17:16

    【《大語言模型應用指南》閱讀體驗】+ 基礎篇

    章節(jié)最后總結了機器學習的分類:有監(jiān)督學習、無監(jiān)督學習、半監(jiān)督學習監(jiān)督學習和強化
    發(fā)表于 07-25 14:33