99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于NVIDIA AI的3D機(jī)器人感知與地圖構(gòu)建系統(tǒng)設(shè)計(jì)

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2025-07-04 14:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

機(jī)器人必須感知和理解其 3D 環(huán)境,才能安全高效地行動(dòng)。這一點(diǎn)在非結(jié)構(gòu)化或陌生空間中的自主導(dǎo)航、對(duì)象操作和遠(yuǎn)程操作等任務(wù)尤為重要。當(dāng)前機(jī)器人感知技術(shù)的進(jìn)展,越來(lái)越多地體現(xiàn)在通過(guò)統(tǒng)一的實(shí)時(shí)工作流與強(qiáng)大的感知模塊,實(shí)現(xiàn) 3D 場(chǎng)景理解、可泛化物體跟蹤與持久性空間記憶的集成。

本期“NVIDIA 機(jī)器人研究與開(kāi)發(fā)摘要 (R2D2) ”將探討 NVIDIA 研究中心的多個(gè)感知模型和系統(tǒng),這些模型和系統(tǒng)支持統(tǒng)一的機(jī)器人 3D 感知堆棧。它們可在不同的真實(shí)世界環(huán)境中實(shí)現(xiàn)可靠的深度估計(jì)、攝像頭和物體位姿追蹤以及 3D 重建:

FoundationStereo(CVPR 2025 最佳論文提名):用于立體深度估計(jì)的基礎(chǔ)模型,可在各種環(huán)境(包括室內(nèi)、室外、合成和真實(shí)場(chǎng)景)中實(shí)現(xiàn)零樣本性能的泛化。

PyCuVSLAM:用于 cuVSLAM 的 Python Wrapper,支持 Python 用戶利用 NVIDIA 的 CUDA 加速 SLAM 庫(kù),用于實(shí)時(shí)攝像頭位姿估計(jì)和環(huán)境建圖。

BundleSDF:用于 RGB-D 視頻中 6-DoF 物體位姿追蹤和密集 3D 重建的神經(jīng)系統(tǒng)。

FoundationPose:可泛化的 6D 物體位姿估計(jì)器和跟蹤器,適用于僅有最少先驗(yàn)信息的新物體。

nvblox Pytorch Wrapper:nvblox 庫(kù)的 Pytorch wrapper,nvblox 是一個(gè) CUDA 加速庫(kù),用于 PyTorch 的深度攝像頭 3D 重建。

3D 空間表示:機(jī)器人感知的核心

這些項(xiàng)目的核心在于強(qiáng)調(diào) 3D 空間表示,即以機(jī)器人可以使用的形式捕獲環(huán)境或物體的結(jié)構(gòu)。FoundationStereo 可處理立體圖像深度估計(jì)的基本任務(wù)。它引入了一個(gè)用于立體深度的基礎(chǔ)模型,專為實(shí)現(xiàn)強(qiáng)零樣本泛化而設(shè)計(jì)。

f4ade38e-5661-11f0-9ca0-92fbcf53809c.png

圖 1. 使用 FoundationStereo 生成的視差圖像

FoundationStereo 已在超過(guò) 100 萬(wàn)對(duì)合成立體圖像上進(jìn)行訓(xùn)練。它無(wú)需針對(duì)特定場(chǎng)景進(jìn)行調(diào)整,即可在各種環(huán)境(包括室內(nèi)、室外、合成和真實(shí)場(chǎng)景,如圖 1 所示)中推斷出準(zhǔn)確的視差,從而推理得到 3D 結(jié)構(gòu)。輸出包括表示場(chǎng)景 3D 結(jié)構(gòu)的密集深度圖或點(diǎn)云。

在環(huán)境映射方面,nvblox 和 cuVSLAM 等庫(kù)會(huì)隨著時(shí)間的推移構(gòu)建空間表示。NVIDIA 的 nvblox 是一個(gè) GPU 加速的 3D 重建庫(kù),可重建體素網(wǎng)格體素網(wǎng)格,并輸出用于導(dǎo)航的 Euclidean signed distance field (ESDF) 熱圖。這使移動(dòng)機(jī)器人能夠僅使用視覺(jué)進(jìn)行 3D 避障,為昂貴的 3D 激光雷達(dá)傳感器提供了一種經(jīng)濟(jì)高效的替代方案。

雖然 nvblox 擅長(zhǎng)幾何映射,但缺乏對(duì)環(huán)境的語(yǔ)義理解。借助 nvblox_torch,我們引入了一個(gè) PyTorch Wrapper,它可以將 2D VLM 基礎(chǔ)模型的語(yǔ)義嵌入提升到 3D。

同樣,cuVSLAM 通過(guò) Isaac ROS 為機(jī)器人提供 GPU 加速的視覺(jué)慣性 SLAM。cuVSLAM 以前僅限于 ROS 用戶,現(xiàn)在可以通過(guò)名為 PyCuVSLAM 的新 Python API 進(jìn)行訪問(wèn),這簡(jiǎn)化了數(shù)據(jù)工程師深度學(xué)習(xí)研究人員的集成工作。

深度和地圖構(gòu)建模塊可創(chuàng)建幾何支架(無(wú)論是點(diǎn)云、signed distance fields,還是特征網(wǎng)格),并在此基礎(chǔ)上構(gòu)建更高級(jí)別的感知和規(guī)劃。如果沒(méi)有可靠的 3D 呈現(xiàn),機(jī)器人就無(wú)法準(zhǔn)確感知、記憶或推理世界。

用于場(chǎng)景理解的實(shí)時(shí) SLAM和攝像頭位姿估計(jì)

將這些項(xiàng)目連接在一起的一個(gè)關(guān)鍵方面是通過(guò) SLAM(同步定位與地圖構(gòu)建)實(shí)現(xiàn)實(shí)時(shí)場(chǎng)景理解。cuVSLAM 是一種高效的 CUDA 加速 SLAM 系統(tǒng),用于在機(jī)器人的板載 GPU 上運(yùn)行的立體視覺(jué)慣性 SLAM。

f4c6d060-5661-11f0-9ca0-92fbcf53809c.png

圖 2. 使用 cuVSLAM 生成的定位

對(duì)于更偏向使用 Python 的簡(jiǎn)單性和通用性的開(kāi)發(fā)者來(lái)說(shuō),利用強(qiáng)大而高效的 Visual SLAM 系統(tǒng)仍然是一項(xiàng)艱巨的任務(wù)。借助 PyCuVSLAM,開(kāi)發(fā)者可以輕松地對(duì) cuVSLAM 進(jìn)行原型設(shè)計(jì)并將其用于應(yīng)用,例如通過(guò)互聯(lián)網(wǎng)規(guī)模的視頻生成機(jī)器人訓(xùn)練數(shù)據(jù)集。該 API 可以從第一人稱觀看視頻中估計(jì)自我攝像頭的位姿和軌跡,從而增強(qiáng)端到端決策模型。此外,將 cuVSLAM 集成到 MobilityGen 等訓(xùn)練流程中,可以通過(guò)學(xué)習(xí)真實(shí)的 SLAM 系統(tǒng)錯(cuò)誤來(lái)創(chuàng)建更穩(wěn)健的模型。功能示例如圖 2 所示。

實(shí)時(shí) 3D 映射

f4d7177c-5661-11f0-9ca0-92fbcf53809c.gif

圖 3. 上圖顯示了使用 nvblox_torch 構(gòu)建的重建,左下角展示了將視覺(jué)基礎(chǔ)模型特征融合到 3D voxel grid 中的過(guò)程,這是表示場(chǎng)景語(yǔ)義內(nèi)容的常用方法。

右下角顯示了從重建中提取的 3D 距離場(chǎng)切片

nvblox_torch 是一個(gè)易于使用的 Python 接口,用于 nvblox CUDA 加速重建庫(kù),允許開(kāi)發(fā)者輕松地對(duì)用于操作和導(dǎo)航應(yīng)用的 3D 地圖構(gòu)建系統(tǒng)進(jìn)行原型設(shè)計(jì)。

空間記憶是機(jī)器人完成較長(zhǎng)距離任務(wù)的核心能力。機(jī)器人通常需要推理場(chǎng)景的幾何和語(yǔ)義內(nèi)容,其中場(chǎng)景的空間范圍通常大于單個(gè)攝像頭圖像所能捕獲的空間范圍。3D 地圖將多個(gè)視圖中的幾何和語(yǔ)義信息聚合為場(chǎng)景的統(tǒng)一表示。利用 3D 地圖的這些特性可以提供空間記憶,并支持機(jī)器人學(xué)習(xí)中的空間推理。

nvblox_torch 是一個(gè) CUDA 加速的 PyTorch 工具箱,用于使用 RGB-D 攝像頭進(jìn)行機(jī)器人映射。該系統(tǒng)允許用戶在 NVIDIA GPU 上將環(huán)境觀察結(jié)果與場(chǎng)景的 3D 呈現(xiàn)相結(jié)合。然后,可以查詢此 3D 表示形式的數(shù)量,例如障礙物距離、表面網(wǎng)格和占用概率(請(qǐng)見(jiàn)圖 3)。nvblox_torch 使用來(lái)自 PyTorch 張量的零復(fù)制輸入/ 輸出接口來(lái)提供超快性能。

此外,nvblox_torch 還添加了深度特征融合這一新功能。此功能允許用戶將視覺(jué)基礎(chǔ)模型中的圖像特征融合到 3D 重建中。隨后,生成的重建將同時(shí)表示場(chǎng)景的幾何圖形和語(yǔ)義內(nèi)容。3D 基礎(chǔ)模型特征正在成為基于語(yǔ)義的導(dǎo)航和語(yǔ)言引導(dǎo)操作的熱門(mén)表示方法。nvblox_torch 庫(kù)中現(xiàn)已提供此表示方法。

6-DoF 物體位姿追蹤和新物體的 3D 重建

以物體為中心的感知也同樣重要:了解場(chǎng)景中的物體是什么、它們?cè)谀睦镆约八鼈內(nèi)绾我苿?dòng)。FoundationPose 和 BundleSDF 這兩個(gè)項(xiàng)目解決了 6-DoF 物體位姿估計(jì)和追蹤的挑戰(zhàn),其中也包括機(jī)器人以前從未見(jiàn)過(guò)的物體。

FoundationPose 是一種基于學(xué)習(xí)的方法:它是用于 6D 物體位姿估計(jì)和跟蹤的統(tǒng)一基礎(chǔ)模型,適用于基于模型和無(wú)模型的場(chǎng)景。這意味著同一系統(tǒng)可以處理已知對(duì)象(如果有可用的 CAD 模型)或全新對(duì)象(僅使用少量參考圖像),而無(wú)需重新訓(xùn)練。FoundationPose 通過(guò)利用神經(jīng)隱式表示來(lái)合成物體的新視圖來(lái)實(shí)現(xiàn)這一點(diǎn),有效地彌合了完整 3D 模型與僅有稀疏觀察之間的差距。

它在大規(guī)模合成數(shù)據(jù)上進(jìn)行訓(xùn)練(借助基于 LLM 的數(shù)據(jù)生成工作流等技術(shù)),具有強(qiáng)大的泛化能力。事實(shí)上,只要提供最少的信息,比如模型或圖像,就可以在測(cè)試時(shí)即時(shí)應(yīng)用于新對(duì)象。這種基礎(chǔ)模型方法在位姿基準(zhǔn)測(cè)試中實(shí)現(xiàn)了最出色的準(zhǔn)確性,在保持對(duì)新物體的零樣本能力的同時(shí),性能優(yōu)于專門(mén)方法。

f50556aa-5661-11f0-9ca0-92fbcf53809c.gif

圖 4. FoundationPose 在機(jī)器人機(jī)械臂中的應(yīng)用

BundleSDF 采用在線優(yōu)化驅(qū)動(dòng)的方法來(lái)解決此問(wèn)題,提供了一種近實(shí)時(shí) (~ 10 Hz) 方法,用于從 RGB-D 視頻中同時(shí)進(jìn)行 6-DoF 位姿追蹤和神經(jīng) 3D 重建。它僅假設(shè)第一幀中的分割;之后不需要先驗(yàn) CAD 模型或類(lèi)別知識(shí)。

BundleSDF 的關(guān)鍵是并發(fā)學(xué)習(xí)的 Neural Object Field,一種神經(jīng)隱式 SDF,可在觀察時(shí)捕獲物體的幾何圖形和外觀。當(dāng)物體移動(dòng)時(shí),BundleSDF 會(huì)使用過(guò)去的幀不斷優(yōu)化位姿圖,隨著時(shí)間的推移優(yōu)化位姿軌跡和形狀估計(jì)。位姿估計(jì)與形狀學(xué)習(xí)的集成可有效解決大型位姿變化、遮擋、低紋理表面和鏡面反射等挑戰(zhàn)。在交互結(jié)束時(shí),機(jī)器人可以擁有一致的 3D 模型并追蹤動(dòng)態(tài)獲取的位姿序列。

該框架概述如圖 5 所示。首先,在連續(xù)圖像之間匹配特征以獲得粗略的位姿估計(jì) (Sec. 3.1),一些位姿幀存儲(chǔ)在內(nèi)存池中一遍后續(xù)進(jìn)行優(yōu)化 (Sec. 3.2),根據(jù)池中的一個(gè)子集動(dòng)態(tài)創(chuàng)建位姿圖 (Sec. 3.3),在線優(yōu)化會(huì)細(xì)化圖中的所有位姿以及當(dāng)前位姿,更新的位姿存儲(chǔ)回池中。最后,池中的所有位姿幀在單獨(dú)的線程中,學(xué)習(xí) Neural Object Field,用于對(duì)幾何和視覺(jué)紋理進(jìn)行建模 (Sec. 3.4),同時(shí)調(diào)整之前估計(jì)的位姿。

f5b6f900-5661-11f0-9ca0-92fbcf53809c.png

圖 5. BundleSDF 框架,該框架使用內(nèi)存增強(qiáng)的位姿圖來(lái)估計(jì)和優(yōu)化視頻流中的 3D 物體位姿,

并學(xué)習(xí)幾何圖形和外觀的神經(jīng)物體表示

FoundationPose 和 BundleSDF 都強(qiáng)調(diào)了對(duì)象級(jí) 3D 理解在機(jī)器人開(kāi)發(fā)中的重要性。機(jī)器人如果需要抓取或操控任意物體,必須能夠感知物體的 3D 位置和方向(位姿),通常還需要感知其形狀。這些項(xiàng)目展示了兩條互補(bǔ)的路徑:預(yù)訓(xùn)練的基礎(chǔ)模型,通過(guò)學(xué)習(xí)廣泛的先驗(yàn)來(lái)泛化到新對(duì)象;以及用于構(gòu)建自定義模型的對(duì)象的在線 neural SLAM 。在實(shí)踐中,這些功能甚至可以協(xié)同工作,例如,基礎(chǔ)模型可以提供初步猜測(cè),然后通過(guò)在線重建進(jìn)行改進(jìn)。機(jī)器人正在朝著新物體的實(shí)時(shí) 6D 感知發(fā)展,而不是局限于識(shí)別一組固定的已知物體。

基礎(chǔ)模型:跨任務(wù)的泛化和統(tǒng)一

更多的機(jī)器人感知系統(tǒng)利用基礎(chǔ)模型,即只需極少調(diào)整即可跨任務(wù)泛化的大型神經(jīng)網(wǎng)絡(luò)。這在 FoundationStereo 和 FoundationPose 中很明顯,它們分別為立體深度估計(jì)和 6D 物體位姿追蹤提供了強(qiáng)有力的基準(zhǔn)。

FoundationStereo 將之前于 DepthAnythingV2 的側(cè)調(diào)整單目深度整合到立體模型框架中,無(wú)需重新訓(xùn)練即可增強(qiáng)魯棒性和域泛化。它在各種環(huán)境中使用超過(guò) 100 萬(wàn)個(gè)合成立體對(duì)進(jìn)行訓(xùn)練,在 Middlebury、KITTI 和 ETH3D 數(shù)據(jù)集等基準(zhǔn)測(cè)試中實(shí)現(xiàn)了先進(jìn)的零樣本性能。該模型改進(jìn)了成本體積編碼器和解碼器,增強(qiáng)了遠(yuǎn)程差異估計(jì)。

在圖 6 中,Side-Tuning Adapter (STA) 利用來(lái)自凍結(jié)的 DepthAnythingV2 的豐富單目先驗(yàn),以及來(lái)自多級(jí) CNN 的詳細(xì)高頻特征來(lái)提取一元特征。Attentive Hybrid Cost Filtering (AHCF) 將 Axial-Planar Convolution (APC) 過(guò)濾與 Disparity Transformer (DT) 模塊相結(jié)合,在 4D 混合成本體積中有效聚合跨空間和差異維度的特征。根據(jù)此過(guò)濾后的成本量預(yù)測(cè)初始差異,并使用 GRU 塊進(jìn)行細(xì)化。每個(gè)優(yōu)化階段都會(huì)使用更新后的差異從過(guò)濾后的混合成本體積和相關(guān)體積中查找特征,從而指導(dǎo)下一個(gè)優(yōu)化步驟,并產(chǎn)生最終的輸出差異。

f5cdda26-5661-11f0-9ca0-92fbcf53809c.png

圖 6. 通過(guò) AHCF 從輸入圖像到輸出差異的 FoundationStereo 流

FoundationPose 是一個(gè)統(tǒng)一模型,用于對(duì)新物體進(jìn)行單幀 6D 位姿估計(jì)和多幀位姿追蹤。它通過(guò)學(xué)習(xí)物體幾何圖形的神經(jīng)隱式表示,支持基于模型和基于圖像的推理。它使用 CAD 模型或一些 RGB 引用泛化到不可見(jiàn)的對(duì)象。它基于大語(yǔ)言模型生成的大型合成數(shù)據(jù)集進(jìn)行訓(xùn)練,包括各種任務(wù)提示和場(chǎng)景變體。

FoundationPose 利用對(duì)比訓(xùn)練和基于 Transformer 的編碼器,在 YCB-Video、T-LESS 和 LM-OCC 等基準(zhǔn)測(cè)試中的表現(xiàn)明顯優(yōu)于 CosyPose 和 StablePose 等特定任務(wù)基準(zhǔn)。圖 7 展示了 FoundationPose 的工作原理。為了減少大規(guī)模訓(xùn)練的人工工作量,我們使用新興技術(shù)和資源(包括 3D 模型數(shù)據(jù)庫(kù)、LLMs 和 diffusion models)創(chuàng)建了合成數(shù)據(jù)生成工作流 (Sec. 3.1)。為了將無(wú)模型設(shè)置和基于模型的設(shè)置連接起來(lái),我們使用 object-centric neural field (Sec. 3.2),用于新穎的視圖 RGB-D 渲染和渲染與比較。對(duì)于位姿估計(jì),我們會(huì)在物體周?chē)鶆虻爻跏蓟治蛔?,并通過(guò) refinement network 進(jìn)行優(yōu)化 (Sec. 3.3)。最后,我們將優(yōu)化后的位姿發(fā)送到位姿選擇模塊,以預(yù)測(cè)其分?jǐn)?shù),并選擇具有最佳分?jǐn)?shù)的姿勢(shì)作為輸出 (Sec. 3.4)。

f5e1e2a0-5661-11f0-9ca0-92fbcf53809c.png

圖 7. 該工作流通過(guò)結(jié)合神經(jīng)渲染、細(xì)化和位姿假設(shè)排序來(lái)生成合成訓(xùn)練數(shù)據(jù)并估計(jì)物體位姿

這些模型共同標(biāo)志著機(jī)器人技術(shù)在構(gòu)建統(tǒng)一可復(fù)用感知主干的道路上邁出了關(guān)鍵一步。通過(guò)將深度和物體幾何的通用先驗(yàn)知識(shí)嵌入實(shí)時(shí)系統(tǒng),機(jī)器人能夠在零樣本場(chǎng)景中(包括訓(xùn)練未涉及的環(huán)境中以及從未見(jiàn)過(guò)的物體交互場(chǎng)景)實(shí)現(xiàn)可靠性能,隨著機(jī)器人技術(shù)朝著更具適應(yīng)性的開(kāi)放世界部署發(fā)展,基礎(chǔ)模型提供了在通用感知框架內(nèi)支持廣泛任務(wù)所需的靈活性和可擴(kuò)展性。

邁向集成式 3D 感知堆棧

這些項(xiàng)目共同指向一個(gè)統(tǒng)一的 3D 感知堆棧,其中深度估計(jì)、SLAM、物體追蹤和重建作為緊密集成的組件運(yùn)行。FoundationStereo 可提供可靠的深度,cuVSLAM 可跟蹤攝像頭位姿以進(jìn)行實(shí)時(shí)定位和映射,而 BundleSDF 和 FoundationPose 可處理物體級(jí)理解,包括 6-DoF 追蹤和形狀估計(jì),即使是未見(jiàn)過(guò)的物體也不例外。

通過(guò)基于 foundation models 和神經(jīng) 3D 表征構(gòu)建,這些系統(tǒng)實(shí)現(xiàn)了通用的實(shí)時(shí)感知,支持在復(fù)雜環(huán)境中進(jìn)行導(dǎo)航、操作和交互。機(jī)器人技術(shù)的未來(lái)在于這種集成堆棧,其中感知模塊共享表示和上下文,使機(jī)器人能夠以空間和語(yǔ)義意識(shí)進(jìn)行感知、記憶和行動(dòng)。

總結(jié)

本期 R2D2 探討了立體深度估計(jì)、SLAM、物體位姿跟蹤和 3D 重建等領(lǐng)域的最新進(jìn)展,以及如何融合到統(tǒng)一的機(jī)器人 3D 感知堆棧中。這些工具大多由基礎(chǔ)模型驅(qū)動(dòng),使機(jī)器人能夠?qū)崟r(shí)理解環(huán)境并與之交互,即使面對(duì)新物體或陌生場(chǎng)景也能應(yīng)對(duì)自如。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29718

    瀏覽量

    212760
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5304

    瀏覽量

    106323
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35065

    瀏覽量

    279337
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3517

    瀏覽量

    50383

原文標(biāo)題:R2D2:利用 NVIDIA 研究中心的研究成果,構(gòu)建 AI 驅(qū)動(dòng)的 3D 機(jī)器人感知與地圖構(gòu)建系統(tǒng)

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于3D視覺(jué)技術(shù)的機(jī)器人系統(tǒng)

    隨著科學(xué)技術(shù)的不斷進(jìn)步,未來(lái)3D視覺(jué)系統(tǒng)將成為機(jī)器人系統(tǒng)的標(biāo)準(zhǔn)附加設(shè)備,攜手機(jī)器人共同打造夢(mèng)幻般視覺(jué)。
    發(fā)表于 05-14 11:57 ?4721次閱讀

    《電子發(fā)燒友電子設(shè)計(jì)周報(bào)》聚焦硬科技領(lǐng)域核心價(jià)值 第19期:2025.07.7--2025.07.11

    的快速落地。 4、基于NVIDIA AI3D機(jī)器人感知地圖
    發(fā)表于 07-11 20:36

    物聯(lián)網(wǎng)、AR、3D打印、機(jī)器人未來(lái)將改變我們的生活?

    導(dǎo)讀: 物聯(lián)網(wǎng)、增強(qiáng)現(xiàn)實(shí)(AR)、3D打印和機(jī)器人技術(shù),曾經(jīng)只能在科幻電影里看到的黑科技,正在逐漸走進(jìn)我們的生活。由口袋妖怪到AR紅包,越來(lái)越多的新技術(shù)在不斷走進(jìn)我們的生活!似乎每過(guò)一天,新技術(shù)就變
    發(fā)表于 10-19 09:18

    走到哪都不會(huì)迷路,全自動(dòng)機(jī)器人是怎么導(dǎo)航的?

    3D地圖中,也是靠這種方法定位。 無(wú)人車(chē)激光雷達(dá)生成定位地圖那萬(wàn)一機(jī)器人走進(jìn)溝里、爬樹(shù)上了怎么辦?我們也有對(duì)策。平面中,常用二維柵格地圖,
    發(fā)表于 05-11 11:51

    Voxel 3D 飛行時(shí)間傳感器機(jī)器人視覺(jué)參考設(shè)計(jì)

    的性能,此外還探討了 3D 傳感器(積分時(shí)間、飽和度)、信號(hào)處理(濾波)和外部紅外 (IR) 輻射源對(duì)測(cè)量的影響。憑借 3D TOF 解決方案的距離測(cè)量準(zhǔn)確性,掃地機(jī)器人能夠檢測(cè)和識(shí)別物體并構(gòu)
    發(fā)表于 10-11 15:37

    怎么構(gòu)建一張滿足機(jī)器人導(dǎo)航需求的地圖?

    使用的算法與傳感器差異采用不同的地圖描述形式,所以構(gòu)建一張可靠的地圖對(duì)機(jī)器人有著極其重要的作用,那如何構(gòu)建滿足
    發(fā)表于 08-18 06:47

    未來(lái)的機(jī)器人3D視覺(jué)系統(tǒng)將會(huì)發(fā)生什么樣的變化?

    視覺(jué)系統(tǒng)的發(fā)展趨勢(shì)怎么樣?3D視覺(jué)系統(tǒng)應(yīng)用在哪些方面?未來(lái)的機(jī)器人3D視覺(jué)系統(tǒng)將會(huì)發(fā)生什么樣的變
    發(fā)表于 05-11 06:40

    全球3D芯片及模組引領(lǐng)者,強(qiáng)勢(shì)登陸中國(guó)市場(chǎng)

    ,助力合作伙伴實(shí)現(xiàn)3D夢(mèng)想3D視覺(jué)技術(shù)是高端制造和智能制造機(jī)器人的關(guān)鍵技術(shù),它賦予了機(jī)器人“眼睛和大腦”三維感知能力,是
    發(fā)表于 11-29 11:03

    基于Arduino的3D打印2輪機(jī)器人

    描述AR.LO - Arduino 3D 打印機(jī)器人AR.LO 是一款基于 Arduino 的 3D 打印 2 輪機(jī)器人。它具有:OLED 顯示屏、超聲波傳感器、藍(lán)牙模塊和 2 個(gè)改進(jìn)
    發(fā)表于 08-12 07:55

    基于VSLAM的移動(dòng)機(jī)器人三維定位與地圖構(gòu)建

    移動(dòng)機(jī)器人在探索未知環(huán)境且沒(méi)有外部參考系統(tǒng)的情況下,面臨著同時(shí)定位和地圖構(gòu)建( SLAM)問(wèn)題。針對(duì)基于特征的視覺(jué)SLAM( VSLAM)算法構(gòu)建
    發(fā)表于 11-24 16:33 ?23次下載
    基于VSLAM的移動(dòng)<b class='flag-5'>機(jī)器人</b>三維定位與<b class='flag-5'>地圖</b><b class='flag-5'>構(gòu)建</b>

    3D打印構(gòu)建“折紙”機(jī)器人抓手

    麻省理工使用3D打印來(lái)構(gòu)建“折紙”機(jī)器人抓手
    的頭像 發(fā)表于 03-20 14:16 ?5422次閱讀

    INDEMIND 3D語(yǔ)義地圖構(gòu)建技術(shù)在機(jī)器人上的應(yīng)用

    隨著機(jī)器人的應(yīng)用版圖從工廠不斷擴(kuò)張到商場(chǎng)、超市等服務(wù)領(lǐng)域,面對(duì)的作業(yè)環(huán)境也越來(lái)越復(fù)雜,對(duì)于產(chǎn)品的安全性、可靠性、智能化等要求明顯提高,而機(jī)器人要應(yīng)對(duì)這一變化,首先要做的不是對(duì)系統(tǒng)盲目的做加法,而是需要提升環(huán)境
    的頭像 發(fā)表于 03-10 10:16 ?1603次閱讀

    機(jī)器人如何構(gòu)建3D語(yǔ)義地圖?

    業(yè)務(wù)邏輯的高層次語(yǔ)義信息,相反,3D語(yǔ)義地圖不僅包含物體及環(huán)境的結(jié)構(gòu)信息,還有物體類(lèi)別、功能屬性等“常識(shí)”性信息,可以說(shuō)是機(jī)器人的保姆級(jí)地圖。
    發(fā)表于 08-11 11:01 ?733次閱讀

    NVIDIA Isaac 平臺(tái)先進(jìn)的仿真和感知工具助力 AI 機(jī)器人技術(shù)加速發(fā)展

    ? NVIDIA Isaac ROS 2.0 ?和? NVIDIA Isaac Sim 2023.1? 以及感知和仿真升級(jí)進(jìn)行了發(fā)布,用以簡(jiǎn)化 ROS 開(kāi)發(fā)者對(duì)高性能 AI
    的頭像 發(fā)表于 10-20 02:00 ?1476次閱讀
    <b class='flag-5'>NVIDIA</b> Isaac 平臺(tái)先進(jìn)的仿真和<b class='flag-5'>感知</b>工具助力 <b class='flag-5'>AI</b> <b class='flag-5'>機(jī)器人</b>技術(shù)加速發(fā)展

    利用NVIDIA Isaac平臺(tái)構(gòu)建、設(shè)計(jì)并部署機(jī)器人應(yīng)用

    機(jī)器人在智能制造設(shè)施、商業(yè)廚房、醫(yī)院、倉(cāng)庫(kù)物流和農(nóng)業(yè)領(lǐng)域等不同環(huán)境中的應(yīng)用正在迅速擴(kuò)展。該行業(yè)正在向智能自動(dòng)化轉(zhuǎn)變,這需要增強(qiáng)的機(jī)器人功能來(lái)執(zhí)行感知、地圖
    的頭像 發(fā)表于 11-09 11:41 ?1750次閱讀
    利用<b class='flag-5'>NVIDIA</b> Isaac平臺(tái)<b class='flag-5'>構(gòu)建</b>、設(shè)計(jì)并部署<b class='flag-5'>機(jī)器人</b>應(yīng)用