99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Google的AI教會機(jī)器人學(xué)會了新的技能

獨(dú)愛72H ? 來源:教育新聞網(wǎng) ? 作者:教育新聞網(wǎng) ? 2020-05-07 22:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

(文章來源:教育新聞網(wǎng))
谷歌和加州大學(xué)伯克利分校的研究人員在本周在預(yù)印本服務(wù)器Arxiv.org上發(fā)表的兩篇論文中描述了新的AI機(jī)器學(xué)習(xí)技術(shù),這些技術(shù)使機(jī)器人能夠適應(yīng)從未見過的任務(wù)并抓住被遮擋的物體。第一項研究詳細(xì)介紹了X射線,該算法在部署到機(jī)器人上時可以搜索對象的堆以掌握目標(biāo)對象,而第二項研究則提出了一種策略適應(yīng)技術(shù),可以“教”機(jī)器人技能,而無需從頭開始進(jìn)行模型訓(xùn)練。

抓機(jī)器人是一個非常困難的挑戰(zhàn)。例如,機(jī)器人努力執(zhí)行所謂的“機(jī)械搜索”,即當(dāng)他們不得不從一堆其他對象中識別并拾取一個對象時。大多數(shù)機(jī)器人不是特別適應(yīng)性強(qiáng),并且缺乏足夠功能強(qiáng)大的AI模型來指導(dǎo)機(jī)械手進(jìn)行機(jī)械搜索。X射線和策略調(diào)整步驟可以構(gòu)成產(chǎn)品包裝系統(tǒng)的基礎(chǔ),該產(chǎn)品包裝系統(tǒng)可以在無需人工監(jiān)督的情況下發(fā)現(xiàn),拾取和放下各種物體。

有關(guān)X射線的研究的合著者指出,由于缺乏合適的模型,機(jī)械搜索(在大量對象中找到對象)仍然具有挑戰(zhàn)性。X射線結(jié)合了遮擋推斷和假設(shè)預(yù)測來解決該問題,它可用來估計與對象最相似的邊界框(對象周圍矩形邊框的坐標(biāo))的占用率分布,同時考慮各種平移和旋轉(zhuǎn)。

X-Ray假定堆中至少有一個完全或部分被未知對象遮擋的目標(biāo)對象,并且每個時間步最多可以抓取一個對象。以RGB圖像和目標(biāo)對象為輸入,它可以預(yù)測場景的占用率分布和分割蒙版,并計算幾種潛在的抓握動作,以最高的成功概率執(zhí)行該動作。為了訓(xùn)練和驗證X射線,研究人員生成了10,000個增強(qiáng)深度圖像的語料庫,這些圖像標(biāo)記有矩形框目標(biāo)對象的對象占用分布。他們從Thingiverse上的1296個3D CAD模型的開放源數(shù)據(jù)集中進(jìn)行采樣,選擇了10個大小相同,體積較小但厚度較小的盒子目標(biāo),因此它們更有可能被遮擋。這使他們總共獲得了100,000張圖像。

在這10,000張圖片中,約有8,000張被保留用于培訓(xùn),其余的則留作測試。使用一千個包含模擬對象(蓋子,多米諾骨牌和長笛)的其他圖像來評估X射線對看不見的形狀,對象,長寬比和比例尺的概括。在涉及帶有吸盤和平行顎式抓爪的真實ABB YuMi機(jī)器人的物理實驗中,研究人員要求X射線將物體裝滿垃圾箱,然后將垃圾箱傾倒在目標(biāo)物體的頂部。在最初包含25個對象的堆中,系統(tǒng)在20次試驗中以5個動作的中位數(shù)提取了目標(biāo)對象,成功率為100%。

合著者將精力放在未來的工作上,以提高X射線的訓(xùn)練效率,并分析數(shù)據(jù)集大小以及用于生成訓(xùn)練分布的平移和旋轉(zhuǎn)次數(shù)的影響。他們還計劃根據(jù)目標(biāo)對象可見性的獎勵來探索強(qiáng)化學(xué)習(xí)策略。

在這兩篇論文的最新文章中,合著者試圖開發(fā)一種能夠不斷適應(yīng)新的現(xiàn)實環(huán)境,物體和條件的系統(tǒng)。與大多數(shù)機(jī)器人相反,后者僅需訓(xùn)練一次即可部署,而適應(yīng)能力卻很少。研究人員對機(jī)器學(xué)習(xí)模型進(jìn)行了預(yù)訓(xùn)練,以在608,000次嘗試抓取的語料庫中抓取一系列對象,然后他們執(zhí)行的任務(wù)是使用向其起始位置右移10厘米的抓手抓取對象。系統(tǒng)練習(xí)了一段時間(經(jīng)過800次嘗試)并將這些嘗試記錄到新數(shù)據(jù)集(目標(biāo)數(shù)據(jù)集)中之后,新嘗試在50%的時間內(nèi)與原始數(shù)據(jù)集進(jìn)行了混合,調(diào)整模型。

在五個不同的場景中重復(fù)了這些步驟-預(yù)訓(xùn)練,嘗試新任務(wù)和微調(diào)。一方面,刺眼的光線阻礙了機(jī)器人的攝像頭。在另一種情況下,棋盤圖案的背景使模型難以識別對象。最后,實驗人員讓機(jī)器人抓住訓(xùn)練中看不到的透明瓶子(眾所周知,透明物體很難抓住機(jī)器人,因為它們有時會混淆深度傳感器),并撿拾坐在高反射金屬板上的物體。

研究人員報告說,在實驗中,該模型成功地在苛刻的燈光下63%的時間,透明瓶子的74%的時間,棋盤墊板的時間的86%的時間,抓手?jǐn)U展的88%的時間成功地捕獲了物體,和91%的時間使用偏置夾持器。而且,他們說,機(jī)器人適應(yīng)新情況只需要花費(fèi)1-4個小時的練習(xí)時間(相比之下,學(xué)習(xí)如何掌握的時間大約為6,000個小時),并且性能不會隨著所適應(yīng)的模型而降低。
(責(zé)任編輯:fqj)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108185
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35168

    瀏覽量

    280173
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    NVIDIA Isaac Lab可用環(huán)境與強(qiáng)化學(xué)習(xí)腳本使用指南

    Lab 是一個適用于機(jī)器人學(xué)習(xí)的開源模塊化框架,其模塊化高保真仿真適用于各種訓(xùn)練環(huán)境,Isaac Lab 同時支持模仿學(xué)習(xí)(模仿人類)和強(qiáng)化學(xué)習(xí)(在嘗試和錯誤中進(jìn)行學(xué)習(xí)),為所有機(jī)器人具身提供了靈活的訓(xùn)練方法。它能夠為各種訓(xùn)練場景提供用戶友好的環(huán)境,幫助增加或更新
    的頭像 發(fā)表于 07-14 15:29 ?581次閱讀
    NVIDIA Isaac Lab可用環(huán)境與強(qiáng)化學(xué)習(xí)腳本使用指南

    通過NVIDIA Cosmos模型增強(qiáng)機(jī)器人學(xué)習(xí)

    通用機(jī)器人的時代已經(jīng)到來,這得益于機(jī)械電子技術(shù)和機(jī)器人 AI 基礎(chǔ)模型的進(jìn)步。但目前機(jī)器人技術(shù)的發(fā)展仍面臨一個關(guān)鍵挑戰(zhàn):機(jī)器人需要大量的訓(xùn)練
    的頭像 發(fā)表于 07-14 11:49 ?189次閱讀
    通過NVIDIA Cosmos模型增強(qiáng)<b class='flag-5'>機(jī)器人學(xué)</b>習(xí)

    NVIDIA Isaac Sim和Isaac Lab現(xiàn)已推出早期開發(fā)者預(yù)覽版

    NVIDIA 發(fā)布了機(jī)器人仿真參考應(yīng)用 Isaac Sim 和機(jī)器人學(xué)習(xí)框架 Isaac Lab 的開發(fā)者預(yù)覽版。開發(fā)者現(xiàn)在可以通過 GitHub 訪問早期版本,搶先體驗先進(jìn)功能,用于在基于物理的仿真環(huán)境中構(gòu)建、訓(xùn)練和測試 AI
    的頭像 發(fā)表于 07-04 14:23 ?440次閱讀

    NVIDIA Isaac Sim與NVIDIA Isaac Lab的更新

    在 COMPUTEX 2025 上,NVIDIA 宣布了機(jī)器人仿真參考應(yīng)用 NVIDIA Isaac Sim 和機(jī)器人學(xué)習(xí)框架 NVIDIA Isaac Lab 的更新,以加速各種形態(tài)機(jī)器人的開發(fā)。
    的頭像 發(fā)表于 05-28 10:06 ?594次閱讀

    NVIDIA 通過云端至機(jī)器人計算平臺驅(qū)動人形機(jī)器人技術(shù),賦能物理 AI

    機(jī)器人推理與技能基礎(chǔ)模型的首次更新;用于合成運(yùn)動生成的 NVIDIA Isaac GR00T-Dreams Blueprint;以及用于加速人形機(jī)器人開發(fā)的 NVIDIA Blackwell 系統(tǒng)
    發(fā)表于 05-19 17:53 ?1034次閱讀
    NVIDIA 通過云端至<b class='flag-5'>機(jī)器人</b>計算平臺驅(qū)動人形<b class='flag-5'>機(jī)器人</b>技術(shù),賦能物理 <b class='flag-5'>AI</b>

    大象機(jī)器人攜手進(jìn)迭時空推出 RISC-V 全棧開源六軸機(jī)械臂產(chǎn)品

    識別聯(lián)調(diào)。 進(jìn)迭時空致力于為智能機(jī)器人提供完整全棧優(yōu)化的RISC-V AI軟硬件解決方案,第一代RISC-V AI CPU芯片K1已完成AI視覺感知、
    發(fā)表于 04-25 17:59

    構(gòu)建人形機(jī)器人學(xué)習(xí)的合成運(yùn)動生成流程

    通用人形機(jī)器人需要能夠快速適應(yīng)現(xiàn)有的以人類為中心的城市和工業(yè)工作空間,處理繁瑣、重復(fù)或體力要求高的任務(wù)。這些移動機(jī)器人經(jīng)過設(shè)計,能在以人類為中心的環(huán)境中有出色的表現(xiàn),從工廠車間到醫(yī)療醫(yī)療機(jī)構(gòu),它們的價值日益凸顯。
    的頭像 發(fā)表于 04-10 09:36 ?627次閱讀
    構(gòu)建人形<b class='flag-5'>機(jī)器人學(xué)</b>習(xí)的合成運(yùn)動生成流程

    深度解讀英偉達(dá)Newton機(jī)器人平臺:技術(shù)革新與跨界生態(tài)構(gòu)建

    :高性能物理引擎與AI融合 Newton是英偉達(dá)聯(lián)合Google DeepMind和迪士尼研究院共同開發(fā)的 開源物理引擎 ,專為機(jī)器人學(xué)習(xí)與仿真優(yōu)化設(shè)計。其核心技術(shù)特點(diǎn)包括: 多
    的頭像 發(fā)表于 03-20 15:15 ?1747次閱讀
    深度解讀英偉達(dá)Newton<b class='flag-5'>機(jī)器人</b>平臺:技術(shù)革新與跨界生態(tài)構(gòu)建

    機(jī)器人Blue亮相 搭載英偉達(dá)最新GR00T N1人形機(jī)器人通用基礎(chǔ)模型

    GR00T N1以及新的數(shù)據(jù)生成和機(jī)器人學(xué)習(xí)框架,我們將共同開啟AI時代的新邊疆。” 黃仁勛還強(qiáng)調(diào)其泛化能力和多任務(wù)執(zhí)行潛力?。 機(jī)器人Blue由英偉達(dá)公司、谷歌DeepMind、迪士尼聯(lián)合開發(fā),行走動作流暢自然,聲音設(shè)計可愛
    的頭像 發(fā)表于 03-20 10:50 ?1050次閱讀
    <b class='flag-5'>機(jī)器人</b>Blue亮相 搭載英偉達(dá)最新GR00T N1人形<b class='flag-5'>機(jī)器人</b>通用基礎(chǔ)模型

    構(gòu)建人形機(jī)器人學(xué)習(xí)的合成運(yùn)動生成管線

    通用人形機(jī)器人旨在快速適應(yīng)現(xiàn)有的以人類為中心的城市和工業(yè)工作空間,處理繁瑣、重復(fù)或體力要求高的任務(wù)。這些移動機(jī)器人經(jīng)過設(shè)計,能在以人類為中心的環(huán)境中有出色的表現(xiàn),從工廠車間到醫(yī)療保健機(jī)構(gòu),它們的價值日益凸顯。
    的頭像 發(fā)表于 01-16 10:58 ?1003次閱讀
    構(gòu)建人形<b class='flag-5'>機(jī)器人學(xué)</b>習(xí)的合成運(yùn)動生成管線

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗】1.初步理解具身智能

    工智能 認(rèn)知發(fā)展機(jī)器人學(xué) 進(jìn)化機(jī)器人學(xué) 物理體現(xiàn)與互動 五、具身智能的現(xiàn)代技術(shù)方向 另外,隨著GPT等大語言模型的發(fā)展,這些技術(shù)也在具身智能機(jī)器人領(lǐng)域掀起了一股浪潮,那就是基于大模型的具身智能技術(shù)
    發(fā)表于 12-28 21:12

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗】+初品的體驗

    動態(tài)互動的。 該理論強(qiáng)調(diào)智能行為源于智能體的物理存在和行為能力,智能體必須具備感知環(huán)境并在其中執(zhí)行任務(wù)的能力。具身智能的實現(xiàn)涵蓋了機(jī)器學(xué)習(xí)、人工智能、機(jī)器人學(xué)、計算機(jī)視覺、自然語言處理及強(qiáng)化學(xué)習(xí)等領(lǐng)域
    發(fā)表于 12-20 19:17

    NVIDIA發(fā)布全新AI和仿真工具以及工作流

    NVIDIA 在本周于德國慕尼黑舉行的機(jī)器人學(xué)習(xí)大會(CoRL)上發(fā)布了全新 AI 和仿真工具以及工作流。機(jī)器人開發(fā)者可以使用這些工具和工作流,大大加快 AI
    的頭像 發(fā)表于 11-09 11:52 ?924次閱讀

    麻省理工學(xué)院推出新型機(jī)器人訓(xùn)練模型

    近日,據(jù)TechCrunch報道,麻省理工學(xué)院的研究團(tuán)隊展示了一種創(chuàng)新的機(jī)器人訓(xùn)練模型,該模型突破了傳統(tǒng)模仿學(xué)習(xí)方法的局限,不再依賴標(biāo)準(zhǔn)數(shù)據(jù)集,而是借鑒了大型語言模型(LLM)如GPT-4等所使用的大規(guī)模信息處理方式,為機(jī)器人學(xué)習(xí)新技能開辟了全新的道路。
    的頭像 發(fā)表于 11-04 14:56 ?951次閱讀

    機(jī)器人的三大矩陣是什么及關(guān)系式

    機(jī)器人學(xué)中,三大矩陣主要指的是與機(jī)器人位移、速度和力相關(guān)的矩陣,它們分別揭示了機(jī)器人在不同空間(如關(guān)節(jié)空間和作業(yè)空間)之間的映射關(guān)系。這三大矩陣及其關(guān)系式可以概括如下: 1. T矩陣(變換矩陣
    的頭像 發(fā)表于 09-04 09:37 ?3076次閱讀