99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Facebook讓機器人學會了自主繞道走路

Hf1h_BigDataDig ? 來源:fqj ? 2019-06-06 14:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人類每天都在進行不同層次的規(guī)劃活動,比如說每天早上起床以后,你習慣性走到廚房喝一杯咖啡:你會先走下走廊,左轉(zhuǎn)進入過道,然后進入右邊的房間。

對于這些習慣成自然的流程,你無需思考,不會刻意去想你要使用哪一個肢體動作。但對于機器人而言,這并非易事。

Facebook剛剛發(fā)布了主導研究的新系統(tǒng),讓機器人也可以通過觀看視頻,拆解動作,并學習如何組合這些動作形成自己的規(guī)劃。

層級抽象結(jié)構(gòu)(hierarchal abstractions)

已經(jīng)有越來越多的研究表明,層級抽象結(jié)構(gòu)(即視覺運動子程序)可以提高強化學習中的采樣效率,這是一種利用獎勵驅(qū)動智能體達到目標的AI訓練技術(shù)。

在過去,這些層次結(jié)構(gòu)必須通過端到端的訓練來手動編碼或獲取,而這需要大量的時間、注意力和長久的耐心。

Facebook這次的新研究提出,刻意讓機器人通過觀看視頻學習導航,描述一個通過用逆向機器學習模型攝取視頻偽標簽(在本文中,偽標簽指智能體想象的行為),從而學習層次結(jié)構(gòu)的系統(tǒng)。

論文作者分別來自Facebook AI研究室,加州大學伯克利分校和伊利諾伊大學厄巴納—香檳分校。

這讓人想起去年Facebook開源的一組模型——Talk the Walk。它只需要360°的全景圖像、自然語言以及一張有當?shù)氐貥耍ū热玢y行和餐館)的地圖就可以通過問路,實現(xiàn)在整個紐約市的街道導航。

具體實現(xiàn)方式

機器人通過觀看這些視頻,研究這些簡單的視覺運動子程序是如何組合以達到高級的抽象層次,這些視覺運動子程序能夠解決一些已知問題,即經(jīng)典的規(guī)劃中的高計算成本和強化學習中的樣本復雜性的問題。

研究者提出的系統(tǒng)分為兩個階段,在第一階段,研究人員通過運行在隨機探索數(shù)據(jù)上自我監(jiān)督的智能體模型生成偽標簽。模型從分布在四個環(huán)境中的1500個不同位置學習,在不同的位置隨機執(zhí)行30個不同步驟的動作,從而產(chǎn)生45,000個交互樣本。

在系統(tǒng)的第二階段,大約217,000個偽標記視頻被剪輯成220萬個單獨的小視頻,再將其輸入預測參考視頻中相應動作的模型,同時再通過一個單獨的網(wǎng)絡檢查參考視頻中的動作序列,并編碼其行為作為向量。另一個模型通過推斷第一幀的軌跡的編碼,來預測哪一個子程序可以調(diào)用給已有的視頻幀。

交互樣本從1000萬減少到4.5萬

在一個部署在辦公環(huán)境的真實世界中的機器人實驗中,研究人員表明,相比單純交互的方法,至少應用在之前從未見過的環(huán)境上,通過觀看視頻來學習技能(這里指采用最高效的方式前往目標位置)的方式能達到更好的效果。

最令人印象深刻的是,訓練有素的模型學會了自主地前進導航并避開障礙物,比通過單純交互方式要快4倍,這使得機器人能夠做到完全自主地長距離行進。

“特別引人注目的是,這些模型從總計45,000次的環(huán)境交互中學習,”研究人員寫道,“從第一視角的視頻中成功學習,使得智能體能夠執(zhí)行連貫的軌跡,即使它只執(zhí)行過隨機動作。此外,它優(yōu)于最先進的技能學習技術(shù),該技術(shù)需要更大量的訓練樣本,大致1000萬個?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    213

    文章

    29748

    瀏覽量

    212992
  • Facebook
    +關注

    關注

    3

    文章

    1432

    瀏覽量

    56786

原文標題:Facebook讓機器人“觀看”上萬次視頻后,TA學會了自主繞道走路

文章出處:【微信號:BigDataDigest,微信公眾號:大數(shù)據(jù)文摘】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    通過NVIDIA Cosmos模型增強機器人學

    通用機器人的時代已經(jīng)到來,這得益于機械電子技術(shù)和機器人 AI 基礎模型的進步。但目前機器人技術(shù)的發(fā)展仍面臨一個關鍵挑戰(zhàn):機器人需要大量的訓練數(shù)據(jù)來掌握諸如組裝和檢查之類的技能,而手動演
    的頭像 發(fā)表于 07-14 11:49 ?189次閱讀
    通過NVIDIA Cosmos模型增強<b class='flag-5'>機器人學</b>習

    NVIDIA Isaac Sim與NVIDIA Isaac Lab的更新

    在 COMPUTEX 2025 上,NVIDIA 宣布了機器人仿真參考應用 NVIDIA Isaac Sim 和機器人學習框架 NVIDIA Isaac Lab 的更新,以加速各種形態(tài)機器人的開發(fā)。
    的頭像 發(fā)表于 05-28 10:06 ?594次閱讀

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】+ROS2應用案例

    地圖構(gòu)建,包括算法原理介紹、安裝與配置方法、仿真環(huán)境中的SLAM以及真實機器人上的SLAM。 這一過程不僅涉及到計算機視覺和機器人學的知識,還需要對ROS 2的節(jié)點管理和數(shù)據(jù)處理有一定的了解。通過實踐
    發(fā)表于 04-27 11:42

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】+內(nèi)容初識

    機器人技術(shù)的飛速發(fā)展,ROS 2 作為其核心工具之一,為開發(fā)者提供了強大的支持。與傳統(tǒng)的理論書籍不同,本書深入淺出地講解了 ROS 2 的架構(gòu)、開發(fā)流程以及在智能機器人項目中的應用,以代碼作為切入口,
    發(fā)表于 04-27 11:24

    構(gòu)建人形機器人學習的合成運動生成流程

    通用人形機器人需要能夠快速適應現(xiàn)有的以人類為中心的城市和工業(yè)工作空間,處理繁瑣、重復或體力要求高的任務。這些移動機器人經(jīng)過設計,能在以人類為中心的環(huán)境中有出色的表現(xiàn),從工廠車間到醫(yī)療醫(yī)療機構(gòu),它們的價值日益凸顯。
    的頭像 發(fā)表于 04-10 09:36 ?627次閱讀
    構(gòu)建人形<b class='flag-5'>機器人學</b>習的合成運動生成流程

    深度解讀英偉達Newton機器人平臺:技術(shù)革新與跨界生態(tài)構(gòu)建

    Newton是由NVIDIA、Google DeepMind和Disney Research開發(fā)的開源、可擴展的物理引擎,旨在推進機器人學習和開發(fā)。 Newton建立在 NVIDIA Warp
    的頭像 發(fā)表于 03-20 15:15 ?1747次閱讀
    深度解讀英偉達Newton<b class='flag-5'>機器人</b>平臺:技術(shù)革新與跨界生態(tài)構(gòu)建

    AgiBot World Colosseo:構(gòu)建通用機器人智能的規(guī)?;瘮?shù)據(jù)平臺

    數(shù)據(jù)的匱乏,制約了通用操縱能力的突破。上海人工智能實驗室與AgiBot公司聯(lián)合研發(fā)的AgiBot World Colosseo平臺,通過構(gòu)建大規(guī)模、多模態(tài)的真實世界數(shù)據(jù)集與通用政策模型,為機器人學
    的頭像 發(fā)表于 03-12 11:42 ?1101次閱讀
    AgiBot World Colosseo:構(gòu)建通用<b class='flag-5'>機器人</b>智能的規(guī)?;瘮?shù)據(jù)平臺

    研華科技加速智能自主系統(tǒng)與機器人應用發(fā)展

    研華科技近日舉辦“智能自主系統(tǒng)與機器人應用伙伴高峰論壇”,將攜手生態(tài)伙伴,打造靈活且ROS兼容的機器人解決方案。
    的頭像 發(fā)表于 03-11 13:46 ?412次閱讀

    構(gòu)建人形機器人學習的合成運動生成管線

    通用人形機器人旨在快速適應現(xiàn)有的以人類為中心的城市和工業(yè)工作空間,處理繁瑣、重復或體力要求高的任務。這些移動機器人經(jīng)過設計,能在以人類為中心的環(huán)境中有出色的表現(xiàn),從工廠車間到醫(yī)療保健機構(gòu),它們的價值日益凸顯。
    的頭像 發(fā)表于 01-16 10:58 ?1003次閱讀
    構(gòu)建人形<b class='flag-5'>機器人學</b>習的合成運動生成管線

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人的基礎模塊

    具身智能機器人的基礎模塊,這個是本書的第二部分內(nèi)容,主要分為四個部分:機器人計算系統(tǒng),自主機器人的感知系統(tǒng),自主機器人的定位系統(tǒng),自主機器人
    發(fā)表于 01-04 19:22

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型

    中取得了令人矚目的效果。 閱讀感悟 從傳統(tǒng)的手動編程到借助大模型實現(xiàn)智能化、自主化,從單一模態(tài)的交互到多模態(tài)信息的深度融合,再到擴散模型的應用,機器人控制技術(shù)正在以驚人的速度進化。這不僅機器
    發(fā)表于 12-29 23:04

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.初步理解具身智能

    工智能 認知發(fā)展機器人學 進化機器人學 物理體現(xiàn)與互動 五、具身智能的現(xiàn)代技術(shù)方向 另外,隨著GPT等大語言模型的發(fā)展,這些技術(shù)也在具身智能機器人領域掀起了一股浪潮,那就是基于大模型的具身智能技術(shù)
    發(fā)表于 12-28 21:12

    【「具身智能機器人系統(tǒng)」閱讀體驗】+初品的體驗

    動態(tài)互動的。 該理論強調(diào)智能行為源于智能體的物理存在和行為能力,智能體必須具備感知環(huán)境并在其中執(zhí)行任務的能力。具身智能的實現(xiàn)涵蓋了機器學習、人工智能、機器人學、計算機視覺、自然語言處理及強化學習等領域
    發(fā)表于 12-20 19:17

    麻省理工學院推出新型機器人訓練模型

    近日,據(jù)TechCrunch報道,麻省理工學院的研究團隊展示了一種創(chuàng)新的機器人訓練模型,該模型突破了傳統(tǒng)模仿學習方法的局限,不再依賴標準數(shù)據(jù)集,而是借鑒了大型語言模型(LLM)如GPT-4等所使用的大規(guī)模信息處理方式,為機器人學習新技能開辟了全新的道路。
    的頭像 發(fā)表于 11-04 14:56 ?951次閱讀

    機器人的三大矩陣是什么及關系式

    機器人學中,三大矩陣主要指的是與機器人位移、速度和力相關的矩陣,它們分別揭示了機器人在不同空間(如關節(jié)空間和作業(yè)空間)之間的映射關系。這三大矩陣及其關系式可以概括如下: 1. T矩陣(變換矩陣
    的頭像 發(fā)表于 09-04 09:37 ?3076次閱讀