99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度強化學習打造的ANYmal登上Science子刊,真的超越了波士頓動力!

悟空智能科技 ? 來源:lq ? 2019-01-28 14:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度強化學習開發(fā)出的機器人模型通常很難應(yīng)用到真實環(huán)境中,因此機器人開發(fā)中鮮少使用該技術(shù)。然而這已經(jīng)板上釘釘了嗎?在兩天前引發(fā)人工智能界關(guān)注的 ANYmal 機器人中,其機動性和適應(yīng)性看起來絲毫不遜色于波士頓動力。其相關(guān)論文近期登上了 Science 子刊《Science Robotics》,并且明確指出使用了深度強化學習技術(shù)?;?AI 技術(shù)的成功應(yīng)用,ANYmal 在數(shù)據(jù)驅(qū)動的開發(fā)上或許會更有優(yōu)勢。

摘要:足式機器人是機器人學中最具挑戰(zhàn)性的主題之一。動物動態(tài)、敏捷的動作是無法用現(xiàn)有人為方法模仿的。一種引人注目的方法是強化學習,它只需要極少的手工設(shè)計,能夠促進控制策略的自然演化。然而,截至目前,足式機器人領(lǐng)域的強化學習研究還主要局限于模仿,只有少數(shù)相對簡單的例子被部署到真實環(huán)境系統(tǒng)中。主要原因在于,使用真實的機器人(尤其是使用帶有動態(tài)平衡系統(tǒng)的真實機器人)進行訓練既復雜又昂貴。本文介紹了一種可以在模擬中訓練神經(jīng)網(wǎng)絡(luò)策略并將其遷移到當前最先進足式機器人系統(tǒng)中的方法,因此利用了快速、自動化、成本合算的數(shù)據(jù)生成方案。該方法被應(yīng)用到 ANYmal 機器人中,這是一款中型犬大小的四足復雜機器人系統(tǒng)。利用在模擬中訓練的策略,ANYmal 獲得了之前方法無法實現(xiàn)的運動技能:它能精確、高效地服從高水平身體速度指令,奔跑速度比之前的機器人更快,甚至在復雜的環(huán)境中還能跌倒后爬起來。

圖 1:創(chuàng)建一個控制策略。第一步是確定機器人的物理參數(shù)并估計其中的不確定性。第二步是訓練一個致動器網(wǎng)絡(luò),建模復雜的致動器/軟件動力機制。第三步是利用前兩步中得到的模型訓練一個控制策略。第四步是直接在物理系統(tǒng)中部署訓練好的策略。

結(jié)果

視頻展示了結(jié)果和方法。

基于命令的運動

圖 2:習得運動控制器的量化評估結(jié)果。A. 發(fā)現(xiàn)的步態(tài)模式按速度指令以 1.0 m/s 的速度運行。LF 表示左前腿,RF 表示右前腿,LH 表示左后腿,RH 表示右后腿。B. 使用本文方法得到的基礎(chǔ)速度的準確率。C-E. 本文習得控制器與現(xiàn)有最佳控制器在能耗、速度誤差、扭矩大小方面的對比,給定的前進速度指令為 0.25、0.5、0.75 和 1.0 m/s。

高速運動

圖 3:對高速運動訓練策略的評估結(jié)果。A. ANYmal 的前進速度。B. 關(guān)節(jié)速度。C. 關(guān)節(jié)扭矩。D. 步態(tài)模式。

跌倒后的恢復

圖 4:在真實機器人上部署的恢復控制器。該研究學到的策略成功使機器人在 3 秒內(nèi)從隨機初始配置中恢復。

材料和方法

這一部分會詳細描述模擬環(huán)境、訓練過程和在物理環(huán)境中的部署。圖 5 是訓練方法概覽。訓練過程如下:剛體模擬器會根據(jù)關(guān)節(jié)扭矩和當前狀態(tài)輸出機器人的下一個狀態(tài)。關(guān)節(jié)速度和位置誤差會被緩存在有限時間窗口的關(guān)節(jié)狀態(tài)歷史中。由帶兩個隱藏層的 MLP 實現(xiàn)的控制策略會將當前狀態(tài)和關(guān)節(jié)狀態(tài)歷史的觀察結(jié)果映射為關(guān)節(jié)位置目標。最后,致動器網(wǎng)絡(luò)會將關(guān)節(jié)狀態(tài)歷史和關(guān)節(jié)位置目標映射為 12 個關(guān)節(jié)扭矩值,然后進入下一個訓練循環(huán)。

圖 5:模擬過程中的訓練控制策略。

建模剛體動力機制

為了在合理時間內(nèi)有效訓練復雜的策略,并將其遷移到現(xiàn)實世界,我們需要一種又快又準確的模擬平臺。開發(fā)行走機器人的最大挑戰(zhàn)之一是非連續(xù)接觸的動力機制建模。為此,研究者使用了之前工作中開發(fā)出的剛體接觸求解器 [41]。這個接觸求解器使用了一個完全遵循庫倫摩擦錐約束的硬接觸模型。這種建模技術(shù)可以準確地捕獲一系列剛體和環(huán)境進行硬接觸時的真實動力機制。該求解器能準確而快速地在臺式計算機上每秒生成模擬四足動物的 90 萬個時間步。

連接的慣性是從 CAD 模型估計出來的。研究者預期估計會達到 20% 的誤差因為沒有建模布線和電子器件。為了考慮這些建模不確定性,研究者通過隨機采樣慣性訓練了 30 種不同的 ANYmal 模型來使得策略更加穩(wěn)健。質(zhì)心位置、連接的質(zhì)量和關(guān)節(jié)位置分別通過添加從 U(?2, 2) cm、U(?15, 15)%、 U(?2, 2) cm 中采樣的噪聲進行隨機化。

建模致動器

圖 6:學得致動器模型的驗證結(jié)果。

強化學習

研究者展示了離散時間中的控制問題。在每個時間步 t,智能體獲取觀測結(jié)果 o_t ∈O,執(zhí)行動作 a_t ∈A,獲取標量獎勵 r_t ∈ ?。研究者所指獎勵和成本是可以互換的,因為成本就是負的獎勵。研究者用 O_t = 〈o_t, o_t ? 1, …, o_t ? h〉表示近期觀測結(jié)果的元組。智能體根據(jù)隨機策略 π(a_t|O_t) 選擇動作,該隨機策略是基于近期觀測結(jié)果的動作分布。其目的在于找到在無窮水平中使折扣獎勵總和最大化的策略:

其中 γ ∈ (0, 1) 是折扣因子,τ(π) 是在策略 π 下的軌跡分布(該策略和環(huán)境動態(tài)下的分布)。在研究設(shè)置中,觀測結(jié)果是評估機器人狀態(tài)的指標(向控制器提供),動作是向致動器傳達的位置命令,獎勵是指定的(以誘導感興趣的行為)。

多種強化學習算法可應(yīng)用于這個指定策略優(yōu)化問題。研究者選擇了置信域策略優(yōu)化(TRPO),該算法可在模擬中學習運動策略。它幾乎不需要調(diào)參,論文中所有學習會話都僅使用默認參數(shù)([22, 54] 提供的參數(shù))。研究者使用了該算法的快速自定義實現(xiàn) [55]。這一高效實現(xiàn)和快速剛體模擬 [41] 可在約 4 小時內(nèi)生成和處理 2.5 億狀態(tài)轉(zhuǎn)換。當該策略的平均性能在 300 個 TRPO 迭代中的改進沒有超過任務(wù)特定閾值時,學習會話終止。

在物理系統(tǒng)上部署

研究者用 ANYmal 機器人來展示其方法在真實環(huán)境中的適用性,如圖 1 中步驟 4 所示。ANYmal 是一種體型與狗差不多的四足機器人,重 32kg。每只足約 55 厘米長,且有三個驅(qū)動自由度,即髖部外展/內(nèi)收、髖關(guān)節(jié)屈/伸、膝關(guān)節(jié)屈/伸。

ANYmal 有 12 個 SEA。一個 SEA 由一個電動機、一個高傳動比傳動裝置、一個彈性元件和兩個旋轉(zhuǎn)編碼器組成。它可以測量彈簧偏移和輸出位置。在本文中,研究者在 ANYmal 機器人的關(guān)節(jié)級促動器模塊上使用了具有低反饋收益的關(guān)節(jié)級 PD 控制器。促動器的動態(tài)包含多個連續(xù)的組件,如下所示。首先,使用 PD 控制器將位置指令轉(zhuǎn)換成期望的扭矩。接著,使用來自期望扭矩的 PID 控制器計算期望電流。然后,用磁場定向控制器將期望電流轉(zhuǎn)換成相電壓,該控制器在變速器的輸入端產(chǎn)生扭矩。變速器的輸出端與彈性元件相連,彈性元件的偏移最終在關(guān)節(jié)處生成扭矩。這些高度復雜的動態(tài)引入了很多隱藏的內(nèi)部狀態(tài),研究者無法直接訪問這些內(nèi)部狀態(tài)并復雜化其控制問題。

從混合模擬中為訓練策略獲得參數(shù)集后,在真實系統(tǒng)上的部署變得簡單多了。定制的 MLP 實現(xiàn)和訓練好的參數(shù)集被導到機器人的機載 PC 上。當這個網(wǎng)絡(luò)在 200Hz 時,其狀態(tài)被評估為基于命令/高速的運動,在 100Hz 時被評估為從墜落中恢復。研究者發(fā)現(xiàn),其性能出人意料地對控制率不敏感。例如,在 20 Hz 時訓練恢復運動與在 100 Hz 時性能一致。這可能是因為翻轉(zhuǎn)行為涉及低關(guān)節(jié)速度(大部分低于 6 弧度/秒)。更動態(tài)的行為(如運動)通常需要更高的控制率才能獲得足夠的性能。實驗中使用了更高的頻率(100 Hz),因為這樣噪音更少。甚至在 100 Hz 時,對網(wǎng)絡(luò)的評估僅使用了單個 CPU 核上可用計算的 0.25 %。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 強化學習
    +關(guān)注

    關(guān)注

    4

    文章

    269

    瀏覽量

    11604
  • ai技術(shù)
    +關(guān)注

    關(guān)注

    1

    文章

    1308

    瀏覽量

    25160
  • 波士頓動力
    +關(guān)注

    關(guān)注

    3

    文章

    178

    瀏覽量

    13484

原文標題:真的超越了波士頓動力!深度強化學習打造的 ANYmal 登上 Science 子刊

文章出處:【微信號:WUKOOAI,微信公眾號:悟空智能科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    NVIDIA Isaac Lab可用環(huán)境與強化學習腳本使用指南

    Lab 是一個適用于機器人學習的開源模塊化框架,其模塊化高保真仿真適用于各種訓練環(huán)境,Isaac Lab 同時支持模仿學習(模仿人類)和強化學習(在嘗試和錯誤中進行學習),為所有機器
    的頭像 發(fā)表于 07-14 15:29 ?563次閱讀
    NVIDIA Isaac Lab可用環(huán)境與<b class='flag-5'>強化學習</b>腳本使用指南

    18個常用的強化學習算法整理:從基礎(chǔ)方法到高級模型的理論技術(shù)與代碼實現(xiàn)

    本來轉(zhuǎn)自:DeepHubIMBA本文系統(tǒng)講解從基本強化學習方法到高級技術(shù)(如PPO、A3C、PlaNet等)的實現(xiàn)原理與編碼過程,旨在通過理論結(jié)合代碼的方式,構(gòu)建對強化學習算法的全面理解。為確保內(nèi)容
    的頭像 發(fā)表于 04-23 13:22 ?414次閱讀
    18個常用的<b class='flag-5'>強化學習</b>算法整理:從基礎(chǔ)方法到高級模型的理論技術(shù)與代碼實現(xiàn)

    詳解RAD端到端強化學習后訓練范式

    受限于算力和數(shù)據(jù),大語言模型預訓練的 scalinglaw 已經(jīng)趨近于極限。DeepSeekR1/OpenAl01通過強化學習后訓練涌現(xiàn)強大的推理能力,掀起新一輪技術(shù)革新。
    的頭像 發(fā)表于 02-25 14:06 ?600次閱讀
    詳解RAD端到端<b class='flag-5'>強化學習</b>后訓練范式

    淺談適用規(guī)模充電站的深度學習有序充電策略

    深度強化學習能夠有效計及電動汽車出行模式和充電需求的不確定性,實現(xiàn)充電場站充電成本化的目標。通過對電動汽車泊車時間和充電需求特征進行提取,建立適用于大規(guī)模電動汽車有序充電的馬爾可夫決策過程模型,并
    的頭像 發(fā)表于 02-08 15:00 ?541次閱讀
    淺談適用規(guī)模充電站的<b class='flag-5'>深度</b><b class='flag-5'>學習</b>有序充電策略

    波士頓機器人滑環(huán)的技術(shù)特點與應(yīng)用前景

    機器人滑環(huán)在現(xiàn)代自動化和機器人技術(shù)中扮演著至關(guān)重要的角色。作為一種關(guān)鍵的機械組件,滑環(huán)允許機器人在旋轉(zhuǎn)和移動的過程中保持穩(wěn)定的電信號和數(shù)據(jù)傳輸。波士頓機器人滑環(huán)作為行業(yè)中的領(lǐng)先產(chǎn)品,具有多項獨特的技術(shù)特點和優(yōu)勢,為各種機器人系統(tǒng)的高效運作提供保障。
    的頭像 發(fā)表于 02-06 17:06 ?337次閱讀

    波士頓動力與RAI Institute聯(lián)手推進人形機器人技術(shù)

    的性能。 根據(jù)合作計劃,波士頓動力與RAI Institute將攜手為新型電動Atlas機器人打造一個共享的強化學習訓練管道。該管道旨在構(gòu)建動態(tài)且可推廣的移動操作行為,從而大幅提升At
    的頭像 發(fā)表于 02-06 14:12 ?665次閱讀

    螞蟻集團收購邊塞科技,吳翼出任強化學習實驗室首席科學家

    近日,專注于模型賽道的初創(chuàng)企業(yè)邊塞科技宣布被螞蟻集團收購。據(jù)悉,此次交易完成后,邊塞科技將保持獨立運營,而原投資人已全部退出。 與此同時,螞蟻集團近期宣布成立強化學習實驗室,旨在推動大模型強化學習
    的頭像 發(fā)表于 11-22 11:14 ?1586次閱讀

    NPU在深度學習中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學習作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?1919次閱讀

    如何使用 PyTorch 進行強化學習

    強化學習(Reinforcement Learning, RL)是一種機器學習方法,它通過與環(huán)境的交互來學習如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機器學習庫,
    的頭像 發(fā)表于 11-05 17:34 ?1043次閱讀

    AI大模型與深度學習的關(guān)系

    人類的學習過程,實現(xiàn)對復雜數(shù)據(jù)的學習和識別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計算資源來進行訓練和推理。深度學習算法為AI大模型提供
    的頭像 發(fā)表于 10-23 15:25 ?2900次閱讀

    《AI for Science:人工智能驅(qū)動科學創(chuàng)新》第二章AI for Science的技術(shù)支撐學習心得

    for Science的技術(shù)支撐”的學習心得,可以從以下幾個方面進行歸納和總結(jié): 1. 技術(shù)基礎(chǔ)的深入理解 在閱讀第二章的過程中,我對于AI for Science所需的技術(shù)基礎(chǔ)有
    發(fā)表于 10-14 09:16

    《AI for Science:人工智能驅(qū)動科學創(chuàng)新》第一章人工智能驅(qū)動的科學創(chuàng)新學習心得

    人工智能:科學研究的加速器 第一章清晰地闡述人工智能作為科學研究工具的強大功能。通過機器學習、深度學習等先進技術(shù),AI能夠處理和分析海量數(shù)據(jù),發(fā)現(xiàn)傳統(tǒng)方法難以捕捉的模式和規(guī)律。這不
    發(fā)表于 10-14 09:12

    谷歌AlphaChip強化學習工具發(fā)布,聯(lián)發(fā)科天璣芯片率先采用

    近日,谷歌在芯片設(shè)計領(lǐng)域取得了重要突破,詳細介紹其用于芯片設(shè)計布局的強化學習方法,并將該模型命名為“AlphaChip”。據(jù)悉,AlphaChip有望顯著加速芯片布局規(guī)劃的設(shè)計流程,并幫助芯片在性能、功耗和面積方面實現(xiàn)更優(yōu)表現(xiàn)。
    的頭像 發(fā)表于 09-30 16:16 ?705次閱讀

    安波福入選BCG“2024年最具創(chuàng)新力企業(yè)”

    近日,安波福以卓越的創(chuàng)新能力和戰(zhàn)略遠見,入選波士頓咨詢公司(BCG)最新發(fā)布的《2024年最具創(chuàng)新力企業(yè)》報告。
    的頭像 發(fā)表于 08-16 14:31 ?1153次閱讀

    NVIDIA推出全新深度學習框架fVDB

    在 SIGGRAPH 上推出的全新深度學習框架可用于打造自動駕駛汽車、氣候科學和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1151次閱讀