99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Waymo用AutoML自動(dòng)生成機(jī)器學(xué)習(xí)模型

ml8z_IV_Technol ? 來(lái)源:cc ? 2019-01-19 09:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Waymo十周年之際,發(fā)布了自動(dòng)駕駛機(jī)器學(xué)習(xí)模型的構(gòu)建思路,原來(lái)很多內(nèi)部機(jī)器學(xué)習(xí)架構(gòu)是由 AutoML 完成的。這種自動(dòng)機(jī)器學(xué)習(xí)算法在激光雷達(dá)分割任務(wù)中,比人工創(chuàng)建的網(wǎng)絡(luò)質(zhì)量更高。在代理端到端搜索中,甚至發(fā)現(xiàn)了卷積、池化和反卷積操作的創(chuàng)造性組合,不禁讓人感嘆算法工程師要失業(yè)?

AutoML 全稱是 Automated Machine Learning,是2014年以來(lái),機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域最炙手可熱的領(lǐng)域之一。2017年5月,谷歌在I/O大會(huì)上推出基于TensorFlow 框架下的AutoML,它可以通過(guò)神經(jīng)網(wǎng)絡(luò)來(lái)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò),節(jié)省人工設(shè)計(jì)的時(shí)間,其對(duì)專業(yè)知識(shí)的較低,讓非機(jī)器學(xué)習(xí)專家也能輕松上手。而在近日waymo十周年上曝光,其AutoML 已經(jīng)用來(lái)設(shè)計(jì)應(yīng)用于自動(dòng)駕駛上的機(jī)器學(xué)習(xí)算法。

在Waymo,機(jī)器學(xué)習(xí)幾乎應(yīng)用在自動(dòng)駕駛系統(tǒng)的每個(gè)角落。它可以幫助無(wú)人車感知周圍環(huán)境,了解世界,預(yù)測(cè)其他人的行為方式,并預(yù)測(cè)他們的下一步行動(dòng)。

以感知為例,Waymo的系統(tǒng)采用了神經(jīng)網(wǎng)絡(luò)的組合,使無(wú)人車能夠解讀傳感器數(shù)據(jù)、識(shí)別物體,并隨著時(shí)間的推移跟蹤它們,從而對(duì)周圍的世界有一個(gè)深入的了解。這些神經(jīng)網(wǎng)絡(luò)的創(chuàng)建通常是一項(xiàng)耗時(shí)的任務(wù),優(yōu)化神經(jīng)網(wǎng)絡(luò)架構(gòu)以實(shí)現(xiàn)在自動(dòng)駕駛汽車上運(yùn)行所需的質(zhì)量和速度是一個(gè)復(fù)雜的微調(diào)過(guò)程,需要花費(fèi)工程師數(shù)月時(shí)間完成任務(wù)。

通過(guò)與谷歌AI大腦團(tuán)隊(duì)研究人員合作,應(yīng)用AutoML將前沿研究付諸實(shí)踐,以自動(dòng)生成神經(jīng)網(wǎng)絡(luò)。更重要的是,這些最先進(jìn)的神經(jīng)網(wǎng)絡(luò)比工程師手動(dòng)微調(diào)質(zhì)量更高和速度更快。

Waymo 為了將自動(dòng)駕駛技術(shù)應(yīng)用到不同的城市和環(huán)境中,需要以極快的速度優(yōu)化現(xiàn)有模型以適應(yīng)不同的場(chǎng)景。恰好 AutoML 能夠做到這一點(diǎn),并高效,持續(xù)地提供大量的ML解決方案。

應(yīng)用現(xiàn)有的AutoML框架進(jìn)行遷移學(xué)習(xí)

Auto ML能否為汽車生成高質(zhì)量、低延遲的神經(jīng)網(wǎng)絡(luò)?

質(zhì)量往往是衡量一個(gè)神經(jīng)網(wǎng)絡(luò)產(chǎn)生的答案的準(zhǔn)確性的標(biāo)準(zhǔn),延遲數(shù)據(jù)決定了神經(jīng)網(wǎng)絡(luò)提供答案的速度,也稱為推理時(shí)間。由于自動(dòng)駕駛是一項(xiàng)需要無(wú)人車快速做出決定以保證安全的系統(tǒng),因此神經(jīng)網(wǎng)絡(luò)需要保證在低延遲下進(jìn)行。運(yùn)行在Waymo無(wú)人車上的大多數(shù)網(wǎng)絡(luò),延遲都少于10毫秒,這比部署在數(shù)千臺(tái)服務(wù)器上的數(shù)據(jù)中心中的許多網(wǎng)絡(luò)都要快。

Google AI團(tuán)隊(duì)在2018年4月發(fā)表的論文(Learning Transferable Architectures for Scalable ImageRecognition)中,能夠自動(dòng)探索超過(guò)12,000種架構(gòu)來(lái)完成 CIFAR-10 數(shù)據(jù)集的經(jīng)典圖像識(shí)別任務(wù),其中發(fā)現(xiàn)的自我創(chuàng)建的NAS單元比手工創(chuàng)建神經(jīng)網(wǎng)絡(luò)更好。將在CIFAR-10上學(xué)到的知識(shí)轉(zhuǎn)移到自動(dòng)駕駛?cè)蝿?wù)中,它可以很好的完成語(yǔ)義分割的任務(wù),比如將LiDAR點(diǎn)云中的每個(gè)點(diǎn)標(biāo)識(shí)為汽車,行人,樹(shù)等。

NAS單元處理神經(jīng)網(wǎng)絡(luò)中前兩個(gè)層的輸入

通過(guò)構(gòu)建一種自動(dòng)搜索算法,在卷積網(wǎng)絡(luò)架構(gòu)(CNN)中探索數(shù)百種不同的NAS單元組合,進(jìn)行 LiDAR 分割任務(wù)訓(xùn)練和評(píng)估模型。如果采用人工微調(diào),只能探索有限數(shù)量的架構(gòu),但通過(guò)這種方法,自動(dòng)探索了數(shù)百個(gè)。

相比人工微調(diào)優(yōu)化神經(jīng)網(wǎng)絡(luò),AutoML輸出的神經(jīng)網(wǎng)絡(luò)做到了低延遲、高質(zhì)量效果。

初步成功后,Waymo將相同的搜索算法應(yīng)用于另外兩個(gè)與交通車道檢測(cè)和定位相關(guān)的任務(wù),遷移學(xué)習(xí)技術(shù)也適用于這些任務(wù),最后能夠在無(wú)人車上部署三個(gè)新訓(xùn)練和改進(jìn)的神經(jīng)網(wǎng)絡(luò)。

端到端搜索:從頭開(kāi)始搜索新的架構(gòu)

發(fā)現(xiàn)AutoML巨大潛力后,Waymo開(kāi)始思考是否可以更進(jìn)一步、更廣泛地尋找能夠提供更好結(jié)果的全新架構(gòu)。不局限于NAS單元,可以更直接地找到延遲在限定范圍內(nèi)的架構(gòu)。

進(jìn)行端到端搜索往往需要手動(dòng)探索數(shù)千個(gè)架構(gòu),需要大量的計(jì)算成本。找到單一架構(gòu)需要在多個(gè)GPU的計(jì)算機(jī)上訓(xùn)練好幾天,這意味著搜索單個(gè)任務(wù)需要數(shù)千天的計(jì)算時(shí)間。相反,通過(guò)設(shè)計(jì)一個(gè)代理任務(wù):一個(gè)縮小的激光雷達(dá)分割任務(wù),可以在幾個(gè)小時(shí)內(nèi)解決。

這就意味著需要找到一個(gè)與最初的細(xì)分任務(wù)足夠相似的代理任務(wù)。在確定代理任務(wù)上的架構(gòu)質(zhì)量與原始任務(wù)上的架構(gòu)質(zhì)量之間的良好相關(guān)性之前,對(duì)幾個(gè)代理任務(wù)設(shè)計(jì)進(jìn)行試驗(yàn)。然后,啟動(dòng)一個(gè)類似于AutoML論文的搜索,完成一個(gè)端到端代理搜索。這是這個(gè)概念第一次應(yīng)用在激光雷達(dá)數(shù)據(jù)上。

代理端到端搜索:在按比例縮小的代理任務(wù)中探索數(shù)千個(gè)架構(gòu),將100個(gè)最佳應(yīng)用程序應(yīng)用于原始任務(wù),驗(yàn)證并部署最佳的最佳體系結(jié)構(gòu)。

通過(guò)使用幾種搜索算法,優(yōu)化質(zhì)量和延遲。查看不同類型的CNN架構(gòu)并使用不同的搜索策略,如隨機(jī)搜索和強(qiáng)化學(xué)習(xí),能夠?yàn)榇砣蝿?wù)探索10,000多種不同的架構(gòu)。通過(guò)使用代理任務(wù),在Google TPU集群上花費(fèi)一年多的計(jì)算時(shí)間現(xiàn)在只需要兩周時(shí)間。在NAS單元之外,我們發(fā)現(xiàn)了比以前更好的神經(jīng)網(wǎng)路,它在相同的質(zhì)量下,神經(jīng)網(wǎng)絡(luò)的延遲降低20-30%;具有更高質(zhì)量的神經(jīng)網(wǎng)絡(luò),錯(cuò)誤率降低8-10%,與以前的架構(gòu)具有相同的延遲。

左圖展示了在一組簡(jiǎn)單的架構(gòu)上隨機(jī)搜索發(fā)現(xiàn)的大約4000個(gè)架構(gòu)。每個(gè)點(diǎn)都是一個(gè)經(jīng)過(guò)訓(xùn)練和評(píng)估的架構(gòu)。實(shí)線表示不同推理時(shí)間約束下的最佳架構(gòu),紅點(diǎn)表示用遷移學(xué)習(xí)構(gòu)建的網(wǎng)絡(luò)的延遲和性能。在這種隨機(jī)搜索中,網(wǎng)絡(luò)學(xué)習(xí)效果不如遷移學(xué)習(xí)。右圖中,黃色和藍(lán)色的點(diǎn)表示另外兩種搜索算法的結(jié)果。黃色的是對(duì)一組精致架構(gòu)的隨機(jī)搜索。藍(lán)色的那個(gè)使用了強(qiáng)化學(xué)習(xí),探索了6000多個(gè)架構(gòu)。它產(chǎn)生了最好的結(jié)果。這兩個(gè)額外的搜索發(fā)現(xiàn),該網(wǎng)絡(luò)明顯優(yōu)于遷移學(xué)習(xí)的網(wǎng)絡(luò)。

在搜索中發(fā)現(xiàn)的一些架構(gòu)采用了卷積、池化和反卷積操作的創(chuàng)造性組合,如下圖所示。這些架構(gòu)最終非常適合最初的激光雷達(dá)分割任務(wù),并將部署在Waymo的自動(dòng)駕駛汽車上。

由代理端到端搜索發(fā)現(xiàn)的一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

Waymo與Google AI合作,應(yīng)用 AutoML 在無(wú)人駕駛上的實(shí)踐僅僅是個(gè)開(kāi)始。對(duì)于激光雷達(dá)分割任務(wù),傳輸學(xué)習(xí)和代理端到端搜索都提供了比人工創(chuàng)建更好的網(wǎng)絡(luò),這些機(jī)制應(yīng)用到新的任務(wù)類型上,可以改善許多其他的神經(jīng)網(wǎng)絡(luò)。這一發(fā)展為未來(lái)的ML工作開(kāi)辟了新的道路,并提高了Waymo的自動(dòng)駕駛技術(shù)的性能和能力。

看到這里是不是覺(jué)得很興奮,自己費(fèi)盡心思搭的神經(jīng)網(wǎng)路,AutoML 只需很短的時(shí)間就能得出高質(zhì)量的網(wǎng)絡(luò)結(jié)構(gòu)。當(dāng)然,目前谷歌只開(kāi)源了輕量級(jí) AutoML 框架——AdaNet。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134646
  • waymo
    +關(guān)注

    關(guān)注

    2

    文章

    314

    瀏覽量

    25167

原文標(biāo)題:算法工程師要失業(yè)?Waymo嘗試用AutoML自動(dòng)生成機(jī)器學(xué)習(xí)模型

文章出處:【微信號(hào):IV_Technology,微信公眾號(hào):智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    通過(guò)NVIDIA Cosmos模型增強(qiáng)機(jī)器人學(xué)習(xí)

    通用機(jī)器人的時(shí)代已經(jīng)到來(lái),這得益于機(jī)械電子技術(shù)和機(jī)器人 AI 基礎(chǔ)模型的進(jìn)步。但目前機(jī)器人技術(shù)的發(fā)展仍面臨一個(gè)關(guān)鍵挑戰(zhàn):機(jī)器人需要大量的訓(xùn)練
    的頭像 發(fā)表于 07-14 11:49 ?186次閱讀
    通過(guò)NVIDIA Cosmos<b class='flag-5'>模型</b>增強(qiáng)<b class='flag-5'>機(jī)器人學(xué)習(xí)</b>

    機(jī)器學(xué)習(xí)模型市場(chǎng)前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長(zhǎng)以及計(jì)算能力的飛速提升,機(jī)器學(xué)習(xí)模型的市場(chǎng)前景愈發(fā)廣闊。下面,AI部落小編將探討機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 02-13 09:39 ?365次閱讀

    DeepSeek-R1實(shí)現(xiàn)自動(dòng)生成Manim動(dòng)畫(huà)

    ? 作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 前面我們分享了在本地運(yùn)行能與OpenAI-o1 能力相媲美的DeepSeek-R1 模型。本文將介紹如何使用DeepSeek-R1實(shí)現(xiàn)自動(dòng)生成Manim
    的頭像 發(fā)表于 02-07 12:31 ?3367次閱讀
    <b class='flag-5'>用</b>DeepSeek-R1實(shí)現(xiàn)<b class='flag-5'>自動(dòng)</b><b class='flag-5'>生成</b>Manim動(dòng)畫(huà)

    全球的AI+EDA(電子設(shè)計(jì)自動(dòng)化)創(chuàng)新項(xiàng)目

    for EDA 項(xiàng)目概述 :Google研究團(tuán)隊(duì)推出了AutoML自動(dòng)機(jī)器學(xué)習(xí))平臺(tái),應(yīng)用于電子設(shè)計(jì)自動(dòng)化領(lǐng)域。該平臺(tái)利用AI來(lái)
    的頭像 發(fā)表于 02-07 12:00 ?2416次閱讀

    AN-715::走近IBIS模型:什么是IBIS模型?它們是如何生成的?

    電子發(fā)燒友網(wǎng)站提供《AN-715::走近IBIS模型:什么是IBIS模型?它們是如何生成的?.pdf》資料免費(fèi)下載
    發(fā)表于 01-13 14:21 ?0次下載
    AN-715::走近IBIS<b class='flag-5'>模型</b>:什么是IBIS<b class='flag-5'>模型</b>?它們是如何<b class='flag-5'>生成</b>的?

    NVIDIA推出多個(gè)生成式AI模型和藍(lán)圖

    NVIDIA 宣布推出多個(gè)生成式 AI 模型和藍(lán)圖,將 NVIDIA Omniverse 一體化進(jìn)一步擴(kuò)展至物理 AI 應(yīng)用,如機(jī)器人、自動(dòng)駕駛汽車和視覺(jué) AI 等。全球軟件開(kāi)發(fā)和專業(yè)
    的頭像 發(fā)表于 01-08 10:48 ?640次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    引入GPT這樣的大模型后,情況發(fā)生了根本性的變化。只需提供適當(dāng)?shù)奶崾驹~以及封裝好的機(jī)器人函數(shù)庫(kù),大模型便能靈活地生成控制代碼,極大地簡(jiǎn)化了開(kāi)發(fā)過(guò)程,并提高了
    發(fā)表于 12-29 23:04

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    醫(yī)療領(lǐng)域,手術(shù)輔助機(jī)器人需要毫米級(jí)的精確控制,書(shū)中有介紹基于視覺(jué)伺服的實(shí)時(shí)控制算法,以及如何利用大模型優(yōu)化手術(shù)路徑規(guī)劃。工業(yè)場(chǎng)景中,協(xié)作機(jī)器人面臨的主要挑戰(zhàn)是快速適應(yīng)新工藝流程。具身智能通過(guò)在線
    發(fā)表于 12-24 15:03

    Waymo估值超450億美元,自動(dòng)駕駛領(lǐng)域再掀波瀾

    在科技巨頭紛紛布局自動(dòng)駕駛技術(shù)的今天,谷歌母公司Alphabet旗下的自動(dòng)駕駛部門Waymo再次成為了業(yè)界的焦點(diǎn)。據(jù)外媒最新報(bào)道,包括最新一輪融資在內(nèi),Waymo的估值已經(jīng)超過(guò)了450
    的頭像 發(fā)表于 11-01 15:26 ?1518次閱讀

    Waymo利用谷歌Gemini大模型,研發(fā)端到端自動(dòng)駕駛系統(tǒng)

    邁新步,為其機(jī)器人出租車業(yè)務(wù)引入了一種基于谷歌多模態(tài)大語(yǔ)言模型(MLLM)“Gemini”的全新訓(xùn)練模型——“端到端多模態(tài)自動(dòng)駕駛模型”(E
    的頭像 發(fā)表于 10-31 16:55 ?1731次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?2901次閱讀

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)在多個(gè)方面存在顯著的區(qū)別。以下是對(duì)這些區(qū)別的介紹: 一、模型規(guī)模與復(fù)雜度 AI大模型 :通常包含數(shù)十億甚至數(shù)萬(wàn)億的參
    的頭像 發(fā)表于 10-23 15:01 ?2596次閱讀

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    機(jī)器翻譯、文本生成等領(lǐng)域具有廣泛應(yīng)用。它們能夠基于用戶的提問(wèn)或描述生成相關(guān)的答案或執(zhí)行指令,極大地提升了信息檢索和利用的效率。 2. 局限性 盡管大語(yǔ)言模型在自然語(yǔ)言理解方面取得了顯
    發(fā)表于 08-02 11:03

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    這個(gè)程序不需要程序員編寫,而是由計(jì)算機(jī)自動(dòng)生成。因此,人工編程方法依賴程序員思考的規(guī)則,而自動(dòng)編程是計(jì)算機(jī)算法通過(guò)分析數(shù)據(jù)自行創(chuàng)建規(guī)則。 作者通過(guò)類比學(xué)生準(zhǔn)備高考的過(guò)程來(lái)說(shuō)明機(jī)器
    發(fā)表于 07-25 14:33

    SensiML開(kāi)源AutoML解決方案-Piccolo AI發(fā)布

    :支持AutoML模型構(gòu)建、傳感器數(shù)據(jù)管理、模型跟蹤和嵌入式固件生成。 嵌入式ML SDK:SensiML的推理和DSP SDK設(shè)計(jì)用于在邊緣設(shè)備上構(gòu)建和運(yùn)行DSP和
    的頭像 發(fā)表于 07-22 16:53 ?1071次閱讀