99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA DRIVETMPX自動駕駛汽車的端到端學習

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-02 11:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在一個新的汽車應用程序中,我們使用了 卷積神經網絡 ( CNNs )來映射從前置攝像頭到自動駕駛汽車的轉向命令的原始像素。這種強大的端到端方法意味著,只要從人類那里獲得最少的訓練數據,系統就可以學會在當地道路和高速公路上使用或不使用車道標線進行轉向。該系統還可以在視覺引導不清晰的區(qū)域運行,如停車場或未鋪路面的道路。

我們設計了一個端到端的學習系統,使用 NVIDIA 開發(fā)箱 運行的 Torch 7 進行培訓。安NVIDIA DRIVETMPX自動駕駛汽車電腦,也與 Torch 7,是用來確定在哪里駕駛時,以 30 幀每秒( FPS )。該系統訓練成僅以人的轉向角為訓練信號,自動學習必要處理步驟的內部表示,例如檢測有用的道路特征。我們從來沒有明確地訓練它去探測,例如,道路的輪廓。與使用顯式分解問題的方法(如車道標記檢測、路徑規(guī)劃和控制)相比,我們的端到端系統同時優(yōu)化所有處理步驟。

我們相信端到端的學習可以帶來更好的性能和更小的系統。更好的性能結果是因為內部組件自我優(yōu)化來實現最大化系統性能,而不是優(yōu)化人為選擇的中間標準,例如車道檢測??梢岳斫獾氖?,選擇這樣的標準是為了便于人理解,而這并不能自動保證最大的系統性能。更小的網絡是可能的,因為系統學會用最少的處理步驟來解決問題。

用卷積神經網絡處理視覺數據

CNNs使計算模式識別過程發(fā)生了革命性的變化 ,在 CNNs 被廣泛采用之前,大多數模式識別任務都是在最初階段使用手工制作的特征提取和分類器來完成的。 CNNs 的一個重要突破是特征可以從訓練樣本中自動學習。 CNN 方法在應用于圖像識別任務時特別強大,因為卷積運算捕捉圖像的 2D 特性。通過使用卷積核來掃描整個圖像,與操作總數相比,需要學習的參數相對較少。

而具有學習特性的 cnn 已經在商業(yè)上使用了二十多年近年來,由于兩個重要的發(fā)展,它們的采用呈爆炸式增長。首先,像 ImageNet 大規(guī)模視覺識別挑戰(zhàn)( ILSVRC ) 這樣的大型標記數據集現在已經廣泛用于培訓和驗證。第二, CNN 學習算法現在在大規(guī)模并行圖形處理單元( GPUs )上實現,極大地提高了學習和推理能力。

我們在這里描述的 cnn 超越了基本的模式識別。我們開發(fā)了一個系統來學習駕駛汽車所需的整個處理流程。這個項目的基礎工作實際上是在 10 年前國防高級研究計劃局( DARPA )的苗木項目中完成的,這個項目被稱為 DARPA 自動車輛( DAVE ),在這個項目中,一輛小規(guī)模無線電控制( RC )車開過一條垃圾堆滿的小巷。戴夫接受的訓練是在相似但不完全相同的環(huán)境中駕駛人的時間。訓練數據包括來自兩臺攝像機的視頻和一名操作員發(fā)出的轉向指令。

在很多方面,戴夫受到了波默洛的開創(chuàng)性工作的啟發(fā)他于 1989 年在一個神經網絡( ALVINN )系統中制造了自動陸地車輛。 ALVINN 是 DAVE 的先驅,它提供了一個概念的初步證明,即有一天,一個端到端訓練的神經網絡 MIG ht 能夠在公共道路上駕駛汽車。 DAVE 展示了端到端學習的潛力,并確實被用來證明啟動 DARPA 學習應用于地面機器人( LAGR )項目 ,但是戴夫的表現不夠可靠,不足以提供一個完整的替代方案,更模塊化的越野駕駛方法。( DAVE 在復雜環(huán)境中的平均相撞距離約為 20 米。)

大約一年前,我們開始了一項新的工作來改進原來的 DAVE ,并創(chuàng)建了一個在公共道路上行駛的強大系統。這項工作的主要動機是避免需要識別特定的人類指定特征,如車道標記、護欄或其他汽車,并避免創(chuàng)建“如果,那么,“ else ”規(guī)則,基于對這些特征的觀察。我們很高興與大家分享這項新工作的初步成果,這項工作的名稱很恰當: DAVE – 2 。

DAVE-2 系統

圖 2 顯示了 DAVE-2 訓練數據采集系統的簡化框圖。三個攝像頭安裝在數據采集車的擋風玻璃后面,攝像頭的時間戳視頻與駕駛員施加的轉向角同時捕獲。通過接入車輛控制器局域網( CAN )總線獲得轉向指令。為了使我們的系統獨立于車輛的幾何結構,我們將轉向命令表示為 1 / r ,其中 r 是轉彎半徑,單位為米。我們使用 1 / r 而不是 r 來防止直線行駛時出現奇點(直線行駛的轉彎半徑是無窮大)。 1 / r 從左轉彎(負值)平穩(wěn)過渡到右轉彎(正值)。

data-collection-system-624x411.png

圖 2 :數據收集系統的高級視圖。

訓練數據包含從視頻中采樣的單個圖像,與相應的轉向指令( 1 / r )配對。僅僅使用人類駕駛員的數據進行培訓是不夠的;網絡還必須學會如何從任何錯誤中恢復,否則汽車將慢慢偏離道路。因此,訓練數據被附加的圖像增強,這些圖像顯示了汽車從車道中心的不同位移和從道路方向的旋轉。

兩個特定的偏離中心偏移的圖像可以從左右攝像機獲得。通過對來自最近攝像機的圖像進行視點變換,模擬攝像機之間的附加位移和所有旋轉。精確的視點變換需要我們沒有的三維場景知識,所以我們假設地平線以下的所有點都在平地上,地平線以上的所有點都是無限遠的,來近似地進行變換。對于平坦的地形,這很好,但是對于更完整的渲染,它會對粘在地面上的對象(如汽車、電線桿、樹木和建筑物)引入扭曲。幸運的是,這些扭曲并沒有給網絡培訓帶來重大問題。變換后的圖像的轉向標簽會快速調整為在兩秒鐘內將車輛正確地轉向到所需的位置和方向。

圖 3 顯示了我們的培訓系統的框圖。圖像被輸入 CNN ,然后由 CNN 計算出建議的轉向指令。將提出的命令與該圖像的所需命令進行比較,并調整 CNN 的權重以使 CNN 輸出更接近所需的輸出。重量調整是通過在 Torch 7 機器學習包中實現的反向傳播來完成的。

poYBAGJHxnyAIFb3AADebfYlxGw665.png

圖 3 :訓練神經網絡。

一旦經過訓練,網絡就能夠從單中心攝像機的視頻圖像中生成轉向指令。圖 4 顯示了這個配置。

inference-624x132.png

圖 4 :訓練后的網絡用于從單個前置中心攝像頭生成轉向命令。

數據收集

培訓數據是通過在各種各樣的道路上以及在不同的照明和天氣條件下駕駛來收集的。我們收集了來自新澤西州,伊利諾伊州和新澤西州的數據。其他道路類型包括雙車道道路(帶和不帶車道標線)、有停車場的住宅道路、隧道和未鋪面道路。數據收集在晴朗,多云,霧,雪和雨的天氣,白天和晚上。在某些情況下,太陽在天空中很低,導致眩光從路面反射并從擋風玻璃上散射。

這些數據是通過我們的線控測試車( 2016 款林肯 MKZ )或 2013 款福特??怂梗?Ford Focus )獲得的,該車的攝像頭位置與林肯車相似。我們的系統不依賴于任何特定的車輛品牌或型號。司機們被鼓勵保持全神貫注,但在其他方面,他們通常會這樣開車。截至 2016 年 3 月 28 日,收集了大約 72 小時的駕駛數據。

網絡體系結構

我們訓練網絡的權值,以使網絡輸出的轉向命令與人類駕駛員的指令或偏離中心和旋轉圖像的調整后的轉向指令之間的均方誤差最小化(見后面的“增強”)。圖 5 顯示了網絡體系結構,它由 9 個層組成,包括一個規(guī)范化層、 5 個卷積層和 3 個完全連接的層。將輸入的圖像分割成 YUV 。

cnn-architecture-624x890.png

圖 5 : CNN 架構。這個網絡有大約 2700 萬個連接和 25 萬個參數。

網絡的第一層執(zhí)行圖像標準化。規(guī)范化器是硬編碼的,在學習過程中不會進行調整。在網絡中執(zhí)行規(guī)范化允許標準化方案隨網絡架構改變,并通過 GPU 處理加速。

卷積層的設計是為了進行特征提取,并通過一系列不同層結構的實驗進行經驗選擇。然后,我們在前三個卷積層中使用跨步卷積,步長為 2 × 2 ,核為 5 × 5 ,最后兩個卷積層使用核大小為 3 × 3 的非跨步卷積。

我們跟隨五個卷積層和三個完全連接的層,得到最終的輸出控制值,即反向轉彎半徑。完全連接的層被設計成一個控制器來控制方向,但是我們注意到,通過端到端的訓練系統,不可能在網絡的哪些部分主要作為特征提取器,哪些部分作為控制器起作用。

培訓詳情

數據選擇

訓練 神經網絡 的第一步是選擇要使用的幀。我們收集的數據被標記為道路類型、天氣狀況和駕駛員的活動(停留在車道上、切換車道、轉彎等)。為了訓練 CNN 進行車道跟蹤,我們只需選擇駕駛員停留在車道上的數據,然后丟棄其余數據。然后,我們以 10 FPS 的速度對視頻進行采樣,因為更高的采樣率將包含高度相似的圖像,因此不會提供太多額外的有用信息。為了消除對直線行駛的偏見,訓練數據中包含了更高比例的表示道路曲線的幀。

增強

在選擇最后一組幀后,我們通過添加人工移動和旋轉來增加數據,以教網絡如何從不良位置或方向恢復。這些擾動的大小是從正態(tài)分布中隨機選取的。分布的平均值為零,標準差是我們用人類駕駛員測量的標準差的兩倍。隨著震級的增加,人為地增加數據確實會增加不需要的偽影(如前所述)。

仿真

在對經過訓練的 CNN 進行道路測試之前,我們首先在仿真中評估網絡的性能。圖 6 顯示了仿真系統的簡化框圖,圖 7 顯示了交互模式下模擬器的屏幕截圖。

simulator-624x218.png

圖 6 :駕駛模擬器框圖。

這個模擬器從一個連接到人類駕駛的數據采集車的前向車載攝像頭上獲取預先錄制的視頻,生成的圖像與 CNN 轉向車輛時的圖像大致相同。這些測試視頻與人類駕駛員生成的錄制的轉向指令時間同步。

由于人類駕駛員不是一直在車道中心行駛,我們必須手動校準車道中心,因為它與模擬器使用的視頻中的每個幀相關。我們稱這一立場為“基本事實”。

模擬器對原始圖像進行變換,以解釋與地面真實情況的偏差。請注意,這種轉換也包括了人類驅動的路徑和基本真相之間的任何差異。轉換是通過與前面描述的相同的方法完成的。

模擬器訪問錄制的測試視頻以及捕獲視頻時發(fā)生的同步轉向命令。模擬器將所選測試視頻的第一幀發(fā)送到經過訓練的 CNN 的輸入,該視頻根據地面真相的任何偏離進行調整,然后返回該幀的轉向命令。 CNN 轉向命令和記錄的人 – 駕駛員指令被輸入車輛的動態(tài)模型[7],以更新模擬車輛的位置和方向。

simulator-roberts-624x294.png

圖 7 :交互模式下模擬器的屏幕截圖。有關性能指標的說明,請參閱文本。由于視點變換,左側的綠色區(qū)域未知。地平線下突出顯示的寬矩形是發(fā)送給 CNN 的區(qū)域。

模擬器然后修改測試視頻中的下一幀,使圖像看起來像是車輛在遵循 CNN 的轉向命令而產生的位置。這個新的圖像然后被傳送到 CNN 并且這個過程重復。

模擬器記錄偏離中心的距離(從汽車到車道中心的距離)、偏航和虛擬汽車行駛的距離。當偏離中心距離超過 1 米時,將觸發(fā)虛擬人干預,并重置虛擬車輛的位置和方向,以匹配原始測試視頻對應幀的地面真實情況。

評價

我們通過兩個步驟來評估我們的網絡:首先在模擬中,然后在道路測試中。

在模擬中,我們的網絡在模擬器中提供了一組預先記錄的測試路線的指導命令,這些線路對應于新澤西州蒙茅斯縣大約 3 小時 100 英里的行駛。測試數據是在不同的照明和天氣條件下采集的,包括公路、當地道路和居民街。

我們通過計算模擬車輛偏離中心線超過 1 米時發(fā)生的模擬人類干預,來估計網絡能夠驅動汽車的時間百分比(自主)。我們假設,在現實生活中,實際干預總共需要 6 秒:這是人類重新控制車輛、重新居中,然后重新啟動自動轉向模式所需的時間。我們通過計算干預次數,乘以 6 秒,除以模擬測試的運行時間,然后從 1 減去結果來計算自主性百分比:

latex.php?latex=%5Ctext%7Bautonomy%7D+%3D+%281+-+%5Cfrac%7B%5Ctext%7B%5C%23+of+interventions%7D+%5Ccdot+6+%5Ctext%7B%5Bseconds%5D%7D%7D%7B%5Ctext%7Belapsed+time%5Bseconds%5D%7D%7D%29+%5Ccdot+100&bg=ffffff&fg=000&s=0&c=20201002

因此,如果我們在 600 秒內進行 10 次干預,我們的自主性值將為

latex.php?latex=%281+-+%5Cfrac%7B10+%5Ccdot+6%7D%7B600%7D%29+%5Ccdot+100+%3D+90%5C%25&bg=ffffff&fg=000&s=0&c=20201002

道路試驗

經過訓練的網絡在模擬器中表現出良好的性能后,網絡被加載到我們的測試車的驅動器 PX 上,并被帶出進行道路測試。在這些測試中,我們用汽車自動轉向的時間來衡量性能。此時間不包括從一條道路到另一條道路的車道變更和轉彎。在新澤西州蒙茅斯縣,從我們在霍爾姆德爾的辦公室到大西洋高地的典型駕車旅行,我們大約 98% 的時間是自治的。我們還在花園州公園大道上行駛了 10 英里(一條有進出口匝道的多車道分車道高速公路),沒有攔截。

以下是我們的測試車在不同條件下駕駛的視頻。

CNN 內部狀態(tài)的可視化

pYYBAGJHxqiAMzFeAAJ8Efk1H0E271.png

圖 8 : CNN 如何“看到”一條未鋪砌的道路。頂部:發(fā)送到 CNN 的攝像機圖像的子集。左下:激活第一層要素地圖。右下:激活第二層要素地圖。這表明 CNN 學會了自己檢測有用的道路特征,即僅以人的轉向角作為訓練信號。我們從來沒有明確訓練過它去探測道路的輪廓。

圖 8 和圖 9 顯示了兩個不同示例輸入的前兩個要素地圖層的激活,即未鋪砌的道路和森林。對于未鋪筑的道路,特征地圖激活可以清楚地顯示道路的輪廓,而對于森林,特征地圖包含的大部分是噪音,即 CNN 在該圖像中找不到有用的信息。

這表明 CNN 學會了自己檢測有用的道路特征,即僅以人的轉向角作為訓練信號。例如,我們從來沒有明確訓練過它來檢測道路的輪廓。

feature-maps-woods.png

圖 9 :沒有道路的示例圖像。前兩個特征地圖的激活似乎主要包含噪音,也就是說, CNN 在這張圖片中沒有識別出任何有用的特征。

結論

我們已經通過經驗證明, cnn 能夠學習車道和道路跟隨的整個任務,而無需手動分解為道路或車道標記檢測、語義抽象、路徑規(guī)劃和控制。從不到一百小時的駕駛中獲得的少量培訓數據就足以訓練汽車在不同的條件下運行,在高速公路、當地和居民道路上,在晴天、多云和下雨的條件下。 CNN 能夠從非常稀疏的訓練信號(單獨轉向)中學習有意義的道路特征。

例如,該系統學習如何檢測道路輪廓,而不需要在訓練過程中使用明確的標簽。

為了提高網絡的魯棒性,尋找驗證魯棒性的方法,提高網絡內部處理步驟的可視化程度,還需要做更多的工作。

關于作者

Mariusz Bojarski 博士于 2009 年獲得華沙理工大學電子與計算機工程碩士學位。他在電池管理系統、移動機器人電池充電器、移動自動化和測量以及 ele CTR ic 車輛無線充電系統的開發(fā)方面有著廣泛的職業(yè)生涯。 2015 年 12 月, Mariusz 加入 NVIDIA ,擔任深度學習研發(fā)工程師,致力于自主駕駛技術。

Ben Firner 博士畢業(yè)于羅格斯大學無線信息網絡實驗室( WINLAB ),他在那里研究一種無線協議,允許小型無線傳感器在幣形電池上運行 10 年以上。在加入 NVIDIA 之前,他與一家初創(chuàng)公司合作,利用這些傳感器為實驗動物護理市場創(chuàng)建實時監(jiān)控系統。 Ben 目前正與 NVIDIA 自主駕駛團隊的其他成員合作,創(chuàng)建接近人類水平駕駛能力的神經網絡,最終目標是使駕駛更安全、壓力更小。

Beat Flepp 是 NVIDIA 自主駕駛團隊的高級開發(fā)技術工程師,負責設計、實施、測試和維護硬件和軟件基礎設施的許多方面,以便在各種 NVIDIA 嵌入式系統上訓練和運行用于自主駕駛的神經網絡模型。貝特于 1999 年獲得瑞士聯邦理工學院電氣工程博士學位。

Larry Jackel 是 North-C Technologies 的總裁,在那里他從事專業(yè)咨詢。他曾擔任國防高級研究計劃局( DARPA )項目經理,管理網絡文件存儲項目,并與自主地面機器人導航和移動工作。杰克爾擁有康奈爾大學實驗物理學博士學位,論文主題是超導電子 CTR 。

Urs Muller 是新澤西州 NVIDIA 汽車公司的開發(fā)技術總監(jiān)和首席軟件架構師。他的工作重點是使用 NVIDIA Tegra 平臺開發(fā)自動車輛的端到端解決方案,他在機器人技術、計算機視覺、機器學習和高性能計算方面擁有 20 多年的經驗。他收到了博士 1993 年獲瑞士聯邦理工學院電子工程與計算機科學專業(yè)。

Karol Zieba 最近在佛蒙特大學完成了計算機科學碩士學位。在 NVIDIA 上,卡羅爾擴展了自動駕駛車輛的學習方式。卡羅爾喜歡舉重、棋盤游戲,并探索機器學習、復雜網絡和具體認知方面的最新研究。Davide Del Testa 是 NVIDIA 汽車解決方案架構師團隊的成員,他支持客戶構建基于 NVIDIA 驅動平臺的自主駕駛架構。在此之前,他是 NVIDIA 的深度學習研究實習生,在那里他應用深度學習技術開發(fā) BB8 , NVIDIA 的研究工具。 Davide 擁有應用于電信的機器學習博士學位,他在網絡優(yōu)化和信號處理領域采用了學習技術。他在意大利帕多瓦大學獲得電信工程碩士學位。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 控制器
    +關注

    關注

    114

    文章

    17113

    瀏覽量

    184401
  • 汽車電子
    +關注

    關注

    3037

    文章

    8349

    瀏覽量

    170186
  • 神經網絡
    +關注

    關注

    42

    文章

    4814

    瀏覽量

    103693
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Nullmax自動駕駛最新研究成果入選ICCV 2025

    近日,國際計算機視覺大會 ICCV 2025 正式公布論文錄用結果,Nullmax 感知團隊在自動駕駛方向的最新研究成果《HiP-AD: Hierarchical
    的頭像 發(fā)表于 07-05 15:40 ?434次閱讀
    Nullmax<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>最新研究成果入選ICCV 2025

    為什么自動駕駛大模型有黑盒特性?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術落地,(End-to-End)大模型也成為行業(yè)研究與應用的熱門方向。相較于傳統自動駕駛
    的頭像 發(fā)表于 07-04 16:50 ?221次閱讀
    為什么<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型有黑盒特性?

    數據標注方案在自動駕駛領域的應用優(yōu)勢

    10-20TB,其中需要標注的數據占比超過60%。在這樣的背景下,數據標注方案應運而生,正在重塑自動駕駛的數據生產范式。
    的頭像 發(fā)表于 06-23 17:27 ?300次閱讀

    一文帶你厘清自動駕駛架構差異

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術飛速發(fā)展,智能駕駛系統的設計思路也經歷了從傳統模塊化架構
    的頭像 發(fā)表于 05-08 09:07 ?302次閱讀
    一文帶你厘清<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>架構差異

    自動駕駛中基于規(guī)則的決策和大模型有何區(qū)別?

    自動駕駛架構的選擇上,也經歷了從感知、決策控制、執(zhí)行的三段式架構到現在火熱的大模型,尤其是在2024年特斯拉推出FSD V12后,各車企更是陸續(xù)推出自家的
    的頭像 發(fā)表于 04-13 09:38 ?2921次閱讀
    <b class='flag-5'>自動駕駛</b>中基于規(guī)則的決策和<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型有何區(qū)別?

    東風汽車推出自動駕駛開源數據集

    近日,智能網聯汽車智駕數據空間構建研討會暨中汽協會智能網聯汽車分會、數據分會2024年度會議在上海舉辦。會上,東風汽車發(fā)布行業(yè)規(guī)模最大、涵蓋125萬組高質量數據的
    的頭像 發(fā)表于 04-01 14:54 ?633次閱讀

    NVIDIA Halos自動駕駛汽車安全系統發(fā)布

    NVIDIA 整合了從云端的安全自動駕駛開發(fā)技術套件,涵蓋車輛架構 AI 模型,包括芯片、軟件、工具和服務。 物理 AI 正在為
    的頭像 發(fā)表于 03-25 14:51 ?622次閱讀

    DiffusionDrive首次在自動駕駛中引入擴散模型

    ? ? 近年來,自動駕駛成為研究熱點,其核心在于從傳感器數據直接學習駕駛決策。然而,
    的頭像 發(fā)表于 03-08 13:59 ?888次閱讀
    DiffusionDrive首次在<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>中引入擴散模型

    自動駕駛技術研究與分析

    編者語:「智駕最前沿」微信公眾號后臺回復:C-0450,獲取本文參考報告:《自動駕駛行業(yè)研究報告》pdf下載方式。 自動駕駛進入202
    的頭像 發(fā)表于 12-19 13:07 ?901次閱讀

    從車企實踐看自動駕駛解決方案

    中的重要性日益凸顯,這也促使眾多汽車制造商加快了智能化技術的研發(fā)和工程投入,未能跟上智能化步伐的汽車品牌可能會逐漸失去市場競爭力,自動駕駛技術的發(fā)展已然進入關鍵階段,其中
    的頭像 發(fā)表于 11-19 10:55 ?1131次閱讀
    從車企實踐看<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>解決方案

    連接視覺語言大模型與自動駕駛

    自動駕駛在大規(guī)模駕駛數據上訓練,展現出很強的決策規(guī)劃能力,但是面對復雜罕見的駕駛場景,依然
    的頭像 發(fā)表于 11-07 15:15 ?712次閱讀
    連接視覺語言大模型與<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>

    Waymo利用谷歌Gemini大模型,研發(fā)端自動駕駛系統

    邁新步,為其機器人出租車業(yè)務引入了一種基于谷歌多模態(tài)大語言模型(MLLM)“Gemini”的全新訓練模型——“多模態(tài)自動駕駛模型”(EMMA)。
    的頭像 發(fā)表于 10-31 16:55 ?1732次閱讀

    Mobileye自動駕駛解決方案的深度解析

    自動駕駛技術正處于快速發(fā)展之中,各大科技公司和汽車制造商均在爭相布局,試圖在這個新興領域占據一席之地。Mobileye作為全球自動駕駛技術的領軍企業(yè)之一,憑借其獨特的
    的頭像 發(fā)表于 10-17 09:35 ?842次閱讀
    Mobileye<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>解決方案的深度解析

    NVIDIA Research自動駕駛模型引領國際挑戰(zhàn)賽

    NVIDIA 在國際計算機視覺與模式識別會議(CVPR)上展示了用于自動駕駛汽車開發(fā)的加速計算和生成式 AI 的突破技術。
    的頭像 發(fā)表于 09-09 10:11 ?824次閱讀

    實現自動駕駛,唯有?

    ,去年行業(yè)主流方案還是輕高精地圖城區(qū)智駕,今年大家的目標都瞄到了(End-to-End, E2E)。
    的頭像 發(fā)表于 08-12 09:14 ?1526次閱讀
    實現<b class='flag-5'>自動駕駛</b>,唯有<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>?