99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

康謀分享|aiSim5基于生成式AI擴大仿真測試范圍(終)

康謀自動駕駛 ? 2024-05-22 13:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在前面的幾章節(jié)中探討了aiSim仿真合成數(shù)據(jù)的置信度,此外在場景重建和測試流程閉環(huán)的過程中,難免會面臨3D場景制作重建耗時長、成本高、擴展性低以及交通狀況復(fù)雜程度難以滿意等問題,當(dāng)前的主要挑戰(zhàn)在于如何自動化生成3D靜態(tài)場景并添加動態(tài)實例編輯,從而有效縮短測試流程,擴大仿真測試范圍。

wKgaomZNiUGACH0zAABL0_0fsNQ18.jpeg?source=d16d100b圖1:實際圖像wKgaomZNiUGABH0wAAA-X-ccnfA280.jpg?source=d16d100b圖2:NeRF重建場景

對于3D重建,目前主要的兩種解決方案為NeRF和3DGS。

一、NeRF

1、神經(jīng)輻射場(Neural Radiance Fields)

NeRF是將三維空間中的每個點的顏色和密度信息編碼為一個連續(xù)的函數(shù)并由MLP參數(shù)化。給定一個視角和三維空間中的點,NeRF可以預(yù)測該點的顏色和沿視線方向的密度分布。通過對這些信息進(jìn)行體積渲染,NeRF能夠合成出新視角下的圖像。

wKgZomZNiUWAZUeYARW_QeIaDmI089.gif?source=d16d100b

2、優(yōu)勢

高保真輸出。

  • 基于NerFStudio提供了較為友好地代碼庫。
  • 相對較快的訓(xùn)練時間。
  • 對于待重建區(qū)域具有可擴展性。

3、不足及主要挑戰(zhàn)

渲染速度緩慢。NeRF需要沿著從相機到場景的每條光線進(jìn)行大量的采樣和計算,以準(zhǔn)確估計場景的體積密度和顏色。這個過程計算密集,在NVIDIA A100上進(jìn)行了測試,全HD分辨率下,渲染一張圖像大約需要10s。

場景深度估計效果不理想。NeRF通過體積渲染隱式地學(xué)習(xí)了場景的深度信息,但這種深度信息通常是與場景的顏色和密度信息耦合在一起的。這意味著,如果場景中存在遮擋或非朗伯(non-Lambertian)反射等復(fù)雜情況,NeRF可能難以準(zhǔn)確估計每個像素的深度。

wKgaomZNiUKAGoKzAAHdHVYkELY10.jpeg?source=d16d100b

近距離物體重建質(zhì)量可能較低。這可能是由視角和分辨率不足、深度估計不夠準(zhǔn)確以及運動模糊遮擋等問題造成的。

wKgZomZNiUGAL9jqAAAyc4PLlrM00.jpeg?source=d16d100b

高FOV相機校準(zhǔn)不完善導(dǎo)致的重影偽影。

wKgZomZNiUKAUsgGAAA9O87Ifug74.jpeg?source=d16d100b

當(dāng)然為了解決這些問題研究人員通過引入深度正則化來提升NeRF深度估計的準(zhǔn)確性和穩(wěn)定性,通過優(yōu)化NeRF的結(jié)構(gòu)和算法提升渲染速度。

二、3DGS

1、3D高斯?jié)姙R(3D Gaussian Splatting)

3DGS采用三維高斯分布來表示場景中的點云數(shù)據(jù),每個點用一個具有均值和協(xié)方差的高斯函數(shù)來描述。通過光柵化渲染高斯函數(shù),從而生成逼真的3D場景圖像。

wKgaomZNiUaAfO9xARF-jfd6tiw046.gif?source=d16d100b

2、優(yōu)勢

訓(xùn)練時間短。

近似于實時的渲染。

提供高保真的輸出。

3、不足及主要挑戰(zhàn)

代碼庫友好度較低。相比于NeRFStudio,文檔的完善程度和易用性較低。

初始點云獲取需求高,需要精確的傳感器和復(fù)雜的數(shù)據(jù)處理流程,否則將會對3DGS的性能產(chǎn)生明顯的影響。

wKgaomZNiUKAWR4mAABabi0v3BU54.jpeg?source=d16d100b

深度估計同樣不足,主要可能有幾個原因:在優(yōu)化過程中傾向于獨立優(yōu)化每個高斯點,導(dǎo)致在少量圖像下出現(xiàn)過擬合;由于缺乏全局的幾何信息,導(dǎo)致在大型場景下或復(fù)雜幾何結(jié)構(gòu)重建時深度估計不準(zhǔn)確;初始點云的深度信息不夠準(zhǔn)確等。

wKgZomZNiUKAF8BbAAAtPgDvA8Y59.jpeg?source=d16d100b

相機模型支持受限。目前3DGS主要支持針孔相機模型,雖然理論上可以推導(dǎo)出其他相機模型的3DGS版本,但還需要后續(xù)的實驗驗證其有效性和準(zhǔn)確性。

重建區(qū)域可擴展受限,主要是缺乏LiDAR覆蓋區(qū)域之外的幾何信息導(dǎo)致的不完整重建以及大型城市場景重建的大量計算。

wKgZomZNiUKAMjSwAABg5f2-Rmc20.jpeg?source=d16d100b

集成和資源密集的挑戰(zhàn),目前3DGS集成通常依賴Python接口;3DGS在運行時可能會占用大量的VRAM。

通過優(yōu)化超參數(shù)和采用新方法,如Scaffold-GS,可能有助于減少內(nèi)存需求,提高在大型場景下的處理能力。

三、操作方法

1、訓(xùn)練流程

第一步:輸入——相機視頻數(shù)據(jù);自車運動數(shù)據(jù);校準(zhǔn)數(shù)據(jù);用于深度正則化的LiDAR點云數(shù)據(jù);

第二步:移除動態(tài)對象:創(chuàng)建分割圖來識別和遮罩圖像中的不同對象和區(qū)域;對動態(tài)對象進(jìn)行自動注釋*(康謀aiData工具鏈);

wKgaomZNiUKAPHj0AABR3iDpRRw00.jpeg?source=d16d100b

第三步: 進(jìn)行NeRF或Gaussian splatting。

NeRF:

可以使用任何攝像頭模型,示例中使用的是MEI相機模型;

采用Block-NeRF進(jìn)行大規(guī)模重建;

嵌入不同的氣候條件。

Gaussian splatting:

將輸入的相機轉(zhuǎn)化為針孔相機模型;

可以從COLMAP或LiDAR中獲得初始點云;

采用Block-Splatting進(jìn)行大規(guī)模重建。

2、添加動態(tài)對象

在NeRF和3DGS生成靜態(tài)場景后,aiSim5將基于外部渲染API進(jìn)一步增加動態(tài)元素,不僅可以重建原始場景,也可以根據(jù)測試需求構(gòu)建不同的交通狀態(tài)。

wKgZomZNiUKAfGjJAAGn0IU-HmY664.png?source=d16d100b

aiSim5中基于NeRF/3DGS場景細(xì)節(jié)。

wKgaomZNiUKAcihmAABPlQRBgdM82.jpeg?source=d16d100b圖13:網(wǎng)格投射陰影wKgaomZNiUOAVX_KAABfuuIWSE477.jpeg?source=d16d100b圖14:車下環(huán)境遮蔽

3、效果展示

在aiSim5中完成動態(tài)對象的添加后,可以自由的在地圖場景中更改交通狀態(tài),用于感知/規(guī)控等系統(tǒng)的SiL/HiL測試。

wKgaomZNiUuAb-xcAdsV8tb-Pgg460.gif?source=d16d100b圖15:aiSim5運行NeRF城市場景1wKgZomZNiUiAR4gGAba78GiRSyk276.gif?source=d16d100b圖16:aiSim5運行NeRF城市場景2


作者介紹

崔工

康謀科技仿真測試業(yè)務(wù)技術(shù)主管,擁有超過5年的汽車仿真測試及自動駕駛技術(shù)研發(fā)經(jīng)驗,熟練掌握仿真測試工具和平臺,如aiSim、HEEX等,能有效評估和優(yōu)化自動駕駛系統(tǒng)的性能和安全性。擁有出色的跨文化溝通能力,成功帶領(lǐng)團隊完成多項海外技術(shù)合作項目,加速了公司在自動駕駛技術(shù)上的國際化進(jìn)程。作為技術(shù)團隊的核心,領(lǐng)導(dǎo)并實施過大規(guī)模的自動駕駛仿真測試項目,對于車輛行為建模、環(huán)境模擬以及故障診斷具有獨到見解。擅長運用大數(shù)據(jù)分析和人工智能技術(shù),優(yōu)化仿真測試流程,提高測試效率和結(jié)果的準(zhǔn)確性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 測試
    +關(guān)注

    關(guān)注

    8

    文章

    5706

    瀏覽量

    128915
  • 仿真測試
    +關(guān)注

    關(guān)注

    0

    文章

    100

    瀏覽量

    11593
  • 自動駕駛
    +關(guān)注

    關(guān)注

    790

    文章

    14323

    瀏覽量

    170721
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    加入ASAM組織,自動駕駛仿真平臺aiSim引領(lǐng)安全新標(biāo)桿

    科技正式加入全球汽車標(biāo)準(zhǔn)化組織 ASAM(Association for Standardization of Automation and Measuring Systems),成為其正式會員單位!
    的頭像 發(fā)表于 07-09 16:53 ?180次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>加入ASAM組織,自動駕駛<b class='flag-5'>仿真</b>平臺<b class='flag-5'>aiSim</b>引領(lǐng)安全新標(biāo)桿

    分享 | 自動駕駛仿真進(jìn)入“標(biāo)準(zhǔn)時代”:aiSim全面對接ASAM OpenX

    自動駕駛領(lǐng)域,仿真與標(biāo)準(zhǔn)接口至關(guān)重要。aiSim集成ASAM OpenX系列標(biāo)準(zhǔn),通過OpenDRIVE、OpenSCENARIO等五大標(biāo)準(zhǔn),全面優(yōu)化
    的頭像 發(fā)表于 05-14 10:38 ?2882次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>分享 | 自動駕駛<b class='flag-5'>仿真</b>進(jìn)入“標(biāo)準(zhǔn)時代”:<b class='flag-5'>aiSim</b>全面對接ASAM OpenX

    分享 | 3DGS:革新自動駕駛仿真場景重建的關(guān)鍵技術(shù)

    3DGS技術(shù)為自動駕駛仿真場景重建帶來突破,通過3D高斯點精確表達(dá)復(fù)雜場景的幾何和光照特性,顯著提升渲染速度與圖像質(zhì)量。aiSim平臺結(jié)合3DGS,提供高保真虛擬環(huán)境與動態(tài)交通流模
    的頭像 發(fā)表于 03-05 09:45 ?3452次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>分享 | 3DGS:革新自動駕駛<b class='flag-5'>仿真</b>場景重建的關(guān)鍵技術(shù)

    方案 | 基于AI自適應(yīng)迭代的邊緣場景探索方案

    測試 ADAS/AD 系統(tǒng)時,傳統(tǒng) DoE 方法難以覆蓋駕駛邊緣場景,影響自動駕駛性能提升。 aiSim集成的aiFab方案,以貝葉斯優(yōu)化為核心,依據(jù)碰撞時間等關(guān)鍵指標(biāo),快速定位高
    的頭像 發(fā)表于 02-26 09:45 ?2953次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>方案 | 基于<b class='flag-5'>AI</b>自適應(yīng)迭代的邊緣場景探索方案

    聚云科技獲亞馬遜云科技生成AI能力認(rèn)證

    的應(yīng)用上展現(xiàn)出了卓越的能力。 聚云科技通過整合亞馬遜云科技的先進(jìn)技術(shù),從應(yīng)用范圍確定、模型選擇、數(shù)據(jù)處理、模型調(diào)優(yōu)到應(yīng)用集成與部署,為企業(yè)提供全方位的生成AI應(yīng)用落地支持。這不僅加速
    的頭像 發(fā)表于 02-19 10:33 ?501次閱讀

    聚云科技榮獲亞馬遜云科技生成AI能力認(rèn)證

    Bedrock等技術(shù),從應(yīng)用范圍、模型選擇、數(shù)據(jù)處理、模型調(diào)優(yōu)到應(yīng)用集成與部署等方面,助力企業(yè)加速生成AI應(yīng)用落地。此外,聚云科技還基于亞馬遜云科技打造RAGPro企業(yè)知識庫、
    的頭像 發(fā)表于 02-14 16:07 ?403次閱讀

    聚云科技榮獲亞馬遜云科技生成AI能力認(rèn)證 助力企業(yè)加速生成AI應(yīng)用落地

    北京 ——2025 年 2 月 14 日 云管理服務(wù)提供商聚云科技獲得亞馬遜云科技生成AI能力認(rèn)證,利用亞馬遜云科技全托管的生成
    發(fā)表于 02-14 13:41 ?152次閱讀

    生成AI工具好用嗎

    當(dāng)下,生成AI工具正以其強大的內(nèi)容生成能力,為用戶帶來了前所未有的便捷與創(chuàng)新。那么,生成
    的頭像 發(fā)表于 01-17 09:54 ?464次閱讀

    Google兩款先進(jìn)生成AI模型登陸Vertex AI平臺

    生成 AI 正在引領(lǐng)商業(yè)增長與轉(zhuǎn)型。在已經(jīng)將生成 AI 部署到生產(chǎn)環(huán)境的企業(yè)中,有86%的企
    的頭像 發(fā)表于 12-30 09:56 ?630次閱讀

    科技與智源研究院達(dá)成戰(zhàn)略合作,共建開源AI“芯”生態(tài)

    支持、生態(tài)系統(tǒng)建設(shè)與推廣等一系列深入合作,共同打造基于Arm架構(gòu)的開源技術(shù)生態(tài)體系,賦能國內(nèi)大模型與人工智能產(chǎn)業(yè)的高速發(fā)展。 圖:現(xiàn)場簽約照片 安科技銷售及商務(wù)執(zhí)行副總裁徐亞濤 表示:“當(dāng)前,生成
    發(fā)表于 12-26 17:06 ?416次閱讀
    安<b class='flag-5'>謀</b>科技與智源研究院達(dá)成戰(zhàn)略合作,共建開源<b class='flag-5'>AI</b>“芯”生態(tài)

    IDC生成AI白皮書亮點速遞

    在數(shù)字化浪潮中,生成 AI 正成為推動創(chuàng)新和變革的關(guān)鍵力量。本文將分享由 IDC 發(fā)布的《技術(shù)革新引領(lǐng)未來——生成
    的頭像 發(fā)表于 11-04 10:12 ?807次閱讀

    生成AI工具作用

    生成AI工具是指那些能夠自動生成文本、圖像、音頻、視頻等多種類型數(shù)據(jù)的人工智能技術(shù)。在此,petacloud.ai小編為您整理
    的頭像 發(fā)表于 10-28 11:19 ?759次閱讀

    分享 | 汽車仿真AI的結(jié)合應(yīng)用

    實現(xiàn)高質(zhì)量的虛擬傳感器輸出是自動駕駛領(lǐng)域的一項關(guān)鍵挑戰(zhàn),然而傳統(tǒng)方案對廣角鏡頭的渲染和處理等方面仍存在一定的局限性。為此,為您介紹aiSim通用高斯?jié)姙R渲染器如何打破限制,在自動駕駛仿真
    的頭像 發(fā)表于 09-11 09:24 ?1834次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>分享 | 汽車<b class='flag-5'>仿真</b>與<b class='flag-5'>AI</b>的結(jié)合應(yīng)用

    科技異構(gòu)算力組合,破局生成AI算力挑戰(zhàn)

    ,“此芯P1”不僅異構(gòu)集成了Armv9 CPU核心與Arm Immortalis GPU,還搭載了安科技(中國)有限公司(以下簡稱“安科技”)“周易”NPU等自研業(yè)務(wù)產(chǎn)品。憑借高能效的異構(gòu)算力資源、系統(tǒng)級的安全保障以及強大的技術(shù)生態(tài)支持,“此芯P1”將更好地滿足
    的頭像 發(fā)表于 08-13 09:12 ?939次閱讀

    自動駕駛聯(lián)合仿真——功能模型接口FMI(

    本文帶您了解,如何在aiSim中,通過UDP和aiSim車輛動力學(xué)API(Vehicle Dynamics Interface, VDI)來實現(xiàn)和外部的FMU車輛動力學(xué)模型的聯(lián)合仿真?
    的頭像 發(fā)表于 08-07 10:19 ?3444次閱讀
    自動駕駛聯(lián)合<b class='flag-5'>仿真</b>——功能模型接口FMI(<b class='flag-5'>終</b>)