99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Facebook關(guān)于自主智能體的最新研究成果——目標(biāo)驅(qū)動(dòng)自主學(xué)習(xí)

工業(yè)互聯(lián)網(wǎng)前線 ? 來(lái)源:未知 ? 作者:李倩 ? 2018-05-11 10:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文由來(lái)自 Facebook 人工智能研究院的研究員 Dhruv Batra 和 Devi Parikh 共同撰寫(xiě),文中介紹了 Facebook 關(guān)于自主智能體的最新研究成果——目標(biāo)驅(qū)動(dòng)自主學(xué)習(xí),并且還宣布了開(kāi)源 EmbodiedQA 和 House3D 數(shù)據(jù)集.

大多數(shù)能夠與人類(lèi)進(jìn)行互動(dòng)的自主智能體(Autonomous agents)都存在一些共同點(diǎn):它們并不是那么自給自足(Self-sufficient)。例如,一個(gè)智能音箱(Smart speaker)雖然可以通過(guò)語(yǔ)音接口與人類(lèi)進(jìn)行交流并采取一些動(dòng)作(比如訂購(gòu)產(chǎn)品),但是它卻無(wú)法感知周?chē)h(huán)境。而另一方面,割草機(jī)器人雖然具備動(dòng)作(割草)和感知(通過(guò)傳感器)能力,但是它除了不斷閃爍燈光或者發(fā)送錯(cuò)誤信息以外,還無(wú)法實(shí)現(xiàn)與主人的自由交流。

如果不同時(shí)具備三個(gè)重要的關(guān)鍵因素——感知、溝通和動(dòng)作,那么自主智能體就無(wú)法成為一個(gè)全面的助理,而這其中的空白代溝還需要人類(lèi)參與進(jìn)來(lái)彌補(bǔ)。然而這個(gè)問(wèn)題對(duì)于目前的智能體來(lái)說(shuō)似乎并不是什么大毛病,例如,Roomba 機(jī)器人如果忽略了通知你有把椅子阻礙了它的清潔路線,這只是一點(diǎn)小困難而不是什么大災(zāi)難。但是為了讓下一代智能體能融入并改變我們的生活,那么自主系統(tǒng)還需要變得更加自給自足。

訓(xùn)練人工智能系統(tǒng)時(shí)要扔下嬰兒車(chē)

為了給那些對(duì)人類(lèi)微觀管理依賴(lài)程度較低且更具通用性的系統(tǒng)鋪平道路,F(xiàn)acebook 人工智能研究院(FAIR)開(kāi)發(fā)了一系列用于訓(xùn)練和測(cè)試自主智能體的虛擬環(huán)境,以及能夠?qū)W習(xí)智能探索那些環(huán)境的新型智能體。這些智能體將被用來(lái)作為模擬機(jī)器人而使用,它們是 Facebook 與佐治亞理工學(xué)院的研究員合作創(chuàng)建的。使用虛擬智能體和虛擬環(huán)境比起將真實(shí)的機(jī)器人送到現(xiàn)有的室內(nèi)場(chǎng)所要來(lái)得高效得多,因?yàn)檫@需要花費(fèi)數(shù)千臺(tái)機(jī)器來(lái)匹配基于 AI 訓(xùn)練的運(yùn)行速度。Facebook F8 會(huì)議上關(guān)于通過(guò) AI 提高內(nèi)容的可訪問(wèn)性的主題演講中簡(jiǎn)單介紹過(guò)這項(xiàng)工作。

FAIR 的目標(biāo)是指導(dǎo)系統(tǒng)根據(jù)長(zhǎng)期計(jì)劃采取多種動(dòng)作,同時(shí)還要努力完成所給定的任務(wù)。為了取得成功,這些智能體必須在它們的環(huán)境中行動(dòng),綜合使用感知、導(dǎo)航和溝通的能力去尋找出給定問(wèn)題的答案,然后使用簡(jiǎn)單自然的語(yǔ)言轉(zhuǎn)達(dá)這些答案。對(duì)于 AI 來(lái)說(shuō),這是一個(gè)極具挑戰(zhàn)性的問(wèn)題,如果一旦實(shí)現(xiàn)就是朝著自治水平邁出了一步,并且該智能體的適應(yīng)性也將足以在非結(jié)構(gòu)化的人造世界中發(fā)揮作用。

為了測(cè)試這種目標(biāo)導(dǎo)向(Goal-driven)的方法,F(xiàn)AIR 和佐治亞理工學(xué)院聯(lián)合提出了一個(gè)多步驟 AI 任務(wù),稱(chēng)為「具體化問(wèn)答(Embodied Question Answering)」或者「EmbodiedQA」。與聊天機(jī)器人或者智能音箱相比,此智能體必須在物理環(huán)境(盡管是虛擬環(huán)境)中去學(xué)習(xí)和運(yùn)行,因此稱(chēng)為「具體化的(Embodied)」。當(dāng)智能體被問(wèn)及單一問(wèn)題時(shí),例如「車(chē)子是什么顏色的?」或「我的鑰匙落在了哪個(gè)房間里?」,智能體必須能夠理解書(shū)面語(yǔ)言,然后用第一人稱(chēng)相機(jī)去感知周?chē)h(huán)境,探索 3D 的室內(nèi)環(huán)境直到找到答案。并且為了使得智能體的自主性更加完善,它還將通過(guò)自然語(yǔ)言的方式回復(fù)該答案以完成自己的使命。

FAIR 提出了一項(xiàng)新的 AI 任務(wù)——具體化問(wèn)答(Embodied Question Answering)。上圖中在一個(gè) 3D 環(huán)境中的某個(gè)隨機(jī)位置產(chǎn)生一個(gè)智能體,并給出一個(gè)問(wèn)題(車(chē)是什么顏色的?)。為了回答這個(gè)問(wèn)題,智能體必須借助智能導(dǎo)航以探索環(huán)境,通過(guò)第一人稱(chēng)(以自我為中心)的視覺(jué)收集信息,然后回答問(wèn)題(橙色)。

FAIR 相信這些是第一個(gè)要求 AI 系統(tǒng)綜合展示感知、交流和動(dòng)作以達(dá)成目標(biāo)的實(shí)驗(yàn)。將完全自主(智能體在沒(méi)有人類(lèi)引導(dǎo)和干預(yù)的情況下實(shí)現(xiàn)了自主活動(dòng))和不熟悉的環(huán)境結(jié)合起來(lái)增加了整個(gè)任務(wù)的挑戰(zhàn)性。智能體要在隨機(jī)的、數(shù)以百計(jì)的不同樓層平面圖(每個(gè)平面都是仿照現(xiàn)實(shí)家庭進(jìn)行建模)中運(yùn)行,而且不具有在該環(huán)境中實(shí)踐運(yùn)行過(guò)所帶來(lái)的增益,也不曾在類(lèi)似的地圖上運(yùn)行過(guò)。更難的是,為了回答提出的問(wèn)題,智能體必須移動(dòng),因?yàn)閱?wèn)題中的對(duì)象也許無(wú)法立即看到。

在工作中學(xué)習(xí)

為了訓(xùn)練和評(píng)估這些智能體,所需的虛擬環(huán)境不僅僅要具備交互功能,還要具備多樣化和數(shù)量充足的特性,以避免智能體在相同環(huán)境中反復(fù)運(yùn)行,這對(duì)自主智能體的發(fā)展而言是一個(gè)更加巨大的挑戰(zhàn)。FAIR 的解決方案稱(chēng)為 House3D,它是由 45000 個(gè)手動(dòng)創(chuàng)建的模擬室內(nèi)環(huán)境所組成的。House3D 是基于普林斯頓大學(xué)的 SUNCG 數(shù)據(jù)集而創(chuàng)建的,但是 House3D 作為一個(gè)完全可導(dǎo)航的位置集合(Fully navigable set of locations),使得智能體能夠同時(shí)探索數(shù)千個(gè)房間,這比起在現(xiàn)實(shí)生活空間中訓(xùn)練具有復(fù)雜機(jī)械結(jié)構(gòu)的機(jī)器人要來(lái)得快得多。它也使得我們可以進(jìn)行可重復(fù)性的科學(xué)實(shí)驗(yàn)。并且 House3D 還進(jìn)行了開(kāi)源,目前可以在 GitHub 上獲取。

為了在 House3D 中每次都能進(jìn)行獨(dú)特的尋寶活動(dòng),智能體必須在完成任務(wù)的過(guò)程中學(xué)習(xí)一系列核心能力——從對(duì)室內(nèi)物體的識(shí)別(沙發(fā)、椅子等)到對(duì)問(wèn)題的語(yǔ)言理解。

第一種習(xí)得的能力是主動(dòng)感知(Active perception),或者是智能控制前面像素的能力,因?yàn)橐婚_(kāi)始目標(biāo)對(duì)象不太可能會(huì)剛好位于智能體的視線范圍內(nèi)(圖像通過(guò)一個(gè) 224x224 分辨率的 RGB 模擬攝像頭采集)。因此,智能體不是被動(dòng)地感知問(wèn)題中提及的對(duì)象(固定圖像數(shù)據(jù)集中就是如此),而是通過(guò)探索周?chē)h(huán)境主動(dòng)將目標(biāo)對(duì)象尋找出來(lái)。

這項(xiàng)研究的一個(gè)創(chuàng)新點(diǎn)在于實(shí)現(xiàn)了導(dǎo)航的模塊化方法,該方法將導(dǎo)航任務(wù)劃分成了兩個(gè)部分。規(guī)劃者(Planner)負(fù)責(zé)選擇移動(dòng)的方向,例如向左移動(dòng),而控制器(Controller)則負(fù)責(zé)確定在該方向需要移動(dòng)多遠(yuǎn)。這種策略避免了智能體在移動(dòng)前需要去創(chuàng)建長(zhǎng)遠(yuǎn)而又詳細(xì)的路徑規(guī)劃,因?yàn)檫@么干會(huì)導(dǎo)致更多的錯(cuò)誤和更弱的適應(yīng)性。此外規(guī)劃者-控制器(Planner-Controller)這套設(shè)置也更適合于強(qiáng)化學(xué)習(xí),在這里智能體將根據(jù)積極或者消極的反饋來(lái)動(dòng)態(tài)調(diào)整其導(dǎo)航。

FAIR 的智能體將導(dǎo)航任務(wù)分解為一個(gè)規(guī)劃者(PLNR)模塊和一個(gè)控制器(CTRL)模塊。規(guī)劃者從卷積神經(jīng)網(wǎng)絡(luò)(CNN)獲得輸入,然后決定所采取的動(dòng)作。同時(shí)控制器將決定繼續(xù)執(zhí)行該動(dòng)作的時(shí)間步變量——從而實(shí)現(xiàn)方向和速度之間的解耦合。這使得規(guī)劃者能夠在更短的時(shí)間內(nèi)進(jìn)行更有效的操作,從而減輕了訓(xùn)練難度。

下一步,智能體必須學(xué)會(huì)常識(shí)推理,然后在一個(gè)新的但是卻并非完全陌生的環(huán)境中去發(fā)揮作用。盡管人們可能知道車(chē)庫(kù)往往位于房屋的周?chē)?,因此可以通過(guò)外部門(mén)進(jìn)入,但是 AI 系統(tǒng)卻需要自己去學(xué)習(xí)這些知識(shí)。隨著在不同的模擬家庭中成功達(dá)到目標(biāo),智能體必須發(fā)展出這種常識(shí),以縮短尋找指定對(duì)象然后回答相關(guān)問(wèn)題所花費(fèi)的時(shí)間。

作為常識(shí)積累的后續(xù)階段,智能體還要學(xué)習(xí)語(yǔ)言基礎(chǔ),或者是學(xué)習(xí)如何把單詞(比如針對(duì)對(duì)象的描述)與特定的動(dòng)作聯(lián)系起來(lái)。例如,當(dāng)為了找到可能位于車(chē)庫(kù)中的汽車(chē)而搜索車(chē)庫(kù)時(shí),智能體不會(huì)被迫查看每個(gè)可能的空間,直到它找到與車(chē)庫(kù)對(duì)應(yīng)的一組像素為止。恰恰相反,智能體使用「車(chē)庫(kù)」作為一個(gè)行動(dòng)的指令,然后直接去找到外部門(mén),從而更加高效地定位它的目標(biāo)。

最后,因?yàn)?FAIR 的目標(biāo)是超越繁瑣的、逐步的人為監(jiān)督,從微弱和遠(yuǎn)期的目標(biāo)驅(qū)動(dòng)獎(jiǎng)勵(lì)中學(xué)習(xí),所以智能體必須學(xué)會(huì)的最重要的能力之一是「功勞分配(Credit assignment)」,這意味著智能體能夠知道自己一路上所做的行為哪些是正確的而哪些又是錯(cuò)誤的。例如,如果詢(xún)問(wèn)「多少個(gè)房間里有椅子?」,然后智能體并沒(méi)有被明確告知需要檢查每一個(gè)房間,甚至沒(méi)有被告知要從家中含有椅子的區(qū)域開(kāi)始計(jì)算。智能體能夠憑借自己的力量去探索和回答問(wèn)題,而不需要借助人類(lèi)提供的詳細(xì)的逐步計(jì)劃。因此,從它是否正確回答的一個(gè)微弱信號(hào)來(lái)看,它必須自行學(xué)習(xí)其數(shù)百項(xiàng)相互依賴(lài)的行動(dòng)中是哪一項(xiàng)導(dǎo)致了成功。為了增強(qiáng)傳統(tǒng)的強(qiáng)化學(xué)習(xí),F(xiàn)AIR 使用模仿學(xué)習(xí)(Imitation learning,比較智能體的運(yùn)動(dòng)與到達(dá)目標(biāo)的可能最短路徑)和獎(jiǎng)勵(lì)塑造(Reward shaping,通過(guò)「變得更近」和「變得更遠(yuǎn)」信號(hào)隨時(shí)間變化而改進(jìn)智能體的表現(xiàn))來(lái)允許智能體把它真正使命拼湊起來(lái),即便該使命在開(kāi)始時(shí)并不明晰。

讓自主系統(tǒng)更加自主

經(jīng)過(guò)訓(xùn)練的 EmbodiedQA 智能體與標(biāo)準(zhǔn)序列模型基準(zhǔn)(一個(gè) LSTM 導(dǎo)航器)相比,表現(xiàn)的相當(dāng)合理。

視頻比較了 FAIR 開(kāi)發(fā)的智能體(名稱(chēng)為 ACT+Q-RL)與基準(zhǔn)的性能表現(xiàn)(名稱(chēng)為 LSTM+Q)。視頻地址

和 House3D 一樣,F(xiàn)AIR 收集的 EmbodiedQA 數(shù)據(jù)將進(jìn)行開(kāi)源,并且旨在啟發(fā)更廣泛的 AI 研究社區(qū)內(nèi)的其它項(xiàng)目。為了給其他研究人員提供完整的背景,F(xiàn)AIR 將人類(lèi)帶入了這個(gè)方程式中。FAIR 和佐治亞理工學(xué)院將自主智能體導(dǎo)航與問(wèn)答的能力與遠(yuǎn)程遙控智能體進(jìn)行了對(duì)比,這些遠(yuǎn)程遙控智能體由人類(lèi)(通過(guò)亞馬遜的 Mechanical Turk 平臺(tái))進(jìn)行操控,從而建立了專(zhuān)家級(jí)別的基準(zhǔn)導(dǎo)航示例。由此產(chǎn)生的數(shù)據(jù)集包括,與 750 個(gè)獨(dú)特的、多房間的環(huán)境相關(guān)的合成產(chǎn)生問(wèn)題(Synthetically generated questions)。智能體(和人類(lèi))準(zhǔn)確性的故障以及我們使用的問(wèn)答生成引擎也將成為 EQA v1 開(kāi)源版本中的一部分,該版本在不久的將來(lái)可以獲取到。

雖然 EmbodiedQA 是只涵蓋了一種目標(biāo)驅(qū)動(dòng)的自主任務(wù),但是它卻代表了人工智能的高難度(因?yàn)樗鼘⒏鞣N各樣的子任務(wù)合并成了一個(gè)任務(wù)),并且有機(jī)會(huì)探索采取「行動(dòng)」的新學(xué)習(xí)范式,這是成功的先決條件。無(wú)法做出決策的智能體——在這種情況下,通過(guò)在現(xiàn)實(shí)家庭中導(dǎo)航,確定它們收集到了相關(guān)的數(shù)據(jù),然后傳達(dá)它們發(fā)現(xiàn)的內(nèi)容——這種智能體在我們的實(shí)驗(yàn)中是無(wú)法完成任務(wù)的。

這種挑戰(zhàn)是艱巨的,因?yàn)樗陵P(guān)重要。在短期內(nèi),目標(biāo)驅(qū)動(dòng)的算法可以使用自動(dòng)化來(lái)改善 AR 和 VR 的體驗(yàn),為可用的接口選項(xiàng)添加直觀的語(yǔ)音交互。但這種基于行為的目標(biāo)驅(qū)動(dòng)方法的長(zhǎng)期影響可能會(huì)延伸到自主性上。從數(shù)字助理可以根據(jù)單一命令(例如,不僅可以預(yù)約醫(yī)生,還可以重新安排沖突的會(huì)議)執(zhí)行一系列家務(wù)事,到災(zāi)難響應(yīng)機(jī)器人遵循來(lái)自第一響應(yīng)者的簡(jiǎn)單語(yǔ)音命令,這種適應(yīng)性的自動(dòng)化可能會(huì)對(duì)我們的生活產(chǎn)生重大影響。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29748

    瀏覽量

    212932
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1432

    瀏覽量

    56769
  • 智能體
    +關(guān)注

    關(guān)注

    1

    文章

    307

    瀏覽量

    11080

原文標(biāo)題:Facebook 最新研究:自主學(xué)習(xí)一個(gè)會(huì)和世界互動(dòng)的智能體

文章出處:【微信號(hào):IndustryIOT,微信公眾號(hào):工業(yè)互聯(lián)網(wǎng)前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Nullmax端到端自動(dòng)駕駛最新研究成果入選ICCV 2025

    近日,國(guó)際計(jì)算機(jī)視覺(jué)大會(huì) ICCV 2025 正式公布論文錄用結(jié)果,Nullmax 感知團(tuán)隊(duì)在端到端自動(dòng)駕駛方向的最新研究成果《HiP-AD: Hierarchical
    的頭像 發(fā)表于 07-05 15:40 ?432次閱讀
    Nullmax端到端自動(dòng)駕駛最新<b class='flag-5'>研究成果</b>入選ICCV 2025

    后摩智能與高校合作研究成果榮獲ISCA 2025最佳論文獎(jiǎng)

    近日,北京后摩智能科技有限公司與北京大學(xué)集成電路學(xué)院孫廣宇長(zhǎng)聘副教授團(tuán)隊(duì)、上海交通大學(xué)張宸助理教授團(tuán)隊(duì)、香港科技大學(xué)謝源講席教授團(tuán)隊(duì)、東南大學(xué)司鑫副教授團(tuán)隊(duì)及阿里巴巴達(dá)摩院合作的研究成果
    的頭像 發(fā)表于 07-05 11:21 ?677次閱讀

    NVIDIA在ICRA 2025展示多項(xiàng)最新研究成果

    在亞特蘭大舉行的國(guó)際機(jī)器人與自動(dòng)化大會(huì) (ICRA) 上,NVIDIA 展示了其在生成式 AI、仿真和自主操控領(lǐng)域的多項(xiàng)研究成果
    的頭像 發(fā)表于 06-06 14:56 ?607次閱讀

    佛山智能裝備院與華數(shù)機(jī)器人在具身智能工業(yè)機(jī)器人領(lǐng)域的研究成果

    近日,佛山智能裝備技術(shù)研究院(簡(jiǎn)稱(chēng)“佛山智能裝備院”)與佛山華數(shù)機(jī)器人有限公司(簡(jiǎn)稱(chēng)“華數(shù)機(jī)器人”)在具身智能工業(yè)機(jī)器人領(lǐng)域的研究成果“Ad
    的頭像 發(fā)表于 04-09 15:40 ?519次閱讀
    佛山<b class='flag-5'>智能</b>裝備院與華數(shù)機(jī)器人在具身<b class='flag-5'>智能</b>工業(yè)機(jī)器人領(lǐng)域的<b class='flag-5'>研究成果</b>

    華大電子獲評(píng)北京市“雙自主”企業(yè),創(chuàng)新實(shí)力領(lǐng)跑?chē)?guó)產(chǎn)安全芯片賽道

    升級(jí)再添標(biāo)桿案例。?? 創(chuàng)新驅(qū)動(dòng) 技術(shù)自主化筑牢創(chuàng)新根基 在數(shù)字經(jīng)濟(jì)與智能化浪潮下,華大電子以“自主可控”為發(fā)展主線,聚焦通信、金融、物聯(lián)網(wǎng)、車(chē)聯(lián)網(wǎng)等關(guān)鍵領(lǐng)域,加速技術(shù)
    的頭像 發(fā)表于 04-08 15:17 ?1412次閱讀

    學(xué)習(xí)智能開(kāi)發(fā)

    智能是大模型的應(yīng)用落地,正在學(xué)習(xí)中,這本書(shū)太及時(shí)了,非常想看看。
    發(fā)表于 03-27 15:48

    AI智能包含哪些組件

    AI 智能是先進(jìn)的 AI 系統(tǒng),旨在根據(jù)高級(jí)目標(biāo)自主進(jìn)行推理,制定計(jì)劃并執(zhí)行復(fù)雜任務(wù)。
    的頭像 發(fā)表于 03-04 13:45 ?904次閱讀
    AI<b class='flag-5'>智能</b><b class='flag-5'>體</b>包含哪些組件

    云天勵(lì)飛助力深圳自主泊車(chē)代駕新突破

    智能網(wǎng)聯(lián)汽車(chē)“車(chē)路云一化” 穩(wěn)步推進(jìn)的浪潮下,深圳作為科技創(chuàng)新前沿陣地,在“自主泊車(chē)代駕”領(lǐng)域又取得新的突破。
    的頭像 發(fā)表于 01-15 15:25 ?801次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人的基礎(chǔ)模塊

    方法和增量搜索方法。 另外,還有基于強(qiáng)化學(xué)習(xí)的自動(dòng)駕駛規(guī)劃等等。 個(gè)人覺(jué)得,這部分內(nèi)容是整個(gè)具身智能的基石,沒(méi)有具身智能的基礎(chǔ)模塊就不會(huì)有具身智能
    發(fā)表于 01-04 19:22

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+初品的體驗(yàn)

    解決許多技術(shù)的和非技術(shù)的挑戰(zhàn),如提高智能自主性、處理復(fù)雜環(huán)境互動(dòng)的能力及確保行為的倫理和安全性。 未來(lái)的研究需要將視覺(jué)、語(yǔ)音和其他傳感技術(shù)與機(jī)器人技術(shù)相結(jié)合,以探索更加先進(jìn)的知識(shí)表
    發(fā)表于 12-20 19:17

    Microsoft Copilot Studio自主智能功能現(xiàn)已推出預(yù)覽版

    Microsoft Power Platform 正以其卓越的成就,引領(lǐng)著技術(shù)與業(yè)務(wù)融合的浪潮。智能 Copilot 副駕駛與 PowerPlatform 自主智能的深度融合,標(biāo)志著
    的頭像 發(fā)表于 11-29 16:43 ?860次閱讀

    微軟Copilot Studio新功能:支持定制Agent 賦能用戶(hù)構(gòu)建自主智能

    微軟宣布重大更新,用戶(hù)可通過(guò)Microsoft Copilot Studio構(gòu)建自主智能。麥肯錫、湯森路透等全球知名企業(yè)己利用智能,實(shí)現(xiàn)
    的頭像 發(fā)表于 11-10 09:59 ?1354次閱讀
    微軟Copilot Studio新功能:支持定制Agent 賦能用戶(hù)構(gòu)建<b class='flag-5'>自主</b><b class='flag-5'>智能</b><b class='flag-5'>體</b>

    小鵬汽車(chē)發(fā)布自主研發(fā)的“圖靈”AI智能駕駛輔助系統(tǒng)

    近日,小鵬汽車(chē)正式揭曉了其自主研發(fā)的“圖靈”AI智能駕駛輔助系統(tǒng),這一創(chuàng)新成果標(biāo)志著小鵬汽車(chē)在智能駕駛技術(shù)領(lǐng)域的又一重大突破。 “圖靈”系統(tǒng)實(shí)現(xiàn)了從云端到車(chē)端,再到硬件層面的全面
    的頭像 發(fā)表于 11-07 10:55 ?1277次閱讀

    SynSense時(shí)識(shí)科技與海南大學(xué)聯(lián)合研究成果發(fā)布

    近日,SynSense時(shí)識(shí)科技與海南大學(xué)聯(lián)合在影響因子高達(dá)7.7的國(guó)際知名期刊《Computers in Biology and Medicine》上發(fā)表了最新研究成果,展示了如何用低維信號(hào)通用類(lèi)腦
    的頭像 發(fā)表于 10-23 14:40 ?874次閱讀
    SynSense時(shí)識(shí)科技與海南大學(xué)聯(lián)合<b class='flag-5'>研究成果</b>發(fā)布

    中移芯昇發(fā)布智能可信城市蜂窩物聯(lián)網(wǎng)基礎(chǔ)設(shè)施研究成果

    8月23日,雄安新區(qū)RISC-V產(chǎn)業(yè)發(fā)展交流促進(jìn)會(huì)順利召開(kāi),芯昇科技有限公司(以下簡(jiǎn)稱(chēng)“中移芯昇”)總經(jīng)理肖青發(fā)布智能可信城市蜂窩物聯(lián)網(wǎng)基礎(chǔ)設(shè)施研究成果,為雄安新區(qū)建設(shè)新型智慧城市賦能增效。該成果
    的頭像 發(fā)表于 08-31 08:03 ?985次閱讀
    中移芯昇發(fā)布<b class='flag-5'>智能</b>可信城市蜂窩物聯(lián)網(wǎng)基礎(chǔ)設(shè)施<b class='flag-5'>研究成果</b>