99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

用圖像對齊所有模態(tài),Meta開源多感官AI基礎模型,實現(xiàn)大一統(tǒng)

AI智勝未來 ? 來源:機器之心 ? 2023-05-26 15:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Meta 新的開源模型 ImageBind 將多個數(shù)據(jù)流連接在一起,適用于文本、視頻音頻等 6 種模態(tài)。

在人類的感官中,一張圖片可以將很多體驗融合到一起,比如一張海灘圖片可以讓我們想起海浪的聲音、沙子的質地、拂面而來的微風,甚至可以激發(fā)創(chuàng)作一首詩的靈感。圖像的這種「綁定」(binding)屬性通過與自身相關的任何感官體驗對齊,為學習視覺特征提供了大量監(jiān)督來源。

理想情況下,對于單個聯(lián)合嵌入空間,視覺特征應該通過對齊所有感官來學習。然而這需要通過同一組圖像來獲取所有感官類型和組合的配對數(shù)據(jù),顯然不可行。

最近,很多方法學習與文本、音頻等對齊的圖像特征。這些方法使用單對模態(tài)或者最多幾種視覺模態(tài)。最終嵌入僅限于用于訓練的模態(tài)對。因此,視頻 - 音頻嵌入無法直接用于圖像 - 文本任務,反之亦然。學習真正的聯(lián)合嵌入面臨的一個主要障礙是缺乏所有模態(tài)融合在一起的大量多模態(tài)數(shù)據(jù)。

今日,Meta AI 提出了 ImageBind,它通過利用多種類型的圖像配對數(shù)據(jù)來學習單個共享表示空間。該研究不需要所有模態(tài)相互同時出現(xiàn)的數(shù)據(jù)集,相反利用到了圖像的綁定屬性,只要將每個模態(tài)的嵌入與圖像嵌入對齊,就會實現(xiàn)所有模態(tài)的迅速對齊。Meta AI 還公布了相應代碼。

4654cb0a-fb2c-11ed-90ce-dac502259ad0.png

論文地址:

https://dl.fbaipublicfiles.com/imagebind/imagebind_final.pdf

GitHub 地址:

https://github.com/facebookresearch/ImageBind

具體而言,ImageBind 利用網(wǎng)絡規(guī)模(圖像、文本)匹配數(shù)據(jù),并將其與自然存在的配對數(shù)據(jù)(視頻、音頻、圖像、深度)相結合,以學習單個聯(lián)合嵌入空間。這樣做使得 ImageBind 隱式地將文本嵌入與其他模態(tài)(如音頻、深度等)對齊,從而在沒有顯式語義或文本配對的情況下,能在這些模態(tài)上實現(xiàn)零樣本識別功能。

4680c494-fb2c-11ed-90ce-dac502259ad0.gif

下圖 2 為 ImageBind 的整體概覽。

46fe11a6-fb2c-11ed-90ce-dac502259ad0.png

與此同時,研究者表示 ImageBind 可以使用大規(guī)模視覺語言模型(如 CLIP)進行初始化,從而利用這些模型的豐富圖像和文本表示。因此,ImageBind 只需要很少的訓練就可以應用于各種不同的模態(tài)和任務。

ImageBind 是 Meta 致力于創(chuàng)建多模態(tài) AI 系統(tǒng)的一部分,從而實現(xiàn)從所有相關類型數(shù)據(jù)中學習。隨著模態(tài)數(shù)量的增加,ImageBind 為研究人員打開了嘗試開發(fā)全新整體性系統(tǒng)的閘門,例如結合 3D 和 IMU 傳感器來設計或體驗身臨其境的虛擬世界。此外它還可以提供一種探索記憶的豐富方式,即組合使用文本、視頻和圖像來搜索圖像、視頻、音頻文件或文本信息。

綁定內(nèi)容和圖像,學習單個嵌入空間

人類有能力通過很少的樣本學習新概念,比如如閱讀對動物的描述之后,就可以在實際生活中認出它們;通過一張不熟悉的汽車模型照片,就可以預測其引擎可能發(fā)出的聲音。這在一定程度上是因為單張圖像可以將整體感官體驗「捆綁」在一起。然而在人工智能領域,雖然模態(tài)數(shù)量一直在增加,但多感官數(shù)據(jù)的缺乏會限制標準的需要配對數(shù)據(jù)的多模態(tài)學習。

理想情況下,一個有著不同種類數(shù)據(jù)的聯(lián)合嵌入空間能讓模型在學習視覺特征的同時學習其他的模態(tài)。此前,往往需要收集所有可能的配對數(shù)據(jù)組合,才能讓所有模態(tài)學習聯(lián)合嵌入空間。

ImageBind 規(guī)避了這個難題,它利用最近的大型視覺語言模型它將最近的大規(guī)模視覺語言模型的零樣本能力擴展到新的模態(tài),它們與圖像的自然配對,如視頻 - 音頻和圖像 - 深度數(shù)據(jù),來學習一個聯(lián)合嵌入空間。針對其他四種模式(音頻、深度、熱成像和 IMU 讀數(shù)),研究者使用自然配對的自監(jiān)督數(shù)據(jù)。

475987f2-fb2c-11ed-90ce-dac502259ad0.png

通過將六種模態(tài)的嵌入對齊到一個公共空間,ImageBind 可以跨模態(tài)檢索未同時觀察到的不同類型的內(nèi)容,添加不同模態(tài)的嵌入以自然地對它們的語義進行組合,以及結合使用 Meta AI 的音頻嵌入與預訓練 DALLE-2 解碼器(設計用于與 CLIP 文本嵌入)來實現(xiàn)音頻到圖像生成。

互聯(lián)網(wǎng)上存在大量連同文本一起出現(xiàn)的圖像,因此訓練圖像 - 文本模型已經(jīng)得到了廣泛的研究。ImageBind 利用了圖像能與各種模態(tài)相連接的綁定屬性,比如利用網(wǎng)絡數(shù)據(jù)將文本與圖像連接起來,或者利用在有 IMU 傳感器的可穿戴相機中捕捉到的視頻數(shù)據(jù)將運動與視頻連接起來。

從大規(guī)模網(wǎng)絡數(shù)據(jù)中學習到的視覺表征可以用作學習不同模態(tài)特征的目標。這使得 ImageBind 將圖像與同時出現(xiàn)的任何模態(tài)對齊,自然地使這些模態(tài)彼此對齊。熱圖和深度圖等與圖像具有強相關性的模態(tài)更容易對齊。音頻和 IMU(慣性測量單元)等非視覺的模態(tài)則具有較弱的相關性,比如嬰兒哭聲等特定聲音可以搭配各種視覺背景。

ImageBind 表明,圖像配對數(shù)據(jù)足以將這六種模態(tài)綁定在一起。該模型可以更全面地解釋內(nèi)容,使不同的模態(tài)可以相互「對話」,并在沒有同時觀察它們的情況下找到它們之間的聯(lián)系。例如,ImageBind 可以在沒有一起觀察音頻和文本的情況下將二者聯(lián)系起來。這使得其他模型能夠「理解」新的模態(tài),而不需要任何資源密集型的訓練。

ImageBind 強大的 scaling 表現(xiàn)使該模型能夠替代或增強許多人工智能模型,使它們能夠使用其他模態(tài)。例如雖然 Make-A-Scene 可以通過使用文本 prompt 生成圖像,但 ImageBind 可以將其升級為使用音頻生成圖像,如笑聲或雨聲。

ImageBind 的卓越性能

Meta 的分析表明,ImageBind 的 scaling 行為隨著圖像編碼器的強度而提高。換句話說,ImageBind 對齊模態(tài)的能力隨著視覺模型的能力和大小而提升。這表明,更大的視覺模型對非視覺任務有利,如音頻分類,而且訓練這種模型的好處超出了計算機視覺任務的范疇。

在實驗中,Meta 使用了 ImageBind 的音頻和深度編碼器,并將其與之前在 zero-shot 檢索以及音頻和深度分類任務中的工作進行了比較。

47a77d7c-fb2c-11ed-90ce-dac502259ad0.png

在基準測試上,ImageBind 在音頻和深度方面優(yōu)于專家模型。

Meta 發(fā)現(xiàn) ImageBind 可以用于少樣本音頻和深度分類任務,并且優(yōu)于之前定制的方法。例如,ImageBind 明顯優(yōu)于 Meta 在 Audioset 上訓練的自監(jiān)督 AudioMAE 模型,以及在音頻分類上微調的監(jiān)督 AudioMAE 模型。

此外,ImageBind 還在跨模態(tài)的零樣本識別任務上取得了新的 SOTA 性能,甚至優(yōu)于經(jīng)過訓練以識別該模態(tài)概念的最新模型。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關注

    關注

    2

    文章

    1094

    瀏覽量

    41267
  • AI
    AI
    +關注

    關注

    88

    文章

    35164

    瀏覽量

    279989
  • 人工智能
    +關注

    關注

    1807

    文章

    49028

    瀏覽量

    249551

原文標題:用圖像對齊所有模態(tài),Meta開源多感官AI基礎模型,實現(xiàn)大一統(tǒng)

文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    商湯日日新SenseNova融合模態(tài)模型 國內(nèi)首家獲得最高評級的大模型

    近日,中國信息通信研究院(以下簡稱“中國信通院”)完成可信AI模態(tài)模型首輪評估。 商湯日日新SenseNova融合模態(tài)
    的頭像 發(fā)表于 06-11 11:57 ?683次閱讀

    愛芯通元NPU適配Qwen2.5-VL-3B視覺模態(tài)模型

    熟悉愛芯通元NPU的網(wǎng)友很清楚,從去年開始我們在端側模態(tài)模型適配上直處于主動緊跟的節(jié)奏。先后適配了國內(nèi)最早開源
    的頭像 發(fā)表于 04-21 10:56 ?1435次閱讀
    愛芯通元NPU適配Qwen2.5-VL-3B視覺<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>

    海康威視發(fā)布模態(tài)模型AI融合巡檢超腦

    基于??涤^瀾大模型技術體系,海康威視推出新模態(tài)模型AI融合巡檢超腦,全面升級人、車、行為
    的頭像 發(fā)表于 04-17 17:12 ?825次閱讀

    移遠通信智能模組全面接入模態(tài)AI模型,重塑智能交互新體驗

    隨著千行百業(yè)數(shù)智化進程的不斷加速,模態(tài)AI模型的應用需求不斷攀升,圖像、語音、視頻等多樣化的交互方式正逐漸成為推動行業(yè)變革的新動力。 ?
    發(fā)表于 03-21 14:12 ?284次閱讀
    移遠通信智能模組全面接入<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b><b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>,重塑智能交互新體驗

    移遠通信智能模組全面接入模態(tài)AI模型,重塑智能交互新體驗

    隨著千行百業(yè)數(shù)智化進程的不斷加速,模態(tài)AI模型的應用需求不斷攀升,圖像、語音、視頻等多樣化的交互方式正逐漸成為推動行業(yè)變革的新動力。3月
    的頭像 發(fā)表于 03-20 19:03 ?433次閱讀
    移遠通信智能模組全面接入<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b><b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>,重塑智能交互新體驗

    AI開源模型庫有什么

    AI開源模型庫作為推動AI技術發(fā)展的重要力量,正深刻改變著我們的生產(chǎn)生活方式。接下來,AI部落小編帶您了解
    的頭像 發(fā)表于 02-24 11:50 ?434次閱讀

    階躍星辰開源模態(tài)模型,天數(shù)智芯迅速適配

    近日,頭部大模型創(chuàng)業(yè)公司階躍星辰在行業(yè)內(nèi)引起了軒然大波,宣布正式開源兩款Step系列模態(tài)模型——Step-Video-T2V視頻生成
    的頭像 發(fā)表于 02-19 14:30 ?516次閱讀

    商湯日日新模態(tài)模型權威評測第

    剛剛,商湯科技日日新SenseNova模態(tài)模型,在權威綜合評測權威平臺OpenCompass的模態(tài)評測中取得榜單第
    的頭像 發(fā)表于 12-20 10:39 ?1022次閱讀

    Meta發(fā)布新AI模型Meta Motivo,旨在提升元宇宙體驗

    Meta在人工智能領域邁出了重要步。通過這款模型,Meta希望能夠為用戶提供更加自然、流暢的元宇宙交互體驗。數(shù)字代理在元宇宙中的動作將更加逼真,從而增強用戶的沉浸感和參與度。 除了
    的頭像 發(fā)表于 12-16 10:34 ?984次閱讀

    利用OpenVINO部署Qwen2模態(tài)模型

    模態(tài)模型的核心思想是將不同媒體數(shù)據(jù)(如文本、圖像、音頻和視頻等)進行融合,通過學習不同模態(tài)之間的關聯(lián),
    的頭像 發(fā)表于 10-18 09:39 ?1263次閱讀

    亞馬遜云科技上線Meta Llama 3.2模型

    亞馬遜云科技近日宣布,Meta公司的新模型Llama 3.2已在其平臺上正式上線。該模型包括Meta首款
    的頭像 發(fā)表于 10-11 18:08 ?747次閱讀

    亞馬遜云科技正式上線Meta Llama 3.2模型

    亞馬遜云科技宣布,Meta的新模型Llama 3.2,包括其首款模態(tài)模型,現(xiàn)已在Amazo
    的頭像 發(fā)表于 10-11 09:20 ?875次閱讀

    Meta發(fā)布模態(tài)LLAMA 3.2人工智能模型

    Meta Platforms近日宣布了項重要技術突破,成功推出了模態(tài)LLAMA 3.2人工智能模型。這
    的頭像 發(fā)表于 09-27 11:44 ?700次閱讀

    Meta發(fā)布全新開源模型Llama 3.1

    科技巨頭Meta近期震撼發(fā)布了其最新的開源人工智能(AI模型——Llama 3.1,這舉措標志著Me
    的頭像 發(fā)表于 07-24 18:25 ?1785次閱讀

    Meta不會在歐盟提供新的模態(tài)AI模型

    科技巨頭Meta近日宣布了項重要決策,其即將推出的創(chuàng)新模態(tài)Llama模型將不會在歐盟地區(qū)發(fā)布。這
    的頭像 發(fā)表于 07-19 16:04 ?855次閱讀