Stability AI是一家主要以人工智能生成的視覺效果而聞名的公司,它推出了一個名為Stable audio的文本到音頻生成人工智能平臺。
Stable Audio使用擴(kuò)散模型,與該公司更受歡迎的圖像平臺Stable diffusion的AI模型相同,但使用音頻而非圖像進(jìn)行訓(xùn)練。用戶可以使用它為任何項目生成歌曲或背景音頻。
音頻擴(kuò)散模型傾向于生成固定長度的音頻,這對音樂制作來說很糟糕,因為歌曲的長度可能不同。Stability AI的新平臺允許用戶發(fā)出不同長度的聲音,要求公司對音樂進(jìn)行訓(xùn)練,并在歌曲的開始和結(jié)束時間周圍添加文本元數(shù)據(jù)。
同時,它可以實(shí)現(xiàn)實(shí)時的音頻生成,無需等待長時間的渲染過程。Stability AI 宣稱,Stable Audio 模型可以在一秒內(nèi)渲染出 95 秒的立體聲音頻,并且只需要一個 NVIDIA A100 GPU。
并且,Stable Audio是一個開源的項目,任何人都可以免費(fèi)使用和修改。Stability AI 希望通過開源的方式促進(jìn) AI 領(lǐng)域的創(chuàng)新和發(fā)展,并讓更多人享受到 AI 技術(shù)帶來的便利和樂趣。
該公司在一份聲明中表示:“Stable Audio代表了Stability AI生成音頻研究實(shí)驗室Harmonai的尖端音頻生成研究。我們會繼續(xù)改進(jìn)我們的模型架構(gòu)、數(shù)據(jù)集和訓(xùn)練程序,以提高輸出質(zhì)量、可控性、推理速度和輸出長度?!?/p>
文本到音頻的生成并不是什么新鮮事,因為生成人工智能領(lǐng)域的其他大牌一直在玩弄這個概念。Meta于8月發(fā)布了AudioCraft,這是一套生成的人工智能模型,有助于根據(jù)提示創(chuàng)建聽起來自然的ERM、聲音和音樂。到目前為止,它只提供給研究人員和一些音頻專業(yè)人士。谷歌的MusicLM也可以讓人們產(chǎn)生聲音,但只對研究人員開放。
審核編輯:彭菁
-
音頻
+關(guān)注
關(guān)注
30文章
3042瀏覽量
83451 -
AI
+關(guān)注
關(guān)注
88文章
35164瀏覽量
280013 -
人工智能
+關(guān)注
關(guān)注
1807文章
49029瀏覽量
249576 -
模型
+關(guān)注
關(guān)注
1文章
3521瀏覽量
50431 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1224瀏覽量
25449
原文標(biāo)題:Stability AI發(fā)布AI音頻平臺Stable Audio
文章出處:【微信號:IEEE_China,微信公眾號:IEEE電氣電子工程師】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
評論