99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Stability AI發(fā)布大型模型SDXL 0.9,并可以運(yùn)行在消費(fèi)級(jí)GPU上

jf_35673951 ? 來(lái)源:jf_35673951 ? 作者:jf_35673951 ? 2023-06-26 09:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AI科技儼然成為各大公司爭(zhēng)相研究的領(lǐng)域,而近日Stability AI宣布,旗下文字生成圖片模型SDXL 0.9已經(jīng)正式發(fā)布。

據(jù)悉,SDXL 0.9是在所有開源圖像模型中參數(shù)數(shù)量位居前茅,并且可以在消費(fèi)級(jí)GPU上運(yùn)行,還具備一個(gè)35億參數(shù)的基礎(chǔ)模型和一個(gè)66億參數(shù)的附加模型。

另外Stability AI還表示,SDXL0.9中使用了兩個(gè)CLIP模型,其中包括OpenCLIP vitg /14,這是迄今為止體積最大的OpenCLIP模型。憑借該模型,Stable Diffusion 可以創(chuàng)建深度更廣、分辨率更高的逼真圖像。

Stability AI同時(shí)表示,SDXL詳細(xì)介紹SDXL 0.9的模規(guī)范和更多ERP(www.multiable.com.cn)參數(shù)細(xì)節(jié),預(yù)計(jì)該模型將在7月迎來(lái)1.0正式版本,并將在GitHub開源。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4948

    瀏覽量

    131263
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    280055
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用Openvino? GenAI運(yùn)行Sdxl Turbo模型時(shí)遇到錯(cuò)誤怎么解決?

    使用 OpenVINO? GenAI 運(yùn)行 SDXL Turbo 模型。 遇到的錯(cuò)誤: RuntimeError :- Check ov_tokenizer || ov_detokenizer Neither tokenizer
    發(fā)表于 06-24 06:38

    為什么無(wú)法在GPU使用INT8 和 INT4量化模型獲得輸出?

    安裝OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包將 whisper-large-v3 模型轉(zhuǎn)換為 int 4 和 int8,并在 GPU 使用 OpenVINO?
    發(fā)表于 06-23 07:11

    運(yùn)行在嵌入式系統(tǒng)的emApps

    在當(dāng)今快節(jié)奏的嵌入式系統(tǒng)世界中,靈活性和適應(yīng)性是嵌入式系統(tǒng)實(shí)現(xiàn)的關(guān)鍵。SEGGER推出了其最新創(chuàng)新:Embedded apps(emApps)應(yīng)用,類似于手機(jī)上的應(yīng)用程序,可以運(yùn)行在嵌入式系統(tǒng)
    的頭像 發(fā)表于 06-18 09:53 ?304次閱讀
    <b class='flag-5'>運(yùn)行在</b>嵌入式系統(tǒng)<b class='flag-5'>上</b>的emApps

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    時(shí)間。 這不僅僅是工具的升級(jí),更是邁向智能體化用戶體驗(yàn)的關(guān)鍵基礎(chǔ)設(shè)施。 天璣AI開發(fā)套件 2.0,全面釋放天璣端側(cè)AI能力 去年,天璣AI開發(fā)套件一經(jīng)發(fā)布就廣受開發(fā)者好評(píng)和推薦。在MD
    發(fā)表于 04-13 19:52

    無(wú)法在GPU運(yùn)行ONNX模型的Benchmark_app怎么解決?

    在 CPU 和 GPU 運(yùn)行OpenVINO? 2023.0 Benchmark_app推斷的 ONNX 模型。 在 CPU 推理成功
    發(fā)表于 03-06 08:02

    無(wú)法在OVMS運(yùn)行來(lái)自Meta的大型語(yǔ)言模型 (LLM),為什么?

    無(wú)法在 OVMS 運(yùn)行來(lái)自 Meta 的大型語(yǔ)言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲(chǔ)庫(kù)運(yùn)行 lla
    發(fā)表于 03-05 08:07

    從Open Model Zoo下載的FastSeg大型公共預(yù)訓(xùn)練模型,無(wú)法導(dǎo)入名稱是怎么回事?

    從 Open Model Zoo 下載的 FastSeg 大型公共預(yù)訓(xùn)練模型。 運(yùn)行 converter.py 以將 FastSeg 大型模型轉(zhuǎn)換為中間表示 (IR): pyth
    發(fā)表于 03-05 07:22

    AMD將DeepSeek-V3模型集成至Instinct MI300X GPU

    ,DeepSeek-V3模型經(jīng)過了SGLang的強(qiáng)化,專門針對(duì)AI推理進(jìn)行了深度優(yōu)化。這意味著,當(dāng)該模型運(yùn)行在Instinct MI300X GPU
    的頭像 發(fā)表于 02-06 09:41 ?574次閱讀

    GPU是如何訓(xùn)練AI模型

    AI模型的訓(xùn)練過程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長(zhǎng)的。接下來(lái),AI部落小編帶您了解GPU
    的頭像 發(fā)表于 12-19 17:54 ?750次閱讀

    FP8數(shù)據(jù)格式在大型模型訓(xùn)練中的應(yīng)用

    本文主要介紹了 FP8 數(shù)據(jù)格式在大型模型訓(xùn)練中的應(yīng)用、挑戰(zhàn)及最佳實(shí)踐,展示了 FP8 在提升訓(xùn)練速度和效率方面的潛力和實(shí)際效果。
    的頭像 發(fā)表于 11-19 14:54 ?1690次閱讀
    FP8數(shù)據(jù)格式在<b class='flag-5'>大型模型</b>訓(xùn)練中的應(yīng)用

    GPU服務(wù)器AI網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)

    眾所周知,在大型模型訓(xùn)練中,通常采用每臺(tái)服務(wù)器配備多個(gè)GPU的集群架構(gòu)。在上一篇文章《高性能GPU服務(wù)器AI網(wǎng)絡(luò)架構(gòu)(上篇)》中,我們對(duì)GPU
    的頭像 發(fā)表于 11-05 16:20 ?1247次閱讀
    <b class='flag-5'>GPU</b>服務(wù)器<b class='flag-5'>AI</b>網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?978次閱讀

    【「大模型時(shí)代的基礎(chǔ)架構(gòu)」閱讀體驗(yàn)】+ 未知領(lǐng)域的感受

    再到大模型云平臺(tái)的構(gòu)建,此書都有提及和講解,循序漸進(jìn),讓讀者可以由點(diǎn)及面,由面到體的來(lái)認(rèn)識(shí)大數(shù)據(jù)模型的體系架構(gòu)。 前言中,作者通過提出幾個(gè)問題來(lái)引導(dǎo)讀者閱讀思考——分布式AI計(jì)算依賴哪
    發(fā)表于 10-08 10:40

    英偉達(dá)發(fā)布AI模型 Llama-3.1-Nemotron-51B AI模型

    模型在單個(gè)H100 GPU的表現(xiàn)非常優(yōu)秀,在推理過程中可以在單個(gè) GPU
    的頭像 發(fā)表于 09-26 17:30 ?929次閱讀

    蘋果揭示AI新動(dòng)向:Apple Intelligence模型在谷歌云端芯片預(yù)訓(xùn)練

    蘋果公司在最新的技術(shù)論文中披露了一項(xiàng)重要信息,其全新的人工智能系統(tǒng)Apple Intelligence所依賴的模型并非傳統(tǒng)大型科技公司首選的NVIDIA GPU,而是選擇了在谷歌設(shè)計(jì)
    的頭像 發(fā)表于 07-30 15:00 ?851次閱讀