99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ERNIE 3.0 Tiny新模型,壓縮部署“小”“快”“靈”!歡迎在 NGC 飛槳容器中體驗(yàn) PaddleNLP 最新版本

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:未知 ? 2023-02-22 07:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

PaddleNLP 又帶著新功能和大家見面了。本次更新,為大家?guī)?lái)文心 ERNIE 3.0 Tiny 輕量級(jí)模型,刷新了中文小模型的 SOTA 成績(jī);通過(guò)模型裁剪、量化感知訓(xùn)練、Embedding 量化等壓縮方案,能夠進(jìn)一步提升模型推理速度、降低模型大小、顯存占用。歡迎廣大開發(fā)者使用 NVIDIA 與飛槳聯(lián)合深度適配的 NGC 飛槳容器,在 NVIDIA GPU 上體驗(yàn) ERNIE 3.0 Tiny。

ERNIE 3.0 Tiny 與配套壓縮部署方案介紹

ERNIE 3.0 Tiny

近年來(lái),隨著深度學(xué)習(xí)技術(shù)的迅速發(fā)展,大規(guī)模預(yù)訓(xùn)練范式通過(guò)一次又一次刷新各種評(píng)測(cè)基線證明了其卓越的學(xué)習(xí)與遷移能力。在這個(gè)過(guò)程中,研究者們發(fā)現(xiàn)通過(guò)不斷地?cái)U(kuò)大模型參數(shù)便能持續(xù)提升深度學(xué)習(xí)模型的威力。然而,參數(shù)的指數(shù)級(jí)增長(zhǎng)意味著模型體積增大、所需計(jì)算資源增多、計(jì)算耗時(shí)更長(zhǎng),而這無(wú)論出于業(yè)務(wù)線上響應(yīng)效率的要求還是機(jī)器資源預(yù)算問(wèn)題,都給大模型落地帶來(lái)了極大的挑戰(zhàn)。

如何選擇最優(yōu)模型?如何在保證效果的前提下壓縮模型?如何適配 GPU、CPU 等多硬件的加速?如何在低資源場(chǎng)景下落地大模型?如何讓加速工具觸手可及?這是行業(yè)內(nèi)亟待解決的課題。2022 年 6 月,文心大模型中的輕量化技術(shù)加持的多個(gè)文心 ERNIE 3.0 Tiny 輕量級(jí)模型(下文簡(jiǎn)稱文心 ERNIE 3.0 Tiny v1)開源至飛槳自然語(yǔ)言處理模型庫(kù) PaddleNLP 中,該模型刷新了中文小模型的 SOTA 成績(jī),配套模型動(dòng)態(tài)裁剪和量化推理方案,被學(xué)術(shù)與工業(yè)界廣泛使用

108c16ea-b239-11ed-bfe3-dac502259ad0.png

圖:GPU 下 ERNIE 3.0 Tiny 輕量級(jí)模型時(shí)延與效果圖

圖中,越偏左上方的模型越優(yōu)秀,可以看到 ERNIE 3.0 輕量級(jí)模型在同等規(guī)模的開源模型中,綜合實(shí)力領(lǐng)先其他同類型輕量級(jí)模型。與 RoBERTa-Base 相比,12L768H 的 ERNIE 3.0-Base 平均精度絕對(duì)提升了 1.9 個(gè)點(diǎn),比同等規(guī)模的 BERT-Base-Chinese 提升 3.5 個(gè)點(diǎn);6L768H 的 ERNIE 3.0-Medium 相比 12L768H 的 UER/Chinese-RoBERTa ,在節(jié)省一倍運(yùn)算時(shí)間基礎(chǔ)上,獲得比兩倍大的 RoBERTa 更好的效果。

近日,文心 ERNIE 3.0 Tiny 升級(jí)版–––文心 ERNIE 3.0 Tiny v2 也開源了!相較于 v1,文心 ERNIE 3.0 Tiny v2 在 Out-domain(域外數(shù)據(jù))、Low-resource(小樣本數(shù)據(jù))的下游任務(wù)上精度顯著提升,并且 v2 還開源了 3L128H 結(jié)構(gòu),5.99M 參數(shù)量的小模型,更適用于低資源場(chǎng)景。

10a4a160-b239-11ed-bfe3-dac502259ad0.png

表:ERNIE 3.0 Tiny v2 效果更優(yōu)

文心 ERNIE 3.0 Tiny v2 包含一系列不同尺寸的中文預(yù)訓(xùn)練模型,方便不同性能需求的應(yīng)用場(chǎng)景使用:

  • 文心ERNIE 3.0 Tiny-Base-v2(12-layer, 768-hidden, 12-heads)

  • 文心ERNIE 3.0 Tiny-Medium-v2(6-layer, 768-hidden, 12-heads)

  • 文心ERNIE 3.0 Tiny-Mini-v2(6-layer, 384-hidden, 12-heads)

  • 文心ERNIE 3.0 Tiny-Micro-v2(4-layer, 384-hidden, 12-heads)

  • 文心ERNIE 3.0 Tiny-Nano-v2(4-layer, 312-hidden, 12-heads)

  • 文心ERNIE 3.0 Tiny-Pico-v2(3-layer, 128-hidden, 2-heads)

除以上中文模型外,本次還發(fā)布了英文版文心 ERNIE 3.0 Tiny-Mini-v2,適用于各類英文任務(wù)。

在 PaddleNLP 中,可一鍵加載以上模型。

10f8e1e4-b239-11ed-bfe3-dac502259ad0.png

開源地址:https://github.com/PaddlePaddle/PaddleNLP/tree/develop/model_zoo/ernie-tiny

語(yǔ)義理解模型壓縮、部署方案

由文心大模型蒸餾得到的文心 ERNIE 3.0 Tiny v2 可以直接在下游任務(wù)上微調(diào)應(yīng)用,如果想要進(jìn)一步壓縮模型體積,降低推理時(shí)延,可使用 PaddleNLP 開源的語(yǔ)義理解模型壓縮、部署方案。

結(jié)合飛槳模型壓縮工具 PaddleSlim,PaddleNLP 發(fā)布了語(yǔ)義理解壓縮、部署方案,包含裁剪、量化級(jí)聯(lián)壓縮,如下圖所示:

1132a460-b239-11ed-bfe3-dac502259ad0.png

以上各類壓縮策略以及對(duì)應(yīng)的推理功能如果從零實(shí)現(xiàn)非常復(fù)雜,飛槳模型壓縮工具庫(kù) PaddleSlim 和飛槳高性能深度學(xué)習(xí)端側(cè)推理引擎 Paddle Lite 提供了一系列壓縮、推理工具鏈。飛槳 AI 推理部署工具 FastDeploy 對(duì)其進(jìn)一步封裝,使開發(fā)者可以通過(guò)更簡(jiǎn)單的 API 去實(shí)現(xiàn)模型壓縮、推理部署流程,適配多領(lǐng)域模型,并兼容多硬件。PaddleNLP 依托以上工具,提供 NLP 模型數(shù)據(jù)處理、訓(xùn)練、壓縮、部署全流程的最佳實(shí)踐。

基于 PaddleNLP 提供的的模型壓縮 API,可大幅降低開發(fā)成本。壓縮 API 支持對(duì) ERNIE、BERT 等 transformer 類下游任務(wù)微調(diào)模型進(jìn)行裁剪和量化。只需要簡(jiǎn)單地調(diào)用 compress()即可一鍵啟動(dòng)裁剪量化流程,并自動(dòng)保存壓縮后的模型。

1147773c-b239-11ed-bfe3-dac502259ad0.png

下面會(huì)對(duì)壓縮方案(詞表裁剪、模型寬度裁剪、量化感知訓(xùn)練、詞表量化)與部署工具進(jìn)行介紹。

詞表裁剪

ERNIE 3.0 Tiny 預(yù)訓(xùn)練模型的詞表參數(shù)量在總參數(shù)量中占比很大。在內(nèi)存有限的場(chǎng)景下,推薦在下游任務(wù)微調(diào)之前,按照詞頻對(duì)詞表進(jìn)行裁剪,去除出現(xiàn)頻次較低的詞,這樣能夠減少分詞后 [UNK] 的出現(xiàn),使精度得到最大限度保持。例如,某數(shù)據(jù)集 4w 大小的詞表,高頻出現(xiàn)的詞不到 1w 個(gè),此時(shí)通過(guò)詞表裁剪可以節(jié)省不少內(nèi)存。

模型寬度裁剪

基于 DynaBERT 寬度自適應(yīng)裁剪策略,通過(guò)知識(shí)蒸餾的方法,在下游任務(wù)中將 ERNIE 3.0 Tiny 的知識(shí)遷移到寬度更窄的學(xué)生網(wǎng)絡(luò)中,最后得到效果與教師模型接近的學(xué)生模型。一般來(lái)說(shuō),對(duì)于 4 到 6 層的 NLU 模型,寬度裁剪 1/4 可基本保證精度無(wú)損。

量化感知訓(xùn)練

模型量化是一種通過(guò)將訓(xùn)練好的模型參數(shù)、激活值從 FP32 浮點(diǎn)數(shù)轉(zhuǎn)換成 INT8 整數(shù)來(lái)減小存儲(chǔ)、加快計(jì)算速度、降低功耗的模型壓縮方法。目前主要有兩種量化方法:

? 靜態(tài)離線量化:使用少量校準(zhǔn)數(shù)據(jù)計(jì)算量化信息,可快速得到量化模型;

? 量化感知訓(xùn)練:在模型中插入量化、反量化算子并進(jìn)行訓(xùn)練,使模型在訓(xùn)練中學(xué)習(xí)到量化信息 。

11689de0-b239-11ed-bfe3-dac502259ad0.png

圖:量化感知訓(xùn)練 vs 離線量化

在對(duì) ERNIE 3.0 Tiny 的壓縮中,更推薦使用量化感知訓(xùn)練的方式。通常情況下,使用量化感知訓(xùn)練的方法能夠比使用靜態(tài)離線量化取得更高的精度。這是因?yàn)樵诹炕兄?xùn)練之前,壓縮 API 在模型的矩陣乘算子前插入量化、反量化算子,使量化帶來(lái)的誤差可以在訓(xùn)練過(guò)程中被建模和優(yōu)化,能夠使模型被量化后精度基本無(wú)損。

Embedding 量化

為了能進(jìn)一步節(jié)省顯存占用,可對(duì)模型的 Embedding 權(quán)重進(jìn)行 INT8量化,并將精度的損失保持在 0.5%之內(nèi)。

部署

模型壓縮后,精度基本無(wú)損。到此,算法側(cè)的工作基本完成。為了進(jìn)一步降低部署難度,可以使用飛槳 FastDeploy 對(duì)模型進(jìn)行部署。

FastDeploy 是一款全場(chǎng)景、易用靈活、極致高效的 AI 推理部署工具,提供開箱即用的部署體驗(yàn)。FastDeploy 為 NLP 任務(wù)提供了一整套完整的部署 Pipeline,提供文心 ERNIE 3.0 Tiny 模型從文本預(yù)處理、推理引擎 Runtime 以及后處理三個(gè)階段所需要的接口模塊,開發(fā)者可以基于這些接口模塊在云、邊、端上部署各類常見的 NLP 任務(wù),如文本分類、序列標(biāo)注、信息抽取等。

FastDeploy 中的 Paddle Lite 后端基于算子融合和常量折疊對(duì)深度模型進(jìn)行優(yōu)化,無(wú)縫銜接了 Paddle Lite 的 FP16 和 INT8 的推理能力,可使模型推理速度大幅提升。其集成的高性能 NLP 處理庫(kù) FastTokenizer(視覺(jué)領(lǐng)域集成了高性能 AI 處理庫(kù) FlyCV),能夠?qū)Ψ衷~階段進(jìn)行加速,適配 GPU、CPU 等多硬件。

FastDeploy 項(xiàng)目地址:https://github.com/PaddlePaddle/FastDeploy

文心大模型

隨著數(shù)據(jù)井噴、算法進(jìn)步和算力突破,效果好、泛化能力強(qiáng)、通用性強(qiáng)的預(yù)訓(xùn)練大模型(以下簡(jiǎn)稱“大模型”),成為人工智能發(fā)展的關(guān)鍵方向與人工智能產(chǎn)業(yè)應(yīng)用的基礎(chǔ)底座。

百度文心大模型源于產(chǎn)業(yè)、服務(wù)于產(chǎn)業(yè),是產(chǎn)業(yè)級(jí)知識(shí)增強(qiáng)大模型。百度通過(guò)大模型與國(guó)產(chǎn)深度學(xué)習(xí)框架融合發(fā)展,打造了自主創(chuàng)新的 AI 底座,大幅降低了 AI 開發(fā)和應(yīng)用的門檻,滿足真實(shí)場(chǎng)景中的應(yīng)用需求,真正發(fā)揮大模型驅(qū)動(dòng) AI 規(guī)模化應(yīng)用的產(chǎn)業(yè)價(jià)值。

119a7bee-b239-11ed-bfe3-dac502259ad0.png

文心大模型包含基礎(chǔ)通用大模型及面向重點(diǎn)領(lǐng)域和重點(diǎn)任務(wù)的大模型,同時(shí)有豐富的工具與平臺(tái)支撐高效便捷的應(yīng)用開發(fā)。學(xué)習(xí)效率高,可解釋性好,大幅降低AI開發(fā)與應(yīng)用門檻。

從技術(shù)研發(fā)到落地應(yīng)用,大模型的發(fā)展已經(jīng)進(jìn)入產(chǎn)業(yè)落地的關(guān)鍵期,歡迎前往文心大模型官網(wǎng)了解詳情:https://wenxin.baidu.com/。也歡迎使用NGC,體驗(yàn)文心大模型。

加入 PaddleNLP 技術(shù)交流群,體驗(yàn) NVIDIA NGC + PaddleNLP

入群方式:微信掃描下方二維碼,關(guān)注公眾號(hào),填寫問(wèn)卷后進(jìn)入微信群隨時(shí)進(jìn)行技術(shù)交流。

11e3bd86-b239-11ed-bfe3-dac502259ad0.jpg ?

NGC 飛槳容器介紹

如果您希望體驗(yàn) PaddleNLP 的新特性,歡迎使用 NGC 飛槳容器。NVIDIA 與百度飛槳聯(lián)合開發(fā)了 NGC 飛槳容器,將最新版本的飛槳與最新的NVIDIA的軟件棧(如CUDA)進(jìn)行了無(wú)縫的集成與性能優(yōu)化,最大程度的釋放飛槳框架在 NVIDIA 最新硬件上的計(jì)算能力。這樣,用戶不僅可以快速開啟 AI 應(yīng)用,專注于創(chuàng)新和應(yīng)用本身,還能夠在 AI 訓(xùn)練和推理任務(wù)上獲得飛槳+NVIDIA 帶來(lái)的飛速體驗(yàn)。

最佳的開發(fā)環(huán)境搭建工具 - 容器技術(shù)

  1. 容器其實(shí)是一個(gè)開箱即用的服務(wù)器。極大降低了深度學(xué)習(xí)開發(fā)環(huán)境的搭建難度。例如你的開發(fā)環(huán)境中包含其他依賴進(jìn)程(redis,MySQL,Ngnix,selenium-hub等等),或者你需要進(jìn)行跨操作系統(tǒng)級(jí)別的遷移

  2. 容器鏡像方便了開發(fā)者的版本化管理

  3. 容器鏡像是一種易于復(fù)現(xiàn)的開發(fā)環(huán)境載體

  4. 容器技術(shù)支持多容器同時(shí)運(yùn)行

11fce748-b239-11ed-bfe3-dac502259ad0.png

最好的 PaddlePaddle 容器

NGC 飛槳容器針對(duì) NVIDIA GPU 加速進(jìn)行了優(yōu)化,并包含一組經(jīng)過(guò)驗(yàn)證的庫(kù),可啟用和優(yōu)化 NVIDIA GPU 性能。此容器還可能包含對(duì) PaddlePaddle 源代碼的修改,以最大限度地提高性能和兼容性。此容器還包含用于加速 ETL (DALI, RAPIDS),、訓(xùn)練(cuDNN, NCCL)和推理(TensorRT)工作負(fù)載的軟件。

PaddlePaddle 容器具有以下優(yōu)點(diǎn):

  1. 適配最新版本的 NVIDIA 軟件棧(例如最新版本CUDA),更多功能,更高性能

  2. 更新的 Ubuntu 操作系統(tǒng),更好的軟件兼容性

  3. 按月更新

  4. 滿足 NVIDIA NGC 開發(fā)及驗(yàn)證規(guī)范,質(zhì)量管理

通過(guò)飛槳官網(wǎng)快速獲取

121200f6-b239-11ed-bfe3-dac502259ad0.png

環(huán)境準(zhǔn)備

使用 NGC 飛槳容器需要主機(jī)系統(tǒng)(Linux)安裝以下內(nèi)容:

  • Docker 引擎

  • NVIDIA GPU 驅(qū)動(dòng)程序

  • NVIDIA 容器工具包

有關(guān)支持的版本,請(qǐng)參閱 NVIDIA 框架容器支持矩陣 和 NVIDIA 容器工具包文檔。

不需要其他安裝、編譯或依賴管理。無(wú)需安裝 NVIDIA CUDA Toolkit。

NGC 飛槳容器正式安裝:

要運(yùn)行容器,請(qǐng)按照 NVIDIA Containers For Deep Learning Frameworks User’s Guide 中 Running A Container一章中的說(shuō)明發(fā)出適當(dāng)?shù)拿?,并指定注?cè)表、存儲(chǔ)庫(kù)和標(biāo)簽。有關(guān)使用 NGC 的更多信息,請(qǐng)參閱 NGC 容器用戶指南。如果您有 Docker 19.03 或更高版本,啟動(dòng)容器的典型命令是:

dockerrun--gpusall--shm-size=1g--ulimitmemlock=-1-it--rm
nvcr.io/nvidia/paddlepaddle:22.08-py3

*詳細(xì)安裝介紹 《NGC 飛槳容器安裝指南》

https://www.paddlepaddle.org.cn/documentation/docs/zh/install/install_NGC_PaddlePaddle_ch.html

*詳細(xì)產(chǎn)品介紹視頻

【飛槳開發(fā)者說(shuō)|NGC飛槳容器全新上線 NVIDIA產(chǎn)品專家全面解讀】

https://www.bilibili.com/video/BV16B4y1V7ue?share_source=copy_web&vd_source=266ac44430b3656de0c2f4e58b4daf82

飛槳與 NVIDIA NGC 合作介紹

NVIDIA 非常重視中國(guó)市場(chǎng),特別關(guān)注中國(guó)的生態(tài)伙伴,而當(dāng)前飛槳擁有超過(guò) 535 萬(wàn)的開發(fā)者。在過(guò)去五年里我們緊密合作,深度融合,做了大量適配工作,如下圖所示。

12452b52-b239-11ed-bfe3-dac502259ad0.png

今年,我們將飛槳列為 NVIDIA 全球前三的深度學(xué)習(xí)框架合作伙伴。我們?cè)谥袊?guó)已經(jīng)設(shè)立了專門的工程團(tuán)隊(duì)支持,賦能飛槳生態(tài)。

為了讓更多的開發(fā)者能用上基于 NVIDIA 最新的高性能硬件和軟件棧。當(dāng)前,我們正在進(jìn)行全新一代 NVIDIA GPU H100 的適配工作,以及提高飛槳對(duì) CUDA Operation API 的使用率,讓飛槳的開發(fā)者擁有優(yōu)秀的用戶體驗(yàn)及極致性能。

以上的各種適配,僅僅是讓飛槳的開發(fā)者擁有高性能的推理訓(xùn)練成為可能。但是,這些離行業(yè)開發(fā)者還很遠(yuǎn),門檻還很高,難度還很大。

為此,我們將剛剛這些集成和優(yōu)化工作,整合到三大產(chǎn)品線中。其中 NGC 飛槳容器最為閃亮。

NVIDIA NGC Container – 最佳的飛槳開發(fā)環(huán)境,集成最新的 NVIDIA 工具包(例如 CUDA)

126a6b06-b239-11ed-bfe3-dac502259ad0.png

12a4463c-b239-11ed-bfe3-dac502259ad0.png

點(diǎn)擊 “閱讀原文” 或掃描下方海報(bào)二維碼,即可免費(fèi)注冊(cè) GTC23,在 3 月 24 日 聽 OpenAI 聯(lián)合創(chuàng)始人與 NVIDIA 創(chuàng)始人的爐邊談話,會(huì)議將由 NVIDIA 專家主持,配中文講解和實(shí)時(shí)答疑,一起看 AI 的現(xiàn)狀和未來(lái)!


原文標(biāo)題:ERNIE 3.0 Tiny新模型,壓縮部署“小”“快”“靈”!歡迎在 NGC 飛槳容器中體驗(yàn) PaddleNLP 最新版本

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3953

    瀏覽量

    93809

原文標(biāo)題:ERNIE 3.0 Tiny新模型,壓縮部署“小”“快”“靈”!歡迎在 NGC 飛槳容器中體驗(yàn) PaddleNLP 最新版本

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    戴爾數(shù)據(jù)保護(hù)軟件迎來(lái)全新版本

    無(wú)縫運(yùn)行的異常檢測(cè),一站式監(jiān)控多達(dá)150個(gè)系統(tǒng),額外的MFA多重身份驗(yàn)證Dell PowerProtect Data Manager19.19全新版本現(xiàn)已到來(lái)!
    的頭像 發(fā)表于 06-27 13:55 ?268次閱讀

    燧原科技正式納入例行版本發(fā)布體系

    燧原科技與經(jīng)過(guò)長(zhǎng)時(shí)間的適配合作和持續(xù)集成(CI)建設(shè),對(duì)合?的每?行代碼都在燧原硬件上進(jìn)?了驗(yàn)證。如今,燧原正式納入
    的頭像 發(fā)表于 04-11 11:31 ?479次閱讀
    燧原科技正式納入<b class='flag-5'>飛</b><b class='flag-5'>槳</b>例行<b class='flag-5'>版本</b>發(fā)布體系

    百度框架3.0正式版發(fā)布

    、推理等任務(wù)都離不開深度學(xué)習(xí)框架的優(yōu)化與支撐。 框架3.0,從設(shè)計(jì)理念上實(shí)現(xiàn)了從底層硬件適配到頂層開發(fā)體驗(yàn)的全面進(jìn)化,訓(xùn)練效率、性能、兼容性等關(guān)鍵指標(biāo)上建立了新標(biāo)桿。 其中, “
    的頭像 發(fā)表于 04-02 19:03 ?727次閱讀
    百度<b class='flag-5'>飛</b><b class='flag-5'>槳</b>框架<b class='flag-5'>3.0</b>正式版發(fā)布

    使用Mickledore生成BSP,移動(dòng)到最新版本的Scarthgap v6.6.52時(shí),驅(qū)動(dòng)程序未構(gòu)建,怎么解決?

    當(dāng)我使用 Mickledore 生成 BSP 時(shí),moal.ko WIFI 驅(qū)動(dòng)程序是自動(dòng)構(gòu)建的,并且位于 /lib/modules/ 中,并且 WIFI 可以正常工作。 當(dāng)我移動(dòng)到最新版本
    發(fā)表于 03-27 06:49

    win7 64位系統(tǒng)STM32CubeMX安裝完成后數(shù)據(jù)包無(wú)法升級(jí)到最新版本,怎么解決?

    win7 64位系統(tǒng) STM32CubeMX安裝完成后數(shù)據(jù)包無(wú)法安裝,安裝較低版本后又無(wú)法升級(jí)到最新版本,這個(gè)界面出現(xiàn)閃退,無(wú)法輸入用戶名和密碼,導(dǎo)致無(wú)法升級(jí)。也試過(guò)下載STM32Cube FW
    發(fā)表于 03-10 07:04

    如何在C#中部署PP-OCRv4模型

    《超4萬(wàn)6千星的開源OCR黑馬登場(chǎng),PaddleOCR憑什么脫穎而出?》收到了讀者熱烈反響c,很多讀者提出:如何在C#中部署PP-OCRv4模型?本文從零開始詳細(xì)介紹整個(gè)過(guò)程。
    的頭像 發(fā)表于 02-17 10:58 ?1793次閱讀
    如何在C#中<b class='flag-5'>部署</b><b class='flag-5'>飛</b><b class='flag-5'>槳</b>PP-OCRv4<b class='flag-5'>模型</b>

    新版本 IDE 的啟動(dòng)速度變快了?原來(lái)是背后做了這些!

    新版本 IntelliJ IDEA 中為提高性能而采取的措施,這些措施縮短了代碼可交互時(shí)間并使 IDE 從啟動(dòng)開始就具有更高的響應(yīng)速度。
    的頭像 發(fā)表于 01-24 13:49 ?423次閱讀
    <b class='flag-5'>新版本</b> IDE 的啟動(dòng)速度變快了?原來(lái)是<b class='flag-5'>在</b>背后做了這些!

    高通推出Qualcomm Aware平臺(tái)最新版本

    CES 2025上,高通技術(shù)公司宣布推出Qualcomm Aware平臺(tái)的最新版本,這一基于云的服務(wù)平臺(tái)支持企業(yè)為物流、零售、能源、智能家居和機(jī)器人等行業(yè)的智能網(wǎng)聯(lián)終端增加可觀測(cè)性、監(jiān)測(cè)和定位功能
    的頭像 發(fā)表于 01-07 10:36 ?824次閱讀

    特斯拉發(fā)布“完全自動(dòng)駕駛”軟件最新版本FSDV13.2

    近日,特斯拉終于推出了備受期待的“完全自動(dòng)駕駛”軟件最新版本——FSD V13.2。盡管此前曾承諾感恩節(jié)之前發(fā)布,但特斯拉還是11月份的最后時(shí)刻兌現(xiàn)了承諾,展現(xiàn)了其人工智能團(tuán)隊(duì)的不懈努力和重要進(jìn)展。
    的頭像 發(fā)表于 12-03 10:59 ?1139次閱讀

    Ubuntu 24.04 LTS上安裝PaddleX

    前面我們介紹了《Windows用遠(yuǎn)程桌面訪問(wèn)Ubuntu 24.04.1 LTS》本文接著介紹安裝PaddleX。 PaddleX 3.0? 是基于飛
    的頭像 發(fā)表于 11-11 17:45 ?881次閱讀
    <b class='flag-5'>在</b>Ubuntu 24.04 LTS上安裝<b class='flag-5'>飛</b><b class='flag-5'>槳</b>PaddleX

    科大訊發(fā)布訊星火4.0 Turbo:七大能力超GPT-4 Turbo

    10月24日,科大訊全球1024開發(fā)者節(jié)上,科大訊董事長(zhǎng)劉慶峰正式發(fā)布了訊星火大模型最新版本
    的頭像 發(fā)表于 10-24 11:39 ?1083次閱讀

    IBM發(fā)布面向企業(yè)的人工智能模型新版本

    近日,IBM正式發(fā)布了其面向企業(yè)的人工智能模型——Granite 3.0最新版本,旨在抓住當(dāng)前企業(yè)紛紛擁抱生成式AI技術(shù)的熱潮。與IBM Granite系列中的其他AI模型一樣,Gr
    的頭像 發(fā)表于 10-22 17:32 ?802次閱讀

    品英Pickering最新版本的微波開關(guān)設(shè)計(jì)工具, 增強(qiáng)了仿真能力和原理圖設(shè)計(jì)功能

    這 款免 費(fèi) 線 工具的最新版本將在 EuMW 2024(9 月 24 日至 26 日,法國(guó)巴黎)上首次亮相,該版本的開關(guān)配置功能尤為突出。 ? 2024年9月25日,英國(guó)
    發(fā)表于 09-25 09:05 ?328次閱讀
    品英Pickering<b class='flag-5'>最新版本</b>的微波開關(guān)設(shè)計(jì)工具,  增強(qiáng)了仿真能力和原理圖設(shè)計(jì)功能

    啟明智顯ESP32系列串口屏全面升級(jí)!支持樂(lè)鑫IDF最新版,兼容Arduino開發(fā)環(huán)境

    啟明智顯的ESP32系列串口屏迎來(lái)了全面升級(jí),SDK更新至樂(lè)鑫IDF的最新版本,并且完美兼容Arduino開發(fā)環(huán)境!
    的頭像 發(fā)表于 09-05 16:48 ?1415次閱讀
    啟明智顯ESP32系列串口屏全面升級(jí)!支持樂(lè)鑫IDF<b class='flag-5'>最新版</b>,兼容Arduino開發(fā)環(huán)境

    經(jīng)緯恒潤(rùn)INTEWORK-TPA 新版本正式發(fā)布

    正式推出INTEWORK-TPA5.2.0新版本,以科技的力量,為用戶帶來(lái)更智能的體驗(yàn)升級(jí)!▎AI助力,高效測(cè)試新版本的AI小助理上線了!借助她的AI大模型能力,測(cè)試
    的頭像 發(fā)表于 08-30 11:46 ?806次閱讀
    經(jīng)緯恒潤(rùn)INTEWORK-TPA <b class='flag-5'>新版本</b>正式發(fā)布