99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

簡(jiǎn)單三步在Windows上調(diào)用低功耗NPU部署AI模型

英特爾物聯(lián)網(wǎng) ? 來(lái)源:英特爾物聯(lián)網(wǎng) ? 2024-02-22 17:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

相信很多小伙伴都已經(jīng)知道,在最新一代的英特爾 酷睿 Ultra 移動(dòng)端處理中已經(jīng)集成了被稱(chēng)為 NPU 的神經(jīng)網(wǎng)絡(luò)加速處理器,以提供低功耗的 AI 算力,特別適合于 PC 端需要長(zhǎng)時(shí)間穩(wěn)定運(yùn)行的 AI 輔助功能,例如會(huì)議聊天軟件中的自動(dòng)摳像,或是畫(huà)面超分辨率等應(yīng)用。而 OpenVINO 工具套件也在第一時(shí)間對(duì) NPU 進(jìn)行了適配,接下來(lái)就讓我們一起看一下如何在英特爾 酷睿 Ultra 處理器上搭建基礎(chǔ)環(huán)境,并調(diào)用 NPU 進(jìn)行模型推理任務(wù)。

NPU 驅(qū)動(dòng)安裝

首先我們需要確保是否安裝了最新版的 NPU 驅(qū)動(dòng),可以通過(guò) Windows 任務(wù)管理調(diào)出當(dāng)前 NPU 驅(qū)動(dòng)版本信息。

7f01b5f0-d162-11ee-a297-92fbcf53809c.jpg

圖:NPU 在 Windows 任務(wù)管理器中顯示驅(qū)動(dòng)版本

查詢(xún)當(dāng)前最新的 NPU 驅(qū)動(dòng)版本:

https://www.intel.com/content/www/us/en/download/794734/intel-npu-driver-windows.html

7f1ff6a0-d162-11ee-a297-92fbcf53809c.png

圖:NPU 驅(qū)動(dòng)下載頁(yè)面

如果想更新或是重裝 NPU 驅(qū)動(dòng),可以參考以下指引下載并安裝驅(qū)動(dòng):

https://docs.openvino.ai/2023.3/openvino_docs_install_guides_configurations_for_intel_npu.html

OpenVINO 的下載和安裝

由于目前 NPU Plugin 還沒(méi)有被集成在 OpenVINO 的 PyPI 安裝包中,因此我們需要通過(guò)下載 OpenVINO runtime 壓縮包的方式進(jìn)行安裝。

7f35a298-d162-11ee-a297-92fbcf53809c.png

圖:OpenVINO 下載頁(yè)面

整個(gè)安裝過(guò)程非常簡(jiǎn)單,只需將壓縮包解壓到在本地路徑下即可。具體方法可以參考上圖標(biāo)紅處的安裝說(shuō)明。

7f5bbdd4-d162-11ee-a297-92fbcf53809c.png

圖:將壓縮包解壓至本地路徑

Python 環(huán)境配置

通過(guò)執(zhí)行壓縮包中的 setupvars.bat 環(huán)境配置腳本,我們便可以直接在 Python 環(huán)境下加載 OpenVINO runtime 和 NPU Plugin 環(huán)境。同時(shí)利用 OpenVINO 的 Python API 指令,我們可以快速驗(yàn)證 NPU 是否可以被正常調(diào)用。

7fbe5232-d162-11ee-a297-92fbcf53809c.jpg

圖:Python 環(huán)境中驗(yàn)證 NPU 調(diào)用

C++ 環(huán)境配置

不同于 Python,Windows 上的 C++ 應(yīng)用需要依賴(lài)于 CMake 或者是 Visual Studio 的環(huán)境下調(diào)試,因此這里我們需要簡(jiǎn)單配置下 OpenVINO 庫(kù)的路徑。下面以 Visual Studio 中新建項(xiàng)目的屬性配置頁(yè)面為例。

7fd6349c-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 頭文件路徑

7ff36080-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 動(dòng)態(tài)庫(kù)路徑

800aead4-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 及 frontednd 靜態(tài)庫(kù)路徑

80332d0a-d162-11ee-a297-92fbcf53809c.png

圖:在 Windows 本地添加 OpenVINO 環(huán)境變量路徑

當(dāng)完成 Visual Studio 項(xiàng)目屬性配置后,我們可以通過(guò)調(diào)試以下示例代碼,測(cè)試 NPU 是否可以被檢測(cè)及調(diào)用。

#include 
#include 


int main(int argc, char* argv[]) {


  // -------- Get OpenVINO runtime version --------
  std::cout << ov::get_openvino_version() << std::endl;


 ? ?// -------- Step 1. Initialize OpenVINO Runtime Core --------
 ? ?ov::Core core;


 ? ?// -------- Step 2. Get list of available devices --------
 ? ?std::vector availableDevices = core.get_available_devices();


  // -------- Step 3. Query and print supported metrics and config keys --------
  std::cout << "available devices: " << std::endl;
 ? ?for (auto&& device : availableDevices) {
 ? ? ? ?std::cout << device << std::endl;
 ? ?}
}

805d6408-d162-11ee-a297-92fbcf53809c.png

圖:VS 環(huán)境中驗(yàn)證 NPU 調(diào)用

測(cè)試效果

當(dāng)完成 NPU 安裝后,我們可以通過(guò) OpenVINO notebooks 中提供的示例,簡(jiǎn)單測(cè)試下 NPU 的性能。這個(gè)示例會(huì)通過(guò)以下 Python 代碼來(lái)將模型部署在 NPU 上。

compiled_model = core.compile_model("model.xml", "NPU")

8077ab42-d162-11ee-a297-92fbcf53809c.png

圖:實(shí)時(shí)人體關(guān)鍵點(diǎn)演示效果

可以看到 NPU 在運(yùn)行實(shí)時(shí)人體關(guān)鍵點(diǎn)檢測(cè)模型時(shí)的效果和速度還是非常不錯(cuò)的,達(dá)到了 90FPS 的吞吐量,同時(shí)推理任務(wù)幾乎也沒(méi)有占用 CPU 額外的資源,真正做到了在提供高算力的同時(shí),減輕 CPU 和 GPU 的任務(wù)負(fù)載。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103707
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4827

    瀏覽量

    86821
  • 加速處理器
    +關(guān)注

    關(guān)注

    0

    文章

    8

    瀏覽量

    6504
  • NPU
    NPU
    +關(guān)注

    關(guān)注

    2

    文章

    330

    瀏覽量

    19781

原文標(biāo)題:簡(jiǎn)單三步在 Windows 上調(diào)用低功耗 NPU 部署 AI 模型 | 開(kāi)發(fā)者實(shí)戰(zhàn)

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    無(wú)法NPU上推理OpenVINO?優(yōu)化的 TinyLlama 模型怎么解決?

    NPU 上推斷 OpenVINO?優(yōu)化的 TinyLlama 模型。 遇到的錯(cuò)誤: get_shape was called on a descriptor::Tensor with dynamic shape
    發(fā)表于 07-11 06:58

    企業(yè)部署AI模型怎么做

    當(dāng)下,AI模型已成為驅(qū)動(dòng)決策自動(dòng)化、服務(wù)智能化與產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對(duì)動(dòng)輒數(shù)百億參數(shù)的大模型部署時(shí),常陷入算力不足、響應(yīng)延遲高、成本失控等困境。如何突破瓶頸,實(shí)現(xiàn)高效、穩(wěn)
    的頭像 發(fā)表于 06-04 09:26 ?214次閱讀

    RK3588核心板邊緣AI計(jì)算中的顛覆性?xún)?yōu)勢(shì)與場(chǎng)景落地

    低功耗。相比傳統(tǒng)四核A72方案(如RK3399),單線(xiàn)程性能提升80%,多線(xiàn)程任務(wù)處理能力翻倍。 6TOPS獨(dú)立NPU: 支持INT8/INT16混合精度計(jì)算,可直接部署YOLOv5
    發(fā)表于 04-15 10:48

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    模型全鏈路分析功能,針對(duì)AI應(yīng)用開(kāi)發(fā)的大痛點(diǎn)逐個(gè)擊破。 當(dāng)前AI應(yīng)用開(kāi)發(fā)者使用開(kāi)發(fā)工具時(shí)會(huì)面臨一個(gè)很頭疼的問(wèn)題,種類(lèi)多、功能不聚合、過(guò)
    發(fā)表于 04-13 19:52

    AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識(shí)庫(kù)

    ,提供更穩(wěn)定的服務(wù)質(zhì)量,但需要考慮API調(diào)用成本和網(wǎng)絡(luò)延遲等因素。代碼實(shí)現(xiàn)方面,作者提供了相對(duì)詳細(xì)的示例,包括文本分塊的具體參數(shù)設(shè)置、向量化過(guò)程中的模型選擇、檢索閾值的調(diào)優(yōu)等關(guān)鍵技術(shù)點(diǎn),這些內(nèi)容對(duì)想要
    發(fā)表于 03-07 19:49

    C#集成OpenVINO?:簡(jiǎn)化AI模型部署

    開(kāi)源測(cè)控、機(jī)器視覺(jué)、數(shù)采與分析大領(lǐng)域中,如何快速將AI模型集成到應(yīng)用程序中, 實(shí)現(xiàn)AI賦能和應(yīng)用增值? 最容易的方式是:
    的頭像 發(fā)表于 02-17 10:03 ?2003次閱讀
    C#集成OpenVINO?:簡(jiǎn)化<b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    添越智創(chuàng)基于 RK3588 開(kāi)發(fā)板部署測(cè)試 DeepSeek 模型全攻略

    AI 處理效率,成為部署各類(lèi) AI 模型的關(guān)鍵依托。 憑借這些卓越的硬件性能,RK3588 開(kāi)發(fā)板保持
    發(fā)表于 02-14 17:42

    企業(yè)AI模型部署攻略

    當(dāng)下,越來(lái)越多的企業(yè)開(kāi)始探索和實(shí)施AI模型,以提升業(yè)務(wù)效率和競(jìng)爭(zhēng)力。然而,AI模型部署并非易事,需要企業(yè)
    的頭像 發(fā)表于 12-23 10:31 ?800次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    以及邊緣計(jì)算能力的增強(qiáng),越來(lái)越多的目標(biāo)檢測(cè)應(yīng)用開(kāi)始直接在靠近數(shù)據(jù)源的邊緣設(shè)備上運(yùn)行。這不僅減少了數(shù)據(jù)傳輸延遲,保護(hù)了用戶(hù)隱私,同時(shí)也減輕了云端服務(wù)器的壓力。然而,邊緣端部署高效且準(zhǔn)確的目標(biāo)檢測(cè)模型
    發(fā)表于 12-19 14:33

    AI模型部署邊緣設(shè)備的奇妙之旅:如何實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別

    更適合生產(chǎn)環(huán)境的框架來(lái)部署。此外,許多推理引擎和硬件加速器也支持ONNX格式,從而進(jìn)一加快了模型部署的速度。 凌智視覺(jué)模塊中
    發(fā)表于 12-06 17:20

    AI模型部署和管理的關(guān)系

    AI模型部署與管理是AI項(xiàng)目成功的兩大支柱,它們之間既相互獨(dú)立又緊密相連,共同推動(dòng)著AI技術(shù)從實(shí)驗(yàn)室走向?qū)嶋H應(yīng)用。
    的頭像 發(fā)表于 11-21 10:02 ?660次閱讀

    如何在STM32f4系列開(kāi)發(fā)板上部署STM32Cube.AI,

    已下載STM32Cube.AI擴(kuò)展包,但是無(wú)法使用,感覺(jué)像是沒(méi)有部署AI模型,我是想要通過(guò)攝像頭拍照,上傳圖像后,經(jīng)過(guò)開(kāi)發(fā)板處理器進(jìn)行AI
    發(fā)表于 11-18 09:39

    企業(yè)AI模型部署怎么做

    AI模型部署作為這一轉(zhuǎn)型過(guò)程中的關(guān)鍵環(huán)節(jié),其成功實(shí)施對(duì)于企業(yè)的長(zhǎng)遠(yuǎn)發(fā)展至關(guān)重要。在此,AI部落小編為您介紹企業(yè)AI
    的頭像 發(fā)表于 11-04 10:15 ?787次閱讀

    使用OpenVINO 2024.4算力魔方上部署Llama-3.2-1B-Instruct模型

    前面我們分享了《三步完成Llama3算力魔方的本地量化和部署》。2024年9月25日,Meta又發(fā)布了Llama3.2:一個(gè)多語(yǔ)言大型語(yǔ)言模型(LLMs)的集合。
    的頭像 發(fā)表于 10-12 09:39 ?1454次閱讀
    使用OpenVINO 2024.4<b class='flag-5'>在</b>算力魔方上<b class='flag-5'>部署</b>Llama-3.2-1B-Instruct<b class='flag-5'>模型</b>

    利用恩智浦云實(shí)驗(yàn)室部署AI模型

    如今,人工智能(AI)非?;鸨?,這個(gè)風(fēng)口該如何把握?作為一個(gè)電子工程師,和AI最主要的交集應(yīng)該就是邊緣計(jì)算了,具體來(lái)講,就是一些性能、功耗以及價(jià)格相對(duì)較低的嵌入式平臺(tái)上
    的頭像 發(fā)表于 08-02 11:46 ?3665次閱讀
    利用恩智浦云實(shí)驗(yàn)室<b class='flag-5'>部署</b><b class='flag-5'>AI</b><b class='flag-5'>模型</b>