99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于OpenVINO? 2022.2與oneAPI構(gòu)建GPU視頻分析服務(wù)流水線 第二篇

英特爾物聯(lián)網(wǎng) ? 來(lái)源:英特爾物聯(lián)網(wǎng) ? 作者:楊亦誠(chéng) ? 2022-12-20 11:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:楊亦誠(chéng)

前文回顧

基于OpenVINO 2022.2與oneAPI構(gòu)建GPU視頻分析服務(wù)流水線-第一篇

任務(wù)背景

在 Part 1 部分我們已經(jīng)討論了如何在英特爾 GPU 設(shè)備上利用 oneVPL 和 OpenVINO構(gòu)建一個(gè)簡(jiǎn)單的視頻分析流水線服務(wù),但是在真實(shí)的工程環(huán)境中,為了能進(jìn)一步“壓榨”邊緣設(shè)備有限硬件資源,降低項(xiàng)目成本,單臺(tái) AI Box 往往需要接入不止一路的視頻分析任務(wù),并同時(shí)進(jìn)行解碼與推理,這種情況如何優(yōu)化多任務(wù)進(jìn)程下的 AI 分析性能也成為了另外一大挑戰(zhàn)。

2926279c-7f88-11ed-8abf-dac502259ad0.png

圖:AI Box 多通道處理示意圖

首先,我們來(lái)看一下多通道視頻分析任務(wù)的優(yōu)化方向,這里有兩個(gè)非常重要概念:延遲 or 吞吐量?

29497c6a-7f88-11ed-8abf-dac502259ad0.png

圖:延遲和吞吐量對(duì)比說(shuō)明

·延遲(Lantency),是指在處理單幀任務(wù)時(shí)所消耗的總時(shí)間;

·吞吐量(Throughput),是指在單位時(shí)間內(nèi)所能處理的任務(wù)總量。

鑒于單通道視頻分析任務(wù)中,視頻源中的每一幀是以流水線這樣的形式(一個(gè)接一個(gè)one by one)被送入到視頻分析服務(wù)中,前后兩幀存在時(shí)間上的依賴關(guān)系,理論上我們?cè)谕粫r(shí)刻內(nèi)只需要處理一幀畫面的推理任務(wù),因此這個(gè)時(shí)候我們更多是以延遲作為它的優(yōu)化方向。但在多通道情況下,通道之間的數(shù)據(jù)往往沒有相關(guān)性,我們需要在單位時(shí)間內(nèi)盡可能的去處理更多通道的數(shù)據(jù),在這種情況下,我們把吞吐量作為性能的主要優(yōu)化方向,而提升吞吐量最好的方法就是提升多任務(wù)的并行性,減少單一任務(wù)多線程間由于數(shù)據(jù)同步帶來(lái)的額外開銷。

OpenVINO 推理并行優(yōu)化方案

在談到 OpenVINO 的并行優(yōu)化方案的時(shí)候,這里有幾個(gè)關(guān)鍵的配置參數(shù)不得不提一下:

· Thread硬件系統(tǒng)可分配的最小并行執(zhí)行單位,在 CPU 和 GPU 上,這個(gè)數(shù)字分別和 CPU 的核心數(shù)和 GPU 的 EU(Execution Unit)數(shù)相掛鉤。

· Stream:OpenVINO對(duì)于多 Thread 的管理單元,OpenVINO可以將一個(gè)或多個(gè) Thread 封裝為一個(gè) Stream,多個(gè) Stream 中的推理任務(wù)可以并行執(zhí)行,且平均分配 Thread 總數(shù)。

· Infer Request:推理任務(wù)的承載實(shí)例,每個(gè) Infer Request 在執(zhí)行過程中會(huì)被單獨(dú)分配到一個(gè) stream 中。

· Batch size:將 Batch size 個(gè)輸入數(shù)據(jù)打包成在一起,送入 infer request 中進(jìn)行推理,下圖展示的是 Batch size 為一的情況(每個(gè) infer request 中只有一個(gè) input image )。

296bcffe-7f88-11ed-8abf-dac502259ad0.png

圖:Thread, Stream, Infer request 關(guān)系說(shuō)明

可以看到OpenVINO中的 Stream 更像是一個(gè)并行執(zhí)行的推理任務(wù)隊(duì)列,當(dāng)其中的一個(gè) infer request 完成推理后,這個(gè)閑置出的 stream 才能去加載下一個(gè) infer request 推理任務(wù)。因此在實(shí)際開發(fā)過程中,我們需設(shè)置 infer request 的數(shù)量大于 stream 數(shù)量,確保在空閑 infer reques 在完成數(shù)據(jù)載入后,會(huì)被不間斷地被送入空閑的 stream 中。

這里做個(gè)不一定恰當(dāng)?shù)谋扔?,stream 好比是工位,infer request 好比是工人,工人只有坐在工位上才能工作,沒有工位的工人只能等到前面的工人完成作業(yè)后,才能坐進(jìn)工位進(jìn)行工作。但與此同時(shí)我們要確保那些沒有工位的工人在等待的過程中要做好充足的準(zhǔn)備,比如準(zhǔn)備好工具(加載輸入數(shù)),這樣一旦坐進(jìn)工位后,就立馬可以開動(dòng)干活。

大家可以通過OpenVINO自帶的 benmark_app 性能基準(zhǔn)工具對(duì)這三個(gè)參數(shù)進(jìn)行配置,分別測(cè)試在不同配置情況下,對(duì)于實(shí)際性能的影響。

benchmark_app -m MODEL_DIR 
-nstreams NUMBER_STREAMS 
-nthreads NUMBER_THREADS 
-nireq NUMBER_INFER_REQUESTS 
--b BATCH_SIZE

向右滑動(dòng)查看完整代碼

為實(shí)現(xiàn) Infer request 并行化的目標(biāo),OpenVINO中特別提供了一組異步推理接口。在使用異步接口進(jìn)行推理時(shí)。推理線程采用非阻塞模式,這也意味這個(gè)你可以同時(shí)開啟多個(gè)推理請(qǐng)求并行執(zhí)行,或是在處理單個(gè)推理任務(wù)的過程中,之前其他前后處理任務(wù)。相較同步 API,異步 API 可以盡可能的提升設(shè)備資源的利用率。

298da7fa-7f88-11ed-8abf-dac502259ad0.png

圖:同步與異步 API 比較

回到多通道視頻流分析優(yōu)化這個(gè)主題上,為了提升多任務(wù)的并行化率,我們目前主要有以下兩種優(yōu)化策略,這里的 batching 是指我們提前將多個(gè)輸入數(shù)據(jù)按次序疊加在一起,同時(shí)送進(jìn) infer request 中進(jìn)行推理,并在獲取結(jié)果后對(duì)他們進(jìn)行拆分,同樣可以達(dá)到數(shù)據(jù)并行的目的:

· 小 Batch size 配大 Stream number

· 大 Batch size 配小 Stream number

29a94708-7f88-11ed-8abf-dac502259ad0.png

圖:Multiple stream和Batching方案比較

這兩種方案在 GPU 上各有不同的優(yōu)缺點(diǎn)。首先就小 Batch size 配大 stream number 來(lái)說(shuō),由于不同的 stream 之間沒有依賴性,所以先開始推理的 infer request 就可以先獲得結(jié)果數(shù)據(jù),適合對(duì)單幀數(shù)據(jù)推理延時(shí)比較敏感的場(chǎng)景,但同樣問題也顯而易見,由于每個(gè) stream 的 OpenCL 隊(duì)列是需要通過單獨(dú) CPU 線程來(lái)維護(hù),并通過輪詢機(jī)制來(lái)獲取結(jié)果數(shù)據(jù),因此這也造成了對(duì) CPU 額外的資源開銷,GPU stream 數(shù)越高,CPU 資源占用也越大。

而大 Batch size 配小 stream number 則沒有這樣的煩惱,可以最大化減少 CPU 上的開銷。但因?yàn)槲覀冃枰獙⒍鄠€(gè) input 打包,所以先完成解碼的數(shù)據(jù)會(huì)和后完成解碼的數(shù)據(jù)一起送入 infer request 中進(jìn)行推理,并同時(shí)返回結(jié)果,所以對(duì)時(shí)延敏感的任務(wù)并不友好。

針對(duì) GPU 吞吐量這一優(yōu)化目標(biāo)而言,利用 benchmark_app 實(shí)測(cè)發(fā)現(xiàn),在 stream 數(shù)量達(dá)到一個(gè)瓶頸后,則對(duì)對(duì)吞吐量提升沒有任何幫助,而通過增加 batch size 方式對(duì)于吞吐量性能的提升更為顯著,因此在該方案中,我們將采用大 batch 配小 stream 的方式來(lái)優(yōu)化性能。

29e875fe-7f88-11ed-8abf-dac502259ad0.png

圖:比較不同stream和batch size配置下對(duì)于GPU性能的影響

(非官方數(shù)據(jù),僅供趨勢(shì)參考)

方案設(shè)計(jì)

這里我們用來(lái)做演示的多通道視頻分析服務(wù)主要會(huì)分為兩個(gè)部分,分別對(duì)應(yīng)了 oneVPL 和OpenVINO這兩個(gè)工具組件。

2a090878-7f88-11ed-8abf-dac502259ad0.png

圖:多通道視頻處理服務(wù)示例流程圖

1. 視頻處理部分

視頻處理部分我們需要使用 oneVPL 完成每一個(gè)通道數(shù)據(jù)的解碼和前處理任務(wù),并將結(jié)果按次序送入解碼結(jié)果隊(duì)列(Decode results queue)中,等待后面的 AI 處理部分進(jìn)行調(diào)用。為了提高任務(wù)的并行度,我們需要為每個(gè)通道的視頻處理任務(wù)單獨(dú)配置一個(gè) CPU 線程,此外由于 oneVPL 的每個(gè) session 只能處理一個(gè)數(shù)據(jù)源示例,因此我們同樣也要為每個(gè)視頻源單獨(dú)創(chuàng)建一個(gè)獨(dú)立的 session 來(lái)進(jìn)行 decode 和 VPP 處理。

在返回結(jié)果數(shù)據(jù)時(shí),我們希望隊(duì)列中的數(shù)據(jù)可以被存儲(chǔ)在通道間共享的 GPU surface 內(nèi)存中,方便OpenVINO的 remote tensor 進(jìn)行調(diào)用,但實(shí)際上每次初始化 oneVPL session 以后,都會(huì)生成一個(gè)新的內(nèi)存 handle 句柄對(duì)象,所以我們要通過 MFXVideoCORE_SetHandle 強(qiáng)制為每個(gè) session 配置相同的handle句柄。

MFXVideoCORE_SetHandle 配置 handle

sts = MFXVideoCORE_SetHandle(session,
                             static_cast(MFX_HANDLE_VA_DISPLAY),
va_dpy);

向右滑動(dòng)查看完整代碼

2. AI 推理部分

AI 推理部分是本次分享的重頭戲,首先我們需要分別創(chuàng)建兩個(gè)隊(duì)列用來(lái)存放開啟推理任務(wù)的 busy infer request,以及空閑的 free infer request,在空閑的 infer request 中提前載入經(jīng)過 oneVPL 處理以后的結(jié)果數(shù)據(jù),等待 busy infer request 完成推理后,再送入 stream 中進(jìn)行推理, 而 busy infer request 則會(huì)在輸出結(jié)果數(shù)據(jù),轉(zhuǎn)變?yōu)?free infer request,被送入到 free request 隊(duì)列中,并從 oneVPL 的結(jié)果隊(duì)列中取出第一組等待被推理的解碼結(jié)果。通過這種機(jī)制我可以確保 stream 中會(huì)源源不斷有 infer request 被執(zhí)行。

創(chuàng)建 free request 隊(duì)列

BlockingQueue free_requests;
for (int i = 0; i < FLAGS_nr; i++)
 ? ?free_requests.push(compiled_model.create_infer_request());

向右滑動(dòng)查看完整代碼

從 busy request 隊(duì)列中的 infer request 取出推理結(jié)果數(shù)據(jù), 并壓入 free request 隊(duì)里

for (;;) {
 auto res = busy_requests.pop();
 auto batched_frames = res.first;
 auto infer_request = res.second;
  if (!infer_request)
    break;
 infer_request.wait();
    ov::Tensor output_tensor = infer_request.get_output_tensor(0);
 PrintMultiResults(output_tensor, batched_frames, input_shape);
 // When application completes the work with frame surface, it must call release to avoid memory leaks
    for (auto frame : batched_frames)
  {
    frame.first->FrameInterface->Release(frame.first);
  }
    free_requests.push(infer_request);
  }

向右滑動(dòng)查看完整代碼

此外在為每個(gè) free infer request 加載解碼結(jié)果數(shù)據(jù)之前,我們還需要進(jìn)行 batching 的操作,將多個(gè) decode result 隊(duì)列當(dāng)中的前n個(gè)數(shù)據(jù)打包成一個(gè) batch,再進(jìn)行推理。大家可以根據(jù)自己 GPU 的機(jī)能選擇合適的 batch size,理論上 batch size 越大帶來(lái)的吞吐量提升也越大,但受限于 GPU 上的內(nèi)存資源有限,過大的 batch size 反而會(huì)造成性能瓶頸,因此 batch size 的大小盡量以實(shí)測(cè)為準(zhǔn)。當(dāng)然如果嫌測(cè)試麻煩,OpenVINO 2022.1的版本中也更新的 auto-batching 功能,該功能會(huì)根據(jù) GPU 的硬件資源能力和實(shí)際任務(wù)負(fù)載,自動(dòng)配置為 GPU 配置 batch size 大小,提供相對(duì)最優(yōu)的配置參數(shù)。具體說(shuō)明詳見:

https://docs.openvino.ai/latest/openvino_docs_OV_UG_Automatic_Batching.html#doxid-openvino-docs-o-v-u-g-automatic-batching:

將多個(gè)解碼結(jié)果打包為一個(gè)batch

 for (auto va_surface : batched_frames)
        {
            mfxResourceType lresourceType;
            mfxHDL lresource;
            va_surface.first->FrameInterface->GetNativeHandle(va_surface.first,
                                                              &lresource,
                                                              &lresourceType);
            VASurfaceID lvaSurfaceID = *(VASurfaceID *)(lresource);
            auto nv12_tensor = shared_va_context.create_tensor_nv12(shape[2], shape[3], lvaSurfaceID);
            y_tensors.push_back(nv12_tensor.first);
            uv_tensors.push_back(nv12_tensor.second);
}

向右滑動(dòng)查看完整代碼

參考示例使用方法

本示例已開源,并在 Ubuntu 20.04 操作系統(tǒng),第十一代英特爾 酷睿 iGPU 及 ARC A380 dGPU 環(huán)境下進(jìn)行了驗(yàn)證。

1. 依賴安裝及編譯

可以參考 github 中的 README 文檔完成以來(lái)安裝和源碼編譯:

https://github.com/OpenVINO-dev-contest/decode-infer-on-GPU

2. 運(yùn)行輸出

當(dāng)完成可執(zhí)行文件編譯后,可以按以下規(guī)則運(yùn)行多通道版本的示例

$ ./multi_src/multi_source 
-i ../content/cars_320x240.h265,../content/cars_320x240.h265,../content/cars_320x240.h265 
-m ~/vehicle-detection-0200/FP32/vehicle-detection-0200.xml 
-bz 2 
-nr 4 
-fr 30

向右滑動(dòng)查看完整代碼

其中可配置參數(shù)為:

-i = .h265格式的輸入視頻路徑,多視頻源之間用逗號(hào)隔開

-m = IR .xml 格式 IR 模型文件路徑;

-bs = Batch size 大小;

-nr = Inference requests 數(shù)量;

-fr = 單個(gè)視頻源的解碼幀數(shù),默認(rèn)前30幀;

輸出結(jié)果示意如下圖,該示例會(huì)為按預(yù)先設(shè)置的 batch size 大小輸出對(duì)應(yīng)結(jié)果,此處 batch size 為2:

libva info: VA-API version 1.12.0
libva info: Trying to open /opt/intel/mediasdk/lib64/iHD_drv_video.so
libva info: Found init function __vaDriverInit_1_12
libva info: va_openDriver() returns 0
Implementation details:
  ApiVersion:           2.7  
  Implementation type:  HW
  AccelerationMode via: VAAPI
  Path: /usr/lib/x86_64-linux-gnu/libmfx-gen.so.1.2.7


Frames [stream_id=1] [stream_id=0]
image0: bbox 204.99, 49.43, 296.43, 144.56, confidence = 0.99805
image0: bbox 91.26, 115.56, 198.41, 221.69, confidence = 0.99609
image0: bbox 36.50, 44.75, 111.34, 134.57, confidence = 0.98535
image0: bbox 77.92, 72.38, 155.06, 164.30, confidence = 0.97510
image1: bbox 204.99, 49.43, 296.43, 144.56, confidence = 0.99805
image1: bbox 91.26, 115.56, 198.41, 221.69, confidence = 0.99609
image1: bbox 36.50, 44.75, 111.34, 134.57, confidence = 0.98535
image1: bbox 77.92, 72.38, 155.06, 164.30, confidence = 0.97510
Frames [stream_id=1] [stream_id=0]
image0: bbox 206.96, 50.41, 299.54, 146.23, confidence = 0.99805
image0: bbox 93.81, 115.29, 200.86, 222.94, confidence = 0.99414
image0: bbox 84.15, 92.91, 178.14, 191.82, confidence = 0.99316
image0: bbox 37.78, 45.82, 113.29, 132.28, confidence = 0.98193
image0: bbox 75.96, 71.88, 154.31, 164.54, confidence = 0.96582
image1: bbox 206.96, 50.41, 299.54, 146.23, confidence = 0.99805
image1: bbox 93.81, 115.29, 200.86, 222.94, confidence = 0.99414
image1: bbox 84.15, 92.91, 178.14, 191.82, confidence = 0.99316
image1: bbox 37.78, 45.82, 113.29, 132.28, confidence = 0.98193
image1: bbox 75.96, 71.88, 154.31, 164.54, confidence = 0.96582
...
decoded and infered 60 frames
Time = 0.328556s

向右滑動(dòng)查看完整代碼

小結(jié)

通過 batching 以及多線程的方式,我們可以進(jìn)一步提升多數(shù)據(jù)源任務(wù)處理時(shí),GPU 在吞吐量性能上的優(yōu)勢(shì),并且降低 CPU 側(cè)的任務(wù)負(fù)載。隨著越來(lái)越多的英特爾獨(dú)立顯卡系列產(chǎn)品的推出,相信這樣一套參考設(shè)計(jì)幫助開發(fā)者在 GPU 平臺(tái)上實(shí)現(xiàn)更出色的性能表現(xiàn)。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10196

    瀏覽量

    174707
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4948

    瀏覽量

    131261
  • 流水線
    +關(guān)注

    關(guān)注

    0

    文章

    124

    瀏覽量

    26632

原文標(biāo)題:基于OpenVINO? 2022.2與oneAPI構(gòu)建GPU視頻分析服務(wù)流水線 第二篇

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)化開裝封碼流水線數(shù)據(jù)采集解決方案

    運(yùn)行數(shù)據(jù)的實(shí)時(shí)采集與深度分析成為企業(yè)優(yōu)化生產(chǎn)、降本增效的關(guān)鍵。 現(xiàn)場(chǎng)流水線上包括開箱機(jī)、裝箱機(jī)、封箱機(jī)、貼標(biāo)機(jī)、碼垛機(jī)等設(shè)備,已接入PLC實(shí)現(xiàn)自動(dòng)化控制,產(chǎn)品從開箱、裝填、封箱再到貼標(biāo)、碼垛,生產(chǎn)效率得到大
    的頭像 發(fā)表于 06-27 15:56 ?179次閱讀
    自動(dòng)化開裝封碼<b class='flag-5'>流水線</b>數(shù)據(jù)采集解決方案

    遠(yuǎn)程io模塊在汽車流水線的應(yīng)用

    在汽車制造領(lǐng)域,生產(chǎn)流水線的高效、穩(wěn)定運(yùn)行是保障產(chǎn)品質(zhì)量與生產(chǎn)效率的關(guān)鍵。隨著工業(yè) 4.0 和智能制造理念的深入,汽車生產(chǎn)企業(yè)對(duì)流水線自動(dòng)化控制提出了更高要求,不僅要實(shí)現(xiàn)設(shè)備間的精準(zhǔn)協(xié)同作業(yè),還需
    的頭像 發(fā)表于 06-11 15:26 ?243次閱讀

    RISC-V五級(jí)流水線CPU設(shè)計(jì)

    本文實(shí)現(xiàn)的CPU是一個(gè)五級(jí)流水線的精簡(jiǎn)版CPU(也叫PCPU,即pipeline),包括IF(取指令)、ID(解碼)、EX(執(zhí)行)、MEM(內(nèi)存操作)、WB(回寫)。
    的頭像 發(fā)表于 04-15 09:46 ?768次閱讀
    RISC-V五級(jí)<b class='flag-5'>流水線</b>CPU設(shè)計(jì)

    請(qǐng)問使用2022.2時(shí)是否可以讀取模型OpenVINO?層?

    使用 2020.3 時(shí),使用 net.layers 和 layers.blob 讀取模型OpenVINO?層。 OpenVINO?自 2021.2 OpenVINO?起,使用 2022.2
    發(fā)表于 03-06 06:37

    為什么無(wú)法在RedHat中構(gòu)建OpenVINO? 2022.2

    嘗試使用 RedHat* (UBI 9) 構(gòu)建OpenVINO? 2022.2 在 CMAKE 操作過程中遇到錯(cuò)誤
    發(fā)表于 03-05 08:25

    利用OpenVINO和LlamaIndex工具構(gòu)建多模態(tài)RAG應(yīng)用

    文本內(nèi)容構(gòu)建 RAG 流水線已經(jīng)相對(duì)成熟。然而為視頻內(nèi)容構(gòu)建 RAG 流水線則困難得多。由于視頻
    的頭像 發(fā)表于 02-21 10:18 ?2129次閱讀
    利用<b class='flag-5'>OpenVINO</b>和LlamaIndex工具<b class='flag-5'>構(gòu)建</b>多模態(tài)RAG應(yīng)用

    工業(yè)維碼條碼掃描器流水線條碼掃描

    在工業(yè)生產(chǎn)的廣闊舞臺(tái)上,工業(yè)維碼條碼掃描器以其卓越的耐用性和高效的掃描能力,成為了連接自動(dòng)化生產(chǎn)與信息管理不可或缺的橋梁。它們不僅是工廠流水線上的“慧眼”,更是提升生產(chǎn)效率、保障產(chǎn)品質(zhì)量的得力助手
    的頭像 發(fā)表于 01-07 16:07 ?549次閱讀
    工業(yè)<b class='flag-5'>二</b>維碼條碼掃描器<b class='flag-5'>流水線</b>條碼掃描

    工業(yè)讀碼器解決方案在自動(dòng)化流水線上掃描條碼的應(yīng)用

    工業(yè)讀碼器解決方案在自動(dòng)化流水線上的應(yīng)用主要包括以下幾個(gè)方面:1、提高生產(chǎn)效率和準(zhǔn)確性工業(yè)讀碼器嵌入在工業(yè)流水線中,無(wú)需人工掃描,大大提高了效率,節(jié)約了人力成本。讀碼效果穩(wěn)定,準(zhǔn)確率非常高,可以通過
    的頭像 發(fā)表于 11-20 16:28 ?690次閱讀
    工業(yè)讀碼器解決方案在自動(dòng)化<b class='flag-5'>流水線</b>上掃描條碼的應(yīng)用

    SMT流水線布局優(yōu)化技巧

    在電子制造領(lǐng)域,SMT(表面貼裝技術(shù))流水線的布局優(yōu)化對(duì)于提高生產(chǎn)效率、降低成本和提升產(chǎn)品質(zhì)量至關(guān)重要。一個(gè)合理的流水線布局可以減少物料搬運(yùn)時(shí)間,提高設(shè)備利用率,減少人為錯(cuò)誤,并且提高整體的生產(chǎn)
    的頭像 發(fā)表于 11-14 09:11 ?1093次閱讀

    工業(yè)流水線的智能助手——智能計(jì)數(shù),效率倍增

    在工業(yè)流水線中,每一個(gè)產(chǎn)品的計(jì)數(shù)都至關(guān)重要。迪卡爾ITMC-DSeries-x02系列物聯(lián)網(wǎng)測(cè)控終端,您的智能生產(chǎn)伙伴。
    的頭像 發(fā)表于 11-06 17:11 ?796次閱讀
    工業(yè)<b class='flag-5'>流水線</b>的智能助手——智能計(jì)數(shù),效率倍增

    行云流水線 滿足你對(duì)工作流編排的一切幻想~skr

    流水線模型 眾所周知,DevOps流水線(DevOps pipeline)的本質(zhì)是實(shí)現(xiàn)自動(dòng)化工作流程,用于支持軟件開發(fā)、測(cè)試和部署的連續(xù)集成、交付和部署(CI/CD)實(shí)踐。它是DevOps方法論
    的頭像 發(fā)表于 08-05 13:42 ?549次閱讀

    ADS930高速流水線模數(shù)轉(zhuǎn)換器(ADC)數(shù)據(jù)表

    電子發(fā)燒友網(wǎng)站提供《ADS930高速流水線模數(shù)轉(zhuǎn)換器(ADC)數(shù)據(jù)表.pdf》資料免費(fèi)下載
    發(fā)表于 07-30 14:10 ?1次下載
    ADS930高速<b class='flag-5'>流水線</b>模數(shù)轉(zhuǎn)換器(ADC)數(shù)據(jù)表

    ADS5421流水線式模數(shù)轉(zhuǎn)換器(ADC)數(shù)據(jù)表

    電子發(fā)燒友網(wǎng)站提供《ADS5421流水線式模數(shù)轉(zhuǎn)換器(ADC)數(shù)據(jù)表.pdf》資料免費(fèi)下載
    發(fā)表于 07-30 11:16 ?0次下載
    ADS5421<b class='flag-5'>流水線</b>式模數(shù)轉(zhuǎn)換器(ADC)數(shù)據(jù)表

    ADS5413 CMOS流水線模數(shù)轉(zhuǎn)換器(ADC)數(shù)據(jù)表

    電子發(fā)燒友網(wǎng)站提供《ADS5413 CMOS流水線模數(shù)轉(zhuǎn)換器(ADC)數(shù)據(jù)表.pdf》資料免費(fèi)下載
    發(fā)表于 07-29 13:21 ?0次下載
    ADS5413 CMOS<b class='flag-5'>流水線</b>模數(shù)轉(zhuǎn)換器(ADC)數(shù)據(jù)表

    ADS828流水線式CMOS模數(shù)轉(zhuǎn)換器數(shù)據(jù)表

    電子發(fā)燒友網(wǎng)站提供《ADS828流水線式CMOS模數(shù)轉(zhuǎn)換器數(shù)據(jù)表.pdf》資料免費(fèi)下載
    發(fā)表于 07-23 09:17 ?0次下載
    ADS828<b class='flag-5'>流水線</b>式CMOS模數(shù)轉(zhuǎn)換器數(shù)據(jù)表