99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用Google TPU v3 Pod訓(xùn)練ResNet-50,在識(shí)別率沒(méi)有降低的情況下2分鐘搞定ImageNet訓(xùn)練

DPVg_AI_era ? 來(lái)源:未知 ? 作者:李倩 ? 2018-11-26 09:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著技術(shù)、算力的發(fā)展,在 ImageNet 上訓(xùn)練 ResNet-50 的速度被不斷刷新。2018 年 7 月,騰訊機(jī)智機(jī)器學(xué)習(xí)平臺(tái)團(tuán)隊(duì)在 ImageNet 數(shù)據(jù)集上僅用 6.6 分鐘就訓(xùn)練好 ResNet-50,創(chuàng)造了 AI 訓(xùn)練世界紀(jì)錄;一周前,壕無(wú)人性的索尼用 2176 塊 V100 GPU 將這一紀(jì)錄縮短到了 224 秒;如今,這一紀(jì)錄再次被谷歌刷新……

深度學(xué)習(xí)非常依賴(lài)于硬件條件,它是一個(gè)計(jì)算密集型的任務(wù)。硬件供應(yīng)商通過(guò)在大型計(jì)算集群中部署更快的加速器來(lái)做出更快的相應(yīng)。在 petaFLOPS(運(yùn)算能力單位,每秒千萬(wàn)億次浮點(diǎn)數(shù)運(yùn)算)規(guī)模的設(shè)備上訓(xùn)練深度學(xué)習(xí)模型需要同時(shí)面臨算法和系統(tǒng)軟件兩方面的挑戰(zhàn)。Google 于近日推出了一種大規(guī)模計(jì)算集群的圖像分類(lèi)人物訓(xùn)練解決方案,相關(guān)論文發(fā)表于 Arxiv:Image Classification at Supercomputer Scale。本文的作者使用 Google TPU v3 Pod 訓(xùn)練 ResNet-50,在識(shí)別率沒(méi)有降低的情況下,僅使用了 2.2 分鐘。

背景

深度神經(jīng)網(wǎng)絡(luò)的成功應(yīng)用與發(fā)展離不開(kāi)瘋狂增長(zhǎng)的算力,在許多領(lǐng)域,深度學(xué)習(xí)的發(fā)展可以說(shuō)是由硬件驅(qū)動(dòng)的。在深度網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,最關(guān)鍵的部分就是使用隨機(jī)梯度下降算法(SGD)優(yōu)化網(wǎng)絡(luò)權(quán)重。通常情況下,模型需要使用 SGD 在一個(gè)數(shù)據(jù)集上進(jìn)行多次的便利才能達(dá)到收斂。在整個(gè)過(guò)程中,浮點(diǎn)數(shù)運(yùn)算能力顯得至關(guān)重要。例如,在 ImageNet 數(shù)據(jù)庫(kù)上訓(xùn)練 ResNet-50 模型,遍歷一次數(shù)據(jù)庫(kù)需要 3.2 萬(wàn)萬(wàn)億次浮點(diǎn)數(shù)運(yùn)算。而使模型達(dá)到收斂,通常需要遍歷 90 次數(shù)據(jù)庫(kù)。

盡管硬件加速設(shè)備(例如 GPU、TPU)已經(jīng)加快了迭代的次數(shù),使用單個(gè)加速設(shè)備在大規(guī)模數(shù)據(jù)庫(kù)訓(xùn)練大型的神經(jīng)網(wǎng)絡(luò)仍然需要幾個(gè)小時(shí)或數(shù)天的時(shí)間。最常見(jiàn)的加速方法便是通過(guò)分布式的 SGD 算法使用多個(gè)設(shè)備并行訓(xùn)練,將每個(gè) mini-batch 分布在多個(gè)相同的加速設(shè)備上。

以往大家都喜歡用異步分布式 SGD 算法在將多個(gè)線程聯(lián)合起來(lái)進(jìn)行訓(xùn)練,但是近期的一些工作發(fā)現(xiàn),異步分布式 SGD 算法優(yōu)化的模型在收斂程度和驗(yàn)證準(zhǔn)確率方面都不如同步分布式 SGD 訓(xùn)練出的模型。但是,為了保證在提速的同時(shí)模型的質(zhì)量不會(huì)有所損失,在使用同步分布式 SGD 算法的過(guò)程中,會(huì)遇到很多技術(shù)和硬件方面的瓶頸,作者總結(jié)出以下幾點(diǎn):

模型的準(zhǔn)確率依賴(lài)于全局的 batch size 和計(jì)算集群中每個(gè)節(jié)點(diǎn)的 batch size。

在加速設(shè)備計(jì)算能力足夠高時(shí),CPU 向 GPU 等專(zhuān)用設(shè)備的輸入過(guò)程成為了訓(xùn)練過(guò)程中的瓶頸。

使用同步分布式 SGD 算法需要大規(guī)模的高速并行通信方案,即如何解決一個(gè)計(jì)算集群內(nèi)部各個(gè)節(jié)點(diǎn)之間通信速度的瓶頸。

本文的作者提出了一種同步的分布式 SGD 優(yōu)化算法,同時(shí)還提出了幾個(gè)大規(guī)模分布式深度學(xué)習(xí)訓(xùn)練過(guò)程中使用的機(jī)器學(xué)習(xí)方法和優(yōu)化方法,在加速收斂的過(guò)程中保證模型的質(zhì)量沒(méi)有損失。

圖:左圖為 4-chip 的云 TPU v2 設(shè)備,峰值計(jì)算能力為 180 teraFLOPS(每秒萬(wàn)億次浮點(diǎn)運(yùn)算),使用 64GB 的 HBM(高帶寬內(nèi)存);右圖為使用水冷的 4-chip 云 TPU v3 設(shè)備,峰值計(jì)算能力為 420 teraFLOPS,使用 128GBHBM。TPU v2 設(shè)備可組成最高 256-chip 的計(jì)算集群,稱(chēng)為 TPU Pod,可提供高達(dá) 11.5petaFLOPS 的混合精度吞吐量。TPU v3 Pod 的規(guī)??蛇_(dá) 1024-chip,是 TPU v2 Pod 的四倍,理論上可提供 107.5 petaFLOPS 的混合精度吞吐量

方法

本文的作者受之前大規(guī)模訓(xùn)練方法的啟發(fā),在實(shí)驗(yàn)過(guò)程中使用了以下一些技術(shù):

混合精度:在實(shí)驗(yàn)過(guò)程中,卷積操作使用了 bfloat16 數(shù)據(jù),這是一種 TPU 上的半精度 16 位浮點(diǎn)數(shù)。此外,卷積層之間的激活函數(shù)也使用了 bfloat16 的格式。為了保證計(jì)算精度與 32 位浮點(diǎn)數(shù)網(wǎng)絡(luò)不相上下的精度,對(duì)于所有的非卷積的操作(例如,批歸一化、損失函數(shù)計(jì)算、梯度求和)都使用了 32 位浮點(diǎn)數(shù)。由于網(wǎng)絡(luò)訓(xùn)練過(guò)程中的主要計(jì)算和內(nèi)存消耗都是在卷積操作上,因此使用 bfloat16 可以獲得更高的訓(xùn)練吞吐量。

學(xué)習(xí)率配置: 先前的一些研究表明,學(xué)習(xí)率應(yīng)當(dāng)與 batch size 成比例。在實(shí)驗(yàn)過(guò)程中,作者使用了線性變化的學(xué)習(xí)率策略進(jìn)行配置(例如,batch size 設(shè)成兩倍,則學(xué)習(xí)率也設(shè)為兩倍)。同時(shí)作者也使用了平緩的學(xué)習(xí)率預(yù)熱(warm-up)方法和學(xué)習(xí)率衰減。

分層自適應(yīng)速率縮放(LARS): 盡管使用動(dòng)量(momentum)的隨機(jī)梯度下降算法已經(jīng)可以將 batch 最高設(shè)為 8192,但使用 LARS 優(yōu)化器可以達(dá)到 32786 的 batch size 并且對(duì)于模型質(zhì)量沒(méi)有影響。更大的 batch size 也增加了模型在 TPU 集群上執(zhí)行時(shí)的吞吐量。

分布式批歸一化

批歸一化在圖像分類(lèi)任務(wù)中有著不可或缺的作用,它通過(guò)對(duì)一個(gè) mini-batch 內(nèi)的數(shù)據(jù)進(jìn)行歸一化,使得經(jīng)過(guò) batch-norm 層的數(shù)據(jù)服從相同均值與方差的分布,使得下層神經(jīng)元可以更好的對(duì)數(shù)據(jù)分布情況進(jìn)行學(xué)習(xí)。

在分布式訓(xùn)練過(guò)程中,通常讓每個(gè)計(jì)算節(jié)點(diǎn)獨(dú)立的進(jìn)行 batch norm, 這樣的好處是可以大大縮短訓(xùn)練時(shí)間,因?yàn)槊總€(gè)計(jì)算節(jié)點(diǎn)之間無(wú)需額外的通信過(guò)程。在實(shí)驗(yàn)過(guò)程中,作者發(fā)現(xiàn) BN 的批大?。ɡ缬?jì)算節(jié)點(diǎn)的批大小)對(duì)模型的驗(yàn)證準(zhǔn)確率有重要影響。已經(jīng)有研究證明在計(jì)算節(jié)點(diǎn)的批大小小于 32 時(shí),ResNet-50 的最終訓(xùn)練結(jié)果在驗(yàn)證數(shù)據(jù)上的準(zhǔn)確率并不能收斂。

當(dāng)使用數(shù)據(jù)并行的方法在大規(guī)模計(jì)算機(jī)集群上進(jìn)行部署時(shí),需要同時(shí)對(duì)全局的 batch size 大小進(jìn)行擴(kuò)大,同時(shí)對(duì)每個(gè)節(jié)點(diǎn)的局部 batch size 進(jìn)行縮小。考慮到 BN 層的影響,作者主要針對(duì)每個(gè)節(jié)點(diǎn)上的 batch size 較小的情況進(jìn)行研究。

作者通過(guò)對(duì)幾個(gè)計(jì)算節(jié)點(diǎn)組成的子節(jié)點(diǎn)做分布式的批歸一化來(lái)實(shí)現(xiàn)對(duì) BN 這一過(guò)程的增強(qiáng)。具體算法如圖所示:

圖:分布式批歸一化算法示意圖,圖中集群包含兩個(gè)計(jì)算節(jié)點(diǎn)

首先各個(gè)節(jié)點(diǎn)計(jì)算獨(dú)立的局部均值與方差

計(jì)算一個(gè)子集群(圖中子集群包含兩個(gè)計(jì)算節(jié)點(diǎn)的)中的分布式均值和方差。

使用分布式均值和方差對(duì)子集群中的所有節(jié)點(diǎn)進(jìn)行歸一化

輸入管道優(yōu)化

訓(xùn)練模型過(guò)程中,輸入管道包括了數(shù)據(jù)讀取、數(shù)據(jù)分析、預(yù)處理、旋轉(zhuǎn)和批量化等操作。如果輸入管道的吞吐量不能和 TPU 等模型管道(前向或反向傳播過(guò)程)的吞吐量相匹配,整個(gè)過(guò)程將會(huì)由于輸入管道的問(wèn)題產(chǎn)生吞吐量上的瓶頸。導(dǎo)致輸入管道與模型管道吞吐量差異的主要原因是專(zhuān)用硬件加速設(shè)備與 CPU 之間的性能差異,因?yàn)槟P凸艿朗峭耆趯?zhuān)用硬件加速設(shè)備上執(zhí)行的。

在本文中, 作者使用了很多關(guān)鍵的優(yōu)化方法來(lái)解決輸入管道導(dǎo)致的瓶頸。此前,還未有工作對(duì)這些技術(shù)進(jìn)行整合。具體方法如下:

數(shù)據(jù)共享與緩存: 理想情況下,所有的數(shù)據(jù)會(huì)一次性讀取并緩存在內(nèi)存中以備直接使用,但是對(duì)于真實(shí)情況中的大規(guī)模數(shù)據(jù)集這種做法往往是不可行的。由于計(jì)算集群之間是可以共享內(nèi)存與數(shù)據(jù)的,因此在大規(guī)模計(jì)算集群中,作者使用這種數(shù)據(jù)集共享與緩存的方法來(lái)提高輸入管道的吞吐量。

預(yù)提取并計(jì)算: 在計(jì)算當(dāng)前批的數(shù)據(jù)同時(shí)對(duì)下一批的數(shù)據(jù)進(jìn)行提取和處理,當(dāng)前批計(jì)算完時(shí)便可直接提取數(shù)據(jù)使用。

混合 JPEG 解碼與裁剪: 使用原始的編碼數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)等操作然后只對(duì)有效的部分進(jìn)行解碼

并行數(shù)據(jù)分析: 對(duì)于輸入管道來(lái)說(shuō),數(shù)據(jù)分析與處理是非常消耗算力的,多核 CPU 可以使用多線程進(jìn)行加速。

二維梯度求和

本文的作者提出了一種二維梯度求和方法,用于多個(gè)計(jì)算節(jié)點(diǎn)之間的梯度的計(jì)算和傳播。在傳統(tǒng)的一維方法中,梯度求和這一步的時(shí)間復(fù)雜度是 O(n^2),使用二維求和后,時(shí)間復(fù)雜度可以降到 O(n)。具體計(jì)算方法如下圖所示。

圖:二維環(huán)形梯度傳播,第一階段,藍(lán)色張量在 Y 軸方向進(jìn)行求和,紅色張量在 X 軸方向進(jìn)行求和。第二階段,維度進(jìn)行轉(zhuǎn)換再次求和。

實(shí)驗(yàn)與分析

作者進(jìn)行了多個(gè)實(shí)驗(yàn),對(duì)文中提到的幾個(gè)技術(shù)細(xì)節(jié)進(jìn)行論證。

分布式批歸一化

分布式歸一化的結(jié)果如下圖所示,實(shí)驗(yàn)使用了 TPU v2 Pod 進(jìn)行訓(xùn)練,并且沒(méi)有使用 LARS 優(yōu)化。

輸入管道優(yōu)化

左圖是逐漸增加每種優(yōu)化方法的實(shí)驗(yàn)結(jié)果,中間的圖是組合優(yōu)化的結(jié)果與逐漸減少其他優(yōu)化方法的結(jié)果對(duì)比,右圖是并行化數(shù)量對(duì)實(shí)驗(yàn)結(jié)果的影響。所有的實(shí)驗(yàn)結(jié)果都以數(shù)據(jù)吞吐量為指標(biāo)。

二維梯度求和

下圖是二維梯度求和算法與一維梯度求和算法的比較,可見(jiàn)使用二維梯度求和在各個(gè)配置的情況下都可以有效的減少分布式求和的時(shí)間。

與已有最好方法的對(duì)比

最后,作者與目前最好的分布式計(jì)算方法進(jìn)行了比較,在準(zhǔn)確率相同的情況下,本文提出的方法相比之前的方法大大減少了時(shí)間消耗。

目前谷歌云已經(jīng)上線 Cloud TPU v3 測(cè)試版,單臺(tái)設(shè)備價(jià)格每小時(shí) 2.4 美元到 8 美元,也不是很貴,你也可以動(dòng)手試試看哦~

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108110
  • 數(shù)據(jù)分析
    +關(guān)注

    關(guān)注

    2

    文章

    1472

    瀏覽量

    35028
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122789

原文標(biāo)題:谷歌刷新世界紀(jì)錄!2分鐘搞定 ImageNet 訓(xùn)練

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    訓(xùn)練完模型后用cls_video.pycanmvIDE上運(yùn)行,按著步驟操作但是攝像頭沒(méi)有識(shí)別到是什么情況?

    訓(xùn)練完模型后用cls_video.pycanmvIDE上運(yùn)行,按著步驟操作但是攝像頭沒(méi)有識(shí)別到是什么情況啊,
    發(fā)表于 06-10 06:57

    OCR識(shí)別訓(xùn)練完成后給的是空壓縮包,為什么?

    OCR識(shí)別 一共弄了26張圖片,都標(biāo)注好了,點(diǎn)擊開(kāi)始訓(xùn)練,顯示訓(xùn)練成功了,也將壓縮包發(fā)到郵箱了,下載下來(lái)后,壓縮包里面是空的 OCR圖片20幾張圖太少了。麻煩您多添加點(diǎn),參考我們的ocr識(shí)別
    發(fā)表于 05-28 06:46

    請(qǐng)問(wèn)訓(xùn)練平臺(tái)訓(xùn)練完的識(shí)別程序,可以實(shí)現(xiàn)在識(shí)別到物體時(shí)屏幕再顯示出來(lái),沒(méi)有識(shí)別到物體時(shí)屏幕不顯示嗎?

    問(wèn)題如題,訓(xùn)練平臺(tái)訓(xùn)練完的識(shí)別程序,可以實(shí)現(xiàn)在識(shí)別到物體時(shí)屏幕再顯示出來(lái),沒(méi)有識(shí)別到物體時(shí)屏幕不
    發(fā)表于 04-29 06:12

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型,模型升級(jí)AI攝像機(jī),進(jìn)行AI識(shí)別應(yīng)用。 AI訓(xùn)練模型是不斷迭代優(yōu)化過(guò)程,譬如,100個(gè)數(shù)據(jù)樣本模型的識(shí)別準(zhǔn)確和10萬(wàn)個(gè)數(shù)據(jù)樣本的
    發(fā)表于 04-28 11:11

    基于RV1126開(kāi)發(fā)板的resnet50訓(xùn)練部署教程

    本教程基于圖像分類(lèi)算法ResNet50訓(xùn)練和部署到EASY-EAI-Nano(RV1126)進(jìn)行說(shuō)明
    的頭像 發(fā)表于 04-18 15:07 ?455次閱讀
    基于RV1126開(kāi)發(fā)板的<b class='flag-5'>resnet50</b><b class='flag-5'>訓(xùn)練</b>部署教程

    陣列云從訓(xùn)練到推理

    云場(chǎng)景,陣列云(分布式計(jì)算集群)從模型訓(xùn)練到推理的完整技術(shù)流程可結(jié)構(gòu)化分解如下: 一、訓(xùn)練階段技術(shù)實(shí)現(xiàn) 1,資源動(dòng)態(tài)編排? 基于Kubernetes集群或云廠商彈性計(jì)算服務(wù)(如AW
    的頭像 發(fā)表于 03-28 08:32 ?327次閱讀

    壁仞科技支持DeepSeek-V3滿血版訓(xùn)練推理

    DeepSeek開(kāi)源周開(kāi)源了部分關(guān)鍵模塊的代碼及推理系統(tǒng)參考架構(gòu),再次引發(fā)行業(yè)震動(dòng),但目前尚未開(kāi)源DeepSeek-V3 滿血版完整訓(xùn)練代碼。壁仞科技憑借八大自主創(chuàng)新技術(shù),實(shí)現(xiàn)
    的頭像 發(fā)表于 03-04 14:01 ?987次閱讀

    大模型訓(xùn)練框架(五)之Accelerate

    Hugging Face 的 Accelerate1是一個(gè)用于簡(jiǎn)化和加速深度學(xué)習(xí)模型訓(xùn)練的庫(kù),它支持多種硬件配置上進(jìn)行分布式訓(xùn)練,包括 CPU、GPU、TPU 等。Accelerat
    的頭像 發(fā)表于 01-14 14:24 ?707次閱讀

    采用FP8混合精度,DeepSeek V3訓(xùn)練成本僅557.6萬(wàn)美元!

    的模型需要花費(fèi)約4684.8萬(wàn)美元。然而,隨著技術(shù)的進(jìn)步,這一成本正在迅速降低。DeepSeek V3的出現(xiàn),標(biāo)志著訓(xùn)練成本的大幅下降,其訓(xùn)練成本僅為557.6萬(wàn)美元,相較于之前的模型
    的頭像 發(fā)表于 01-13 11:12 ?1267次閱讀

    VDD1沒(méi)有供電的情況下,VDD2正常供電的情況下,AMC1200的輸出應(yīng)該是什么狀態(tài)?

    請(qǐng)教一,在前端VDD1沒(méi)有供電的情況下,VDD2正常供電的情況下,AMC1200的輸出狀態(tài)為什么P端是3.8
    發(fā)表于 12-17 07:37

    基于改進(jìn)ResNet50網(wǎng)絡(luò)的自動(dòng)駕駛場(chǎng)景天氣識(shí)別算法

    摘要:為了充分利用自動(dòng)駕駛汽車(chē)路測(cè)圖像數(shù)據(jù),增加行駛過(guò)程中對(duì)天氣情況識(shí)別的準(zhǔn)確性,提出了一種基于改進(jìn)ResNet50網(wǎng)絡(luò)的自動(dòng)駕駛場(chǎng)景天氣識(shí)別算法。該算法將SE模塊與
    的頭像 發(fā)表于 11-09 11:14 ?1349次閱讀
    基于改進(jìn)<b class='flag-5'>ResNet50</b>網(wǎng)絡(luò)的自動(dòng)駕駛場(chǎng)景天氣<b class='flag-5'>識(shí)別</b>算法

    什么是協(xié)議分析儀和訓(xùn)練

    景: 電子設(shè)計(jì):電子產(chǎn)品的設(shè)計(jì)過(guò)程中,使用訓(xùn)練器對(duì)I3C接口進(jìn)行訓(xùn)練和測(cè)試,確保設(shè)計(jì)的正確性和可靠性。 汽車(chē)測(cè)試:汽車(chē)行業(yè)中,利用
    發(fā)表于 10-29 14:33

    AI大模型的訓(xùn)練數(shù)據(jù)來(lái)源分析

    學(xué)術(shù)機(jī)構(gòu)、政府組織或企業(yè)公開(kāi)發(fā)布,涵蓋了各種類(lèi)型的數(shù)據(jù),如圖像、文本、音頻、視頻等。例如: ImageNet :一個(gè)廣泛用于圖像識(shí)別任務(wù)的大規(guī)模圖像數(shù)據(jù)集。 Common Crawl :提供了大量的網(wǎng)頁(yè)抓取數(shù)據(jù)以供自然語(yǔ)言處理模型訓(xùn)練
    的頭像 發(fā)表于 10-23 15:32 ?3637次閱讀

    淺析SDIO協(xié)議V2V3版本的區(qū)別

    滿足運(yùn)行需求。這使得V2硬件資源有限的情況下也能很好地運(yùn)行。 V3 :對(duì)硬件配置的要求較高,需要兩個(gè)CPU和兩個(gè)內(nèi)存來(lái)支持其運(yùn)行。這種較高的硬件要求可能使得
    發(fā)表于 09-18 08:32

    電磁干擾訓(xùn)練系統(tǒng)原理是什么

    原理的詳細(xì)解釋?zhuān)?智慧華盛恒輝電磁干擾基本原理 電磁干擾是指任何降低、損害或阻礙電子設(shè)備性能的電磁現(xiàn)象。電磁干擾訓(xùn)練系統(tǒng)中,這一原理被用來(lái)模擬實(shí)際戰(zhàn)場(chǎng)或復(fù)雜電磁環(huán)境的電磁干擾
    的頭像 發(fā)表于 07-22 16:34 ?747次閱讀