99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何選合適的AI硬件加速方案

jmiy_worldofai ? 來源:未知 ? 作者:胡薇 ? 2018-10-29 11:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

從很多方面來看,AI加速熱潮與1990年代末期和2000年代初的DSP淘金熱很類似;在那個時候,隨著有線和無線通信起飛,市場上紛紛推出高性能DSP協(xié)同處理器(co-processor)以因應(yīng)基帶處理的挑戰(zhàn)。與DSP協(xié)同處理器一樣,AI加速器的目標是找到最快速、最節(jié)能的方法來執(zhí)行所需的運算任務(wù)。

從云端的大數(shù)據(jù)(big data)處理到邊緣端的關(guān)鍵詞識別和影像分析,人工智能(AI)應(yīng)用的爆炸式成長促使專家們前仆后繼地開發(fā)最佳架構(gòu),以加速機器學習(ML)算法的處理。各式各樣的新興解決方案都凸顯了設(shè)計人員在選擇硬件平臺之前,明確定義應(yīng)用及其需求的重要性。

從很多方面來看,AI加速熱潮與1990年代末期和2000年代初的DSP淘金熱很類似;在那個時候,隨著有線和無線通信起飛,市場上紛紛推出高性能DSP協(xié)同處理器(co-processor)以因應(yīng)基帶處理的挑戰(zhàn)。與DSP協(xié)同處理器一樣,AI加速器的目標是找到最快速、最節(jié)能的方法來執(zhí)行所需的運算任務(wù)。

神經(jīng)網(wǎng)絡(luò)處理背后的數(shù)學,涉及統(tǒng)計學、多元微積分(multivariable calculus)、線性代數(shù)、數(shù)值優(yōu)化(numerical optimization)和機率等;雖然很復(fù)雜,也是高度可平行化的(parallelizable)。但事實上這是令人尷尬的可平行化──與分布式計算不同,在路徑的輸出被重組并產(chǎn)生輸出結(jié)果之前,很容易被分解為沒有分支(branches)或從屬關(guān)系(dependencies)的平行路徑。

在各種神經(jīng)網(wǎng)絡(luò)算法中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)特別擅長對象識別類任務(wù)——也就是從影像中過濾篩選出感興趣的對象。CNN以多維矩陣(multidimensional matrices)──即張量(tensor)──架構(gòu)來理解資料,將超出第三個維度的每個維度都嵌入到子數(shù)組中(如圖1),每個添加的維度稱為“階”(order),因此,五階張量會有五個維度。

圖1:CNN以張量架構(gòu)攝取數(shù)據(jù),也就是可被可視化為3D立方體的數(shù)字矩陣(數(shù)據(jù)集);每個數(shù)組中還有一個子數(shù)組,該數(shù)字定義了CNN的深度。

與數(shù)學相關(guān)度不高,AI重點在于快速反復(fù)運算

這種多維分層對于理解CNN所需之加速的本質(zhì)很重要,卷積過程使用乘法在數(shù)學上將兩個函數(shù)“卷繞”(roll)在一起,因此廣泛使用乘加(multiply-accumulate,MAC)數(shù)學運算;舉例來說,在對象識別中,一個函數(shù)是源影像,另一個函數(shù)是用來識別特征然后將其映像到特征空間的過濾器(filter)。每個過濾器都要多次執(zhí)行這種“卷繞”,以識別影像中的不同特征,因此數(shù)學運算變得非常重復(fù),且是令人尷尬(或令人愉悅)的可平行化。

為此,某些AI加速器的設(shè)計采用多個獨立的處理器核心(高達數(shù)百或上千個),與內(nèi)存子系統(tǒng)一起整合在單芯片中,以減輕數(shù)據(jù)存取延遲并降低功耗。然而,由于業(yè)界已設(shè)計了繪圖處理器(GPU)來對圖像處理功能進行高度平行處理,因此它們對于AI所需的這種神經(jīng)網(wǎng)絡(luò)處理也可以實現(xiàn)很好的加速。AI應(yīng)用的多樣性和深度,特別是在語音控制、機器人自動駕駛和大數(shù)據(jù)分析等方面,已經(jīng)吸引了GPU供應(yīng)商將重點轉(zhuǎn)移到AI處理硬件加速的開發(fā)。

然而AI硬件加速的問題,在于有如此多的數(shù)據(jù),所需的準確性和響應(yīng)時間又有如此大的差別,設(shè)計人員必須對于架構(gòu)的選擇非常講究。例如數(shù)據(jù)中心是數(shù)據(jù)密集型的,其重點是盡可能快速處理數(shù)據(jù),因此功耗并非特別敏感的因素——盡管能源效率有利于延長設(shè)備使用壽命,降低設(shè)施的整體能耗和冷卻成本,這是合理的考慮。百度的昆侖(Kunlun)處理器耗電量為100W,但運算性能達到260 TOPS,就是一款特別適合數(shù)據(jù)中心應(yīng)用的處理器。

接下來看另一個極端的案例。如關(guān)鍵詞語音識別這樣的任務(wù)需要與云端鏈接,以使用自然語言識別來執(zhí)行進一步的命令?,F(xiàn)在這種任務(wù)在采用法國業(yè)者GreenWaves Technologies之GAP8處理器的電池供電邊緣設(shè)備上就可以實現(xiàn);該處理器是專為邊緣應(yīng)用設(shè)計,強調(diào)超低功耗。

介于中間的應(yīng)用,如自動駕駛車輛中的攝影機,則需要盡可能接近實時反應(yīng),以識別交通號志、其他車輛或行人,同時仍需要最小化功耗,特別是對于電動車來說;這種情況或許需要選擇第三種方案。云端連結(jié)在此類應(yīng)用中也很重要,如此才能實時更新所使用的模型和軟件,以確保持續(xù)提高準確度、反應(yīng)時間和效率。

ASIC還不足以托付AI加速任務(wù)

正因為這是一個在軟、硬件方面都迅速發(fā)展,需要在技術(shù)上持續(xù)更新的領(lǐng)域,并不建議將AI神經(jīng)網(wǎng)絡(luò)(NN)加速器整合到ASIC或是系統(tǒng)級封裝(SiP)中——盡管這樣的整合具有低功耗、占用空間小、成本低(大量時)和內(nèi)存訪問速度快等優(yōu)點。加速器、模型和神經(jīng)網(wǎng)絡(luò)算法的變動太大,其靈活性遠超過指令導(dǎo)向(instruction-driven)方法,只有像Nvidia這種擁有先進技術(shù)、資金雄厚的玩家才能夠負擔得起不斷在硬件,而在硬件上根據(jù)特定方法進行迭代。

這種硬件加速器開發(fā)工作的一個很好的例子,就是Nvidia在其Tesla V100 GPU中增加了640個Tensor核心,每個核心在一個頻率周期內(nèi)可以執(zhí)行64次浮點(FP)融合乘加(fused-multiply-add,F(xiàn)MA)運算,可為訓練和推理應(yīng)用提供125 TFLOPS的運算性能。借助該架構(gòu),開發(fā)人員可以使用FP16和FP32累加的混合精度(mixed precision)進行深度學習訓練,指令周期比Nvidia自家上一代Pascal架構(gòu)高3倍。

混合精度方法很重要,因為長期以來人們已經(jīng)認識到,雖然高性能運算(HPC)需要使用32~256位FP的精確運算,但深度神經(jīng)網(wǎng)絡(luò)(DNN)不需要這么高的精度;這是因為經(jīng)常用于訓練DNN的反向傳播算法(back-propagation algorithm)對誤差具有很強的彈性,因此16位半精度(FP16)對神經(jīng)網(wǎng)絡(luò)訓練就足夠了。

此外,儲存FP16數(shù)據(jù)比儲存FP32或FP64數(shù)據(jù)的內(nèi)存效率更高,從而可以訓練和部署更多的網(wǎng)絡(luò),而且對許多網(wǎng)絡(luò)來說,8位整數(shù)運算(integer computation)就足夠了,對準確性不會有太大影響。

這種使用混合精度運算的能力在邊緣甚至會更實用,當數(shù)據(jù)輸入的來源是低精度、低動態(tài)范圍的傳感器——例如溫度傳感器、MEMS慣性傳感器(IMU)和壓力傳感器等——還有低分辨率視頻時,開發(fā)人員可以折衷精度以取得低功耗。

AI架構(gòu)的選擇利用霧計算從邊緣擴展至云端

可擴充處理(scalable processing)的概念已經(jīng)擴展到更廣泛的網(wǎng)絡(luò)——利用霧運算(fog computing)概念,透過在網(wǎng)絡(luò)上的最佳位置執(zhí)行所需的處理,來彌補邊緣和云端之間的能力差距;例如可以在本地物聯(lián)網(wǎng)(IoT)網(wǎng)關(guān)或更接近應(yīng)用現(xiàn)場的本地端服務(wù)器上進行神經(jīng)網(wǎng)絡(luò)圖像處理,而不必在云端進行。這樣做有三個明顯的優(yōu)勢:一是能減少由于網(wǎng)絡(luò)等待時間造成的時延,二來可以更安全,此外還能為必須在云端處理的數(shù)據(jù)釋出可用的網(wǎng)絡(luò)帶寬;在更高的層面上,這種方法也通常更節(jié)能。

因此,許多設(shè)計師正在開發(fā)內(nèi)建攝影機、影像預(yù)處理和神經(jīng)網(wǎng)絡(luò)AI信號鏈(signal chains)功能的獨立產(chǎn)品,這些產(chǎn)品僅在相對較閉回路(closed-loop)的運作中呈現(xiàn)輸出,例如已識別標志(自駕車)或人臉(家用安防系統(tǒng))。在更極端的案例中,例如設(shè)置在偏遠或難以到達之處,以電池或太陽能供電的設(shè)備,可能需要長時間地進行這種處理。

圖2:GreenWave的GAP8采用9個RISC-V處理器核心,針對網(wǎng)絡(luò)邊緣智能設(shè)備上的低功耗AI處理進行了優(yōu)化。

為了幫助降低這種邊緣AI圖像處理的功耗,GreenWaves Technologies的GAP8處理器整合了9個RISC-V核心;其中一個核心負責硬件和I/O控制功能,其余8個核心則圍繞共享數(shù)據(jù)和指令內(nèi)存形成一個叢集(如圖2)。這種結(jié)構(gòu)形成了CNN推理引擎加速器,具備額外的RISC-V ISA指令來強化DSP類型的運算。

GAP8是為網(wǎng)絡(luò)邊緣的智能設(shè)備量身打造,在功耗僅幾十毫瓦(mW)的情況下可實現(xiàn)8GOPS運算,或者在1mW時可實現(xiàn)200 MOPS運算;它完全可以用C/C++語言來編程,最小待機電流為70nA。

AI處理器架構(gòu)比一比:RISC-V vs. Arm

RISC-V開放性硬件架構(gòu)在一開始遭到質(zhì)疑,因為那需要一個忠實穩(wěn)固的使用者社群,以提供一系列豐富的支持工具和軟件;而隨著該架構(gòu)透過各種測試芯片和硬件實作吸引更多開發(fā)者加入,那些質(zhì)疑也逐漸消退。RISC-V吸引人之處在于它正成為Arm處理器的強勁對手,特別是在超低功耗、低成本應(yīng)用上;只要談到低成本就會錙銖必較,因此免費方案總是會感覺比需要支付授權(quán)費的方案更好。

不過雖然RISC-V架構(gòu)的GAP8可以節(jié)能并且針對邊緣神經(jīng)網(wǎng)絡(luò)處理進行了高度優(yōu)化,從系統(tǒng)開發(fā)的角度來看仍然需要考慮周邊功能,例如攝影機傳感器本身和網(wǎng)絡(luò)通訊接口,以及是采用有線還是無線技術(shù)等;依據(jù)系統(tǒng)通訊和處理影像的次數(shù)頻率,這些功能占用的功耗比例可能較高。根據(jù)GreenWaves的說法,GAP8若采用3.6Wh的電池供電,能以每3分鐘分類一張QVGA影像的頻率持續(xù)工作長達10年;但該數(shù)字并未考慮整體系統(tǒng)中其他因素的影響。

GreenWaves將其GAP8處理器與采用Arm Cortex-M7核心、運作頻率216MHz的意法半導(dǎo)體(ST)處理器STM32 F7進行了直接比較(圖3);兩者以CIFAR-10數(shù)據(jù)集的影像進行訓練,權(quán)重量化為8位定點(fixed point)。

圖3:GreenWaves Technologies的GAP8與ST的STM32 F7處理器性能比較。

雖然GAP8因為擁有八核心架構(gòu)而呈現(xiàn)更高效率,并能以較低時鐘速率與更少的周期實現(xiàn)推理,Arm架構(gòu)也不遑多讓──Arm已經(jīng)發(fā)表了針對行動設(shè)備和其他相鄰、網(wǎng)絡(luò)邊緣應(yīng)用的機器學習(ML)處理器,其應(yīng)用場景包括AR/VR、醫(yī)療、消費性電子產(chǎn)品以及無人機等;該架構(gòu)采用固定功能引擎(fixed-function engines)來執(zhí)行CNN層,并采用可程序化層(programmable layer)引擎來執(zhí)行非卷積層以及實現(xiàn)所選基元(primitive)和運算符(operator),參考圖4。

圖4:Arm的ML處理器設(shè)計用于CNN類型固定功能以及可程序化層引擎的低功耗邊緣處理。

有趣的是,ML處理器是以高度可擴充架構(gòu)為基礎(chǔ),因此同一處理器和工具可用于開發(fā)從物聯(lián)網(wǎng)到、嵌入式工業(yè)和交通,到網(wǎng)絡(luò)處理和服務(wù)器等各種應(yīng)用,運算性能要求從20 MOPS到70 TOPS以上不等。

如果開發(fā)團隊希望從云端往下擴充,或從邊緣往上擴充,那么這種可擴充性比較適合之前討論的霧運算概念。此外該處理器本身與主流神經(jīng)網(wǎng)絡(luò)學習框架緊密整合,例如Google的TensorFlow和TensorFlow Lite,以及Caffe和Caffe 2;它還針對Arm Cortex CPU和Arm Mali GPU進行了優(yōu)化。

在異構(gòu)處理體系架構(gòu)中部署AI

透過ML處理器,Arm還強調(diào)了異質(zhì)(heterogenous)方法對AI應(yīng)用之神經(jīng)網(wǎng)絡(luò)的重要性,但僅限于其CPU和GPU的狹窄范圍內(nèi)。從更廣泛的角度來看,英特爾(Intel)的OpenVINO (Visual Inference & Neural Network Optimization,視覺推理和神經(jīng)網(wǎng)絡(luò)優(yōu)化)工具套件可以實現(xiàn)異質(zhì)混合架構(gòu)的開發(fā),包括CPU、GPU與FPGA,當然還有英特爾自家的Movidius視覺處理器(VPU)和基于Atom的圖像處理器(IPU)。利用通用API以及針對OpenCV和OpenVX優(yōu)化的呼叫(call),英特爾聲稱其深度學習性能可以提高19倍。

異質(zhì)方法對于針對AI的神經(jīng)網(wǎng)絡(luò)處理既有好處又不可或缺;當從頭開始一個設(shè)計,這種方法能開啟更多的處理可能性和潛在的優(yōu)化機會。但許多嵌入式系統(tǒng)已經(jīng)部署了相關(guān)硬件,通常是混合了MCU、CPU、GPU和FPGA,因此如果有開發(fā)工具可以在這樣的已設(shè)置硬件基礎(chǔ)上開發(fā)AI應(yīng)用,并透過單一API進行相對應(yīng)的優(yōu)化(假設(shè)像OpenVINO這樣的工具套件是與底層硬件兼容),可以解決很多問題。

百度將AI處理性能推向新高

在今年7月初于北京舉行的百度開發(fā)者大會Create 2018上,該公司發(fā)表了昆侖(圖5),號稱是中國首款從云端到邊緣的AI芯片組,包括818-300訓練芯片和818-100推理芯片。

圖5:百度的昆侖是中國第一款從云端到邊緣的AI處理器芯片組,雖然其架構(gòu)細節(jié)尚未公布,但號稱比百度2011年發(fā)表、基于FPGA的AI加速器快30倍。

昆侖號稱比百度2011年發(fā)表、基于FPGA的AI加速器快30倍,達到260 TOPS@100W;該芯片將采用三星(Samsung)的14納米工藝,內(nèi)存帶寬為512GB/s。雖然百度尚未公布其架構(gòu)參數(shù),但它可能包含數(shù)千個核心,能為百度自己的數(shù)據(jù)中心進行巨量數(shù)據(jù)的高速平行處理;該公司也有計劃針對各種客戶端設(shè)備和邊緣處理應(yīng)用推出低性能版本。

在百度的昆侖發(fā)表前不久,Google于5月份也發(fā)表了TPU 3.0;Google并未透露該芯片細節(jié),只說速度比去年的版本快8倍,達到100 PFLOPS。

使用現(xiàn)有技術(shù)來啟動AI設(shè)計

雖然還有許多其他新興的神經(jīng)網(wǎng)絡(luò)處理架構(gòu),如果是對“運算性能vs.實時性能要求”有合理期望,目前也有許多處理器和工具套件能充分滿足邊緣運算需求。例如,基本的家用保全系統(tǒng)可能包括一臺攝影機,負責人臉識別處理并透過Wi-Fi連接到家庭網(wǎng)關(guān)或路由器,這用市面上現(xiàn)有的處理器或工具套件就可以實現(xiàn)。

想嘗試這種設(shè)計的開發(fā)人員不必從零開始,而是只要選擇一個已經(jīng)獲得廣泛支持的平臺,具備各種CPU、視頻與圖片處理GPU、高速內(nèi)存、內(nèi)建無線和有線通訊模塊,還有恰當?shù)?a target="_blank">操作系統(tǒng)支持和廣泛、活躍的用戶生態(tài)系統(tǒng)。

圖6:NXP的i.MX 8M解決了快速啟動開發(fā)的問題,同時還可以使用基于Arm的處理器來擴展AI應(yīng)用。

恩智浦半導(dǎo)體(NXP)的i.MX 8M就是一個合適的起點(圖6)。該方案實際上是一系列處理器,配備最多達四個的1.5GHz Arm Cortex-A53和Cortex-M4核心;內(nèi)含兩個GPU類型處理器,一個可用于影像預(yù)處理,另一個用于神經(jīng)網(wǎng)絡(luò)加速。

另一個關(guān)鍵設(shè)計需求是現(xiàn)場使用壽命要夠長,也就是系統(tǒng)要能夠耐受惡劣使用環(huán)境,特別像是安裝在室外的攝影機;還要能隨著時間持續(xù)更新。后者特別重要,因為設(shè)計人員得確保設(shè)計中預(yù)留足夠的空間,以便在功能增加時實現(xiàn)更高的處理性能要求;同時還要保證低功耗,特別是對電池供電產(chǎn)品來說。

AI加速的重要性在于,其處理能力需求正從傳統(tǒng)的CPU和FPGA轉(zhuǎn)移到GPU和VPU,或者所有以上處理器的異質(zhì)組合;當然這取決于應(yīng)用。在此同時,即使針對越來越龐大數(shù)據(jù)集的AI加速成為主流,CPU的關(guān)鍵控制功能仍將保持不變。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 無線通信
    +關(guān)注

    關(guān)注

    58

    文章

    4752

    瀏覽量

    145190
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35109

    瀏覽量

    279631

原文標題:如何針對不同的應(yīng)用,選合適的AI硬件加速方案?

文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    華為AI UBB解決方案加速網(wǎng)絡(luò)邁向高階智能

    解決方案,包括AI FAN、AI OTN、AI WAN和ADN四大部分,端到端覆蓋家庭網(wǎng)絡(luò)、承載網(wǎng)絡(luò)和UBB智能管控系統(tǒng)。AI UBB解決
    的頭像 發(fā)表于 06-23 15:56 ?398次閱讀

    企業(yè)AI產(chǎn)品升級解決方案如何?看這一篇就夠了!

    AI硬件產(chǎn)品的爆火讓市面上出現(xiàn)了一大批AI硬件產(chǎn)品,市面上的AI產(chǎn)品解決方案也是琳瑯滿目,那企業(yè)
    的頭像 發(fā)表于 03-21 18:02 ?631次閱讀
    企業(yè)<b class='flag-5'>AI</b>產(chǎn)品升級解決<b class='flag-5'>方案</b>如何<b class='flag-5'>選</b>?看這一篇就夠了!

    Banana Pi 發(fā)布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計算與嵌入式開發(fā)

    存儲設(shè)計,輕松應(yīng)對復(fù)雜AI模型與實時推理。其堅固耐用的工業(yè)級品質(zhì)與超低成本,不僅適應(yīng)嚴苛環(huán)境的應(yīng)用,更為工程師提供了極致靈活的開發(fā)體驗,堪稱推動開源生態(tài)與人工智能未來的標桿之?!?瑞薩系統(tǒng)解決方案
    發(fā)表于 03-19 17:54

    FPGA+AI王炸組合如何重塑未來世界:看看DeepSeek東方神秘力量如何預(yù)測......

    FPGA的硬件加速能力處理傳感器數(shù)據(jù)。? 低功耗設(shè)計:針對邊緣設(shè)備和物聯(lián)網(wǎng)應(yīng)用,開發(fā)低功耗的FPGA解決方案,以滿足嚴格的功耗限制。 4.借助先進的開發(fā)工具? AI驅(qū)動的開發(fā)工具:利用AI
    發(fā)表于 03-03 11:21

    AI正在對硬件互連提出“過分”要求 | Samtec于Keysight開放日深度分享

    摘要/前言 硬件加速,可能總會是新的難點和挑戰(zhàn)。面對信息速率和密度不斷提升的AI,技術(shù)進步也會遵循摩爾定律,那硬件互連準備好了嗎? Samtec China Sr. FAE Manager 胡亞捷
    發(fā)表于 02-26 11:09 ?306次閱讀
    <b class='flag-5'>AI</b>正在對<b class='flag-5'>硬件</b>互連提出“過分”要求 | Samtec于Keysight開放日深度分享

    當我問DeepSeek AI爆發(fā)時代的FPGA是否重要?答案是......

    AI時代,F(xiàn)PGA(現(xiàn)場可編程門陣列)具有極其重要的地位,主要體現(xiàn)在以下幾個方面: 1.硬件加速與高效能 ? 并行處理能力:FPGA內(nèi)部由大量可編程邏輯單元組成,能夠?qū)崿F(xiàn)高度并行的數(shù)據(jù)處理。這種
    發(fā)表于 02-19 13:55

    數(shù)據(jù)中心中的FPGA硬件加速

    ? 再來看一篇FPGA的綜述,我們都知道微軟包括國內(nèi)的云廠商其實都在數(shù)據(jù)中心的服務(wù)器中部署了FPGA,所以這篇論文就以數(shù)據(jù)中心的視角,來看下FPGA這個硬件加速器。 還是一樣,想要論文原文的可以私信
    的頭像 發(fā)表于 01-14 10:29 ?656次閱讀
    數(shù)據(jù)中心中的FPGA<b class='flag-5'>硬件加速</b>器

    支持5點手寫硬件加速視頻演示-VS680與智慧教室解決方案

    硬件
    深蕾半導(dǎo)體
    發(fā)布于 :2024年12月03日 16:01:19

    基于Xilinx XCKU115的半高PCIe x8 硬件加速

    基于Xilinx XCKU115的半高PCIe x8 硬件加速卡,支持2x72bit(數(shù)據(jù)位寬64bit+ECC)DDR4存儲,數(shù)據(jù)傳輸速率 2400Mb/s。DDR4單簇容量4GB,兩組總?cè)萘繛?GB
    的頭像 發(fā)表于 11-14 11:30 ?791次閱讀
    基于Xilinx XCKU115的半高PCIe x8 <b class='flag-5'>硬件加速</b>卡

    RISC-V跑AI算法能加速嗎?

    現(xiàn)在好多ARM單片機都帶機器學習加速,RISC-V有這方面的硬件加速嗎?
    發(fā)表于 10-10 22:14

    基于 DSP5509 進行數(shù)字圖像處理中 Sobel 算子邊緣檢測的硬件連接電路圖

    以下是基于 DSP5509 進行數(shù)字圖像處理中 Sobel 算子邊緣檢測的硬件設(shè)計方案: 一、總體架構(gòu) 圖像采集:使用合適的圖像傳感器,如 CMOS 傳感器,通過相應(yīng)的接口(如 SPI、I2C 等
    發(fā)表于 09-25 15:25

    TDA4VM上的硬件加速運動恢復(fù)結(jié)構(gòu)算法

    電子發(fā)燒友網(wǎng)站提供《TDA4VM上的硬件加速運動恢復(fù)結(jié)構(gòu)算法.pdf》資料免費下載
    發(fā)表于 09-24 11:39 ?0次下載
    TDA4VM上的<b class='flag-5'>硬件加速</b>運動恢復(fù)結(jié)構(gòu)算法

    AMD助力HyperAccel開發(fā)全新AI推理服務(wù)器

    ( LLM )的推理,此類模型通常具有數(shù)十億個參數(shù),例如 OpenAI 的 ChatGPT 和 Meta 的 Llama 3 等 Llama LLM。其 AI 芯片名為時延處理單元( LPU ),是專門用于 LLM 端到端推理的硬件加速器。
    的頭像 發(fā)表于 09-18 09:37 ?876次閱讀
    AMD助力HyperAccel開發(fā)全新<b class='flag-5'>AI</b>推理服務(wù)器

    AM62A SoC通過硬件加速視覺處理改進條形碼讀取器

    電子發(fā)燒友網(wǎng)站提供《AM62A SoC通過硬件加速視覺處理改進條形碼讀取器.pdf》資料免費下載
    發(fā)表于 09-04 09:52 ?0次下載
    AM62A SoC通過<b class='flag-5'>硬件加速</b>視覺處理改進條形碼讀取器

    適用于數(shù)據(jù)中心應(yīng)用中的硬件加速器的直流/直流轉(zhuǎn)換器解決方案

    電子發(fā)燒友網(wǎng)站提供《適用于數(shù)據(jù)中心應(yīng)用中的硬件加速器的直流/直流轉(zhuǎn)換器解決方案.pdf》資料免費下載
    發(fā)表于 08-26 09:38 ?0次下載
    適用于數(shù)據(jù)中心應(yīng)用中的<b class='flag-5'>硬件加速</b>器的直流/直流轉(zhuǎn)換器解決<b class='flag-5'>方案</b>