99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

模型復(fù)雜性日益增加,AI優(yōu)化的硬件隨之出現(xiàn)

FPGA之家 ? 來(lái)源:英特爾FPGA ? 作者:英特爾FPGA ? 2021-06-16 17:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能AI)模型的規(guī)模和復(fù)雜度以每年大約 10 倍的速度不斷增加,AI 解決方案提供商面臨著巨大的壓力,他們必須縮短產(chǎn)品上市時(shí)間,提高性能,快速適應(yīng)不斷變化的形勢(shì)。模型復(fù)雜性日益增加,AI 優(yōu)化的硬件隨之出現(xiàn)。

例如,近年來(lái),圖形處理單元(GPU)集成了 AI 優(yōu)化的算法單元,以提高 AI 計(jì)算吞吐量。然而,隨著 AI 算法和工作負(fù)載的演變與發(fā)展,它們會(huì)展現(xiàn)出一些屬性,讓我們難以充分利用可用的 AI 計(jì)算吞吐量,除非硬件提供廣泛的靈活性來(lái)適應(yīng)這種算法變化。近期的論文表明,許多 AI 工作負(fù)載都難以實(shí)現(xiàn) GPU 供應(yīng)商報(bào)告的全部計(jì)算能力。即使對(duì)于高度并行的計(jì)算,如一般矩陣乘法(GEMM),GPU 也只能在一定規(guī)模的矩陣下實(shí)現(xiàn)高利用率。因此,盡管 GPU 在理論上提供較高的 AI 計(jì)算吞吐量(通常稱(chēng)為“峰值吞吐量”),但在運(yùn)行 AI 應(yīng)用時(shí),實(shí)際性能可能低得多。

FPGA 可提供一種不同的 AI 優(yōu)化的硬件方法。與 GPU 不同,F(xiàn)PGA 提供獨(dú)特的精細(xì)化空間可重構(gòu)性。這意味著我們可以配置 FPGA 資源,以極為準(zhǔn)確的順序執(zhí)行精確的數(shù)學(xué)函數(shù),從而實(shí)施所需的操作。每個(gè)函數(shù)的輸出都可以直接路由到需要它的函數(shù)的輸入之中。這種方法支持更加靈活地適應(yīng)特定的 AI 算法和應(yīng)用特性,從而提高可用 FPGA 計(jì)算能力的利用率。此外,雖然 FPGA 需要硬件專(zhuān)業(yè)知識(shí)才能編程(通過(guò)硬件描述語(yǔ)言),但專(zhuān)門(mén)設(shè)計(jì)的軟核處理單元(也就是重疊結(jié)構(gòu)),允許 FPGA 以類(lèi)似處理器的方式編程。FPGA 編程完全通過(guò)軟件工具鏈來(lái)完成,簡(jiǎn)化了任何特定于 FPGA 的硬件復(fù)雜性。

FPGA與GPU架構(gòu)的背景

2020 年,英特爾 宣布推出首款 AI 優(yōu)化的 FPGA — 英特爾 Stratix 10 NX FPGA 器件。英特爾 Stratix 10 NX FPGA 包括 AI 張量塊,支持 FPGA 實(shí)現(xiàn)高達(dá) 143 INT8 和 286 INT4 峰值 AI 計(jì)算 TOPS 或 143 塊浮點(diǎn) 16(BFP16)和 286 塊浮點(diǎn) 12(BFP12)TFLOPS。最近的論文表明,塊浮點(diǎn)精度可為許多 AI 工作負(fù)載提供更高的精度和更低的消耗。NVIDIA GPU 同樣也提供張量核。但從架構(gòu)的角度來(lái)看,GPU 張量核和 FPGA AI 張量塊有很大的不同,如下圖所示。

GPU 和 FPGA 都有張量核心。FPGA 有可以在數(shù)據(jù)流內(nèi)外編織的軟邏輯

(左)GPU 數(shù)據(jù)從張量核心處理的內(nèi)存系統(tǒng)中讀取,寫(xiě)回內(nèi)存系統(tǒng)。(右)FPGA 數(shù)據(jù)可以從內(nèi)存中讀取,但數(shù)據(jù)流可以并行安排到一個(gè)或多個(gè)張量核心。任意數(shù)量的張量核心都能以最小的傳輸開(kāi)銷(xiāo)使用輸出。數(shù)據(jù)可以被寫(xiě)回內(nèi)存或路由到其他任何地方

英特爾研究人員開(kāi)發(fā)了一種名為神經(jīng)處理單元(NPU)的 AI 軟處理器。這種 AI 軟處理器適用于低延遲、低批量推理。它將所有模型權(quán)重保持在一個(gè)或多個(gè)連接的 FPGA 上以降低延遲,從而確保模型持久性。

NPU 重疊架構(gòu)和用于編程 NPU 軟核處理器的前端工具鏈高級(jí)概述

FPGA與GPU性能比較

本次研究的重點(diǎn)是計(jì)算性能。下圖比較了英特爾 Stratix 10 NX FPGA 上的 NPU 與 NVIDIA T4 和 V100 GPU 運(yùn)行各種深度學(xué)習(xí)工作負(fù)載的性能,包括多層感知器(MLP)、一般矩陣向量乘法(GEMV)、遞歸神經(jīng)網(wǎng)絡(luò)(RNN)、長(zhǎng)期短期記憶(LSTM)和門(mén)控循環(huán)單元(GRU)。GEMV 和 MLP 由矩陣大小來(lái)指定,RNN、LSTM 和 GRU 則通過(guò)大小和時(shí)間步長(zhǎng)來(lái)指定。例如,LSTM-1024-16 工作負(fù)載表示包含 1024x1024 矩陣和 16 個(gè)時(shí)間步長(zhǎng)的 LSTM。

NVIDIA V100 和 NVIDIA T4 與英特爾 Stratix 10 NX FPGA 上的 NPU 在不同批處理規(guī)模下的性能。虛線顯示 NPU 在批次大小可被 6 整除情況下的性能

從這些結(jié)果可以充分地看出,英特爾 Stratix 10 NX FPGA 不僅可以在低批次實(shí)時(shí)推理時(shí)實(shí)現(xiàn)比 GPU 高一個(gè)數(shù)量級(jí)的性能,還可以有效地進(jìn)行高批次實(shí)時(shí)推理。

由于架構(gòu)上的差異和靈活編程模型,英特爾 Stratix 10 NX FPGA 還可實(shí)現(xiàn)更出色的端到端性能。不會(huì)產(chǎn)生與 GPU 相同的開(kāi)銷(xiāo)。

短序列和長(zhǎng)序列時(shí) RNN 工作負(fù)載的系統(tǒng)級(jí)執(zhí)行時(shí)間(越低越好)

結(jié)論

英特爾 Stratix 10 NX FPGA 采用高度靈活的架構(gòu),所實(shí)現(xiàn)的平均性能比 NVIDIA T4 GPU 和 NVIDIA V100 GPU 分別高 24 倍和 12 倍。

由于其較高的計(jì)算密度,英特爾 Stratix 10 NX FPGA 可為以實(shí)際可達(dá)到性能為重要指標(biāo)的高性能、延遲敏感型 AI 系統(tǒng)提供至關(guān)重要的功能。

原文標(biāo)題:實(shí)際性能超過(guò)GPU,英特爾?Stratix?10 NX FPGA如何助您在AI加速領(lǐng)域贏得先機(jī)?

文章出處:【微信公眾號(hào):FPGA之家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1645

    文章

    22046

    瀏覽量

    618303
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10195

    瀏覽量

    174666
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35109

    瀏覽量

    279631

原文標(biāo)題:實(shí)際性能超過(guò)GPU,英特爾?Stratix?10 NX FPGA如何助您在AI加速領(lǐng)域贏得先機(jī)?

文章出處:【微信號(hào):zhuyandz,微信公眾號(hào):FPGA之家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    模型在半導(dǎo)體行業(yè)的應(yīng)用可行分析

    有沒(méi)有這樣的半導(dǎo)體專(zhuān)用大模型,能縮短芯片設(shè)計(jì)時(shí)間,提高成功率,還能幫助新工程師更快上手?;蛘哕?b class='flag-5'>硬件可以在設(shè)計(jì)和制造環(huán)節(jié)確實(shí)有實(shí)際應(yīng)用。會(huì)不會(huì)存在AI缺陷檢測(cè)。 能否應(yīng)用在工藝優(yōu)化和預(yù)測(cè)
    發(fā)表于 06-24 15:10

    新思科技VSO.ai如何顛覆芯片驗(yàn)證

    隨著片上系統(tǒng)(SoC)復(fù)雜性不斷增加,IP的復(fù)雜性與驗(yàn)證難度以及用于驗(yàn)證的VIP的開(kāi)發(fā)要求也日益提高。不斷發(fā)展的協(xié)議標(biāo)準(zhǔn)要求為IP和VIP提供動(dòng)態(tài)測(cè)試套件,并滿(mǎn)足規(guī)定的功能和代碼覆蓋率
    的頭像 發(fā)表于 05-21 14:49 ?403次閱讀
    新思科技VSO.<b class='flag-5'>ai</b>如何顛覆芯片驗(yàn)證

    RAKsmart服務(wù)器如何賦能AI開(kāi)發(fā)與部署

    AI開(kāi)發(fā)與部署的復(fù)雜性不僅體現(xiàn)在算法設(shè)計(jì)層面,更依賴(lài)于底層基礎(chǔ)設(shè)施的支撐能力。RAKsmart服務(wù)器憑借其高性能硬件架構(gòu)、靈活的資源調(diào)度能力以及面向AI場(chǎng)景的深度
    的頭像 發(fā)表于 04-30 09:22 ?266次閱讀

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    模型全鏈路分析功能,針對(duì)AI應(yīng)用開(kāi)發(fā)的三大痛點(diǎn)逐個(gè)擊破。 當(dāng)前AI應(yīng)用開(kāi)發(fā)者在使用開(kāi)發(fā)工具時(shí)會(huì)面臨一個(gè)很頭疼的問(wèn)題,種類(lèi)多、功能不聚合、過(guò)于碎片化,導(dǎo)致開(kāi)發(fā)過(guò)程非常復(fù)雜。Neuron
    發(fā)表于 04-13 19:52

    Marvell展示2納米芯片3D堆疊技術(shù),應(yīng)對(duì)設(shè)計(jì)復(fù)雜性挑戰(zhàn)!

    隨著現(xiàn)代科技的迅猛發(fā)展,芯片設(shè)計(jì)面臨著前所未有的挑戰(zhàn)。特別是在集成電路(IC)領(lǐng)域,隨著設(shè)計(jì)復(fù)雜性增加,傳統(tǒng)的光罩尺寸已經(jīng)成為制約芯片性能和功能擴(kuò)展的瓶頸。為了解決這一問(wèn)題,3D堆疊技術(shù)應(yīng)運(yùn)而生
    的頭像 發(fā)表于 03-07 11:11 ?533次閱讀
    Marvell展示2納米芯片3D堆疊技術(shù),應(yīng)對(duì)設(shè)計(jì)<b class='flag-5'>復(fù)雜性</b>挑戰(zhàn)!

    了解DeepSeek-V3 和 DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇

    極點(diǎn)。 2. 電路代碼生成 Synopsys VerilogGPT (需企業(yè)授權(quán)) 專(zhuān)為硬件描述語(yǔ)言(HDL)優(yōu)化模型,生成可綜合的Verilog/VHDL代碼,避免R1可能出現(xiàn)的語(yǔ)
    發(fā)表于 02-14 02:08

    中興通訊AiCube:破解AI模型部署難題

    AI領(lǐng)域,DeepSeek等國(guó)產(chǎn)模型憑借算法優(yōu)化,成功將訓(xùn)練與推理的綜合成本降低了40%以上,這一突破使得中小型企業(yè)也能輕松參與AI創(chuàng)新。然而,隨著
    的頭像 發(fā)表于 02-13 09:11 ?567次閱讀

    【「基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化」閱讀體驗(yàn)】+第一章初體驗(yàn)

    《基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化》試讀報(bào)告 ——第一章:了解大模型與RAG 近年來(lái),隨著人工智能技術(shù)的快速發(fā)展,大模型與生成式AI技術(shù)逐
    發(fā)表于 02-07 10:42

    【「大模型啟示錄」閱讀體驗(yàn)】對(duì)大模型更深入的認(rèn)知

    的平衡,解釋得清清楚楚,讓我這個(gè)非專(zhuān)業(yè)人士也能明白大模型在實(shí)際應(yīng)用中面臨的挑戰(zhàn)和限制,也對(duì)這些模型復(fù)雜性和挑戰(zhàn)有了更深的理解。 而且,書(shū)中還提到了OpenAI的成功案例和CUDA技術(shù)壁壘的形成,這些
    發(fā)表于 12-20 15:46

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    ,PReLU仍然能夠在正輸入?yún)^(qū)域促進(jìn)稀疏激活,這對(duì)模型的學(xué)習(xí)是有利的。 缺點(diǎn) 增加模型復(fù)雜度:由于引入了額外的可學(xué)習(xí)參數(shù) α,這增加
    發(fā)表于 12-19 14:33

    AI大語(yǔ)言模型開(kāi)發(fā)步驟

    開(kāi)發(fā)一個(gè)高效、準(zhǔn)確的大語(yǔ)言模型是一個(gè)復(fù)雜且多階段的過(guò)程,涉及數(shù)據(jù)收集與預(yù)處理、模型架構(gòu)設(shè)計(jì)、訓(xùn)練與優(yōu)化、評(píng)估與調(diào)試等多個(gè)環(huán)節(jié)。接下來(lái),AI
    的頭像 發(fā)表于 12-19 11:29 ?892次閱讀

    深度學(xué)習(xí)模型的魯棒優(yōu)化

    深度學(xué)習(xí)模型的魯棒優(yōu)化是一個(gè)復(fù)雜但至關(guān)重要的任務(wù),它涉及多個(gè)方面的技術(shù)和策略。以下是一些關(guān)鍵的優(yōu)化方法: 一、數(shù)據(jù)預(yù)處理與增強(qiáng) 數(shù)據(jù)清洗
    的頭像 發(fā)表于 11-11 10:25 ?1184次閱讀

    AI模型在圖像識(shí)別中的優(yōu)勢(shì)

    模型借助高性能的計(jì)算硬件優(yōu)化的算法,能夠在短時(shí)間內(nèi)完成對(duì)大量圖像數(shù)據(jù)的處理和分析,顯著提高了圖像識(shí)別的效率。 識(shí)別準(zhǔn)確 :通過(guò)深度學(xué)習(xí)和計(jì)算機(jī)視覺(jué)技術(shù),
    的頭像 發(fā)表于 10-23 15:01 ?2424次閱讀

    AI模型的性能優(yōu)化方法

    AI模型的性能優(yōu)化是一個(gè)復(fù)雜而關(guān)鍵的任務(wù),涉及多個(gè)方面和策略。以下是一些主要的性能優(yōu)化方法: 一、模型
    的頭像 發(fā)表于 10-23 15:01 ?2413次閱讀

    中軟國(guó)際大模型運(yùn)營(yíng)管理系統(tǒng)推動(dòng)AI商業(yè)化

    模型作為AI技術(shù)發(fā)展的新趨勢(shì),已成為“千行百業(yè)”推動(dòng)業(yè)務(wù)增長(zhǎng)與創(chuàng)新的關(guān)鍵技術(shù)和策略。然而,隨著AI模型規(guī)模的增加,對(duì)于人工智能計(jì)算中心(
    的頭像 發(fā)表于 08-27 17:01 ?1112次閱讀
    中軟國(guó)際大<b class='flag-5'>模型</b>運(yùn)營(yíng)管理系統(tǒng)推動(dòng)<b class='flag-5'>AI</b>商業(yè)化