99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Ampere AI優(yōu)化框架如何加速 AI 推理

科技綠洲 ? 來源:安晟培半導體 ? 作者:安晟培半導體 ? 2022-05-26 10:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Microsoft Build 是為來自全球各地的開發(fā)人員、工程師、IT 專業(yè)人員、學生和初創(chuàng)公司打造的年度技術(shù)盛會。今年的會議采用線上的方式,展示 Microsoft 技術(shù)、Windows、Office 等技術(shù)及應用的最新前沿資訊。

此前,Ampere Computing 和 Microsoft 宣布,雙方攜手開發(fā)了基于全球第一款云原生處理器 Ampere? Altra? 的 Azure 虛擬機(VM),不僅為開發(fā)人員帶來全新的性能和能效優(yōu)勢,還帶來了比 x86 的同款解決方案高出 66% 的優(yōu)越性價比。

Ampere Computing 受邀以精選合作伙伴身份參加今年的 Microsoft Build 大會,通過演講、demo 展示、技術(shù)趨勢探討等多種方式詳細地介紹基于Ampere Altra 的 Azure VM 解決方案,為全球科技迷們創(chuàng)造了大飽眼福的機會。

您可以觀看 Ampere Computing 解決方案高級總監(jiān) Sean Varley 先生發(fā)表的題為 The Essential Nature of Cloud Native Processor: Foundations, Solutions, and Benefits 的演講,詳細介紹了 Ampere Computing 如何通過領先的云原生處理器解決方案助力解決云計算未來十年的難題。

可預測性、可擴展性、高性能、安全和可持續(xù)性是助力云計算下一階段發(fā)展的關鍵。Ampere Computing 推出的全球第一款云原生處理器,具備業(yè)界最高能效、最多核數(shù)。其中 128 核 Ampere? Altra? Max 在 SpecRate Integer 2017 的 Performance per Socket 跑分高達 360 的頂尖水平,而實際功耗僅為 190 瓦。

目前,Ampere Computing 的解決方案在各種工作負載上都有優(yōu)秀的表現(xiàn),包括 Web 服務、內(nèi)存數(shù)據(jù)庫、緩存、媒體轉(zhuǎn)碼和 AI 推理等。您可以點擊「閱讀原文」前往我們的虛擬展廳觀看完整視頻。

Ampere 技術(shù)專家?guī)砀嗑蕛?nèi)容

Demo Center

帶來全方位演示

云原生工作負載(如 NGINX)運行在 Ampere Altra 的 Azure VM 上的性價比遠超傳統(tǒng) x86。

Redis 和 Memcached 等云原生工作負載如何在 Ampere Altra 上顯示出比傳統(tǒng) x86 高 30% 的性價比優(yōu)勢。

Cloud Native 自動化工具可以在 Azure 上輕松配置 Ampere 虛擬機。

Innovation Center

暢談云端最新潮流

觀看 Victor Jakubiuk 關于“以 Warp Speed 進行 AI 推理”的演講,了解 Ampere AI 優(yōu)化框架如何以極少的成本和精力加速 AI 推理。

最大化視頻編碼的吞吐量需要一致的性能和大量的核心數(shù)。John O‘Neill 分享了在 Ampere 處理器上運行的幾個視頻相關基準測試的結(jié)果。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    19896

    瀏覽量

    235208
  • AI
    AI
    +關注

    關注

    88

    文章

    35152

    瀏覽量

    279842
  • 虛擬機
    +關注

    關注

    1

    文章

    966

    瀏覽量

    29362
  • Ampere
    +關注

    關注

    1

    文章

    81

    瀏覽量

    4710
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    AI推理的存儲,看好SRAM?

    電子發(fā)燒友網(wǎng)報道(文/黃晶晶)近幾年,生成式AI引領行業(yè)變革,AI訓練率先崛起,帶動高帶寬內(nèi)存HBM一飛沖天。但我們知道AI推理的廣泛應用才能推動A
    的頭像 發(fā)表于 03-03 08:51 ?1683次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>的存儲,看好SRAM?

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡智能診斷邁向 “自愈”時代

    模態(tài)的技術(shù)特性,DeepSeek正加速推動AI在金融、政務、科研及網(wǎng)絡智能化等關鍵領域的深度應用。 信而泰:AI推理引擎賦能網(wǎng)絡智能診斷新范式信而泰深度整合DeepSeek-R1大模型
    發(fā)表于 07-16 15:29

    Nordic收購 Neuton.AI 關于產(chǎn)品技術(shù)的分析

    Nordic Semiconductor 于 2025 年收購了 Neuton.AI,這是一家專注于超小型機器學習(TinyML)解決方案的公司。 Neuton 開發(fā)了一種獨特的神經(jīng)網(wǎng)絡框架,能夠
    發(fā)表于 06-28 14:18

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應手

    基石。 Neuron Studio打造全流程一站式開發(fā)體驗,為AI應用開發(fā)按下加速AI 應用的開發(fā)瓶頸,從來都不是“點的問題”,而是“鏈的問題”:開發(fā)工具碎片化,調(diào)優(yōu)過程靠手動,單模型分析效率低
    發(fā)表于 04-13 19:52

    谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命

    谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命 Google 發(fā)布了 Ironwood,這是其第七代張量處理單元 (TPU),專為推理而設計。這款功能強大的 AI
    的頭像 發(fā)表于 04-12 11:10 ?1833次閱讀
    谷歌第七代TPU Ironwood深度解讀:<b class='flag-5'>AI</b><b class='flag-5'>推理</b>時代的硬件革命

    英偉達GTC2025亮點:Oracle與NVIDIA合作助力企業(yè)加速代理式AI推理

    Oracle 數(shù)據(jù)庫與 NVIDIA AI 相集成,使企業(yè)能夠更輕松、快捷地采用代理式 AI Oracle 和 NVIDIA 宣布,NVIDIA 加速計算和推理軟件與 Oracle 的
    的頭像 發(fā)表于 03-21 12:01 ?701次閱讀
    英偉達GTC2025亮點:Oracle與NVIDIA合作助力企業(yè)<b class='flag-5'>加速</b>代理式<b class='flag-5'>AI</b><b class='flag-5'>推理</b>

    英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    DeepSeek-R1 上的吞吐量提高了 30 倍 NVIDIA 發(fā)布了開源推理軟件 NVIDIA Dynamo,旨在以高效率、低成本加速并擴展 AI 工廠中的 AI
    的頭像 發(fā)表于 03-20 15:03 ?648次閱讀

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計算和推理軟件與 Oracle 的 AI 基礎設施以及生成式 AI 服務首次實現(xiàn)集成,以幫助全球企業(yè)組織
    發(fā)表于 03-19 15:24 ?358次閱讀
    Oracle 與 NVIDIA 合作助力企業(yè)<b class='flag-5'>加速</b>代理式 <b class='flag-5'>AI</b> <b class='flag-5'>推理</b>

    FPGA+AI王炸組合如何重塑未來世界:看看DeepSeek東方神秘力量如何預測......

    。? AI加速器的開發(fā):FPGA被廣泛用于開發(fā)專為AI算法優(yōu)化加速器,例如深度學習推理
    發(fā)表于 03-03 11:21

    當我問DeepSeek AI爆發(fā)時代的FPGA是否重要?答案是......

    ,開發(fā)人員可以根據(jù)具體應用需求重新配置硬件邏輯。這種靈活性使得FPGA能夠適應不斷變化的AI算法和應用場景,而無需更換硬件。 ? 定制化加速:FPGA可以根據(jù)特定的AI任務進行優(yōu)化配置
    發(fā)表于 02-19 13:55

    AI開發(fā)框架集成介紹

    隨著AI應用的廣泛深入,單一框架往往難以滿足多樣化的需求,因此,AI開發(fā)框架的集成成為了提升開發(fā)效率、促進技術(shù)創(chuàng)新的關鍵路徑。以下,是對AI
    的頭像 發(fā)表于 01-07 15:58 ?555次閱讀

    FPGA和ASIC在大模型推理加速中的應用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型的
    的頭像 發(fā)表于 10-29 14:12 ?2027次閱讀
    FPGA和ASIC在大模型<b class='flag-5'>推理</b><b class='flag-5'>加速</b>中的應用

    NVIDIA助力麗蟾科技打造AI訓練與推理加速解決方案

    麗蟾科技通過 Leaper 資源管理平臺集成 NVIDIA AI Enterprise,為企業(yè)和科研機構(gòu)提供了一套高效、靈活的 AI 訓練與推理加速解決方案。無論是在復雜的
    的頭像 發(fā)表于 10-27 10:03 ?829次閱讀
    NVIDIA助力麗蟾科技打造<b class='flag-5'>AI</b>訓練與<b class='flag-5'>推理</b><b class='flag-5'>加速</b>解決方案

    RISC-V如何支持不同的AI和機器學習框架和庫?

    RISC-V如何支持不同的AI和機器學習框架和庫?還請壇友們多多指教一下。
    發(fā)表于 10-10 22:24

    LLM大模型推理加速的關鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型在處理復雜任務時的效率和響應速度。以下是對LLM大模型推理加速關鍵技術(shù)的詳細探討,內(nèi)容將涵蓋模型壓縮、
    的頭像 發(fā)表于 07-24 11:38 ?1820次閱讀