99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

APACHE MXNET深度學(xué)習(xí)框架的概念、工作原理及用例

NVIDIA英偉達(dá) ? 來(lái)源:NVIDIA英偉達(dá) ? 作者:NVIDIA英偉達(dá) ? 2022-06-17 09:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Apache MXNet 是一個(gè)靈活且可擴(kuò)展的深度學(xué)習(xí)框架,支持多種深度學(xué)習(xí)模型、編程語(yǔ)言,并且有一個(gè)開發(fā)接口,因其易用性而受到高度重視。

什么是 APACHE MXNET?

MXNet 是開源深度學(xué)習(xí)框架,允許用戶在多種設(shè)備(無(wú)論是云基礎(chǔ)設(shè)施還是移動(dòng)設(shè)備)上定義、訓(xùn)練和部署深度神經(jīng)網(wǎng)絡(luò)。該框架具備高度可擴(kuò)展性,可以進(jìn)行快速的模型訓(xùn)練,并支持靈活的編程模型和多種語(yǔ)言。

利用 MXNet 可以混合符號(hào)和命令式編程,以更大限度提升效率和生產(chǎn)力。該框架的核心是動(dòng)態(tài)依賴性調(diào)度程序,可自動(dòng)即時(shí)并行處理符號(hào)式操作和命令式操作圖形優(yōu)化層使符號(hào)執(zhí)行速度更快、內(nèi)存效率更高。

MXNet 庫(kù)可移植并且規(guī)模小巧。它采用 NVIDIA Pascal GPU 加速,可以跨多個(gè) GPU 和多個(gè)節(jié)點(diǎn)進(jìn)行擴(kuò)展,從而更快地訓(xùn)練模型。

為何選擇 APACHE MXNET?

Apache MXNet 提供以下主要特性和優(yōu)勢(shì):

混合前端:命令符號(hào)混合 Gluon API 提供了一種簡(jiǎn)單的方法,無(wú)需犧牲訓(xùn)練速度即可對(duì)模型進(jìn)行原型設(shè)計(jì)、訓(xùn)練和部署。開發(fā)者僅需幾行 Gluon 代碼,就能構(gòu)建線性回歸、CNN 和循環(huán) LSTM 模型,以用于物體檢測(cè)、語(yǔ)音識(shí)別和推薦引擎等。

可擴(kuò)展性:MXNet 從頭開始專為云基礎(chǔ)設(shè)施設(shè)計(jì),采用分布式參數(shù)服務(wù)器,可以使用多個(gè) GPU 或 CPU 實(shí)現(xiàn)近線性擴(kuò)展。深度學(xué)習(xí)工作負(fù)載可跨多個(gè) GPU 進(jìn)行分配,實(shí)現(xiàn)近線性可擴(kuò)展性和自動(dòng)擴(kuò)展。Amazon Web Services 運(yùn)行的測(cè)試發(fā)現(xiàn),在包含 128 個(gè) GPU 的集群中,MXNet 的性能比使用單個(gè) GPU 快 109 倍。正是由于 MXNet 具有擴(kuò)展到多個(gè) GPU(跨多個(gè)主機(jī))的能力,及其開發(fā)速度和可移植性,AWS 才選擇 MXNet 作為深度學(xué)習(xí)框架,而不是 TensorFlow、Theano 和 Torch 等其他選擇。

生態(tài)系統(tǒng):MXNet 具有適用于計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理、時(shí)間序列等的工具包和庫(kù)。

語(yǔ)言:MXNet 支持的語(yǔ)言包括 PythonC++、R、Scala、Julia、MatlabJavaScript。MXNet 還可以編譯成 C++,生成一種輕量級(jí)神經(jīng)網(wǎng)絡(luò)模型表征,可以在各種設(shè)備上運(yùn)行,包括 Raspberry Pi 等低功耗設(shè)備和云服務(wù)器。

MXNET 的工作原理是什么?

MXNet(或“mix-net”)由多學(xué)術(shù)機(jī)構(gòu)聯(lián)合創(chuàng)建,并在 Apache Software Foundation 培養(yǎng)而成,旨在混合不同編程方法的優(yōu)勢(shì),以進(jìn)行深度學(xué)習(xí)模型開發(fā) – 命令式,明確指定了“如何”執(zhí)行計(jì)算,以及聲明式或符號(hào)式,主要關(guān)注應(yīng)該執(zhí)行“什么”。

命令式編程模式

MXNet 的 NDArray 包含命令式編程,是 MXNet 存儲(chǔ)和轉(zhuǎn)換數(shù)據(jù)的主要工具。NDArray 用于將模型的輸入和輸出表示為多維陣列并對(duì)其進(jìn)行操作。NDArray 類似于 NumPy 的 ndarray,但它們可以在 GPU 上運(yùn)行,以加速計(jì)算。

命令式編程的優(yōu)勢(shì)在于,有程序編程背景的開發(fā)者對(duì)其很熟悉,所以參數(shù)更新和交互式調(diào)試更自然。

符號(hào)式編程模式

神經(jīng)網(wǎng)絡(luò)通過(guò)對(duì)輸入?yún)?shù)應(yīng)用多層嵌套函數(shù)來(lái)轉(zhuǎn)換輸入數(shù)據(jù)。每一層由一個(gè)線性函數(shù)和一個(gè)非線性變換組成。深度學(xué)習(xí)的目標(biāo)是通過(guò)計(jì)算相對(duì)于損失指標(biāo)的偏導(dǎo)數(shù)(梯度),優(yōu)化這些參數(shù)(包括權(quán)重和偏差)。在前向傳播中,神經(jīng)網(wǎng)絡(luò)接受輸入?yún)?shù),并向下一層的節(jié)點(diǎn)輸出置信度分?jǐn)?shù),直至到達(dá)輸出層,在該層計(jì)算分?jǐn)?shù)誤差。在一個(gè)稱為梯度下降的過(guò)程中,通過(guò)反向傳播,錯(cuò)誤會(huì)再次通過(guò)網(wǎng)絡(luò)發(fā)送回來(lái),并調(diào)整權(quán)重,從而改進(jìn)模型。

圖形是由已連接節(jié)點(diǎn)(稱為頂點(diǎn))和邊緣組成的數(shù)據(jù)結(jié)構(gòu)。每個(gè)現(xiàn)代深度學(xué)習(xí)框架都基于圖形的概念,其中神經(jīng)網(wǎng)絡(luò)表示為計(jì)算的圖形結(jié)構(gòu)。

MXNet 符號(hào)式編程允許通過(guò)計(jì)算圖形抽象地定義函數(shù)。借助符號(hào)式編程,復(fù)雜函數(shù)首先采用占位符值表示。然后,可以通過(guò)將這些函數(shù)綁定到實(shí)際值來(lái)執(zhí)行這些函數(shù)。符號(hào)式編程還提供預(yù)定義的神經(jīng)網(wǎng)絡(luò)層,允許以更少的重復(fù)性工作和更好的性能簡(jiǎn)單表示大型模型。

符號(hào)式編程具有以下優(yōu)勢(shì):

計(jì)算圖形的清晰邊界通過(guò)后端 MXNet 執(zhí)行程序提供更多優(yōu)化機(jī)會(huì)

更輕松地為神經(jīng)網(wǎng)絡(luò)配置指定計(jì)算圖形

采用 Gluon API 的混合編程模式

MXNet 的主要優(yōu)勢(shì)之一是其包含混合編程接口 Gluon,其在保持命令接口和符號(hào)接口的功能和優(yōu)勢(shì)的同時(shí),彌合了兩者之間的差距。Gluon 是一種易于學(xué)習(xí)的語(yǔ)言,可以生成快速移動(dòng)模型。借助 Gluon API,您可以使用 NDArray 命令式創(chuàng)建模型。然后,您可以通過(guò)混合命令切換到符號(hào)模式,加快模型訓(xùn)練和推理速度。在符號(hào)模式下,該模型以經(jīng)優(yōu)化的圖形形式通過(guò)后端 MXNet 執(zhí)行程序以更快速度運(yùn)行,并且可以輕松導(dǎo)出,用于在不同語(yǔ)言綁定(如 Java 或 C++)中進(jìn)行推理。

為何 MXNET 在 GPU 上表現(xiàn)更出色

在架構(gòu)方面,CPU 僅由幾個(gè)具有大緩存內(nèi)存的核心組成,一次只可以處理幾個(gè)軟件線程。相比之下,GPU 由數(shù)百個(gè)核心組成,可以同時(shí)處理數(shù)千個(gè)線程。

由于神經(jīng)網(wǎng)絡(luò)由大量相同的神經(jīng)元構(gòu)建而成,因此本質(zhì)上具有高度并行性。這種并行性會(huì)自然映射到GPU,因此相比僅依賴 CPU 的訓(xùn)練,計(jì)算速度會(huì)大幅提高。因此,GPU 已成為訓(xùn)練基于神經(jīng)網(wǎng)絡(luò)的大型復(fù)雜系統(tǒng)的首選平臺(tái)。推理運(yùn)算的并行性質(zhì)也使其十分宜于在 GPU 上執(zhí)行。

借助改進(jìn)的算法、更大的數(shù)據(jù)集以及 GPU 加速計(jì)算,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)已經(jīng)成為圖像識(shí)別、語(yǔ)音識(shí)別、語(yǔ)言翻譯等眾多行業(yè)不可或缺的工具。開發(fā) MXNet 的目的是提供強(qiáng)大的工具,幫助開發(fā)者充分利用 GPU 和云計(jì)算的全部功能。

簡(jiǎn)而言之,使用 MXNet 訓(xùn)練算法的 GPU 越多,任務(wù)完成得就越快。隨著更多 GPU 的采用,該框架在可擴(kuò)展性能方面脫穎而出,速度幾乎呈線性提升。MXNet 還可以根據(jù)可用 GPU 自動(dòng)擴(kuò)展,這是其在性能調(diào)節(jié)方面的一個(gè)加分點(diǎn)。

用例

| 智能手機(jī)應(yīng)用程序

MXNet 非常適合圖像識(shí)別,支持在低功耗且內(nèi)存有限的平臺(tái)上運(yùn)行的模型,這一能力使其成為手機(jī)部署的最佳選擇。采用 MXNet 構(gòu)建的模型已經(jīng)被證明可以提供能在筆記本電腦上運(yùn)行的高可靠圖像識(shí)別結(jié)果。結(jié)合本地和云處理器可以在增強(qiáng)現(xiàn)實(shí)、物體和場(chǎng)景識(shí)別等領(lǐng)域?qū)崿F(xiàn)強(qiáng)大的分布式應(yīng)用。

聲音和圖像識(shí)別應(yīng)用也為殘障人士提供了更多有趣的可能性。例如,移動(dòng)應(yīng)用程序可以幫助視障人士更好地感知周圍的環(huán)境,并幫助聽(tīng)障人士將語(yǔ)音對(duì)話轉(zhuǎn)換為文本。

| 自動(dòng)駕駛汽車

自動(dòng)駕駛汽車和卡車必須處理大量數(shù)據(jù),以做出近乎實(shí)時(shí)的決策。為支持自動(dòng)駕駛車輛車隊(duì)而開發(fā)的復(fù)雜網(wǎng)絡(luò),以前所未有的程度使用分布式處理,來(lái)協(xié)調(diào)從單輛車的制動(dòng)決策到整個(gè)城市的交通管理的所有工作。

TuSimple正在建立一個(gè)自主貨運(yùn)網(wǎng)絡(luò),通過(guò)地圖繪制的路線,實(shí)現(xiàn)美國(guó)西南部的自主貨運(yùn),其選擇 MXNet作為其人工智能模型開發(fā)的基礎(chǔ)平臺(tái)。該公司正將自動(dòng)駕駛技術(shù)引入一個(gè)長(zhǎng)期存在司機(jī)短缺問(wèn)題,以及事故、輪班和燃油效率低下導(dǎo)致的高開銷問(wèn)題的行業(yè)。

TuSimple 之所以選擇 MXNet,是因?yàn)槠淇缙脚_(tái)可移植性、訓(xùn)練效率以及可擴(kuò)展性。其中一個(gè)因素是將 MXNet 與 TensorFlow 進(jìn)行比較的基準(zhǔn)測(cè)試,結(jié)果發(fā)現(xiàn)在有 8 個(gè) GPU 的環(huán)境中,MXNet 速度更快,存儲(chǔ)更高效,也更準(zhǔn)確。

MXNET 的重要意義

| 數(shù)據(jù)科學(xué)家

機(jī)器學(xué)習(xí)是數(shù)據(jù)科學(xué)領(lǐng)域的重要組成部分。對(duì)于不熟悉深度學(xué)習(xí)模型開發(fā)重點(diǎn)的人,MXNet 是一個(gè)很好的起點(diǎn)。其廣泛的語(yǔ)言支持、Gluon API和靈活性非常適合開發(fā)自己的深度學(xué)習(xí)技能組合的組織。Amazon 的支持可確保 MXNet 能夠長(zhǎng)期使用,且第三方生態(tài)系統(tǒng)將繼續(xù)發(fā)展。許多專家建議將 MXNet 作為未來(lái)深入學(xué)習(xí)更復(fù)雜框架的良好起點(diǎn)。

|機(jī)器學(xué)習(xí)研究人員

研究人員經(jīng)常使用 MXNet 快速進(jìn)行原型設(shè)計(jì),從而更輕松地將研究想法轉(zhuǎn)換為模型并評(píng)估結(jié)果。它還支持命令式編程,為研究人員提供了更多的計(jì)算控制。由于 CPU 和 GPU 的利用率高,與其他框架相比,此特定框架在某些類型的模型上也表現(xiàn)出顯著的性能。

| 軟件開發(fā)者

靈活性是軟件工程中很有價(jià)值的東西,而 MXNet 是深度學(xué)習(xí)框架中最靈活的一種。除了其廣泛的語(yǔ)言支持之外,它還可以處理各種數(shù)據(jù)格式(包括 Amazon S3 云存儲(chǔ)),并且可以放大或縮小以適合大多數(shù)平臺(tái)。2019 年,MXNet 增加了對(duì)優(yōu)步開發(fā)的分布式學(xué)習(xí)框架Horovod的支持。這為軟件工程師在指定部署環(huán)境(可能包括從筆記本電腦到云服務(wù)器等各種環(huán)境)方面提供了更大的靈活性。

帶 NVIDIA GPU 的 MXNET

MXNet 推薦使用 NVIDIA GPU 來(lái)訓(xùn)練和部署神經(jīng)網(wǎng)絡(luò),因?yàn)樗峁┑挠?jì)算能力明顯高于 CPU,從而大幅提升訓(xùn)練和推理性能。開發(fā)者可以通過(guò)NGC(NVIDIA GPU 云)輕松開始使用 MXNet。這里,用戶可以在其中提取容器,這些容器具有可用于各種任務(wù)(例如計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理等)的預(yù)訓(xùn)練模型,且所有依賴項(xiàng)和框架位于一個(gè)容器中。借助 NVIDATensorRT,當(dāng)使用 GPU 時(shí),可顯著提升 MXNet 上的推理性能。

面向開發(fā)者的 NVIDIA 深度學(xué)習(xí)

GPU 加速深度學(xué)習(xí)框架能夠?yàn)樵O(shè)計(jì)和訓(xùn)練自定義深度神經(jīng)網(wǎng)絡(luò)帶來(lái)靈活性,并為 Python 和 C/C++ 等常用編程語(yǔ)言提供編程接口。MXNet、PyTorch、TensorFlow 等廣泛使用的深度學(xué)習(xí)框架依賴于 NVIDIA GPU 加速庫(kù),能夠提供高性能的多 GPU 加速訓(xùn)練。

NVIDIA GPU 加速的端到端數(shù)據(jù)科學(xué)

基于CUDA-X AI創(chuàng)建的 NVIDIARAPIDS開源軟件庫(kù)套件使您完全能夠在 GPU 上執(zhí)行端到端數(shù)據(jù)科學(xué)和分析流程。此套件依靠 NVIDIA CUDA 基元進(jìn)行低級(jí)別計(jì)算優(yōu)化,但通過(guò)用戶友好型 Python 接口實(shí)現(xiàn)了 GPU 并行化和高帶寬顯存速度。

借助 RAPIDS GPU DataFrame,數(shù)據(jù)可以通過(guò)一個(gè)類似 Pandas 的接口加載到 GPU 上,然后用于各種連接的機(jī)器學(xué)習(xí)和圖形分析算法,而無(wú)需離開 GPU。這種級(jí)別的互操作性是通過(guò) Apache Arrow 這樣的庫(kù)實(shí)現(xiàn)的。這可加速端到端流程(從數(shù)據(jù)準(zhǔn)備到機(jī)器學(xué)習(xí),再到深度學(xué)習(xí))。

RAPIDS 支持在許多熱門數(shù)據(jù)科學(xué)庫(kù)之間共享設(shè)備內(nèi)存。這樣可將數(shù)據(jù)保留在 GPU 上,并省去了來(lái)回復(fù)制主機(jī)內(nèi)存的高昂成本。

原文標(biāo)題:NVIDIA 大講堂 | 什么是 APACHE MXNET ?

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5309

    瀏覽量

    106467
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4949

    瀏覽量

    131311
  • Apache
    +關(guān)注

    關(guān)注

    0

    文章

    64

    瀏覽量

    12728
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122820

原文標(biāo)題:NVIDIA 大講堂 | 什么是 APACHE MXNET ?

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    恒訊科技深度解析:阿帕奇服務(wù)器工作原理

    阿帕奇服務(wù)器(Apache HTTP Server)作為全球使用最廣泛的開源Web服務(wù)器軟件,其工作原理融合了多進(jìn)程架構(gòu)、模塊化設(shè)計(jì)與高效的請(qǐng)求處理流程。以下從核心機(jī)制、運(yùn)行模式及優(yōu)化策略三方面解析
    的頭像 發(fā)表于 05-22 09:37 ?402次閱讀

    在OpenVINO?工具套件的深度學(xué)習(xí)工作臺(tái)中無(wú)法導(dǎo)出INT8模型怎么解決?

    無(wú)法在 OpenVINO? 工具套件的深度學(xué)習(xí) (DL) 工作臺(tái)中導(dǎo)出 INT8 模型
    發(fā)表于 03-06 07:54

    如何排除深度學(xué)習(xí)工作臺(tái)上量化OpenVINO?的特定層?

    無(wú)法確定如何排除要在深度學(xué)習(xí)工作臺(tái)上量化OpenVINO?特定層
    發(fā)表于 03-06 07:31

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢(shì),導(dǎo)致戰(zhàn)爭(zhēng)形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?541次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?868次閱讀

    AIGC是什么及其應(yīng)用 AIGC的定義和工作原理

    的發(fā)展得益于深度學(xué)習(xí)的進(jìn)步,特別是神經(jīng)網(wǎng)絡(luò)模型,如生成對(duì)抗網(wǎng)絡(luò)(GANs)、變分自編碼器(VAEs)和自回歸模型等。 AIGC的工作原理 AIGC的工作原理可以分為以下幾個(gè)步驟: 數(shù)據(jù)
    的頭像 發(fā)表于 11-22 16:00 ?4349次閱讀

    4G模組SD卡接口編程:深度學(xué)習(xí)

    今天我們需要深度學(xué)習(xí)的是4G模組SD卡接口編程,以我常用的模組Air724UG為,分享給大家。
    的頭像 發(fā)表于 11-20 23:14 ?698次閱讀
    4G模組SD卡接口編程:<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>

    NPU的工作原理解析

    隨著人工智能技術(shù)的快速發(fā)展,深度學(xué)習(xí)算法在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。為了滿足日益增長(zhǎng)的計(jì)算需求,NPU應(yīng)運(yùn)而生。 NPU的基本概念 NPU是一種專用硬件加速器,專門為深度
    的頭像 發(fā)表于 11-15 09:17 ?2955次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    設(shè)計(jì)的硬件加速器,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對(duì)深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和G
    的頭像 發(fā)表于 11-14 15:17 ?1932次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?667次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1390次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2906次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    。FPGA的優(yōu)勢(shì)就是可編程可配置,邏輯資源多,功耗低,而且賽靈思等都在極力推廣。不知道FPGA做深度學(xué)習(xí)未來(lái)會(huì)怎樣發(fā)展,能走多遠(yuǎn),你怎么看。 A:FPGA 在深度
    發(fā)表于 09-27 20:53

    AI入門之深度學(xué)習(xí):基本概念

    1、什么是深度學(xué)習(xí) 1.1、機(jī)器學(xué)習(xí) ?? ? 圖1:計(jì)算機(jī)有效工作的常用方法:程序員編寫規(guī)則(程序),計(jì)算機(jī)遵循這些規(guī)則將輸入數(shù)據(jù)轉(zhuǎn)換為適當(dāng)?shù)拇鸢浮_@一方法被稱為符號(hào)主義人工智能,適
    的頭像 發(fā)表于 08-08 11:24 ?2435次閱讀
    AI入門之<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>:基本<b class='flag-5'>概念</b>篇

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動(dòng)駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1155次閱讀