這是 解釋 Magnum IO 系列的第三篇文章,目的是描述現(xiàn)代數(shù)據(jù)中心的IO子系統(tǒng)Magnum IO的體系結(jié)構(gòu)、組件和優(yōu)點(diǎn)。
本系列中的 第一個(gè)崗位 介紹了 Magnum IO 體系結(jié)構(gòu);將其定位在更廣泛的 CUDA 、 CUDA -X 和垂直應(yīng)用程序域中;并列出了體系結(jié)構(gòu)的四個(gè)主要組件。 第二崗位 深入研究了 Magnum IO 的網(wǎng)絡(luò) IO 組件。第三篇文章涵蓋了兩個(gè)較短的領(lǐng)域:網(wǎng)絡(luò)適配器或交換機(jī)中的計(jì)算和 IO 管理。無(wú)論您是對(duì) InfiniBand 還是以太網(wǎng)感興趣, NVIDIA Mellanox 解決方案都涵蓋了您。
HDR 200G InfiniBand 和 NDR 400G ,下一代網(wǎng)絡(luò)
InfiniBand 是 AI 超級(jí)計(jì)算的理想互連選擇。根據(jù) 2020 年 11 月的 500 強(qiáng)超級(jí)計(jì)算機(jī)排行榜,全球前 10 強(qiáng)超級(jí)計(jì)算機(jī)中有 8 臺(tái)正在使用它,前 100 強(qiáng)中有 60 臺(tái)正在使用它。 InfiniBand 還加速了綠色 500 強(qiáng)超級(jí)計(jì)算機(jī)的速度。作為一種基于標(biāo)準(zhǔn)的互連, InfiniBand 享受著不斷開(kāi)發(fā)的新功能,以實(shí)現(xiàn)更高的應(yīng)用程序性能和可擴(kuò)展性。
InfiniBand 技術(shù)基于四個(gè)主要基礎(chǔ):
一種端點(diǎn),可以在網(wǎng)絡(luò)級(jí)別執(zhí)行和管理所有網(wǎng)絡(luò)功能,從而增加 CPU 或 GPU 時(shí)間,專(zhuān)門(mén)用于實(shí)際應(yīng)用程序。 由于端點(diǎn)位于 CPU / GPU 內(nèi)存附近,因此它還可以有效地管理內(nèi)存操作,例如使用 RDMA 、 GPUDirect RDMA 和 GPUDirect 存儲(chǔ)。
一種基于純軟件定義網(wǎng)絡(luò)( SDN )的、按規(guī)模設(shè)計(jì)的交換網(wǎng)絡(luò)。 例如, InfiniBand 交換機(jī)不需要每個(gè)交換機(jī)設(shè)備中都有嵌入式服務(wù)器來(lái)管理交換機(jī)和運(yùn)行其操作系統(tǒng)。這使得 InfiniBand 成為與其他網(wǎng)絡(luò)相比性?xún)r(jià)比領(lǐng)先的網(wǎng)絡(luò)結(jié)構(gòu)。簡(jiǎn)單的交換機(jī)架構(gòu)為其他技術(shù)創(chuàng)新留下了空間,例如在網(wǎng)絡(luò)計(jì)算中,在數(shù)據(jù)通過(guò)網(wǎng)絡(luò)傳輸時(shí)對(duì)其進(jìn)行操作。一個(gè)重要的例子是可伸縮的層次聚合和歸約協(xié)議( SHARP )技術(shù),它已經(jīng)證明了科學(xué)和深度學(xué)習(xí)應(yīng)用框架的巨大性能改進(jìn)。
從一個(gè)地方集中管理整個(gè) InfiniBand 網(wǎng)絡(luò)。 您可以使用通用的 IB 交換機(jī)構(gòu)建塊設(shè)計(jì)和構(gòu)建任何類(lèi)型的網(wǎng)絡(luò)拓?fù)?,并為其目?biāo)應(yīng)用程序定制和優(yōu)化數(shù)據(jù)中心網(wǎng)絡(luò)。不需要為網(wǎng)絡(luò)的不同部分創(chuàng)建不同的交換機(jī)配置,也不需要處理多種復(fù)雜的網(wǎng)絡(luò)算法。 InfiniBand 的創(chuàng)建是為了提高性能和減少運(yùn)營(yíng)成本。
前后兼容。 InfiniBand 是帶有開(kāi)放 API 的開(kāi)源軟件。
在 SuperComputing 20 上, NVIDIA 宣布了第七代 NVIDIA Mellanox InfiniBand 架構(gòu),其特點(diǎn)是 NDR 400Gb / s (每車(chē)道 100 Gb / s ) InfiniBand 。這使人工智能開(kāi)發(fā)人員和科研人員能夠以最快的網(wǎng)絡(luò)性能應(yīng)對(duì)世界上最具挑戰(zhàn)性的問(wèn)題。圖 1 顯示 InfiniBand 繼續(xù)使用 NDR InfiniBand 設(shè)置性能記錄:
每端口帶寬為 400Gb / s ,數(shù)據(jù)傳輸速率提高 2 倍。
4 倍的消息傳遞接口( MPI )性能,適用于所有對(duì)所有操作,新的網(wǎng)絡(luò)計(jì)算加速引擎適用于所有對(duì)所有操作。
更高的交換機(jī)基數(shù),支持 64 個(gè) 400Gb / s 端口或 128 個(gè) 200Gb / s 端口。更高的基數(shù)可以在三跳 Dragonfly +網(wǎng)絡(luò)拓?fù)渲袠?gòu)建連接超過(guò)一百萬(wàn)個(gè)節(jié)點(diǎn)的低延遲網(wǎng)絡(luò)拓?fù)洹?/p>
最大的高性能交換機(jī)系統(tǒng),基于無(wú)阻塞、兩層胖樹(shù)拓?fù)湓O(shè)計(jì),提供 2048 個(gè) 400Gb / s 端口或 4096 個(gè) 200Gb / s 端口,共 1 。 6petabit 的雙向數(shù)據(jù)吞吐量。
通過(guò)夏普技術(shù)提高了人工智能網(wǎng)絡(luò)加速,使網(wǎng)絡(luò)中的大型消息縮減操作的容量提高了 32 倍。
圖 1 。 NDR 400Gb / s InfiniBand 生成中的網(wǎng)絡(luò)改進(jìn)。
高速以太網(wǎng): 200G 和 400G 以太網(wǎng)
以太網(wǎng)和 InfiniBand 各有其獨(dú)特的優(yōu)勢(shì)。 NVIDIA Mellanox 用這對(duì)溶液覆蓋堿基。有幾種情況下,客戶(hù)首選基于以太網(wǎng)的解決方案。有些存儲(chǔ)系統(tǒng)只能使用以太網(wǎng)。人們對(duì)安全性越來(lái)越感興趣,現(xiàn)有的協(xié)議是 IPSec ,這在 InfiniBand 上是不可用的。精確時(shí)間協(xié)議( PTP )用于以亞微秒的粒度在整個(gè)網(wǎng)絡(luò)中同步時(shí)鐘,例如用于高頻交易。在許多情況下,基于以太網(wǎng)的編排和資源調(diào)配工具、監(jiān)控安全性、性能調(diào)優(yōu)、法規(guī)遵從性或技術(shù)支持的分析工具方面的長(zhǎng)期專(zhuān)業(yè)知識(shí)是推動(dòng)客戶(hù)選擇的原因,而不是其他成本或性能問(wèn)題。
以太網(wǎng)和 InfiniBand 解決方案都與廣泛關(guān)注的最佳實(shí)踐工具(如 sFlow 和 NetFlow 網(wǎng)絡(luò)監(jiān)控和分析解決方案)以及自動(dòng)化工具(如 Ansible 、 Puppet 和 SaltStack )進(jìn)行互操作。
以太網(wǎng)已經(jīng)變得無(wú)處不在,部分原因是它被認(rèn)為易于配置和管理。但是, GPUDirect RDMA 和 GPUDirect Storage over Ethernet 要求將網(wǎng)絡(luò)結(jié)構(gòu)配置為支持 RDMA over Converged Ethernet ( RoCE )。在大多數(shù)網(wǎng)絡(luò)供應(yīng)商的設(shè)備上, RoCE 的配置和管理非常復(fù)雜。 NVIDIA Mellanox 以太網(wǎng)交換機(jī)通過(guò)使用單個(gè)命令啟用 RoCE 以及提供 RoCE 特定的可見(jiàn)性和故障排除功能,消除了這種復(fù)雜性。
NVIDIA Mellanox 以太網(wǎng)交換機(jī)現(xiàn)在的運(yùn)行速度高達(dá) 400 Gb / s ,提供了最高級(jí)別的性能,因?yàn)樗鼈兲峁┝耸袌?chǎng)上所有以太網(wǎng)交換機(jī)中最低的延遲數(shù)據(jù)包轉(zhuǎn)發(fā)。 NVIDIA Mellanox 以太網(wǎng)交換機(jī)還提供獨(dú)特的擁塞避免創(chuàng)新,為基于 RoCE 的工作負(fù)載提供應(yīng)用程序級(jí)性能優(yōu)勢(shì):
圖 2 。 NVIDIA 配置了 RoCE 的 Mellanox 交換機(jī)在應(yīng)用程序被交換機(jī)阻塞期間的暫停時(shí)間可以忽略不計(jì),而其他供應(yīng)商的解決方案可能會(huì)有隨時(shí)間變化的顯著延遲。
以太網(wǎng)交換機(jī)已被證明具有可擴(kuò)展性,世界上所有最大的數(shù)據(jù)中心都使用簡(jiǎn)單且易于理解的葉和脊拓?fù)浣Y(jié)構(gòu)運(yùn)行純以太網(wǎng)結(jié)構(gòu)。來(lái)自 NVIDIA 的以太網(wǎng)結(jié)構(gòu)易于自動(dòng)化, NVIDIA 提供的交鑰匙 產(chǎn)品就緒自動(dòng)化工具 免費(fèi)提供并發(fā)布在 GitHub 上。
NVIDIA 的高速以太網(wǎng)交換機(jī)目前提供 100GbE 、 200GbE 甚至 400GbE 的速度,以實(shí)現(xiàn)基于以太網(wǎng)的存儲(chǔ)和 GPU 連接的最高性能。
網(wǎng)絡(luò)計(jì)算中的 InfiniBand
在網(wǎng)絡(luò)計(jì)算引擎中,指位于網(wǎng)絡(luò)適配器或交換機(jī)的數(shù)據(jù)路徑上的預(yù)先配置的計(jì)算引擎。這些引擎可以在網(wǎng)絡(luò)內(nèi)傳輸數(shù)據(jù)時(shí)處理數(shù)據(jù)或?qū)?shù)據(jù)執(zhí)行預(yù)定義的算法任務(wù)。這類(lèi)引擎的兩個(gè)例子是硬件 MPI 標(biāo)記匹配和 InfiniBand SHARP 。
硬件標(biāo)簽匹配引擎
MPI 標(biāo)準(zhǔn)允許基于嵌入在消息中的標(biāo)記來(lái)接收匹配的消息。處理每條消息以評(píng)估其標(biāo)記是否符合感興趣的條件既耗時(shí)又浪費(fèi)時(shí)間。
MPI 發(fā)送/接收操作需要匹配的源和目標(biāo)消息參數(shù)才能將數(shù)據(jù)傳遞到正確的目標(biāo)。匹配的順序必須遵循發(fā)送和接收的發(fā)布順序。提供高效標(biāo)記匹配支持的關(guān)鍵挑戰(zhàn)包括:
管理標(biāo)記匹配所需的元數(shù)據(jù)。
制作數(shù)據(jù)的臨時(shí)副本以最小化標(biāo)記匹配和數(shù)據(jù)傳遞之間的延遲。
跟蹤未匹配的已過(guò)帳接收。
處理意外消息到達(dá)。
重疊標(biāo)簽匹配和相關(guān)的數(shù)據(jù)傳遞與正在進(jìn)行的計(jì)算。
支持異步、基于硬件的標(biāo)記匹配和數(shù)據(jù)傳遞是 ConnectX-6 (或更高版本)網(wǎng)絡(luò)適配器的一部分?;诰W(wǎng)絡(luò)硬件的標(biāo)記匹配減少了多個(gè) MPI 操作的延遲,同時(shí)也增加了 MPI 計(jì)算和通信之間的重疊(圖 3 和圖 4 )。
圖 3 。俄亥俄大學(xué) MVAPICH 團(tuán)隊(duì)在德克薩斯州高級(jí)計(jì)算中心 Frontera 超級(jí)計(jì)算機(jī)上演示了網(wǎng)絡(luò)計(jì)算標(biāo)記匹配的加速。
圖 4 。 InfiniBand 在網(wǎng)絡(luò)計(jì)算標(biāo)記匹配引擎中的應(yīng)用程序性能結(jié)果,在德克薩斯高級(jí)計(jì)算中心 Frontera 超級(jí)計(jì)算機(jī)上進(jìn)行了測(cè)試。測(cè)試由 OSU MVAPICH 團(tuán)隊(duì)完成。
SHARP :可擴(kuò)展的分層聚合和歸約協(xié)議
NVIDIA Mellanox InfiniBand SHARP 通過(guò)在穿越網(wǎng)絡(luò)時(shí)處理數(shù)據(jù)聚合和還原操作,提高了集合操作的性能,消除了在端點(diǎn)之間多次發(fā)送數(shù)據(jù)的需要。這種創(chuàng)新的方法不僅減少了通過(guò)網(wǎng)絡(luò)的數(shù)據(jù)量,而且提供了額外的好處,包括釋放寶貴的 CPU 資源用于計(jì)算,而不是用它們來(lái)處理通信開(kāi)銷(xiāo)。它還以異步方式進(jìn)行此類(lèi)通信,與主機(jī)處理狀態(tài)無(wú)關(guān)。
如果沒(méi)有 SHARP ,數(shù)據(jù)必須從每個(gè)端點(diǎn)發(fā)送到交換機(jī),返回到計(jì)算集合的端點(diǎn),返回到交換機(jī),然后返回到端點(diǎn)。這是四個(gè)遍歷步驟。使用 SHARP 時(shí),集合操作發(fā)生在交換機(jī)中,因此遍歷步驟的數(shù)量減少了一半:從端點(diǎn)到交換機(jī),再返回。這使得這種集體操作的帶寬提高了 2 倍, MPI allreduce 延遲降低了 7 倍(圖 5 )。當(dāng)然,吞吐量需求開(kāi)銷(xiāo)也會(huì)從 CPU 或 GPU 中除去,否則這些開(kāi)銷(xiāo)將用于計(jì)算。
支持的操作:
浮點(diǎn)數(shù)據(jù): barrier 、 reduce 、 allreduce 、 broadcast 、 gather 和 allgather
有符號(hào)和無(wú)符號(hào)整數(shù)數(shù)據(jù):大小為 64 、 32 和 16 位的操作數(shù)
支持的縮減操作: sum 、 min 、 max 、 minloc 、 maxloc 和按位 and 、 OR 和 XOR 。
SHARP 技術(shù)集成在大多數(shù)開(kāi)源和商業(yè) MPI 軟件包以及 OpenSHMEM 、 NCCL 和其他 IO 框架中。
圖 5 。加速網(wǎng)絡(luò)計(jì)算夏普技術(shù):提高 NCCL 所有吞吐量和減少 MPI 延遲。
InfiniBand 和以太網(wǎng) IO 管理
雖然提高性能是最終用戶(hù)的興趣所在,而清晰的體系結(jié)構(gòu)有助于開(kāi)發(fā)人員,但 IO 管理對(duì)于您作為管理員和所服務(wù)的最終用戶(hù)來(lái)說(shuō)至關(guān)重要。 NVIDIA Mellanox NetQ 和 UFM 管理平臺(tái)使 IT 經(jīng)理能夠輕松配置、管理和優(yōu)化其以太網(wǎng)連接數(shù)據(jù)中心( NetQ )或 InfiniBand 連接數(shù)據(jù)中心( UFM )操作。
以太網(wǎng) NetQ
圖 6 。 NetQ 在以太網(wǎng)中增加了監(jiān)控平面。
NVIDIA Mellanox 網(wǎng)絡(luò)電話 是一個(gè)高度可擴(kuò)展的現(xiàn)代網(wǎng)絡(luò)操作工具集,可實(shí)時(shí)提供開(kāi)放以太網(wǎng)的可見(jiàn)性、故障排除和生命周期管理。 NetQ 提供了關(guān)于數(shù)據(jù)中心和校園以太網(wǎng)健康狀況的可操作的見(jiàn)解和操作智能,從容器或主機(jī)一直到交換機(jī)和端口,支持 NetDevOps 方法。 NetQ 是領(lǐng)先的以太網(wǎng)網(wǎng)絡(luò)操作工具,它使用遙測(cè)技術(shù)從單個(gè) GUI 界面進(jìn)行深層次的故障排除、可見(jiàn)性和自動(dòng)化工作流,減少維護(hù)和網(wǎng)絡(luò)停機(jī)時(shí)間。
NetQ 還可以作為一種安全的云服務(wù)提供,這使得安裝、部署和擴(kuò)展網(wǎng)絡(luò)更加容易?;谠频?NetQ 部署提供了即時(shí)升級(jí)、零維護(hù)和最小化設(shè)備管理工作。
通過(guò)添加完整的生命周期管理功能, NetQ 將輕松升級(jí)、配置和部署網(wǎng)絡(luò)元素的能力與一整套操作功能結(jié)合起來(lái),如可見(jiàn)性、故障排除、驗(yàn)證、跟蹤和比較回溯功能。
NetQ 包括 Mellanox What Just ochapped ( WJH )先進(jìn)的流式遙測(cè)技術(shù),它通過(guò)提供異常網(wǎng)絡(luò)行為的可操作細(xì)節(jié),超越了傳統(tǒng)的遙測(cè)解決方案。傳統(tǒng)的解決方案試圖通過(guò)分析網(wǎng)絡(luò)計(jì)數(shù)器和統(tǒng)計(jì)數(shù)據(jù)包采樣來(lái)推斷網(wǎng)絡(luò)問(wèn)題的根本原因。 WJH 消除了網(wǎng)絡(luò)故障排除中的猜測(cè)。
WJH 解決方案利用 NVIDIA Mellanox Spe CTR um 系列以太網(wǎng)交換機(jī) ASIC 內(nèi)置的獨(dú)特硬件功能,以比基于軟件或固件的解決方案更快的多 TB 速度檢查數(shù)據(jù)包。 WJH 可以幫助診斷和修復(fù)數(shù)據(jù)中心網(wǎng)絡(luò),包括軟件問(wèn)題。 WJH 以線速率檢查所有端口上的數(shù)據(jù)包,其速度超過(guò)了傳統(tǒng)的深度數(shù)據(jù)包檢查( DPI )解決方案。 WJH 為您節(jié)省了數(shù)小時(shí)的計(jì)算機(jī)軟件故障排除、維護(hù)和維修現(xiàn)場(chǎng)技術(shù)支持服務(wù)。
InfiniBand 統(tǒng)一結(jié)構(gòu)管理器
圖 7 。 InfiniBand Unified Fabric Manager 的主要功能。
NVIDIA Mellanox InfiniBand Unified Fabric Manager UFM 平臺(tái)徹底改變了數(shù)據(jù)中心網(wǎng)絡(luò)管理。通過(guò)將增強(qiáng)的實(shí)時(shí)網(wǎng)絡(luò)遙測(cè)與 AI 支持的網(wǎng)絡(luò)智能和分析相結(jié)合, UFM 平臺(tái)使 IT 經(jīng)理能夠發(fā)現(xiàn)運(yùn)行異常并預(yù)測(cè)網(wǎng)絡(luò)故障,以進(jìn)行預(yù)防性維護(hù)。
UFM 平臺(tái)包括多個(gè)級(jí)別的解決方案和功能,以滿(mǎn)足數(shù)據(jù)中心的需求和要求。在基礎(chǔ)層面, UFM 遙測(cè)平臺(tái)提供網(wǎng)絡(luò)驗(yàn)證工具,并監(jiān)控網(wǎng)絡(luò)性能和狀況。例如,它捕獲豐富的實(shí)時(shí)網(wǎng)絡(luò)遙測(cè)信息、工作負(fù)載使用數(shù)據(jù)和系統(tǒng)配置,然后將其流式傳輸?shù)揭讯x的內(nèi)部部署或基于云的數(shù)據(jù)庫(kù)以供進(jìn)一步分析。
中端 UFM 企業(yè)平臺(tái)增加了增強(qiáng)的網(wǎng)絡(luò)監(jiān)視、管理、工作負(fù)載優(yōu)化和定期配置檢查。除了包括所有 UFM 遙測(cè)服務(wù)外,它還提供網(wǎng)絡(luò)設(shè)置、連接驗(yàn)證和安全電纜管理功能、自動(dòng)網(wǎng)絡(luò)發(fā)現(xiàn)和網(wǎng)絡(luò)供應(yīng)、流量監(jiān)控和擁塞發(fā)現(xiàn)。 UFM Enterprise 還支持作業(yè)調(diào)度器配置和與 Slurm 或 Platform LSF 的集成,以及與 OpenStack 、 Azure 云和 VMware 的網(wǎng)絡(luò)配置和集成。
增強(qiáng)型 UFM 網(wǎng)絡(luò)人工智能平臺(tái)包括所有 UFM 遙測(cè)和 UFM 企業(yè)服務(wù)。網(wǎng)絡(luò)人工智能平臺(tái)的獨(dú)特優(yōu)勢(shì)在于,隨著時(shí)間的推移,它能夠捕獲豐富的遙測(cè)信息,并使用深度學(xué)習(xí)算法。平臺(tái)學(xué)習(xí)數(shù)據(jù)中心的“心跳”、操作模式、條件、使用情況和工作負(fù)載網(wǎng)絡(luò)特征。它建立了一個(gè)增強(qiáng)的遙測(cè)信息數(shù)據(jù)庫(kù),并發(fā)現(xiàn)事件之間的相關(guān)性。它檢測(cè)性能下降、使用情況和配置文件隨時(shí)間的變化,并提供異常系統(tǒng)和應(yīng)用程序行為以及潛在系統(tǒng)故障的警報(bào)。它還可以執(zhí)行糾正措施。
網(wǎng)絡(luò)人工智能平臺(tái)可以轉(zhuǎn)換和關(guān)聯(lián)數(shù)據(jù)中心心跳的變化,以指示未來(lái)性能下降或數(shù)據(jù)中心計(jì)算資源的異常使用。這種變化和相關(guān)性觸發(fā)預(yù)測(cè)分析,并啟動(dòng)警報(bào),指示異常的系統(tǒng)和應(yīng)用程序行為,以及潛在的系統(tǒng)故障。系統(tǒng)管理員可以快速檢測(cè)和響應(yīng)此類(lèi)潛在的安全威脅,并以有效的方式解決即將發(fā)生的故障,從而節(jié)省運(yùn)營(yíng)成本并維護(hù)最終用戶(hù) SLA 。隨著時(shí)間的推移,通過(guò)收集額外的系統(tǒng)數(shù)據(jù),可預(yù)測(cè)性得到了優(yōu)化。
關(guān)于作者
CJ Newburn 是 NVIDIA 計(jì)算軟件組的首席架構(gòu)師,他領(lǐng)導(dǎo) HPC 戰(zhàn)略和軟件產(chǎn)品路線圖,特別關(guān)注系統(tǒng)和規(guī)模編程模型。 CJ 是 Magnum IO 的架構(gòu)師和 GPU Direct Storage 的聯(lián)合架構(gòu)師,與能源部領(lǐng)導(dǎo) Summit Dev 系列產(chǎn)品,并領(lǐng)導(dǎo) HPC 容器咨詢(xún)委員會(huì)。在過(guò)去的 20 年里, CJ 為硬件和軟件技術(shù)做出了貢獻(xiàn),擁有 100 多項(xiàng)專(zhuān)利。他是一個(gè)社區(qū)建設(shè)者,熱衷于將硬件和軟件平臺(tái)的核心功能從 HPC 擴(kuò)展到 AI 、數(shù)據(jù)科學(xué)和可視化。在卡內(nèi)基梅隆大學(xué)獲得博士學(xué)位之前, CJ 曾在幾家初創(chuàng)公司工作過(guò),致力于語(yǔ)音識(shí)別器和 VLIW 超級(jí)計(jì)算機(jī)。他很高興能為他媽媽使用的批量產(chǎn)品工作。
Kushal Datta 是 Magnum IO 的產(chǎn)品負(fù)責(zé)人,專(zhuān)注于加速多 GPU 系統(tǒng)上的 AI 、數(shù)據(jù)分析和 HPC 應(yīng)用程序。他的興趣包括創(chuàng)建新的工具和方法,以提高復(fù)雜人工智能和大規(guī)模系統(tǒng)上的科學(xué)應(yīng)用的總掛鐘時(shí)間。他發(fā)表了 20 多篇學(xué)術(shù)論文、多篇白皮書(shū)和博客文章。他擁有五項(xiàng)美國(guó)專(zhuān)利。他在北卡羅來(lái)納大學(xué)夏洛特分校獲得歐洲經(jīng)委會(huì)博士學(xué)位,并在印度賈達(dá)夫普爾大學(xué)獲得計(jì)算機(jī)科學(xué)學(xué)士學(xué)位。
Gilad Shainer 擔(dān)任 NVIDIA Mellanox networking 的營(yíng)銷(xiāo)高級(jí)副總裁,專(zhuān)注于高性能計(jì)算、人工智能和 InfiniBand 技術(shù)。吉拉德于 2001 年加入梅蘭諾克斯公司,擔(dān)任設(shè)計(jì)工程師,之后自 2005 年起擔(dān)任高級(jí)營(yíng)銷(xiāo)管理職務(wù)。他是 HPC-AI 咨詢(xún)委員會(huì)組織的主席、 UCF 和 CCIX 聯(lián)合會(huì)的主席、 IBTA 的成員以及 PCISIG PCI-X 和 PCIe 規(guī)范的貢獻(xiàn)者。他在高速網(wǎng)絡(luò)領(lǐng)域擁有多項(xiàng)專(zhuān)利。他因?qū)W(wǎng)絡(luò)計(jì)算技術(shù)的核心直接貢獻(xiàn)獲得了 2015 年 R & D100 獎(jiǎng),并因?qū)y(tǒng)一通信 X ( UCX )技術(shù)的貢獻(xiàn)獲得了 2019 年 R & D100 獎(jiǎng)。吉拉德?lián)碛幸陨欣砉W(xué)院電氣工程碩士學(xué)位和理學(xué)學(xué)士學(xué)位。
David Iles 是 NVIDIA 的以太網(wǎng)交換高級(jí)主管。 Iles 先生曾在 3COM 、 Cisco Systems 、 Nortel Networks 和 IBM 擔(dān)任領(lǐng)導(dǎo)職務(wù),在那里他推廣先進(jìn)的網(wǎng)絡(luò)技術(shù),包括高速以太網(wǎng)、 4-7 層交換、支持虛擬機(jī)的網(wǎng)絡(luò)和軟件定義的網(wǎng)絡(luò)。作為一名終身技術(shù)專(zhuān)家, David 發(fā)明了新的方法來(lái)測(cè)試 4-7 層交換機(jī)的性能,并在數(shù)據(jù)中心網(wǎng)絡(luò)方面貢獻(xiàn)了多項(xiàng)專(zhuān)利。
審核編輯:郭婷
-
以太網(wǎng)
+關(guān)注
關(guān)注
41文章
5642瀏覽量
176064 -
NVIDIA
+關(guān)注
關(guān)注
14文章
5309瀏覽量
106477 -
人工智能
+關(guān)注
關(guān)注
1807文章
49035瀏覽量
249782
發(fā)布評(píng)論請(qǐng)先 登錄
DPU核心技術(shù)論文再次登陸體系結(jié)構(gòu)領(lǐng)域旗艦期刊《IEEE Transactions on Computers》

睿創(chuàng)微納AI芯片技術(shù)登上國(guó)際計(jì)算機(jī)體系結(jié)構(gòu)領(lǐng)域頂級(jí)會(huì)議
λ-IO:存儲(chǔ)計(jì)算下的IO棧設(shè)計(jì)

《RISC-V 體系結(jié)構(gòu)編程與實(shí)踐(第2版)》第一章
【「RISC-V體系結(jié)構(gòu)編程與實(shí)踐」閱讀體驗(yàn)】-- SBI及NEMU環(huán)境
【「RISC-V體系結(jié)構(gòu)編程與實(shí)踐」閱讀體驗(yàn)】-- 前言與開(kāi)篇
GPGPU體系結(jié)構(gòu)優(yōu)化方向(2)

無(wú)刷DC門(mén)驅(qū)動(dòng)系統(tǒng)的體系結(jié)構(gòu)

名單公布!【書(shū)籍評(píng)測(cè)活動(dòng)NO.45】RISC-V體系結(jié)構(gòu)編程與實(shí)踐(第二版)
嵌入式系統(tǒng)的體系結(jié)構(gòu)包括哪些
LDMOS的結(jié)構(gòu)和優(yōu)點(diǎn)
DCS分散控制系統(tǒng)的硬件體系結(jié)構(gòu)介紹

DCS的硬件體系結(jié)構(gòu)

io模塊的升級(jí)與技術(shù)革新

評(píng)論