電子發(fā)燒友網(wǎng)報導(dǎo)(文/程文智)GTC大會自2020年開始舉辦后,成為了AI開發(fā)者非常關(guān)注的一個會議,每次會議,NVIDIA的CEO黃仁勛都會發(fā)布一個主題演講,會介紹NVIDIA最新的進(jìn)展,以及重磅新品。本次GTC 2022春季大會也不例外。
GTC2022依然是在線上舉辦,NVIDIA首席執(zhí)行官黃仁勛在數(shù)字孿生技術(shù)支持下的虛擬NVIDIA總部大樓里發(fā)表了主題演講。在他看來,隨著AI技術(shù)的發(fā)展,AI的發(fā)展方向也在發(fā)生著改變,“第一波AI學(xué)習(xí)是感知和推理,比如圖像識別、語音理解、推薦視頻或商品;下一波AI的發(fā)展方向?qū)⑹?a target="_blank">機(jī)器人,也就是使用AI來規(guī)劃行動,數(shù)字機(jī)器人、虛擬形象和實(shí)體機(jī)器人將完成感知、規(guī)劃,并采取行動?!?br />
AI正在各個方向加速發(fā)展,包括新的架構(gòu)、新的學(xué)習(xí)策略、更大和更可靠的模型,同時,AI也在很多新的科學(xué)、新的應(yīng)用、新的行業(yè)等方面加速發(fā)展。比如說,如今的AI不僅學(xué)習(xí)理解圖像、聲音和語言,還正在學(xué)習(xí)生物學(xué)、化學(xué),甚至是量子物理學(xué)等等。
“數(shù)據(jù)中心規(guī)模的加速計算于機(jī)器學(xué)習(xí)相結(jié)合,可以將計算速度提高百萬倍。正式由于加速計算的推動,像Transfermer這樣的革命性AI模型和自監(jiān)督學(xué)習(xí)成為了可能?!秉S仁勛特別指出,“各公司都在處理和完善自己的數(shù)據(jù)、開發(fā)AI軟件,并使自己成為智能的生產(chǎn)商。他們 數(shù)據(jù)中心正在逐步演變?yōu)锳I工廠?!边@也意味著AI工廠時代的來臨。
為了應(yīng)對AI工廠時代對AI的需求,NVIDIA帶來了全新的Hopper架構(gòu)H100 GPU芯片、Grace CPU超級芯片、DGX H100系統(tǒng)、DGX SuperPOD、融合加速器H100 CNX、AI 超級計算機(jī)NVIDIA Eos、Spectrum-4、Jetson AGX Orin開發(fā)者套件等一系列新品。下面就讓我們來看一看這些新品都有什么特別之處。
H100 GPU:全新Hopper架構(gòu),800億個晶體管
NVIDIA H100 GPU集成了800億個晶體管,它也是NVIDIA發(fā)布的首款采用Hopper架構(gòu)的GPU。Hopper架構(gòu)是以美國計算機(jī)領(lǐng)域的先驅(qū)科學(xué)家Grace Hopper 的名字命名的,它將取代兩年前推出的 NVIDIA Ampere架構(gòu)。
據(jù)黃仁勛介紹,H100 是全球范圍內(nèi)最大的性能出眾的加速器,擁有革命性的 Transformer 引擎和高度可擴(kuò)展的 NVIDIA NVLink互連技術(shù)等突破性功能,可推動龐大的 AI 語言模型、深度推薦系統(tǒng)、基因組學(xué)和復(fù)雜數(shù)字孿生的發(fā)展。
從技術(shù)角度來看,H100帶來了6項(xiàng)突破性創(chuàng)新:
● 強(qiáng)大的性能—— H100 由 800 億個晶體管構(gòu)建而成,這些晶體管采用了專為 NVIDIA 加速計算需求設(shè)計的TSMC 4N工藝,因而能夠顯著提升AI、HPC、顯存帶寬、互連和通信的速度,并能夠?qū)崿F(xiàn)近 5TB/s 的外部互聯(lián)帶寬。H100 是首款支持 PCIe 5.0 的 GPU,也是首款采用 HBM3 的 GPU,可實(shí)現(xiàn) 3TB/s 的顯存帶寬。20個 H100 GPU 便可承托相當(dāng)于全球互聯(lián)網(wǎng)的流量,使其能夠幫助客戶推出先進(jìn)的推薦系統(tǒng)以及實(shí)時運(yùn)行數(shù)據(jù)推理的大型語言模型。
● 新的 Transformer 引擎—— Transformer 現(xiàn)在已成為自然語言處理的標(biāo)準(zhǔn)模型方案,也是深度學(xué)習(xí)模型領(lǐng)域最重要的模型之一。H100 加速器的 Transformer 引擎旨在不影響精度的情況下,將這些網(wǎng)絡(luò)的速度提升至上一代的六倍。
● 第二代安全多實(shí)例 GPU —— MIG 技術(shù)支持將單個 GPU 分為七個更小且完全獨(dú)立的實(shí)例,以處理不同類型的作業(yè)。與上一代產(chǎn)品相比,在云環(huán)境中 Hopper 架構(gòu)通過為每個 GPU 實(shí)例提供安全的多租戶配置,將 MIG 的部分能力擴(kuò)展了 7 倍。
● 機(jī)密計算—— H100 是全球首款具有機(jī)密計算功能的加速器,可保護(hù) AI 模型和正在處理的客戶數(shù)據(jù)。客戶還可以將機(jī)密計算應(yīng)用于醫(yī)療健康和金融服務(wù)等隱私敏感型行業(yè)的聯(lián)邦學(xué)習(xí),也可以應(yīng)用于共享云基礎(chǔ)設(shè)施。
● 第 4 代 NVIDIA NVLink —— 為加速大型 AI 模型,NVLink 結(jié)合全新的外接 NVLink Switch,可將 NVLink 擴(kuò)展為服務(wù)器間的互聯(lián)網(wǎng)絡(luò),最多可以連接多達(dá) 256 個 H100 GPU,相較于上一代采用 NVIDIA HDR Quantum InfiniBand網(wǎng)絡(luò),帶寬高出9倍。
● DPX 指令—— 新的 DPX 指令可加速動態(tài)規(guī)劃,適用于包括路徑優(yōu)化和基因組學(xué)在內(nèi)的一系列算法,與 CPU 和上一代 GPU 相比,其速度提升分別可達(dá) 40 倍和 7 倍。Floyd-Warshall 算法與 Smith-Waterman 算法也在其加速之列,前者可以在動態(tài)倉庫環(huán)境中為自主機(jī)器人車隊(duì)尋找最優(yōu)線路,而后者可用于 DNA 和蛋白質(zhì)分類與折疊的序列比對。
具體來說,H100 將支持聊天機(jī)器人使用功能超強(qiáng)大的monolithic Transformer 語言模型 Megatron 530B,吞吐量比上一代產(chǎn)品高出 30 倍,同時滿足實(shí)時對話式 AI 所需的次秒級延遲。利用 H100,研究人員和開發(fā)者能夠訓(xùn)練龐大的模型,如包含 3950 億個參數(shù)的混合專家模型,訓(xùn)練速度加速高達(dá)9倍,將訓(xùn)練時間從幾周縮短到幾天。
H100將提供SXM和PCIe兩種規(guī)格,可滿足各種服務(wù)器設(shè)計需求。NVIDIA H100 SXM 提供 4 GPU 和 8 GPU 配置的 HGX H100 服務(wù)器主板,主要用于高性能服務(wù)器,可助力企業(yè)將應(yīng)用擴(kuò)展至一臺服務(wù)器和多臺服務(wù)器中的多個 GPU。H100 PCIe相對來說更加實(shí)惠,用于主流服務(wù)器。與上一代相比,這兩種外形尺寸的功率要求都顯著提高。
NVIDIA為SXM版本的顯卡提供了700W TDP,比A100官方的400W TDP高出了75%。官方推薦的冷卻方式是風(fēng)冷和液冷兩種。但在如此功率下,估計液冷會更受用戶青睞,畢竟這個價格不菲,要是由于散熱問題而導(dǎo)致出問題就不劃算了。
同時,H100 PCIe卡的TDP提高到了350W,冷卻方式也是風(fēng)冷和液冷兩種。當(dāng)然,如果像降低散熱壓力,也可以通過配置方式來降低顯卡的功耗,只是這么做就要犧牲一些性能了。
為了將Hopper的強(qiáng)大算力引入主流服務(wù)器,英偉達(dá)推出了全新的融合加速器H100 CNX。它將網(wǎng)絡(luò)與GPU直接相連,耦合H100 GPU與英偉達(dá)ConnectX-7 400Gb/s InfiniBand和以太網(wǎng)智能網(wǎng)卡,使網(wǎng)絡(luò)數(shù)據(jù)通過DMA以50GB/s的速度直接傳輸?shù)紿100,能夠避免帶寬瓶頸,為I/O密集型應(yīng)用提供更強(qiáng)勁的性能。
Grace CPU超級芯片:144個CPU核心
除了GPU產(chǎn)品,NVIDIA還發(fā)布了其第一款轉(zhuǎn)為數(shù)據(jù)中心設(shè)計的,基于Arm Neoverse的數(shù)據(jù)中心專屬CPU------GraceCPU超級芯片,其可提供最高的性能,是當(dāng)今領(lǐng)先服務(wù)器芯片內(nèi)存帶寬和能效的兩倍。
NVIDIA Grace CPU超級芯片由兩個CPU芯片組成,它們之間通過NVLink-C2C互連在一起。NVLink-C2C 是一種新型的高速、低延遲、芯片到芯片的互連技術(shù)。
Grace CPU超級芯片是去年NVIDIA發(fā)布的首款由 CPU-GPU 集成的“Grace Hopper 超級芯片”的模塊,它將與基于 NVIDIA Hopper架構(gòu)的 GPU一同應(yīng)用于大型 HPC 和AI 應(yīng)用。這兩款超級芯片采用相同的底層 CPU 架構(gòu)及 NVLink-C2C 互連。
Grace CPU 超級芯片專為提供最高的性能而打造,能夠在單個插座(socket)中容納 144 個 Arm 核心。NVIDIA宣稱,在SPECrate 2017_int_base基準(zhǔn)測試中,Grace CPU超級芯片的模擬性能得分為740,據(jù)NVIDIA實(shí)驗(yàn)室使用同類編譯器估算,這一結(jié)果相比當(dāng)前DGX A100搭載的雙CPU高1.5倍以上。
Grace CPU 超級芯片依托帶有糾錯碼的LPDDR5x 內(nèi)存組成的創(chuàng)新的內(nèi)存子系統(tǒng),可實(shí)現(xiàn)速度和功耗的最佳平衡。LPDDR5x 內(nèi)存子系統(tǒng)提供兩倍于傳統(tǒng)DDR5設(shè)計的帶寬,可達(dá)到每秒1 TB ,同時功耗也大幅降低 ,CPU加內(nèi)存整體功耗僅500瓦。
此外,Grace CPU 超級芯片基于最新的數(shù)據(jù)中心架構(gòu) Arm v9,具備最高的單線程核心性能,并支持 Arm 新一代矢量擴(kuò)展。
Grace CPU超級芯片可運(yùn)行所有的英偉達(dá)計算軟件棧,結(jié)合NVIDIA ConnectX-7網(wǎng)卡,能夠靈活地配置到服務(wù)器中,或作為獨(dú)立的純CPU系統(tǒng),或作為GPU加速服務(wù)器,可以搭配1塊、2塊、4塊或8塊基于Hopper的GPU。
也就是說,用戶只維護(hù)一套軟件棧,就能針對自身特定的工作負(fù)載做好性能優(yōu)化。
NVIDIA正在通過 Grace CPU超級芯片擴(kuò)展其目標(biāo)市場,現(xiàn)在涵蓋超大規(guī)模計算、云、數(shù)據(jù)分析、HPC 和 AI 工作負(fù)載,有效地瞄準(zhǔn)了通用服務(wù)器市場。Grace CPU超級芯片支持NVIDIA的整個CUDA 堆棧,并將運(yùn)行NVIDIA的所有應(yīng)用程序,包括NVIDIA RTX、NVIDIA AI、HPC 和 Omniverse。
關(guān)于出貨方面,GraceCPU超級芯片將于 2023 年上半年開始出貨。
DGX H100系統(tǒng):企業(yè)級AI基礎(chǔ)設(shè)施
第四代NVIDIA DGX系統(tǒng),是全球首個基于全新 NVIDIA H100 Tensor Core GPU的AI平臺。該系統(tǒng)能夠滿足大型語言模型、推薦系統(tǒng)、醫(yī)療健康研究和氣候科學(xué)的大規(guī)模計算需求。每個DGX H100 系統(tǒng)配備8塊 NVIDIA H100 GPU,并由 NVIDIA NVLink 連接,能夠在新的 FP8 精度下達(dá)到 32 Petaflop 的 AI 性能,比上一代系統(tǒng)性能高 6 倍。
DGX H100 系統(tǒng)是新一代 NVIDIA DGX POD 和 NVIDIA DGX SuperPOD AI 基礎(chǔ)設(shè)施平臺的構(gòu)建模塊。新的 DGX SuperPOD 架構(gòu)采用了一個全新的 NVIDIA NVLink Switch 系統(tǒng),通過這一系統(tǒng)最多可連接 32 個節(jié)點(diǎn),總計 256 塊 H100 GPU。
新一代DGX SuperPOD 提供 1 Exaflops 的 FP8 AI 性能,比上一代產(chǎn)品性能高 6 倍,能夠運(yùn)行具有數(shù)萬億參數(shù)的龐大 LLM 工作負(fù)載,從而推動 AI 的前沿發(fā)展。
NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛表示:“AI 已經(jīng)從根本上改變了軟件的功能和產(chǎn)出方式。利用 AI 來革新自身所處行業(yè)的公司也意識到了自身 AI 基礎(chǔ)設(shè)施的重要性。NVIDIA 全新 DGX H100 系統(tǒng)將賦能企業(yè) AI 工廠,助力其從數(shù)據(jù)中提煉出我們最具價值的資源,即‘智能’。"
除了8塊H100 GPU 以及總計 6400 億個晶體管之外,每個 DGX H100 系統(tǒng)還包含兩個 NVIDIA BlueField-3 DPU,以用于卸載、加速和隔離高級網(wǎng)絡(luò)、存儲及安全服務(wù)。
8個NVIDIA ConnectX-7 Quantum-2 InfiniBand 網(wǎng)卡能夠提供 400 GB/s 的吞吐量,可用于連接計算和存儲,這一速度比上一代系統(tǒng)提升了一倍。第四代 NVLink 與 NVSwitch相結(jié)合,能夠在每個 DGX H100 系統(tǒng)中的各個 GPU 之間實(shí)現(xiàn) 900 GB/s 的連接速度,是上一代系統(tǒng)的 1.5 倍。
DGX H100 系統(tǒng)使用雙 x86 CPU,能夠與 NVIDIA 網(wǎng)絡(luò)和 NVIDIA 合作伙伴提供的存儲設(shè)備相結(jié)合,使 DGX POD 能夠靈活用于各種規(guī)模的 AI 計算。
借助DGX H100 系統(tǒng),DGX SuperPOD 可成為具有可擴(kuò)展性的卓越的企業(yè)級 AI 中心。DGX SuperPOD 中的 DGX H100 節(jié)點(diǎn)和 H100 GPU 由 NVLink Switch 系統(tǒng)和 NVIDIA Quantum-2 InfiniBand 連接,帶寬速度可達(dá) 70 TB/s,比上一代產(chǎn)品高 11 倍。NVIDIA 合作伙伴提供的存儲設(shè)備將經(jīng)過測試和認(rèn)證,以滿足 DGX SuperPOD AI 計算的需求。
多個DGX SuperPOD 單元可組合使用,為汽車、醫(yī)療健康、制造、通信、零售等行業(yè)提供開發(fā)大型模型所需的 AI 性能。
NVIDIA Eos:運(yùn)行速度最快的超計算機(jī)
NVIDIA 將使用突破性的新型 AI 架構(gòu)來構(gòu)建 DGX SuperPOD,賦能 NVIDIA 研究人員的研究工作,推動氣候科學(xué)、數(shù)字生物學(xué)和 AI 未來的發(fā)展。
“Eos”超級計算機(jī)將于今年晚些時候開始運(yùn)行,共配備 576 臺 DGX H100 系統(tǒng),共計 4608 塊 DGX H100 GPU,有望成為全球運(yùn)行速度最快的 AI 系統(tǒng)。
NVIDIA Eos 預(yù)計將提供 18.4 Exaflops 的 AI 計算性能,比日本的 Fugaku 超級計算機(jī)快 4 倍,后者是目前運(yùn)行速度最快的系統(tǒng)。在傳統(tǒng)的科學(xué)計算方面,Eos 預(yù)計將提供 275 Petaflop 的性能。
對于NVIDIA 及其 OEM 和云計算合作伙伴,Eos 將成為其先進(jìn) AI 基礎(chǔ)設(shè)施的藍(lán)圖。
其他新品
NVIDIA早已經(jīng)不是一個單純的芯片供應(yīng)商了,它們已經(jīng)轉(zhuǎn)型成了一個全棧公司,除了GPU之外,還提供CPU、DPU產(chǎn)品,甚至還會跟很多OEM等合作伙伴,把整個系統(tǒng)都做出來,而且提供各種加速引擎,或者SDK,針對不同的領(lǐng)域提供不同的解決方案。比如醫(yī)療領(lǐng)域的Clara、智慧城市的Metropolis,自動駕駛領(lǐng)域的Drive等等。
在本次GTC大會上,NVIDIA也介紹了相關(guān)行業(yè)的一些解決方案,比如Clara Holoscan MGX,這是一個可供醫(yī)療設(shè)備行業(yè)在邊緣開發(fā)和部署實(shí)時AI 應(yīng)用的平臺,專為滿足必要的監(jiān)管標(biāo)準(zhǔn)而設(shè)計。
Clara Holoscan MGX 能夠擴(kuò)展 Clara Holoscan 平臺,提供一體化的醫(yī)療級參考架構(gòu)以及長期軟件支持,以加速醫(yī)療設(shè)備行業(yè)的創(chuàng)新。它通過處理高吞吐量數(shù)據(jù)流來提供實(shí)時洞見,將最新的傳感器創(chuàng)新帶到了邊緣計算。從機(jī)器人手術(shù)到研究生物學(xué)的新方法,外科醫(yī)生和科學(xué)家需要醫(yī)療設(shè)備逐步發(fā)展成為持續(xù)傳感系統(tǒng),進(jìn)而更好地推動疾病的研究和治療。
Clara Holoscan MGX 將高性能 NVIDIA Jetson AGX Orin 工業(yè)級模塊、NVIDIA RTX A6000 GPU 和 NVIDIA ConnectX-7 智能網(wǎng)卡整合到一個可擴(kuò)展的 AI 平臺中,提供高達(dá)每秒 254-619 萬億次運(yùn)算的 AI 性能。
對于高吞吐量設(shè)備,ConnectX-7 能夠提供高達(dá) 200 GbE 的帶寬以及用于 GPU 處理的 GPUDirect RDMA 路徑,有助于加快處理速度。它還集成了最新嵌入式安全模塊,該模塊包含負(fù)責(zé)監(jiān)控關(guān)鍵操作、提供遠(yuǎn)程軟件更新和系統(tǒng)恢復(fù)的控制器,以及可實(shí)現(xiàn)最先進(jìn)嵌入式安全的硬件信任根。
醫(yī)療設(shè)備制造商可以直接嵌入Clara Holoscan MGX,或?qū)⑵溥B接到現(xiàn)有的醫(yī)療設(shè)備安裝平臺,從而使開發(fā)者能夠加速 AI 部署和監(jiān)管審批。
Clara Holoscan SDK 專為高性能流式數(shù)據(jù)應(yīng)用程序而設(shè)計,用于構(gòu)建新一代軟件定義設(shè)備。它匯集了預(yù)訓(xùn)練模型和可擴(kuò)展微服務(wù)框架,允許在設(shè)備和邊緣數(shù)據(jù)中心管理和部署應(yīng)用程序,開創(chuàng)了行業(yè)的軟件即服務(wù)業(yè)務(wù)模式。Clara Holoscan 開發(fā)者套件現(xiàn)已開始供貨。
此外,NVIDIA還發(fā)布了60多個針對CUDA-X的一系列庫、工具和技術(shù)的更新,以加速量子計算和6G研究、網(wǎng)絡(luò)安全、基因組學(xué)、藥物研發(fā)等領(lǐng)域的研究進(jìn)展。
來自NVIDIA、加州理工學(xué)院、伯克利實(shí)驗(yàn)室、普渡大學(xué)、密歇根大學(xué)和萊斯大學(xué)的研究人員,開發(fā)了一個名為FourCastNet的天氣預(yù)報AI模型。FourCastNet是一種基于物理信息的深度學(xué)習(xí)模型,可以預(yù)測颶風(fēng),大氣河、以及極端降水等天氣事件。
FourCastNet以歐洲中期天氣預(yù)報中心長達(dá)40年的模擬增強(qiáng)型真值數(shù)據(jù)為基礎(chǔ),學(xué)會了如何預(yù)測天氣。深度學(xué)習(xí)模型首次在降水預(yù)測方面達(dá)到了比先進(jìn)的數(shù)值模型更高的準(zhǔn)確率和技能,并使預(yù)測速度提高了4到5個數(shù)量級。也就是說傳統(tǒng)的數(shù)值模擬需要一年的時間,而現(xiàn)在只需要幾分鐘。
大氣河是天空中巨大的水汽河流,每條河流的水量都比亞馬遜河的還要多。他們一方面為美國西部提供了關(guān)鍵的降水來源,但另一方面,這些巨大的強(qiáng)風(fēng)暴也會導(dǎo)致災(zāi)難性的洪災(zāi)和暴雪。
NVIDIA創(chuàng)建了Physics-ML模型,該模型可以模擬全球天氣模式的動態(tài)變化。以超乎想象的速度和準(zhǔn)確性預(yù)測大氣河等極端天氣事件。此GPU加速的AI數(shù)字孿生模型名為FourCastNet,由傅里葉神經(jīng)算子提供動力支持,基于10TB的氣球系統(tǒng)數(shù)據(jù)進(jìn)行訓(xùn)練,依托這些數(shù)據(jù),以及NVIDIA Modulus和Omniverse,我們能夠提前一周預(yù)測災(zāi)難性大氣河的精確路線,在一個NVIDIA GPU的助力下,F(xiàn)ourCastNet只需要幾分之一秒即可完成預(yù)測。
在黃仁勛看來,Transformer模型開啟了自監(jiān)督學(xué)習(xí),并解除了人工標(biāo)記數(shù)據(jù)的需求。因此,我們可以使用龐大的訓(xùn)練集來訓(xùn)練Transformer模型,學(xué)習(xí)更充分且可靠的特征。
得益于Transformer,模型和數(shù)據(jù)的規(guī)模皆已擴(kuò)大增長,而模型技能和準(zhǔn)確性也因此快速提升。用于語言理解的Google BERT,用于藥物研發(fā)的NVIDIA MegaMolBart,以及DeepMind的AlphaFold,都是基于Transformer模型的突破性成果。
NVIDIA Triton是一款開源的、超大規(guī)模的模型推理服務(wù)器,是AI部署的“中央車站”,Triton支持在每一代NVIDIA GPU、X86和Arm CPU上部署模型,并具備支持AWS Inferentia等加速器的接口。Triton支持各類模型:CNN、RNN、Transformer、GNN、決策樹,還支持各類框架:TensorFlow、PyTorch、Python、ONNX、XGBoost;Triton支持各類查詢類型:實(shí)時、離線、批處理,或串流視頻和音頻。
Triton支持各類機(jī)器學(xué)習(xí)平臺:AWS、Azure、Google、阿里巴巴、VMWare、Domino Data Lab、OctoML等。
Triton可以在各個地方運(yùn)行,云、本地、邊緣或嵌入式設(shè)備。
Amazon Shopping正在使用Triton進(jìn)行實(shí)時拼寫檢查,而微軟正藉由Triton為翻譯服務(wù)提供支持,Triton已經(jīng)被25000位客戶下載超過100萬次。
NVIDIA Riva是一種先進(jìn)且基于深度學(xué)習(xí)的端到端語音AI,它可以自定義調(diào)整優(yōu)化。Riva已經(jīng)過預(yù)訓(xùn)練,具有世界一流的識別率,客戶可以使用定制數(shù)據(jù)調(diào)優(yōu)。使其學(xué)習(xí)行業(yè)、國家和地區(qū),或公司的特定話術(shù)。黃仁勛認(rèn)為,Riva是對話式AI服務(wù)的理想選擇。
Maxine是一個AI模型工具包,現(xiàn)已擁有30個先進(jìn)模型,可優(yōu)化實(shí)時視頻通信的視聽效果。比如開遠(yuǎn)程視頻會議時,Maxine可實(shí)現(xiàn)說話者與所有參會者保持眼神交流,并能將說的語言實(shí)時切換成另一種語言,而且音色聽起來不變。
還有面向推薦系統(tǒng)的AI框架Merlin的1.0版本,Merlin可幫助企業(yè)快速構(gòu)建、部署和擴(kuò)展先進(jìn)的AI推薦系統(tǒng)。比如,微信用Merlin將短視頻推薦延遲縮短為原來的1/4,并將吞吐量提升了10倍。從CPU遷移至GPU,騰訊在該業(yè)務(wù)上的成本減少了1/2。
以及Omniverse,在黃仁勛看來,作為虛擬世界的仿真引擎,Omniverse平臺能遵循物理學(xué)定律,構(gòu)建一個趨真的數(shù)字世界,可以應(yīng)用于使用不同工具的設(shè)計師之間的遠(yuǎn)程協(xié)作,以及工業(yè)數(shù)字孿生。
用于構(gòu)建數(shù)字?jǐn)伾腘VIDIA Omniverse 軟件,以及全新數(shù)據(jù)中心NVIDIA OVX系統(tǒng),將成為“以行動為導(dǎo)向的AI"的組成部分。
"Omniverse是我們機(jī)器人平臺的核心。像 NASA和亞馬遜一樣,我們和機(jī)器人以及工業(yè)自動化領(lǐng)域的客戶都意識到了數(shù)字?jǐn)伾蚈mniverse 的重要性。"
黃仁勛解釋說,OVX將使用Omniverse數(shù)字?jǐn)伾M(jìn)行大規(guī)模模擬,使多個自主系統(tǒng)在同一時空運(yùn)行。
OVX 的骨干是其網(wǎng)絡(luò)編織架構(gòu),為此他發(fā)布了NVIDIA Spectrum-4高性能數(shù)據(jù)基礎(chǔ)架構(gòu)平臺。
全球首400Gbps端到端網(wǎng)絡(luò)平臺NVIDIA Spectrum -4由Spectrum-4 交換機(jī)系列、NVIDIA ConnectX-7 SmartNIC、NVIDIA BlueField-3 DPU 和 NVIDIA DOCA 數(shù)據(jù)中心基礎(chǔ)設(shè)施軟件組成。
為了讓更多的用戶能夠使用Omniverse, 黃仁勛發(fā)布了Omniverse Cloud。 現(xiàn)在只需簡單的點(diǎn)擊操作,協(xié)作者就可以通過云端Omniverse 進(jìn)行連接。
另外,黃仁勛認(rèn)為下一波AI浪潮是機(jī)器人,NVIDIA正在構(gòu)建多個機(jī)器人平臺,包括用于自動駕駛汽車的DRIVE、用于操縱和控制系統(tǒng)的Isaac、用于自主式基礎(chǔ)架構(gòu)的Metropolis、用于醫(yī)療設(shè)備的Holoscan等。
-
超級計算機(jī)
+關(guān)注
關(guān)注
2文章
472瀏覽量
42472 -
AI
+關(guān)注
關(guān)注
88文章
35117瀏覽量
279666 -
GPU芯片
+關(guān)注
關(guān)注
1文章
305瀏覽量
6197
發(fā)布評論請先 登錄
Blue Lion超級計算機(jī)將在NVIDIA Vera Rubin上運(yùn)行
NVIDIA技術(shù)賦能歐洲最快超級計算機(jī)JUPITER
NVIDIA推出個人AI超級計算機(jī)Project DIGITS
NVIDIA發(fā)布高性價比生成式AI超級計算機(jī)
NVIDIA 推出高性價比的生成式 AI 超級計算機(jī)

云端超級計算機(jī)使用教程
《算力芯片 高性能 CPUGPUNPU 微架構(gòu)分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變
NVIDIA助力xAI打造全球最大AI超級計算機(jī)
NVIDIA Colossus超級計算機(jī)集群突破10萬顆Hopper GPU
NVIDIA 以太網(wǎng)加速 xAI 構(gòu)建的全球最大 AI 超級計算機(jī)

評論