隨著人工智能計劃的進展,為企業(yè)提供可信、可擴展的支持模型的需求對于確保人工智能項目保持正軌至關(guān)重要。為了支持構(gòu)建人工智能應(yīng)用程序, NVIDIA AI Enterprise 提供了簡化端到端人工智能管道的軟件,從數(shù)據(jù)準備到模型訓(xùn)練,再到模擬和大規(guī)模部署。
NVIDIA AI Enterprise 是 NVIDIA 人工智能平臺的軟件層,包括:
優(yōu)化以在加速的基礎(chǔ)架構(gòu)上運行,從而實現(xiàn)性能、生產(chǎn)效率和成本節(jié)約。
企業(yè)級支持、安全性和 API 穩(wěn)定性。
人工智能工作流程和預(yù)先訓(xùn)練的模型,以加快生產(chǎn)時間。
認證,可部署在任何地方的云、數(shù)據(jù)中心和邊緣。
直接在 Snowflake 數(shù)據(jù)云上啟用 AI 工作流
數(shù)據(jù)是生成型人工智能的燃料,而為企業(yè)人工智能用例提供燃料的數(shù)據(jù)就存在于 Snowflake 中。 Snowpark Container Services 現(xiàn)在提供了 NVIDIA AI 平臺,客戶可以在不犧牲安全性、性能或易用性的情況下將數(shù)據(jù)投入使用。
通過 Snowpark Container Services 使用 NVIDIA AI Enterprise 加速基礎(chǔ)設(shè)施和計算庫,開發(fā)人員和數(shù)據(jù)科學(xué)家可以輕松構(gòu)建加速的 AI 工作流程。
使用 Snowpark,企業(yè)可以安全地部署和處理用于人工智能和 ML 的 Python 代碼。開發(fā)人員還可以擴展加速的 ML 工作負載,并在已存儲數(shù)據(jù)的地方運行復(fù)雜的人工智能模型,如 LLM 。這樣可以減少潛在的安全風險和延遲,特別是當移動大量數(shù)據(jù)時。
以下工作流程展示了數(shù)據(jù)科學(xué)家如何實現(xiàn)從數(shù)據(jù)處理到實時推理的每個階段,作為新合作伙伴關(guān)系的一部分。本工作流程和示例用例中概述的技術(shù),包括 NVIDIA RAPIDS 、 NVIDIA / Merlin 、 NVIDIA TensorRT 和 NVIDIA SGG2 ,都包含在 NVIDIA AI Enterprise 中,并可在 Snowpark Container Services 上獲得。
圖 1 。使用 NVIDIA AI Enterprise 從 Snowpark Container Services 中存儲的數(shù)據(jù)構(gòu)建 AI 模型的示例工作流
示例用例:訓(xùn)練推薦模
基于會話的推薦系統(tǒng)在內(nèi)容豐富的應(yīng)用程序中變得越來越重要,這些應(yīng)用程序旨在提供更相關(guān)的下一個項目預(yù)測。訓(xùn)練這些模型首先要加載數(shù)據(jù),并使用 Snowpark Python 庫進行初始 SQL 和 DataFrame 預(yù)處理。
客戶可以在 Snowpark Container Services 中運行的 Jupyter Notebook 中使用 NVIDIA RAPIDS 、 Merlin 和其他人工智能框架來增強數(shù)據(jù)處理和訓(xùn)練模型。
NVTabular 是 Merlin 的一部分,是一個加速特征工程庫,旨在生成推薦系統(tǒng)模型訓(xùn)練所需的關(guān)鍵特征。使用 NVTabular 準備數(shù)據(jù)后, Merlin 中的其他加速計算庫開始訓(xùn)練人工智能工作流程。
在非常大的數(shù)據(jù)集上訓(xùn)練模型的任務(wù)可能非常耗時。在訓(xùn)練過程中,當計算核心處理數(shù)據(jù)集時,數(shù)據(jù)集通常會被分塊復(fù)制到內(nèi)存中或從內(nèi)存中復(fù)制出來。使用 GPU 訓(xùn)練模型可以提供更高的吞吐量和更快的模型訓(xùn)練,因為它們包括高帶寬內(nèi)存,并利用越來越多的計算核心進行并行處理。
在 Snowpark 容器服務(wù)上運營導(dǎo)致在具有加速計算的預(yù)測模型的訓(xùn)練期間提速20倍。這極大地提高了數(shù)據(jù)科學(xué)家在模型創(chuàng)建過程中的生產(chǎn)力,并通過在更短的時間內(nèi)完成更多任務(wù)來降低總體擁有成本。
訓(xùn)練完成后,使用樣本測試數(shù)據(jù)測試模型的準確性。接著,根據(jù)需要對模型進行優(yōu)化和重新訓(xùn)練。最后,將新訓(xùn)練的模型發(fā)布到注冊表中,例如Snowpark 模型注冊表(私人預(yù)覽)。
經(jīng)過培訓(xùn), NVIDIA AI Enterprise 提供了 TensorRT ,用于加速計算的優(yōu)化。在工作流的最后階段,模型部署并開始執(zhí)行推理任務(wù)。它在 Triton 推理服務(wù)器內(nèi)運行,實時消耗數(shù)據(jù)并提供見解。
-
NVIDIA
+關(guān)注
關(guān)注
14文章
5309瀏覽量
106472 -
AI
+關(guān)注
關(guān)注
88文章
35194瀏覽量
280265 -
人工智能
+關(guān)注
關(guān)注
1807文章
49035瀏覽量
249758
發(fā)布評論請先 登錄
評論