得益于公司成立以來對GPU的專注和對CUDA生態(tài)十年如一日的堅持,英偉達(dá)公司終于在最近幾年走上了巔峰,這主要得益于AI時代的大爆發(fā)。尤其是在人工智能的訓(xùn)練市場,英偉達(dá)的GPU迄今為止也沒有遇到能威脅到他們的挑戰(zhàn)者。但他們并不止步于此,在收購了Mellanox之后,英偉達(dá)又將目光投向了Arm,希望借此拓寬公司的目標(biāo)市場。
與此同時,英偉達(dá)在內(nèi)部還投入到軟件方面的布局,如遷移學(xué)習(xí),就是他們近年來非常關(guān)注的一個著力點。按照英偉達(dá)方面所說,這項技術(shù)正是他們針對當(dāng)前人工智能“痛點”所做出的一種解決方案。
從相關(guān)報道我們可以看到,人工智能已經(jīng)走向了各行各業(yè)。同時我們也認(rèn)識到,從頭開發(fā)一個AI應(yīng)用,需要經(jīng)歷訓(xùn)練得出模型和推理的過程。但因為現(xiàn)在的應(yīng)用繁多,如果所有的開發(fā)者和初創(chuàng)公司都需要從頭開始創(chuàng)建一個模型,這不僅會耗時耗力,同時還成本高昂。這就讓“遷移學(xué)習(xí)”找到了機(jī)會。
所謂遷移學(xué)習(xí),是指將已經(jīng)在相關(guān)任務(wù)中訓(xùn)練過的模型的一部分復(fù)用到新模型中,從而很大程度地降低對大量計算資源的需要。具體而言就是可以從現(xiàn)有神經(jīng)網(wǎng)絡(luò)中提取已學(xué)習(xí)特征,并通過從現(xiàn)有神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)移權(quán)重來遷移這些已學(xué)習(xí)特征,而英偉達(dá)的Transfer Learning Toolkit(遷移學(xué)習(xí)工具包,簡稱TLT)就是當(dāng)中的一個代表。
據(jù)介紹,英偉達(dá)遷移式學(xué)習(xí)工具包(是一個基于Python的工具包,它提供了大量預(yù)先訓(xùn)練的模型,并提供一系列的工具,使流行的網(wǎng)絡(luò)架構(gòu)適應(yīng)開發(fā)者自己的數(shù)據(jù),并且能夠訓(xùn)練、調(diào)整、修剪和導(dǎo)出模型,以進(jìn)行部署。
在2018年發(fā)布第一代工具包的時候,英偉達(dá)方面也表示,這套方案擁有許多預(yù)訓(xùn)練的優(yōu)化過的領(lǐng)域特定DNN,預(yù)先打包在里面;有計算機(jī)視覺中,物體分類、檢測的應(yīng)用示例;在異構(gòu)的多GPU環(huán)境中,易于做模型適應(yīng) (Model Adaptation) ,易于重新訓(xùn)練;可以輕松修改配置文件,增加新類別、新特征,壓縮模型大小;Model Export API可以把模型輕松部署在英偉達(dá)的DeepStream SDK 3.0上,做智能視頻分析 (IVA) 應(yīng)用;Model Export API在可以把模型部署到Clara平臺上,來做醫(yī)學(xué)影像相關(guān)應(yīng)用。
自第一代產(chǎn)品發(fā)布以來,英偉達(dá)TLT收到了開發(fā)者的熱烈歡迎。公司也持之以恒地投入,并于近日推出了多個可直接用于生產(chǎn)的預(yù)訓(xùn)練模型和遷移學(xué)習(xí)工具包(Transfer Learning Toolkit, TLT)3.0 開發(fā)者測試版,以及 DeepStream SDK 5.1。據(jù)介紹,此次發(fā)布包括一系列新型預(yù)訓(xùn)練模型。這些模型具有支持對話式 AI 應(yīng)用的創(chuàng)新功能,可提供更加強(qiáng)大的解決方案來加速開發(fā)者從訓(xùn)練到部署的整個過程。
英偉達(dá)方面表示,預(yù)訓(xùn)練模型和 TLT 3.0(開發(fā)者測試版)包括以下主要亮點:
1、全新視覺 AI 預(yù)訓(xùn)練模型:車牌檢測與識別、心率監(jiān)測、手勢識別、視線估計、情緒識別、人臉檢測、面部特征點估計;
2、通過自動語音識別(ASR)和自然語言處理(NLP)的預(yù)訓(xùn)練模型支持對話式 AI 用例
3、選擇流行的網(wǎng)絡(luò)架構(gòu)進(jìn)行訓(xùn)練,如 EfficientNet、YoloV4 和 UNET;
4;經(jīng)過改進(jìn)的 PeopleNet 模型可以檢測困難場景,比如坐著的人和旋轉(zhuǎn)/扭曲的物體
5;用于推動兼容容器初始化的 TLT 啟動器
6;支持具有第三代張量核心的 NVIDIA Ampere GPU,從而提升性能
“借助 TLT,您可以通過 NVIDIA 為常見 AI 任務(wù)開發(fā)的多用途生產(chǎn)級模型或者 ResNet、VGG、FasterRCNN、RetinaNet 和 YOLOv3/v4 等 100 多種神經(jīng)網(wǎng)絡(luò)架構(gòu)組合,使用自己的數(shù)據(jù)對特定用例的模型進(jìn)行微調(diào)。所有模型均可從 NGC 獲得。”英偉達(dá)方面強(qiáng)調(diào)。
人工智能行業(yè)專家吳恩達(dá)教授在NIPS 2016 講座上表示:“在監(jiān)督學(xué)習(xí)之后,遷移學(xué)習(xí)將引領(lǐng)下一波機(jī)器學(xué)習(xí)技術(shù)商業(yè)化浪潮?!庇纱丝梢钥吹?,英偉達(dá)又一次走上了AI的風(fēng)口。
責(zé)任編輯:tzh
-
gpu
+關(guān)注
關(guān)注
28文章
4949瀏覽量
131309 -
AI
+關(guān)注
關(guān)注
88文章
35188瀏覽量
280224 -
人工智能
+關(guān)注
關(guān)注
1807文章
49033瀏覽量
249730 -
英偉達(dá)
+關(guān)注
關(guān)注
22文章
3953瀏覽量
93843
發(fā)布評論請先 登錄
評論