99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

頻繁出現(xiàn)的深度學習“寒冬論”,榮耀屬于深度學習

5RJg_mcuworld ? 來源:YXQ ? 2019-04-03 09:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ACM剛剛公布2018年圖靈獎獲得者,深度學習三巨頭:Yoshua Bengio、Geoffrey Hinton、Yann LeCun獲獎,深度學習獲得了最高榮譽。三巨頭獲獎的背后,是一段經(jīng)歷了寒冬的艱辛之路。

榮耀屬于深度學習。

2018年圖靈獎公布,深度學習三巨頭:Yoshua Bengio、Geoffrey Hinton、Yann LeCun獲獎,三人瓜分100萬美元獎金。

Yann LeCun、Geoffrey Hinton、Yoshua Bengio

YoshuaBengio(58歲)是蒙特利爾大學教授,也是魁北克人工智能研究所的科學主任;

GeoffreyHinton(71歲)是谷歌副總裁和Engineering Fellow,Vector人工智能研究院首席科學顧問,多倫多大學名譽教授;

YannLeCun(55歲)是紐約大學教授、Facebook副總裁兼首席AI科學家。

三位獲獎者在業(yè)內(nèi)被稱為“當代人工智能教父”,開創(chuàng)了深度神經(jīng)網(wǎng)絡(deep neural network),而這項技術(shù)已經(jīng)成為計算科學的關(guān)鍵部分,為深度學習算法的發(fā)展和應用奠定了基礎。

去年,”深度學習寒冬論“頻起,三位大神也在多個場合對”寒冬“做出了回應。實際上,三人對“寒冬”早有抗體,在上世紀八十年代,Geoffrey Hinton等人坐了數(shù)年的冷板凳,直到本世紀AI的再度爆發(fā)。

不僅如此,Geoffrey Hinton還提出新的神經(jīng)網(wǎng)絡模型Capsule Network(膠囊網(wǎng)絡),試圖找到解決深度學習缺陷的新方法,這位71歲的老人熬過最冷的AI冬天,并且認定下一個“冬天”不會到來。

挺過寒冬

Hinton早年的科研之路可謂坎坷至極。

他最開始讀的是劍橋大學物理和化學專業(yè),但只上了一個月就轉(zhuǎn)到了建筑專業(yè),結(jié)果只在建筑系待了一天就受不了,重新注冊了物理和生理學,后來發(fā)現(xiàn)物理中的數(shù)學太難了,于是他又轉(zhuǎn)向了哲學,花一年時間學了兩年的課程。

雖然只有短短一年,但卻是非常有用的一年,因為他對哲學產(chǎn)生了非常強的抗體:“我想知道大腦是如何工作的”。

為了弄明白大腦的工作原理,Hinton轉(zhuǎn)而研究心理學,結(jié)果卻發(fā)現(xiàn)“心理學家對此毫無頭緒”。

1973年Hinton進入愛丁堡大學研究生院,師從Christopher Longuet-Higgins學習人工智能。但當時正值1970年代的人工智能寒冬出現(xiàn),深度學習和AI都受到了學界輕視。

Christopher Longuet-Higgins

并且,Christopher是著名的理論化學家和認知科學家,桃李滿天下,曾培養(yǎng)出諾貝爾獎獲得者,但Hinton與導師的理念不同:導師堅持傳統(tǒng)的邏輯人工智能理念,Hinton則堅信基于神經(jīng)元理論的模擬神經(jīng)元,堅信神經(jīng)網(wǎng)絡一定是未來的發(fā)展方向。

“我的畢業(yè)生涯充滿了坎坷,每周我們都會有一場爭吵?!盚inton后來回憶,他一直在和導師做“交易”:“讓我再做六個月的神經(jīng)網(wǎng)絡,我會向你證明它們是有效的?!钡诹鶄€月結(jié)束的時候,Hinton又說:再給我六個月,之后又說,“再給我五年時間”。

進入八十年代,Hinton真的成功了。

1986年,Hinton等人完成著名的論文Experiments on Learning by Back Propagation,證明在神經(jīng)網(wǎng)絡中的反向傳播可以提供“有趣的”分布表示,提出了影響后世人工智能的新方法。

不過,當時既沒有足夠的數(shù)據(jù),也沒有足夠的算力,神經(jīng)網(wǎng)絡無法進行大規(guī)模訓練,業(yè)界對Hinton的神經(jīng)網(wǎng)絡依舊不感興趣。Hinton參加學術(shù)會議時,經(jīng)常坐在房間的最角落里,也得不到當時學界大咖的重視。

深度學習三巨頭的誕生

好在還有一批跟Hinton一樣的“頑固派”。

Yann Lecun是Hinton的博士后學生,也是神經(jīng)網(wǎng)絡的堅定信仰者。1989年,Yann LeCun在貝爾實驗室提供了第一次反向傳播的實際演示。

1993年,Yann LeCun在電腦上展示識別手寫字

他將卷積神經(jīng)網(wǎng)絡與反向傳播相結(jié)合閱讀“手寫”數(shù)字,后來卷積神經(jīng)網(wǎng)絡大規(guī)模應用,并在20世紀90年代末期處理了美國10%到20%支票的識別。

Yann LeCun在貝爾實驗室是組長,他的組員就包括今天或圖靈獎的另一位大神Bengio。

Bengio雖然不是Hinton的直系弟子,但也是被認為是和Hinton、LeCun一起推動深度學習浪潮的三位旗手,他開創(chuàng)了神經(jīng)網(wǎng)絡的語言模型language model先河。

從左至右:LeCun、Hinton、Bengio、吳恩達

2012年,Geoffrey Hinton和他的兩名學生發(fā)表論文,提出了深度卷積神經(jīng)網(wǎng)絡模型AlexNet,在當年的ImageNet大規(guī)模圖像識別競賽中獲得冠軍。后來Hinton加入谷歌大腦,AlexNet成為圖像識別中最經(jīng)典的模型之一,在產(chǎn)業(yè)界也得到普遍應用,直到深度學習全面爆發(fā)。

更值得紀念的是,2015年,Geoffrey Hinton、Yann LeCun、Yoshua Bengio這三位深度學習巨頭曾在Nature上共同發(fā)表一篇名為《深度學習》的綜述文章,講述了深度學習為傳統(tǒng)機器學習帶來的變革。

不僅打臉知乎問題,深度學習還革新工業(yè)與學術(shù)界協(xié)作

早在2015年,知乎上就出現(xiàn)問題:Yann LeCun、Geoffrey Hinton或Yoshua Bengio能得圖靈獎嗎?

問題地址:

https://www.zhihu.com/question/33911668

當時不少網(wǎng)友認為他們?nèi)穗m然貢獻很大,但是不能得圖靈獎。于是今天紛紛跑到問題下面自行打臉。

京東集團副總裁、加拿大Simon Fraser大學計算科學學院教授、統(tǒng)計與精算系教授、加拿大一級研究講座教授、ACM Fellow、IEEE Fellow、ACM SIGKDD Chair裴健教授告訴新智元,今年圖靈獎頒發(fā)給Hinton、LeCun和Bengio三位深度學習的開創(chuàng)者、堅持者和布道者,眾望所歸。

“三四年前不少人就預測(或者說是期望)Hinton老先生和深度學習能獲獎。深度學習給我們?nèi)粘I顜淼暮锰?,是史無前例的。因此,說Hinton的深度學習拿圖靈獎之前別人大概都不太好意思拿這個獎,也許不算太過分。我相信,深度學習已經(jīng)成為計算的一個基本元素。”

裴健說,這三位大神的故事和各種花邊新聞已經(jīng)廣為流傳了,無須贅述。有三點感想,值得自己學習,也和同行共勉:

首先,這三位長期聚精會神,榮辱不驚,是真正的學者。特別是Hinton老先生,他自八十年代初就開始對這個幾度沉浮的領域作出了突出貢獻 。三十多年他集中精力研究一個方向,不分心,不居功自傲,不因以往成就好為人師。這種嚴謹治學的精神非常值得我們后輩學習。我個人感覺,ACM在評大至圖靈獎小至Fellow上學術(shù)質(zhì)量至上,嚴謹嚴格。

其次,雖然三位都出身學術(shù)界,但為了推進深度學習的應用,他們不同程度上游走于工業(yè)界。他們給工業(yè)界帶來的重要貢獻不但是用深度學習方法解決了一批實際問題,更重要的是在工業(yè)研發(fā)上推廣科學治學原則和方法。

這種真正在科學方法論上的產(chǎn)學研結(jié)合培養(yǎng)了一大批既具有扎實學術(shù)功底和研究方法又具有廣闊的工業(yè)界視野和實際問題思維的新型年輕人才。可以這么說,深度學習的影響不但止在技術(shù)上,還包括對學術(shù)界和工業(yè)界協(xié)作方式以及未來人才培養(yǎng)模式的革新。(做一個廣告:4月10日澳門召開的IEEE ICDE 2019大會上,我組織了一個panel,請到了著名的大學校長、杰出的工業(yè)界研發(fā)負責人和成功的新技術(shù)創(chuàng)業(yè)投資者專門討論這個問題。敬請關(guān)注。)

最后,他們的獲獎說明了一個鼓勵持續(xù)性獨立研究的環(huán)境非常重要。在深度學習不太受待見的漫長日子里,加拿大國家研究基金慷慨地支持了這幾位為代表的一批深度神經(jīng)網(wǎng)路研究者的持續(xù)深入研究,使得這個星星之火最終成就燎原之勢。我本身在加拿大學習工作多年,非常喜歡那種平等平淡的研究環(huán)境,能使學者靜心思考。盡管深度學習大熱,加拿大學術(shù)界也是持比較理性的態(tài)度。Bengio這么大的名氣,也是2017年才評上加拿大皇家院士的。

ACM主席Cherri M. Pancake說,人工智能的發(fā)展以及人們對它的興趣,在很大程度上要歸功于Bengio、Bengio和LeCun為之奠定基礎的深度學習的最新進展。這些技術(shù)被數(shù)十億人使用。任何口袋里有智能手機的人都能實實在在地體驗到自然語言處理和計算機視覺方面的進步,這在10年前是不可能的。除了我們每天使用的產(chǎn)品,深度學習的新進展也為醫(yī)學、天文學、材料科學等領域的科學家們提供了強大的新工具”。

“深度神經(jīng)網(wǎng)絡對現(xiàn)代計算機科學的一些重大進步做出了貢獻,幫助在計算機視覺、語音識別和自然語言理解等領域長期存在的問題上取得了實質(zhì)性進展?!惫雀韪呒壯芯繂T、谷歌AI高級副總裁Jeff Dean表示:“這一進步的核心是今年的圖靈獎獲得者Yoshua Bengio、Geoffrey Hinton和Yann LeCun在30多年前開發(fā)的基礎技術(shù)。通過大幅提高計算機理解世界的能力,深度神經(jīng)網(wǎng)絡不僅改變了計算領域,而且?guī)缀醺淖兞丝茖W和人類努力的每一個領域?!?/p>

頻繁出現(xiàn)的深度學習“寒冬論”

從去年開始,關(guān)于深度學習“寒冬”、“至頂”的論調(diào)頻繁出現(xiàn),不少人認為深度學習似乎遇到了瓶頸,需要特別大、特別深的網(wǎng)絡以及大量數(shù)據(jù)訓練。

對此,幾位獲圖靈獎的深度學習大神在不同場合回應過“寒冬論”。

LeCun:

LeCun曾直言深度學習寒冬論的作者缺乏常識,文章的觀點非常無知(very uninformed)

Hinton:

Hinton認為,不會有人工智能的寒冬,因為AI已經(jīng)在驅(qū)動著手機了。在過去的人工智能寒冬,AI并不是人們?nèi)粘I畹囊徊糠?,但現(xiàn)在它已經(jīng)是了。

更可貴的是,大神Hinton,一直奮斗在深度學習第一線,一方面推倒重建,一方面更好地理解深度學習。

2017年,Hinton跟他在谷歌大腦兩個同事發(fā)表了《Dynamic Routing Between Capsules》,提出新的神經(jīng)網(wǎng)絡模型Capsule Network(膠囊網(wǎng)絡),在特定任務上比傳統(tǒng)的卷積神經(jīng)網(wǎng)絡取得了更好的效果。

Hinton認為,Capsule網(wǎng)絡最終將超越視覺,推廣到更廣闊的應用場景,盡管現(xiàn)在很多人還存在質(zhì)疑,但他確信現(xiàn)在就像5年前很多人對神經(jīng)網(wǎng)絡存疑一樣。

“歷史將會重現(xiàn)“。

全面認識深度學習三巨頭

以下是ACM對三位大神的官方介紹,讀者若已熟悉,可跳過本部分。

Geoffrey Hinton

Geoffrey Hinton是谷歌副總裁兼Engineering Fellow,向量研究所首席科學顧問、多倫多大學名譽教授。Hinton在劍橋大學獲得實驗心理學學士學位,在愛丁堡大學獲得人工智能博士學位。他是CIFAR的神經(jīng)計算和自適應感知(后來的“機器和大腦學習”)項目的創(chuàng)始主任。

Hinton曾獲加拿大最高榮譽勛章,英國皇家學會會員,美國國家工程院外籍院士,國際人工智能聯(lián)合會議(IJCAI)卓越研究獎,NSERC Herzberg金牌獎,及IEEE James Clerk Maxwell金牌。他還被“連線”雜志選為“2016年度最具影響力100人”之一,并被彭博社選為2017年“改變?nèi)蛏虡I(yè)格局的50人”之一。

Yann LeCun

Yann LeCun是紐約大學Courant數(shù)學科學研究所的Silver教授,F(xiàn)acebook的副總裁兼首席AI科學家。他在英國電子技術(shù)與電子學院(ESIEE)獲得高等英語學士學位,在瑪麗·居里·皮埃爾大學獲計算機科學博士學位。

LeCun是美國國家工程院院士,來自墨西哥IPN和洛桑聯(lián)邦理工學院(EPFL)的榮譽博士,賓夕法尼亞大學Pender獎得主,埃因霍溫技術(shù)大學和飛利浦實驗室Holst獎章獲得者,諾基亞-貝爾實驗室Shannon Luminary獎、IEEE PAMI杰出研究員獎、以及IEEE神經(jīng)網(wǎng)絡先鋒獎。

他被《連線》雜志選為“2016最具影響力人物100人之一”以及“25位創(chuàng)造商業(yè)未來的天才”之一。LeCun是紐約大學數(shù)據(jù)科學中心的創(chuàng)始主任,也是CIFAR學習機器和腦力項目的負責人(與Yoshua Bengio共同擔任)。 此外,LeCun還是人工智能合作伙伴關(guān)系委員會的聯(lián)合創(chuàng)始人和前成員之一,該機構(gòu)是研究AI的社會后果的企業(yè)和非營利組織的聯(lián)合體。

Yoshua Bengio

Yoshua Bengio是蒙特利爾大學的教授、魁北克人工智能研究所和IVADO(數(shù)據(jù)實驗研究所)的科學總監(jiān)。他是CIFAR機器和腦力學習項目的聯(lián)合主任(與Yann LeCun共同擔任)。 Bengio擁有麥吉爾大學電子工程學士學位,計算機科學碩士和博士學位。

Bengio曾獲加拿大勛章,加拿大皇家學會會員和Marie-Victorin獎。他創(chuàng)建魁北克人工智能研究所(Mila)和并擔任該所科學主任也被認為是對AI領域的重大貢獻。 Mila是一家獨立的非營利組織,目前擁有300名研究人員和35名教職員工,目前是世界上最大的深度學習研究學術(shù)中心,并使蒙特利爾成為一個充滿活力的AI生態(tài)系統(tǒng),全球多家大公司和AI創(chuàng)業(yè)公司均在此設立研究實驗室。

三位大神的成就

最后,送上本次獲圖靈獎的三位大神的主要技術(shù)成就,這些成就對其后的深度學習研究產(chǎn)生了巨大的影響,值得后人銘記。

Geoffrey Hinton

反向傳播:

1986年,Hinton與David Rumelhart和Ronald Williams共同撰寫了“Learning Internal Representations by Error Propagation”論文,Hinton等人在文中證明了反向傳播算法可以讓神經(jīng)網(wǎng)絡發(fā)現(xiàn)自身的數(shù)據(jù)內(nèi)部表示,這一發(fā)現(xiàn)讓神經(jīng)網(wǎng)絡有可能解決以前被認為不可解決的問題。反向傳播算法已經(jīng)成為如今大多數(shù)神經(jīng)網(wǎng)絡的標準。

玻爾茲曼機:

1983年,Hinton與Terrence Sejnowski一起共同發(fā)明了玻爾茲曼機,這是第一個能夠?qū)W習不屬于輸入或輸出的神經(jīng)元內(nèi)部表示的神經(jīng)網(wǎng)絡之一。

對卷積神經(jīng)網(wǎng)絡的改進:

2012年,Hinton與他的學生Alex Krizhevsky和Ilya Sutskever一起使用整流線性神經(jīng)元和退出正則化改進了卷積神經(jīng)網(wǎng)絡。在著名的ImageNet圖像識別大賽中,Hinton和他的學生幾乎將對象識別的錯誤率降低了一半,可以說重塑了計算機視覺領域。

Yoshua Bengio

序列的概率模型:

20世紀90年代,Bengio將神經(jīng)網(wǎng)絡與序列的概率模型(如隱馬爾可夫模型)結(jié)合起來。這些思想被納入AT&T / NCR用于讀取手寫支票的系統(tǒng)中,成為20世紀90年代神經(jīng)網(wǎng)絡研究的巔峰之作,目前的深度學習語音識別系統(tǒng)正是這些概念的擴展。

高維詞匯嵌入和注意力機制:

2000年,Bengio撰寫了具有里程碑意義的論文“A Neural Probabilistic Language Model”,此文引入了高維詞嵌入作為詞義表示。Bengio的這個思想對日后的自然語言處理任務產(chǎn)生了巨大而深遠的影響,其中包括語言翻譯、問答和視覺問答系統(tǒng)開發(fā)等。Bengio的團隊還引入了“注意力機制”,導致了機器翻譯研究的突破,并成為深度學習的順序處理的關(guān)鍵組成部分。

生成對抗網(wǎng)絡(GAN):

自2010年以來,Bengio與Ian Goodfellow共同開發(fā)的生成對抗網(wǎng)絡(GAN)引發(fā)了一場計算機視覺和計算機圖形學的革命。GAN的一個引人注目應用是,計算機實際上能夠生成原始圖像,這種創(chuàng)造力往往被認為是機器具備人類智能的標志。

Yann LeCun

卷積神經(jīng)網(wǎng)絡:

20世紀80年代,LeCun開發(fā)了卷積神經(jīng)網(wǎng)絡,成為神經(jīng)網(wǎng)絡領域的基本模型。在20世紀80年代后期,LeCun在多倫多大學和貝爾實驗室工作期間,首次在手寫數(shù)字圖像上成功了訓練卷積神經(jīng)網(wǎng)絡系統(tǒng)。如今,卷積神經(jīng)網(wǎng)絡是計算機視覺、語音識別,語音合成、圖像合成和自然語言處理領域的行業(yè)標準。已被用于自動駕駛醫(yī)學成像分析、語音助手和信息過濾等多個領域。

對反向傳播算法的改進:

LeCun提出了反向傳播算法的早期版本(backprop),并根據(jù)變分原理對其進行了簡潔的推導。他表述了縮短學習時間的兩種簡單方法,從而加快了反向傳播算法的速度。

拓寬神經(jīng)網(wǎng)絡的研究領域:

LeCun還拓寬了神經(jīng)網(wǎng)絡的研究領域,將神經(jīng)網(wǎng)絡作為一種計算模型應用于更廣泛的任務上。他在早期研究中引入的許多思想和理念,現(xiàn)在已成為AI領域的基礎概念。例如,在圖片識別領域,他研究了如何讓神經(jīng)網(wǎng)絡學習層次特征,這一方法現(xiàn)在已經(jīng)用于很多日常的識別任務。他們還提出了可以操作結(jié)構(gòu)數(shù)據(jù)(例如圖數(shù)據(jù))的深度學習架構(gòu)。(轉(zhuǎn)自新智元)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35168

    瀏覽量

    280123
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122806

原文標題:圖靈獎頒給熬過寒冬的人,榮耀屬于深度學習!

文章出處:【微信號:mcuworld,微信公眾號:嵌入式資訊精選】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何排除深度學習工作臺上量化OpenVINO?的特定層?

    無法確定如何排除要在深度學習工作臺上量化OpenVINO?特定層
    發(fā)表于 03-06 07:31

    軍事應用中深度學習的挑戰(zhàn)與機遇

    人工智能尤其是深度學習技術(shù)的最新進展,加速了不同應用領域的創(chuàng)新與發(fā)展。深度學習技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?540次閱讀

    BP神經(jīng)網(wǎng)絡與深度學習的關(guān)系

    BP神經(jīng)網(wǎng)絡與深度學習之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡的基本概念 BP神經(jīng)網(wǎng)絡,即反向傳播神經(jīng)網(wǎng)絡(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?866次閱讀

    4G模組SD卡接口編程:深度學習

    今天我們需要深度學習的是4G模組SD卡接口編程,以我常用的模組Air724UG為例,分享給大家。
    的頭像 發(fā)表于 11-20 23:14 ?698次閱讀
    4G模組SD卡接口編程:<b class='flag-5'>深度</b><b class='flag-5'>學習</b>

    GPU在深度學習中的應用 GPUs在圖形設計中的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學習作為其核心部分,已經(jīng)成為推動技術(shù)進步的重要力量。GPU(圖形處理單元)在深度學習中扮演著至關(guān)重要的角色,其強大的并行處理能力使得訓練復雜的神經(jīng)網(wǎng)絡模
    的頭像 發(fā)表于 11-19 10:55 ?1630次閱讀

    NPU在深度學習中的應用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學習作為其核心驅(qū)動力之一,已經(jīng)在眾多領域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡處理單元)是專門為深度學習
    的頭像 發(fā)表于 11-14 15:17 ?1924次閱讀

    pcie在深度學習中的應用

    深度學習模型通常需要大量的數(shù)據(jù)和強大的計算能力來訓練。傳統(tǒng)的CPU計算資源有限,難以滿足深度學習的需求。因此,GPU(圖形處理單元)和TPU(張量處理單元)等專用硬件應運而生,它們通過
    的頭像 發(fā)表于 11-13 10:39 ?1359次閱讀

    Pytorch深度學習訓練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學習訓練。
    的頭像 發(fā)表于 10-28 14:05 ?662次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學習</b>訓練的方法

    GPU深度學習應用案例

    GPU在深度學習中的應用廣泛且重要,以下是一些GPU深度學習應用案例: 一、圖像識別 圖像識別是深度學習
    的頭像 發(fā)表于 10-27 11:13 ?1384次閱讀

    激光雷達技術(shù)的基于深度學習的進步

    信息。這使得激光雷達在自動駕駛、無人機、機器人等領域具有廣泛的應用前景。 二、深度學習技術(shù)的發(fā)展 深度學習是機器學習的一個分支,它通過模擬人
    的頭像 發(fā)表于 10-27 10:57 ?1073次閱讀

    FPGA加速深度學習模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學習模型是當前硬件加速領域的一個熱門研究方向。以下是一些FPGA加速深度學習模型的案例: 一、基于FPGA的AlexNet卷積運算加速 項目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1239次閱讀

    AI大模型與深度學習的關(guān)系

    AI大模型與深度學習之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學習是AI大模型的基礎 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2901次閱讀

    深度學習GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學習任務的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?617次閱讀

    FPGA做深度學習能走多遠?

    中的性能和效率。同時,也可能會出現(xiàn)一些新的基于 FPGA 的深度學習算法創(chuàng)新,拓展其應用領域。 ? 應用領域的拓展:除了在圖像識別、語音處理、自動駕駛等領域的應用,F(xiàn)PGA 在深度
    發(fā)表于 09-27 20:53

    NVIDIA推出全新深度學習框架fVDB

    在 SIGGRAPH 上推出的全新深度學習框架可用于打造自動駕駛汽車、氣候科學和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1153次閱讀