99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

?人工智能技術(shù)解密——機(jī)器視覺(jué)技術(shù)及應(yīng)用

jf_pJlTbmA9 ? 來(lái)源:jf_pJlTbmA9 ? 作者:jf_pJlTbmA9 ? 2023-07-07 14:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

視覺(jué)是人類最敏感、最直接的感知方式,在不進(jìn)行實(shí)際接觸的情況下,視覺(jué)感知可以使得我們獲取周圍環(huán)境的諸多信息。由于生物視覺(jué)系統(tǒng)非常復(fù)雜,目前還不能使得某一機(jī)器系統(tǒng)完全具備這一強(qiáng)大的視覺(jué)感知能力。當(dāng)下,機(jī)器視覺(jué)的目標(biāo)即,構(gòu)建一個(gè)在可控環(huán)境中處理特定任務(wù)的機(jī)器視覺(jué)系統(tǒng)。由于工業(yè)中的視覺(jué)環(huán)境可控,并且處理任務(wù)特定,所以現(xiàn)如今大部分的機(jī)器視覺(jué)被應(yīng)用在工業(yè)當(dāng)中。

人類視覺(jué)感知是通過(guò)眼睛視網(wǎng)膜的椎體和桿狀細(xì)胞對(duì)光源進(jìn)行捕捉,而后由神經(jīng)纖維將信號(hào)傳遞至大腦視覺(jué)皮層,形成我們所看到的圖像,而機(jī)器視覺(jué)卻不然。機(jī)器視覺(jué)系統(tǒng)的輸入是圖像,輸出是對(duì)這些圖像的感知描述。這組描述與這些圖像中的物體或場(chǎng)景息息相關(guān),并且這些描述可以幫助機(jī)器來(lái)完成特定的后續(xù)任務(wù),指導(dǎo)機(jī)器人系統(tǒng)與周圍的環(huán)境進(jìn)行交互。

1678171542755663.png

那么,迄今為止,主流的機(jī)器視覺(jué)技術(shù)又有哪些呢?

1. 中流砥柱——卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)是目前計(jì)算機(jī)視覺(jué)中使用最普遍的模型結(jié)構(gòu)。引入卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,既能提取到相鄰像素點(diǎn)之間的特征模式,又能保證參數(shù)的個(gè)數(shù)不隨圖片尺寸變化。上圖是一個(gè)典型的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),多層卷積和池化層組合作用在輸入圖片上,在網(wǎng)絡(luò)的最后通常會(huì)加入一系列全連接層,ReLU激活函數(shù)一般加在卷積或者全連接層的輸出上,網(wǎng)絡(luò)中通常還會(huì)加入Dropout來(lái)防止過(guò)擬合。

自2012年AlexNet在ImageNet比賽上獲得冠軍,卷積神經(jīng)網(wǎng)絡(luò)逐漸取代傳統(tǒng)算法成為了處理計(jì)算機(jī)視覺(jué)任務(wù)的核心。

在這幾年,研究人員從提升特征提取能力,改進(jìn)回傳梯度更新效果,縮短訓(xùn)練時(shí)間,可視化內(nèi)部結(jié)構(gòu),減少網(wǎng)絡(luò)參數(shù)量,模型輕量化,自動(dòng)設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)等這些方面,對(duì)卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)有了較大的改進(jìn),逐漸研究出了AlexNet、ZFNet、VGG、NIN、GoogLeNet和Inception系列、ResNet、WRN和DenseNet等一系列經(jīng)典模型,MobileNet系列、ShuffleNet系列、SqueezeNet和Xception等輕量化模型。

1678171559800986.png

卷積網(wǎng)絡(luò)示意圖

經(jīng)典模型,AlexNet:

AlexNet是第一個(gè)深度神經(jīng)網(wǎng)絡(luò),其主要特點(diǎn)包括:

1.使用ReLU作為激活函數(shù)。

2.提出在全連接層使用Dropout避免過(guò)擬合。注:當(dāng)BN提出后,Dropout就被BN替代了。

3.由于GPU顯存太小,使用了兩個(gè)GPU,做法是在通道上分組。

4.使用局部響應(yīng)歸一化(Local Response Normalization --LRN),在生物中存在側(cè)抑制現(xiàn)象,即被激活的神經(jīng)元會(huì)抑制周圍的神經(jīng)元。在這里的目的是讓局部響應(yīng)值大的變得相對(duì)更大,并抑制其它響應(yīng)值相對(duì)比較小的卷積核。例如,某特征在這一個(gè)卷積核中響應(yīng)值比較大,則在其它相鄰卷積核中響應(yīng)值會(huì)被抑制,這樣一來(lái)卷積核之間的相關(guān)性會(huì)變小。LRN結(jié)合ReLU,使得模型提高了一點(diǎn)多個(gè)百分點(diǎn)。

5.使用重疊池化。作者認(rèn)為使用重疊池化會(huì)提升特征的豐富性,且相對(duì)來(lái)說(shuō)會(huì)更難過(guò)擬合。

1678171573521143.png

集大成之作,ResNet:

一般而言,網(wǎng)絡(luò)越深越寬會(huì)有更好的特征提取能力,但當(dāng)網(wǎng)絡(luò)達(dá)到一定層數(shù)后,隨著層數(shù)的增加反而導(dǎo)致準(zhǔn)確率下降,網(wǎng)絡(luò)收斂速度更慢。

傳統(tǒng)的卷積網(wǎng)絡(luò)在一個(gè)前向過(guò)程中每層只有一個(gè)連接,ResNet增加了殘差連接從而增加了信息從一層到下一層的流動(dòng)。FractalNets重復(fù)組合幾個(gè)有不同卷積塊數(shù)量的并行層序列,增加名義上的深度,卻保持著網(wǎng)絡(luò)前向傳播短的路徑。相類似的操作還有Stochastic depth和Highway Networks等。這些模型都顯示一個(gè)共有的特征,縮短前面層與后面層的路徑,其主要的目的都是為了增加不同層之間的信息流動(dòng)。

2. 后起之秀——Transformers

1678171612587712.png

Transformer是一種self-attention(自注意力)模型架構(gòu),2017年之后在NLP領(lǐng)域取得了很大的成功,尤其是序列到序列(seq2seq)任務(wù),如機(jī)器翻譯和文本生成。2020年,谷歌提出pure transformer結(jié)構(gòu)ViT,在ImageNet分類任務(wù)上取得了和CNN可比的性能。之后大量ViT衍生的Transformer架構(gòu)在ImageNet上都取得了成功。

Transformer與CNN相比優(yōu)點(diǎn)是具有較少的歸納性與先驗(yàn)性,因此可以被認(rèn)為是不同學(xué)習(xí)任務(wù)的通用計(jì)算原語(yǔ),參數(shù)效率與性能增益與CNN相當(dāng)。不過(guò)缺點(diǎn)是在預(yù)訓(xùn)練期間,對(duì)大數(shù)據(jù)機(jī)制的依賴性更強(qiáng),因?yàn)門ransformer沒(méi)有像CNN那樣定義明確的歸納先驗(yàn)。因此當(dāng)下出現(xiàn)了一個(gè)新趨勢(shì):當(dāng)self-attention與CNN結(jié)合時(shí),它們會(huì)建立強(qiáng)大的基線( BoTNet )。

Vision Transformer(ViT)將純Transformer架構(gòu)直接應(yīng)用到一系列圖像塊上進(jìn)行分類任務(wù),可以取得優(yōu)異的結(jié)果。它在許多圖像分類任務(wù)上也優(yōu)于最先進(jìn)的卷積網(wǎng)絡(luò),同時(shí)所需的預(yù)訓(xùn)練計(jì)算資源大大減少。

1678171626601834.png

DETR是第一個(gè)成功地將Transformer作為pipeline中的主要構(gòu)建塊的目標(biāo)檢測(cè)框架。它與以前的SOTA方法(高度優(yōu)化的Faster R-CNN)的性能匹配,具有更簡(jiǎn)單和更靈活的pipeline。

Transformer的變體模型是目前的研究熱點(diǎn),主要分為以下幾個(gè)類型:1)模型輕量化;2)加強(qiáng)跨模塊連接;3)自適應(yīng)的計(jì)算時(shí)間;4)引入分而治之的策略;4)循環(huán)Transformers;5)等級(jí)化的Transformer。

3. 欺騙機(jī)器的眼睛——對(duì)抗性示例

最近引起研究界注意的一個(gè)問(wèn)題是這些系統(tǒng)對(duì)對(duì)抗樣本的敏感性。一個(gè)對(duì)抗性的例子是一個(gè)嘈雜的圖像,旨在欺騙系統(tǒng)做出錯(cuò)誤的預(yù)測(cè)。為了在現(xiàn)實(shí)世界中部署這些系統(tǒng),它們必須能夠檢測(cè)到這些示例。為此,最近的工作探索了通過(guò)在訓(xùn)練過(guò)程中包含對(duì)抗性示例來(lái)使這些系統(tǒng)更強(qiáng)大對(duì)抗對(duì)抗性攻擊的可能性。

現(xiàn)階段對(duì)模型攻擊的分類主要分為兩大類,即攻擊訓(xùn)練階段和推理階段。

訓(xùn)練階段的攻擊(Training in Adversarial Settings),主要的方法就是針對(duì)模型的參數(shù)進(jìn)行微小的擾動(dòng),從讓而達(dá)到讓模型的性能和預(yù)期產(chǎn)生偏差的目的。例如直接通過(guò)對(duì)于訓(xùn)練數(shù)據(jù)的標(biāo)簽進(jìn)行替換,讓數(shù)據(jù)樣本和標(biāo)簽不對(duì)應(yīng),從而最后訓(xùn)練的結(jié)果也一定與預(yù)期的產(chǎn)生差異,或者通過(guò)在線的方式獲得訓(xùn)練數(shù)據(jù)的輸入權(quán),操縱惡意數(shù)據(jù)來(lái)對(duì)在線訓(xùn)練過(guò)程進(jìn)行擾動(dòng),最后的結(jié)果就是產(chǎn)出脫離預(yù)期。

推理階段的攻擊(Inference in Adversarial Settings),是當(dāng)一個(gè)模型被訓(xùn)練完成后,可以將該模型主觀的看作是一個(gè)盒子,如果該盒子對(duì)我們來(lái)說(shuō)是透明的則可以將其看成“白盒”模型,若非如此則看成“黑盒”模型。所謂的“白盒攻擊”,就是我們需要知道里面所有的模型參數(shù),但這在實(shí)際操作中并不現(xiàn)實(shí),卻有實(shí)現(xiàn)的可能,因此我們需要有這種前提假設(shè)。黑盒攻擊就比較符合現(xiàn)實(shí)生活中的場(chǎng)景:通過(guò)輸入和輸出猜測(cè)模型的內(nèi)部結(jié)構(gòu);加入稍大的擾動(dòng)來(lái)對(duì)模型進(jìn)行攻擊;構(gòu)建影子模型來(lái)進(jìn)行關(guān)系人攻擊;抽取模型訓(xùn)練的敏感數(shù)據(jù);模型逆向參數(shù)等等。

對(duì)抗攻擊的防御機(jī)制。抵御對(duì)抗樣本攻擊主要是基于附加信息引入輔助塊模型(AuxBlocks)進(jìn)行額外輸出來(lái)作為一種自集成的防御機(jī)制,尤其在針對(duì)攻擊者的黑盒攻擊和白盒攻擊時(shí),該機(jī)制效果良好。除此之外防御性蒸餾也可以起到一定的防御能力,防御性蒸餾是一種將訓(xùn)練好的模型遷移到結(jié)構(gòu)更為簡(jiǎn)單的網(wǎng)絡(luò)中,從而達(dá)到防御對(duì)抗攻擊的效果。

對(duì)抗學(xué)習(xí)的應(yīng)用舉例,1)自動(dòng)駕駛;2)金融欺詐。

自動(dòng)駕駛是未來(lái)智能交通的發(fā)展方向,但在其安全性獲得完全檢驗(yàn)之前,人們還難以信任這種復(fù)雜的技術(shù)。雖然許多車企、科技公司已經(jīng)在這一領(lǐng)域進(jìn)行了許多實(shí)驗(yàn),但對(duì)抗樣本技術(shù)對(duì)于自動(dòng)駕駛?cè)匀皇且粋€(gè)巨大的挑戰(zhàn)。幾個(gè)攻擊實(shí)例:對(duì)抗攻擊下的圖片中的行人在模型的面前隱身,對(duì)抗樣本使得模型“無(wú)視”路障;利用AI對(duì)抗樣本生成特定圖像并進(jìn)行干擾時(shí),特斯拉的Autopilot系統(tǒng)輸出了「錯(cuò)誤」的識(shí)別結(jié)果,導(dǎo)致車輛雨刷啟動(dòng);在道路的特定位置貼上若干個(gè)對(duì)抗樣本貼紙,可以讓處在自動(dòng)駕駛模式的汽車并入反向車道;在Autopilot系統(tǒng)中,通過(guò)游戲手柄對(duì)車輛行駛方向進(jìn)行控制;對(duì)抗樣本使得行人對(duì)于機(jī)器學(xué)習(xí)模型“隱身”。

4. 自學(xué)也能成才——自監(jiān)督學(xué)習(xí)

深度學(xué)習(xí)需要干凈的標(biāo)記數(shù)據(jù),這對(duì)于許多應(yīng)用程序來(lái)說(shuō)很難獲得。注釋大量數(shù)據(jù)需要大量的人力勞動(dòng),這是耗時(shí)且昂貴的。此外,數(shù)據(jù)分布在現(xiàn)實(shí)世界中一直在變化,這意味著模型必須不斷地根據(jù)不斷變化的數(shù)據(jù)進(jìn)行訓(xùn)練。自監(jiān)督方法通過(guò)使用大量原始未標(biāo)記數(shù)據(jù)來(lái)訓(xùn)練模型來(lái)解決其中的一些挑戰(zhàn)。在這種情況下,監(jiān)督是由數(shù)據(jù)本身(不是人工注釋)提供的,目標(biāo)是完成一個(gè)間接任務(wù)。間接任務(wù)通常是啟發(fā)式的(例如,旋轉(zhuǎn)預(yù)測(cè)),其中輸入和輸出都來(lái)自未標(biāo)記的數(shù)據(jù)。定義間接任務(wù)的目標(biāo)是使模型能夠?qū)W習(xí)相關(guān)特征,這些特征稍后可用于下游任務(wù)(通常有一些注釋可用)。

自監(jiān)督學(xué)習(xí)是一種數(shù)據(jù)高效的學(xué)習(xí)范式。監(jiān)督學(xué)習(xí)方法教會(huì)模型擅長(zhǎng)特定任務(wù)。另一方面,自監(jiān)督學(xué)習(xí)允許學(xué)習(xí)不專門用于解決特定任務(wù)的一般表示,而是為各種下游任務(wù)封裝更豐富的統(tǒng)計(jì)數(shù)據(jù)。在所有自監(jiān)督方法中,使用對(duì)比學(xué)習(xí)進(jìn)一步提高了提取特征的質(zhì)量。自監(jiān)督學(xué)習(xí)的數(shù)據(jù)效率特性使其有利于遷移學(xué)習(xí)應(yīng)用。

目前的自監(jiān)督學(xué)習(xí)領(lǐng)域可大致分為兩個(gè)分支。一個(gè)是用于解決特定任務(wù)的自監(jiān)督學(xué)習(xí),例如上次討論的場(chǎng)景去遮擋,以及自監(jiān)督的深度估計(jì)、光流估計(jì)、圖像關(guān)聯(lián)點(diǎn)匹配等。另一個(gè)分支則用于表征學(xué)習(xí)。有監(jiān)督的表征學(xué)習(xí),一個(gè)典型的例子是ImageNet分類。而無(wú)監(jiān)督的表征學(xué)習(xí)中,最主要的方法則是自監(jiān)督學(xué)習(xí)。

自監(jiān)督學(xué)習(xí)方法依賴于數(shù)據(jù)的空間和語(yǔ)義結(jié)構(gòu),對(duì)于圖像,空間結(jié)構(gòu)學(xué)習(xí)是極其重要的,因此在計(jì)算機(jī)視覺(jué)領(lǐng)域中的應(yīng)用廣泛。一種是將旋轉(zhuǎn)、拼接和著色在內(nèi)的不同技術(shù)被用作從圖像中學(xué)習(xí)表征的前置任務(wù)。對(duì)于著色,將灰度照片作為輸入并生成照片的彩色版本。另一種廣泛用于計(jì)算機(jī)視覺(jué)自監(jiān)督學(xué)習(xí)的方法是放置圖像塊。一個(gè)例子包括Doersch等人的論文。在這項(xiàng)工作中,提供了一個(gè)大型未標(biāo)記的圖像數(shù)據(jù)集,并從中提取了隨機(jī)的圖像塊對(duì)。在初始步驟之后,卷積神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)第二個(gè)圖像塊相對(duì)于第一個(gè)圖像塊的位置。還有其他不同的方法用于自監(jiān)督學(xué)習(xí),包括修復(fù)和判斷分類錯(cuò)誤的圖像。

結(jié)語(yǔ):

自2012年AlexNet問(wèn)世這十年來(lái),機(jī)器視覺(jué)領(lǐng)域的技術(shù)可以說(shuō)是日新月異。機(jī)器視覺(jué)在諸多領(lǐng)域也逐漸接近甚至超越了我們?nèi)祟惖难劬?。隨著技術(shù)的不斷進(jìn)步,機(jī)器視覺(jué)技術(shù)也一定會(huì)變得更加的強(qiáng)大,無(wú)論是安全防護(hù)、自動(dòng)駕駛、缺陷檢測(cè)還是目標(biāo)識(shí)別等領(lǐng)域,相信機(jī)器視覺(jué)會(huì)帶給我們更多的驚喜。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29718

    瀏覽量

    212748
  • 機(jī)器視覺(jué)
    +關(guān)注

    關(guān)注

    163

    文章

    4594

    瀏覽量

    122852
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    人工智能是什么?

    ` 人工智能是什么?什么是人工智能?人工智能是未來(lái)發(fā)展的必然趨勢(shì)嗎?以后人工智能技術(shù)真的能達(dá)到電影里機(jī)器人的
    發(fā)表于 09-16 15:40

    人工智能技術(shù)—AI

      人工智能技術(shù)的概念從出來(lái)到現(xiàn)在已經(jīng)有很多年的歷史了,其實(shí)所謂的人工智能技術(shù)本身就是一種模擬人類大腦的思考方式的一種技術(shù),它的英文簡(jiǎn)稱是AI技術(shù),在西方國(guó)家,
    發(fā)表于 10-21 12:03

    機(jī)器視覺(jué)技術(shù)——人工智能的下一個(gè)前沿

    `國(guó)外科技網(wǎng)站Venturebeat發(fā)布文章稱,人工智能在過(guò)去一年里有著強(qiáng)勁的發(fā)展,給人們帶來(lái)越來(lái)越多的益處。而未來(lái),機(jī)器視覺(jué)將會(huì)是人工智能的下一個(gè)前沿領(lǐng)域。隨著該類
    發(fā)表于 12-17 17:14

    電銷機(jī)器人成為2018人工智能最熱產(chǎn)業(yè)之一

    、自然語(yǔ)言處理、語(yǔ)音識(shí)別、機(jī)器學(xué)習(xí)應(yīng)用、計(jì)算機(jī)視覺(jué)與圖像、技術(shù)平臺(tái)、智能無(wú)人機(jī)、智能機(jī)器人、無(wú)人
    發(fā)表于 05-21 15:54

    初學(xué)AI人工智能需要哪些技術(shù)?這幾本書為你解答

    新的能以人類智能相似的方式做出反應(yīng)的智能機(jī)器,該領(lǐng)域的研究包括機(jī)器人、語(yǔ)言識(shí)別、圖像識(shí)別、自然語(yǔ)言處理和專家系統(tǒng)等。人工智能從誕生以來(lái),理論
    發(fā)表于 01-21 14:26

    人工智能技術(shù)及算法設(shè)計(jì)指南

    手把手教你設(shè)計(jì)人工智能芯片及系統(tǒng)(全階設(shè)計(jì)教程+AI芯片F(xiàn)PGA實(shí)現(xiàn)+開(kāi)發(fā)板)詳情鏈接:http://url.elecfans.com/u/c422a4bd15人工智能各種技術(shù)與算法
    發(fā)表于 02-12 14:07

    2019年人工智能技術(shù)峰會(huì)落幕,大咖演講PPT火熱出爐!

    `2019年6月28日,由<電子發(fā)燒友>主辦,深圳市機(jī)器人協(xié)會(huì)、深圳市人工智能行業(yè)協(xié)會(huì)和華強(qiáng)智慧網(wǎng)聯(lián)合主辦的“2019年人工智能技術(shù)峰會(huì)”在深圳成功舉行。本次峰會(huì)以“加速
    發(fā)表于 07-02 16:36

    路徑規(guī)劃用到的人工智能技術(shù)

    路徑規(guī)劃用到的人工智能技術(shù)人工智能編程語(yǔ)言/數(shù)據(jù)結(jié)構(gòu)與算法三 人工智能基礎(chǔ)原理四 智能信息獲?。ê?jiǎn)稱爬蟲(chóng)) 與數(shù)據(jù)分析1、發(fā)起請(qǐng)求3、解析內(nèi)容4、保存數(shù)據(jù)二、Requests庫(kù)介紹
    發(fā)表于 07-20 06:53

    嵌入式人工智能技術(shù)是什么?

    嵌入式人工智能技術(shù)是什么?
    發(fā)表于 12-27 07:03

    【開(kāi)源硬件系列04期】AI人工智能技術(shù)帶給EDA的機(jī)遇和挑戰(zhàn)(文中含回放+課件)

    識(shí)別、自動(dòng)駕駛、金融等領(lǐng)域獲得了成功應(yīng)用。如何將人工智能技術(shù)應(yīng)用在芯片設(shè)計(jì)自動(dòng)化(EDA)領(lǐng)域是近年來(lái)的熱門話題。本次直播將從數(shù)據(jù)、算法、應(yīng)用場(chǎng)景等方面討論人工智能技術(shù)為EDA帶來(lái)的新機(jī)遇,包括AI
    發(fā)表于 01-17 16:56

    《移動(dòng)終端人工智能技術(shù)與應(yīng)用開(kāi)發(fā)》人工智能的發(fā)展與AI技術(shù)的進(jìn)步

    人工智能打發(fā)展是算法優(yōu)先于實(shí)際應(yīng)用。近幾年隨著人工智能的不斷普及,許多深度學(xué)習(xí)算法涌現(xiàn),從最初的卷積神經(jīng)網(wǎng)絡(luò)(CNN)到機(jī)器學(xué)習(xí)算法的時(shí)代。由于應(yīng)用環(huán)境的差別衍生出不同的學(xué)習(xí)算法:線性回歸,分類與回歸樹(shù)
    發(fā)表于 02-17 11:00

    《移動(dòng)終端人工智能技術(shù)與應(yīng)用開(kāi)發(fā)》+快速入門AI的捷徑+書中案例實(shí)操

    人工智能技術(shù)與應(yīng)用開(kāi)發(fā)》正好和我的工作內(nèi)容非常貼合。一、內(nèi)容概覽機(jī)械工業(yè)出版社的計(jì)算機(jī)圖書歷來(lái)有很好的口碑。此書由泰爾終端實(shí)驗(yàn)室專家撰寫,匯聚華為、曠視、vivo、百度、高通等主流廠商的AI技術(shù),闡述了移動(dòng)終端
    發(fā)表于 02-19 20:24

    《移動(dòng)終端人工智能技術(shù)與應(yīng)用開(kāi)發(fā)》+理論學(xué)習(xí)

    收到《移動(dòng)終端人工智能技術(shù)與應(yīng)用開(kāi)發(fā)》有一段時(shí)間了,由于時(shí)間有限,加上工作原因,目前只看到第3章,前幾章主要介紹人工智能機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí),發(fā)展歷程,分類等,重點(diǎn)說(shuō)明了,在移動(dòng)終端上如何實(shí)現(xiàn)
    發(fā)表于 02-27 23:28

    人工智能技術(shù)是什么

    人工智能技術(shù)是什么 人工智能技術(shù)是一種模擬人類智能技術(shù),其中包含了許多不同的領(lǐng)域和應(yīng)用,如機(jī)器學(xué)習(xí)、自然語(yǔ)言處理、計(jì)算機(jī)
    的頭像 發(fā)表于 08-12 16:48 ?3951次閱讀

    人工智能技術(shù)及應(yīng)用學(xué)什么

    、視覺(jué)感知、決策制定等能力,使機(jī)器能夠以類似于人類的方式處理信息。在未來(lái),人工智能有望在醫(yī)療、交通、金融等眾多領(lǐng)域中發(fā)揮重大作用,這也使得人工智能技術(shù)及應(yīng)用成為當(dāng)今學(xué)習(xí)的熱門課題。 一
    的頭像 發(fā)表于 08-15 16:07 ?3479次閱讀