99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

了解BERT原理、技術(shù)、實(shí)踐,只需3分鐘

DPVg_AI_era ? 來(lái)源:lp ? 2019-03-01 08:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文對(duì)BERT的原理、技術(shù)細(xì)節(jié)以及如何應(yīng)用于實(shí)際場(chǎng)景中,做了簡(jiǎn)明扼要的介紹??赐瓯疚南嘈拍鷷?huì)對(duì)BERT為什么被認(rèn)為是當(dāng)前最好的NLP模型、實(shí)現(xiàn)原理以及適用場(chǎng)景有所了解。

目前最好的自然語(yǔ)言預(yù)訓(xùn)練方法無(wú)疑是BERT。它的工作流程分為兩步:

首先,使用大量未標(biāo)記的數(shù)據(jù),以預(yù)訓(xùn)練、也就是無(wú)人監(jiān)督的方式學(xué)習(xí)語(yǔ)言表達(dá)。

然后,使用少量經(jīng)過(guò)標(biāo)記的訓(xùn)練數(shù)據(jù)對(duì)模型進(jìn)行fine-tune,以監(jiān)督學(xué)習(xí)的方式,執(zhí)行多種監(jiān)督任務(wù)。

預(yù)訓(xùn)練機(jī)器學(xué)習(xí)模型已經(jīng)在包括視覺(jué)、自然語(yǔ)言處理在內(nèi)的各個(gè)領(lǐng)域取得了成功。

詳解BERT及其原理

BERT是Bidirectional Encoder Representations from Transformers的縮寫,是一種新型的語(yǔ)言模型,通過(guò)聯(lián)合調(diào)節(jié)所有層中的雙向Transformer來(lái)訓(xùn)練預(yù)訓(xùn)練深度雙向表示。

它基于谷歌2017年發(fā)布的Transformer架構(gòu),通常的Transformer使用一組編碼器和解碼器網(wǎng)絡(luò),而BERT只需要一個(gè)額外的輸出層,對(duì)預(yù)訓(xùn)練進(jìn)行fine-tune,就可以滿足各種任務(wù),根本沒(méi)有必要針對(duì)特定任務(wù)對(duì)模型進(jìn)行修改。

BERT將多個(gè)Transformer編碼器堆疊在一起。Transformer基于著名的多頭注意力(Multi-head Attention)模塊,該模塊在視覺(jué)和語(yǔ)言任務(wù)方面都取得了巨大成功。

BERT的先進(jìn)性基于兩點(diǎn):首先,使用Masked Langauge Model(MLM)和Next Sentense Prediction(NSP)的新預(yù)訓(xùn)練任務(wù);其次,大量數(shù)據(jù)和計(jì)算能力滿足BERT的訓(xùn)練強(qiáng)度。

相比之下,像Word2Vec、ELMO、OpenAI GPT等傳統(tǒng)SOTA生成預(yù)訓(xùn)練方法,使用從左到右的單向訓(xùn)練,或者淺雙向,均無(wú)法做到BERT的雙向性。

MLM

MLM可以從文本執(zhí)行雙向?qū)W習(xí),即允許模型從單詞前后相鄰的單詞,學(xué)習(xí)每個(gè)單詞的上下文,這是傳統(tǒng)方法做不到的。

MLM預(yù)訓(xùn)練任務(wù)將文本轉(zhuǎn)換為符號(hào),并使用符號(hào)表示作為訓(xùn)練的輸入和輸出。15%的符號(hào)隨機(jī)子集在訓(xùn)練期間被屏蔽(類似被隱藏起來(lái)),目標(biāo)函數(shù)則用來(lái)預(yù)測(cè)符號(hào)識(shí)別的正確率。

這與使用單向預(yù)測(cè)作為目標(biāo)、或使用從左到右和從右到左訓(xùn)練,來(lái)近似雙向性的傳統(tǒng)訓(xùn)練方法形成了對(duì)比。

但是MLM中的BERT屏蔽策略,將模型偏向于實(shí)際的單詞,還沒(méi)有數(shù)據(jù)顯示這種偏見(jiàn)對(duì)訓(xùn)練所產(chǎn)生的影響。

NSP

NSP使得BERT可以通過(guò)預(yù)測(cè)上下句之間是否連貫來(lái)得出句子之間的關(guān)系。

給出50%正確上下句配對(duì),并補(bǔ)充50%的隨機(jī)上下句配對(duì),然后對(duì)模型進(jìn)行訓(xùn)練。

MLM和NSP是同時(shí)進(jìn)行的。

數(shù)據(jù)和TPU/GPU runtime

BERT的訓(xùn)練總共使用了33億單詞。其中25億來(lái)自維基百科,剩下8億來(lái)自BooksCorpus。

訓(xùn)練使用TPU完成,GPU估算如下所示。

使用2500-392000標(biāo)記的樣品進(jìn)行fine-tune。重要的是,100K以上訓(xùn)練樣本的數(shù)據(jù)集在各種超參數(shù)上表現(xiàn)出強(qiáng)大的性能。

每個(gè)fine-tune實(shí)驗(yàn)在單個(gè)云TPU上運(yùn)行1小時(shí),在GPU上需要運(yùn)行幾個(gè)小時(shí)不等。

結(jié)果顯示,BERT優(yōu)于11項(xiàng)NLP任務(wù)。在SQUAD和SWAG兩個(gè)任務(wù)中,BERT成為第一個(gè)超越人類的NLP模型!

BERT能夠解決的實(shí)際任務(wù)類型

BERT預(yù)訓(xùn)練了104種語(yǔ)言,已在TensorFlow和Pytorch中實(shí)現(xiàn)并開源。Clone地址:

https://github.com/google-research/Bert

BERT可以針對(duì)幾種類型的任務(wù)進(jìn)行fine-tune。例如文本分類、文本相似性、問(wèn)答、文本標(biāo)簽、如詞性、命名實(shí)體識(shí)別等。

但是,預(yù)訓(xùn)練BERT是很貴的,除非使用類似于Nvidia V100這樣的TPU或GPU。

BERT人員還發(fā)布了一個(gè)單獨(dú)的多語(yǔ)種模型,該模型使用整個(gè)維基百科的100種語(yǔ)言進(jìn)行訓(xùn)練,性能比單語(yǔ)種的低幾個(gè)百分點(diǎn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3793

    瀏覽量

    137963
  • 自然語(yǔ)言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13654
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22612

原文標(biāo)題:3分鐘看懂史上最強(qiáng)NLP模型BERT

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    超大容量電池出世,充滿電只需6分鐘

     近日,來(lái)自美國(guó)麻省理工和中國(guó)清華大學(xué)的科研人員研發(fā)出了一種新型的電池,它可以在6分鐘內(nèi)完成一次充電。
    發(fā)表于 08-14 14:36 ?2352次閱讀

    OPPO閃充,15分鐘充滿一部手機(jī)電量

    在充電5分鐘通話兩小時(shí)的基礎(chǔ)上,OPPO又把這項(xiàng)技術(shù)提升到了10個(gè)小時(shí)的高度,2500毫安時(shí)電池充電更是只需要15分鐘
    發(fā)表于 02-24 08:11 ?4015次閱讀

    3分鐘帶你了解博智慧達(dá)激光焊縫跟蹤技術(shù)

    3分鐘帶你了解博智慧達(dá)激光焊縫跟蹤技術(shù)
    發(fā)表于 08-30 10:58

    3分鐘到4小時(shí)定時(shí)器

    3分鐘到4小時(shí)定時(shí)器:電路原理詳見(jiàn)電路圖。
    發(fā)表于 12-13 22:20 ?1972次閱讀
    <b class='flag-5'>3</b><b class='flag-5'>分鐘</b>到4小時(shí)定時(shí)器

    新型有機(jī)電池ORB 充電只需1分鐘

     新型有機(jī)電池ORB 充電只需1分鐘 CNET 科技資訊網(wǎng)8月8日國(guó)際報(bào)道 NEC的研究人員上周四表示,他們已經(jīng)開發(fā)了一種新型的充電電池。這種電池基
    發(fā)表于 11-06 10:44 ?823次閱讀

    深圳現(xiàn)身會(huì)炒菜機(jī)器人:最快只需3分鐘炒好酸辣土豆絲

    炒菜機(jī)器人概念并不新,但現(xiàn)在最新產(chǎn)品是它只有迷你冰箱那樣大小,最短3分鐘炒一道酸辣土豆絲,最長(zhǎng)15分鐘做一道鯽魚湯。把菜切好了直接放進(jìn)機(jī)器人的容器中,按下確定鍵,就能等著吃菜了。
    發(fā)表于 11-22 18:34 ?2386次閱讀

    三星改革智能手機(jī)充電技術(shù),充滿只需分鐘

    現(xiàn)在的手機(jī)電池續(xù)航短的問(wèn)題一直手機(jī)領(lǐng)域研究的重點(diǎn)。近日,三星爆出猛料,宣布已經(jīng)成功研制出石墨烯電池,以后充電只需要十分鐘。
    發(fā)表于 12-02 11:24 ?2245次閱讀

    1024塊TPU在燃燒!將BERT預(yù)訓(xùn)練模型的訓(xùn)練時(shí)長(zhǎng)從3天縮減到了76分鐘

    BERT是一種先進(jìn)的深度學(xué)習(xí)模型,它建立在語(yǔ)義理解的深度雙向轉(zhuǎn)換器上。當(dāng)我們?cè)黾觔atch size的大?。ㄈ绯^(guò)8192)時(shí),此前的模型訓(xùn)練技巧在BERT上表現(xiàn)得并不好。BERT預(yù)訓(xùn)練也需要很長(zhǎng)時(shí)間才能完成,如在16個(gè)TPUv
    的頭像 發(fā)表于 04-04 16:27 ?1.2w次閱讀

    OPPO Reno Ace曝光搭載65W超級(jí)閃充只需要30分鐘就能充滿電

    據(jù)OPPO介紹,搭載65W閃充的OPPO Reno Ace只需30分鐘就能充滿電,宣傳標(biāo)語(yǔ)也從以前的“充電5分鐘,通話2小時(shí)”改成“充電5分鐘,開黑2小時(shí)”。從此前官方的宣傳來(lái)看,新機(jī)
    發(fā)表于 09-25 08:50 ?1472次閱讀

    OPPO Reno 3 Pro將搭載增強(qiáng)版的VOOC 4.0最快56分鐘充滿電

    VOOC 3.0 30分鐘可將手機(jī)充滿50%,大概70多分鐘可將手機(jī)全部充滿,而VOOC 4.0只需20分鐘即可將手機(jī)電量充滿一半,56分鐘
    發(fā)表于 12-13 13:55 ?1332次閱讀

    3分鐘了解嵌入式的硬件構(gòu)架資料下載

    電子發(fā)燒友網(wǎng)為你提供3分鐘了解嵌入式的硬件構(gòu)架資料下載的電子資料下載,更有其他相關(guān)的電路圖、源代碼、課件教程、中文資料、英文資料、參考設(shè)計(jì)、用戶指南、解決方案等資料,希望可以幫助到廣大的電子工程師們。
    發(fā)表于 04-04 08:55 ?3次下載
    <b class='flag-5'>3</b><b class='flag-5'>分鐘</b><b class='flag-5'>了解</b>嵌入式的硬件構(gòu)架資料下載

    3分鐘了解ePort關(guān)鍵設(shè)計(jì)技巧

    ePort-M模塊到手,通信接口不了解?TX線需要串接電阻?信號(hào)線不懂處理、走線麻煩?3分鐘帶你了解ePort關(guān)鍵設(shè)計(jì)技巧,輕松上手!
    的頭像 發(fā)表于 05-29 12:00 ?1219次閱讀
    <b class='flag-5'>3</b><b class='flag-5'>分鐘</b><b class='flag-5'>了解</b>ePort關(guān)鍵設(shè)計(jì)技巧

    3分鐘了解ePort關(guān)鍵設(shè)計(jì)技巧

    ePort-M模塊到手,通信接口不了解?TX線需要串接電阻?信號(hào)線不懂處理、走線麻煩?3分鐘帶你了解ePort關(guān)鍵設(shè)計(jì)技巧,輕松上手!通信接口了解
    的頭像 發(fā)表于 09-26 11:38 ?1683次閱讀
    <b class='flag-5'>3</b><b class='flag-5'>分鐘</b><b class='flag-5'>了解</b>ePort關(guān)鍵設(shè)計(jì)技巧

    【產(chǎn)品應(yīng)用】3分鐘了解ePort關(guān)鍵設(shè)計(jì)技巧

    ePort-M模塊到手,通信接口不了解?TX線需要串接電阻?信號(hào)線不懂處理、走線麻煩?3分鐘帶你了解ePort關(guān)鍵設(shè)計(jì)技巧,輕松上手!通信接口了解
    的頭像 發(fā)表于 06-06 10:17 ?1782次閱讀
    【產(chǎn)品應(yīng)用】<b class='flag-5'>3</b><b class='flag-5'>分鐘</b><b class='flag-5'>了解</b>ePort關(guān)鍵設(shè)計(jì)技巧

    快樂(lè)解說(shuō)MCU:三分鐘,帶你了解低功耗MCU

    快樂(lè)解說(shuō)MCU:三分鐘,帶你了解低功耗MCU
    的頭像 發(fā)表于 09-18 10:56 ?1724次閱讀