99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

預訓練語言模型設計的理論化認識

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:潘小小 ? 2020-11-02 15:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在這篇文章中,我會介紹一篇最新的預訓練語言模型的論文,出自MASS的同一作者。這篇文章的亮點是:將兩種經典的預訓練語言模型(MaskedLanguage Model, Permuted Language Model)統(tǒng)一到一個框架中,并且基于它們的優(yōu)勢和缺點,取長補短,提出了一個新的預訓練語言模型----MPNet,其混合了MLM和PLM各自的優(yōu)勢,達到了比兩者更好的效果,在Natural Language Understanding和NaturalLanguageGeneration任務中,都取得了較好的結果。實驗表明MPNet在大量下游任務中超越了MLM和PLM,從而證明了pretrain方法中的2個關鍵點:

被預測的token之間的依賴關系 (MPNet vs MLM)

整個序列的位置信息 (MPNet vs PLM)

MPNet: Masked and Permuted Pre-training for Language Understanding(https://arxiv.org/pdf/2004.09297.pdf)

【小小說】這篇論文我很喜歡,讀下來有一種打通了任督二脈一般行云流水的感覺。在本文中,我會從BERT和XLNet的統(tǒng)一理論框架講起,然后引出作者如何得到MPNet這一訓練方式,接著會介紹一下作者具體實現上用到的方法。希望本文可以讓你對預訓練語言模型的設計有一個更加理論化的認識。

1. BERT和XLNet各自的優(yōu)缺點

?既然是從BERT和XLNet到MPNet,那么當然是要先從這兩者講起。大家對BERT應該比較熟悉,它是劃時代的工作,可以說從BERT開始,NLP領域正式進入了“預訓練模型”的時代。而XLNet是隨后的重磅之作,在這一節(jié)中,我們先來回顧一下它們。?

「BERT」: Masked Language Model , 使用了雙邊的context信息,但是忽略了masked token之間的依賴關系

「XLNet」: Permuted Language Model , 保留了masked token之間的依賴關系,但是預測的時候每個token只能看到permuted sequence中的前置位的token的信息,不能看到所有token的信息。(p.s. 不知道XLNet的寶寶辛苦去復習 【論文串講】從GPT和BERT到XLNet )

作者分別從input和output兩個角度總結了兩者的優(yōu)缺點分別存在的地方:

「Input Discrepancy」: 在Natural Language Understanding的任務中,模型可以見到完整的input sentence,因此要求在預訓練階段,input要盡可能輸入完整的信息

MLM中,token的語言信息是不完整的,不過位置信息是保留的(通過position embedding,p.s. 想具體了解如何通過position embedding保留的,請移步參考 【經典精讀】Transformer模型深度解讀 中"使用Positional Encoding帶來的獨特優(yōu)勢"這部分的內容)

PLM中,每個被預測的token只能“看”到被打亂的序列中位于它自己前面的token,而不能像MLM一樣“看”到兩側的token。

「Output Dependency」:

MLM中,輸出的token,即在input端被mask掉的token,是「互相獨立的」。也就是說這些被mask掉的token之間是假定沒有context層面的關系的。

PLM規(guī)避了MLM中的問題,被預測的token之間也存在context層面的關系。

「總結一下就是:」

?「PLM在output dependency的問題上處理得比MLM好,但是預訓練階段和fine-tune階段之間的差異比MLM的更大?!?/span>?

2. 統(tǒng)一MLM和PLM的優(yōu)化目標

?了解了BERT和XLNet各自的優(yōu)缺點和適用的場景后,本文的作者試圖從一個統(tǒng)一的視角去總結這兩種預訓練模型,而這個總結,引出了后來的MPNet。?

基于以上兩點觀察,本文的作者提出了統(tǒng)一Masked Language Model和Permuted Language Model的想法,并且起名叫「M」asked and「P」ermuted Language Model,縮寫「MPNet」,意在取兩者之長,避兩者之短。

2.1. 統(tǒng)一優(yōu)化目標的提出

MLM: 由于Masked Language Model中的獨立性假設“每個被mask的位置的token之間是彼此獨立的”,我們可以換一種方式看待Masked Language Model: 把Masked tokens統(tǒng)一挪到序列的末尾,這樣做并不會改變模型的任何部分,只是我們的看待方式變了。

重新看待Masked Language Model

2. PLM: 原順序 被打亂成

,然后最右邊的兩個token 和 就被選作要預測的token。

重新看待Permuted Language Model

基于上述的討論,作者給出了統(tǒng)一MLM和PLM訓練目標的框架:將沒有被mask的token放在左邊,而將需要被預測的token(被mask掉的)放在右邊。

「MLM」

「PLM」

其中,是序列的其中一個permutation,表示在該permutation中的第 位,表示位置小于的所有位置。

2.2. 討論

MLM和PLM的訓練目標公式非常接近,唯一的區(qū)別在于,MLM條件概率的條件部分是 和 ; 而PLM的條件部分是,它們的區(qū)別是:

MLM比PLM多了 這個條件,也就是比PLM多了關于序列長度的信息(一個[M]就是一個位置)。

PLM比MLM多了被預測部分token之間的相關性:PLM的 是隨著預測的進行(t的變化)而動態(tài)變化的,MLM的 對于整個模型預測過程進行是恒定不變的。

3. 提出MPNet

?

基于上一節(jié)的總結,作者按照相同的思路提出了MPNet的預訓練目標

?

「a. MPNet的預訓練目標」

我們既要像MLM那樣,在預測時獲取到序列長度的信息;又要像PLM那樣,在預測后一個token時,以前面的所有token(包含前置位被預測出來的)為條件。MPNet做到了:

MPNet示意圖

(b)圖中灰色的部分是encoder端的bidirectional self-attention

(b)圖中藍色和綠色的部分分別是decoder端的two stream self-attention的content stream和query stream (two stream self-attention的具體定義請參考 【論文串講】從GPT和BERT到XLNet ),這里提一下,content stream相當于query stream右移一步。

(a)圖中黑色的線+綠色的線即對應了(b)圖中的綠色點,(a)圖中黑色的線+藍色的線即對應了(b)圖中的藍色點。

(b)圖中的行對應著query position,列對應著column position。

「b. ”位置補償“」

由于用到了Permuted Language Model的思想,所以MPNet和XLNet一樣,也要使用two-stream self-attention。想要實現預訓練目標中的 ,在實現上作者提出了“位置補償”(positioncompensation),也就是說,在預測過程的每一步,query stream和contentstream都可以看到N(N即序列長度)個token,具體結合圖中的例子來說就是,

預測 時: 已知 , , , , , , , ,

預測 時: 已知 , , , , , , , , ,

預測 時: 已知 , , , , , , , , , ,

也就是說,無論預測到哪一步, , ,

, , , 這6個位置信息都可見。我們回顧一下XLNet,作一下對比:

預測 時: 已知 , , , , , ,

預測 時: 已知 , , , , , , , ,

預測 時: 已知 , , , , , , , , , ,

可以看出,在預測 時,比MPNet少了 , ,在預測 時,比MPNet少了 。

「c. 總結」

MPNet有效性來自于它保留了更多的信息

通過上面的詳細講解,相信到這兒大家也明白了:MPNet保留的信息是BERT和XLNet的并集,第一,它利用PLM的自回歸特性,規(guī)避了MLM的獨立性假設,在預測后面token時也利用了之前預測出來的token;第二,它利用MLM建模中自帶的序列信息,規(guī)避了PLM在預測前面的token時不知道序列整體的長度的缺點。這兩點保證了MPNet完美揚長避短,因此在下游任務中完美擊敗了前兩者。

給我們的啟發(fā)

致力于彌合pre-train階段和下游任務fine-tune階段的預訓練目標,盡可能減少訓練和預測過程中信息的損失,是研究預訓練模型的重中之重,也是預訓練模型領域整體的發(fā)展方向。讀預訓練系列論文的時候一定要抓住這個核心線索去讀。

責任編輯:xj

原文標題:【論文串講】從BERT和XLNet到MPNet

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • PLM
    PLM
    +關注

    關注

    2

    文章

    140

    瀏覽量

    21461
  • nlp
    nlp
    +關注

    關注

    1

    文章

    490

    瀏覽量

    22621
  • 訓練模型
    +關注

    關注

    1

    文章

    37

    瀏覽量

    3963

原文標題:【論文串講】從BERT和XLNet到MPNet

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    用PaddleNLP為GPT-2模型制作FineWeb二進制訓練數據集

    ,使用PaddleNLP將FineWeb數據集中文本形式的數據,經過分詞(Tokenize),轉換為大語言模型能直接使用的二進制數據,以便提升訓練效果。 ChatGPT發(fā)布后,當代大
    的頭像 發(fā)表于 03-21 18:24 ?1664次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進制<b class='flag-5'>預</b><b class='flag-5'>訓練</b>數據集

    從Open Model Zoo下載的FastSeg大型公共訓練模型,無法導入名稱是怎么回事?

    從 Open Model Zoo 下載的 FastSeg 大型公共訓練模型。 運行 converter.py 以將 FastSeg 大型模型轉換為中間表示 (IR): pyth
    發(fā)表于 03-05 07:22

    小白學大模型訓練語言模型的深度指南

    在當今人工智能飛速發(fā)展的時代,大型語言模型(LLMs)正以其強大的語言理解和生成能力,改變著我們的生活和工作方式。在最近的一項研究中,科學家們?yōu)榱松钊肓私馊绾胃咝У?b class='flag-5'>訓練大型
    的頭像 發(fā)表于 03-03 11:51 ?725次閱讀
    小白學大<b class='flag-5'>模型</b>:<b class='flag-5'>訓練</b>大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的深度指南

    用PaddleNLP在4060單卡上實踐大模型訓練技術

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 之前我們分享了《從零開始訓練一個大語言模型需要投資多少錢》,其中高昂的訓練費用讓許多對大
    的頭像 發(fā)表于 02-19 16:10 ?995次閱讀
    用PaddleNLP在4060單卡上實踐大<b class='flag-5'>模型</b><b class='flag-5'>預</b><b class='flag-5'>訓練</b>技術

    騰訊公布大語言模型訓練新專利

    近日,騰訊科技(深圳)有限公司公布了一項名為“大語言模型訓練方法、裝置、計算機設備及存儲介質”的新專利。該專利的公布,標志著騰訊在大語言模型
    的頭像 發(fā)表于 02-10 09:37 ?406次閱讀

    【「基于大模型的RAG應用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調技術解讀

    今天學習<基于大模型的RAG應用開發(fā)與優(yōu)化>這本書。大模型微調是深度學習領域中的一項關鍵技術,它指的是在已經訓練好的大型深度學習模型
    發(fā)表于 01-14 16:51

    KerasHub統(tǒng)一、全面的訓練模型

    深度學習領域正在迅速發(fā)展,在處理各種類型的任務中,訓練模型變得越來越重要。Keras 以其用戶友好型 API 和對易用性的重視而聞名,始終處于這一動向的前沿。Keras 擁有專用的內容庫,如用
    的頭像 發(fā)表于 12-20 10:32 ?498次閱讀

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-06 10:28 ?523次閱讀

    什么是大模型、大模型是怎么訓練出來的及大模型作用

    ,基礎模型。 ? 大模型是一個簡稱,完整的叫法,應該是“人工智能訓練模型”。
    的頭像 發(fā)表于 11-25 09:29 ?1.3w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓練</b>出來的及大<b class='flag-5'>模型</b>作用

    寫給小白的大模型入門科普

    什么是大模型?大模型,英文名叫LargeModel,大型模型。早期的時候,也叫FoundationModel,基礎模型。大模型是一個簡稱。完
    的頭像 發(fā)表于 11-23 01:06 ?704次閱讀
    寫給小白的大<b class='flag-5'>模型</b>入門科普

    從零開始訓練一個大語言模型需要投資多少錢?

    一,前言 ? 在AI領域,訓練一個大型語言模型(LLM)是一個耗時且復雜的過程。幾乎每個做大型語言模型(LLM)
    的頭像 發(fā)表于 11-08 14:15 ?786次閱讀
    從零開始<b class='flag-5'>訓練</b>一個大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>需要投資多少錢?

    AI大模型訓練數據來源分析

    AI大模型訓練數據來源廣泛且多元,這些數據源對于構建和優(yōu)化AI模型至關重要。以下是對AI大模型訓練
    的頭像 發(fā)表于 10-23 15:32 ?3653次閱讀

    直播預約 |數據智能系列講座第4期:訓練的基礎模型下的持續(xù)學習

    鷺島論壇數據智能系列講座第4期「訓練的基礎模型下的持續(xù)學習」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學術盛宴!|直播信息報告題目
    的頭像 發(fā)表于 10-18 08:09 ?590次閱讀
    直播預約 |數據智能系列講座第4期:<b class='flag-5'>預</b><b class='flag-5'>訓練</b>的基礎<b class='flag-5'>模型</b>下的持續(xù)學習

    摩爾線程與羽人科技完成大語言模型訓練測試

    (YuRen-7b)大語言模型訓練測試。測試結果顯示,訓練效率達到預期,夸娥千卡智算集群展現出了高度的兼容性和穩(wěn)定性,為羽人科技未來的零代碼訓練
    的頭像 發(fā)表于 08-27 16:19 ?821次閱讀

    【《大語言模型應用指南》閱讀體驗】+ 俯瞰全書

    上周收到《大語言模型應用指南》一書,非常高興,但工作項目繁忙,今天才品鑒體驗,感謝作者編寫了一部內容豐富、理論應用相結合、印刷精美的著作,也感謝電子發(fā)燒友論壇提供了一個讓我了解大語言
    發(fā)表于 07-21 13:35