99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NLP中的自監(jiān)督表示學(xué)習(xí)

深度學(xué)習(xí)自然語言處理 ? 來源:AI公園 ? 作者:amitness ? 2020-11-24 09:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

其實(shí)在自監(jiān)督學(xué)習(xí)的概念提出之前,NLP中就已經(jīng)運(yùn)用到了這一思想。

雖然計(jì)算機(jī)視覺在自監(jiān)督學(xué)習(xí)方面取得了驚人的進(jìn)展,但在很長一段時間內(nèi),自監(jiān)督學(xué)習(xí)一直是NLP研究領(lǐng)域的一等公民。語言模型早在90年代就已經(jīng)存在,甚至在“自我監(jiān)督學(xué)習(xí)”這個術(shù)語出現(xiàn)之前。2013年的Word2Vec論文推廣了這一模式,在許多問題上應(yīng)用這些自監(jiān)督的方法,這個領(lǐng)域得到了迅速的發(fā)展。

這些自監(jiān)督的方法的核心是一個叫做 “pretext task” 的框架,它允許我們使用數(shù)據(jù)本身來生成標(biāo)簽,并使用監(jiān)督的方法來解決非監(jiān)督的問題。這些也被稱為“auxiliary task”或“pre-training task“。通過執(zhí)行此任務(wù)獲得的表示可以用作我們的下游監(jiān)督任務(wù)的起點(diǎn)。

在這篇文章中,我將概述研究人員在沒有明確的數(shù)據(jù)標(biāo)注的情況下從文本語料庫中學(xué)習(xí)表示的各種pretext tasks。本文的重點(diǎn)是任務(wù)的制定,而不是實(shí)現(xiàn)它們的架構(gòu)。

自監(jiān)督的方案

1. 預(yù)測中心

在這個公式中,我們?nèi)∫欢ù翱诖笮〉囊恍K文本,我們的目標(biāo)是根據(jù)周圍的單詞預(yù)測中心單詞。

例如,在下面的圖中,我們有一個大小為1的窗口,因此我們在中間單詞的兩邊各有一個單詞。使用這些相鄰的詞,我們需要預(yù)測中心詞。

這個方案已經(jīng)在著名的Word2Vec論文的“Continuous Bag of Words”方法中使用過。

2. 預(yù)測鄰居詞

在這個公式中,我們?nèi)∫欢ù翱诖笮〉奈谋緩埑傻目臻g,我們的目標(biāo)是在給定中心詞的情況下預(yù)測周圍的詞。

這個方案已經(jīng)在著名的Word2Vec論文的“skip-gram”方法中實(shí)現(xiàn)。

3. 相鄰句子的預(yù)測

在這個公式中,我們?nèi)∪齻€連續(xù)的句子,設(shè)計(jì)一個任務(wù),其中給定中心句,我們需要生成前一個句子和下一個句子。它類似于之前的skip-gram方法,但適用于句子而不是單詞。

這個方案已經(jīng)在Skip-Thought Vectors的論文中使用過。

4. 自回歸語言建模

在這個公式中,我們?nèi)〈罅课礃?biāo)注的文本,并設(shè)置一個任務(wù),根據(jù)前面的單詞預(yù)測下一個單詞。因?yàn)槲覀円呀?jīng)知道下一個來自語料庫的單詞是什么,所以我們不需要手工標(biāo)注的標(biāo)簽。

例如,我們可以通過預(yù)測給定前一個單詞的下一個單詞來將任務(wù)設(shè)置為從左到右的語言建模。

我們也可以用這個方案來通給定未來的單詞預(yù)測之前的單詞,方向是從右到左。

這個方案已經(jīng)使用在許多論文中,從n-gram模型到神經(jīng)網(wǎng)絡(luò)模型比如神經(jīng)概率語言模型 (GPT) 。

5. 掩碼語言建模

在這個方案中,文本中的單詞是隨機(jī)掩碼的,任務(wù)是預(yù)測它們。與自回歸公式相比,我們在預(yù)測掩碼單詞時可以同時使用前一個詞和下一個詞的上下文。

這個方案已經(jīng)在BERT、RoBERTa和ALBERT的論文中使用過。與自回歸相比,在這個任務(wù)中,我們只預(yù)測了一小部分掩碼詞,因此從每句話中學(xué)到的東西更少。

6. 下一個句子預(yù)測

在這個方案中,我們?nèi)∥募谐霈F(xiàn)的兩個連續(xù)的句子,以及同一文件或不同文件中隨機(jī)出現(xiàn)的另一個句子。

然后,任務(wù)是區(qū)分兩個句子是否是連貫的。

在BERT的論文中,它被用于提高下游任務(wù)的性能,這些任務(wù)需要理解句子之間的關(guān)系,比如自然語言推理(NLI)和問題回答。然而,后來的研究對其有效性提出了質(zhì)疑。

7. 句子順序的預(yù)測

在這個方案中,我們從文檔中提取成對的連續(xù)句子。然后互換這兩個句子的位置,創(chuàng)建出另外一對句子。

我們的目標(biāo)是對一對句子進(jìn)行分類,看它們的順序是否正確。

在ALBERT的論文中,它被用來取代“下一個句子預(yù)測”任務(wù)。

8. 句子重排

在這個方案中,我們從語料庫中取出一個連續(xù)的文本,并破開的句子。然后,對句子的位置進(jìn)行隨機(jī)打亂,任務(wù)是恢復(fù)句子的原始順序。

它已經(jīng)在BART的論文中被用作預(yù)訓(xùn)練的任務(wù)之一。

9. 文檔旋轉(zhuǎn)

在這個方案中,文檔中的一個隨機(jī)token被選擇為旋轉(zhuǎn)點(diǎn)。然后,對文檔進(jìn)行旋轉(zhuǎn),使得這個token成為開始詞。任務(wù)是從這個旋轉(zhuǎn)的版本中恢復(fù)原來的句子。

它已經(jīng)在BART的論文中被用作預(yù)訓(xùn)練的任務(wù)之一。直覺上,這將訓(xùn)練模型開始識別文檔。

10. 表情符號預(yù)測

這個方案被用在了DeepMoji的論文中,并利用了我們使用表情符號來表達(dá)我們所發(fā)推文的情感這一想法。如下所示,我們可以使用推特上的表情符號作為標(biāo)簽,并制定一個監(jiān)督任務(wù),在給出文本時預(yù)測表情符號。

DeepMoji的作者們使用這個概念對一個模型進(jìn)行了12億條推文的預(yù)訓(xùn)練,然后在情緒分析、仇恨語言檢測和侮辱檢測等與情緒相關(guān)的下游任務(wù)上對其進(jìn)行微調(diào)。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103684
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22629

原文標(biāo)題:NLP中的自監(jiān)督表示學(xué)習(xí),全是動圖,很過癮的

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)異常檢測實(shí)戰(zhàn):用Isolation Forest快速構(gòu)建無標(biāo)簽異常檢測系統(tǒng)

    本文轉(zhuǎn):DeepHubIMBA無監(jiān)督異常檢測作為機(jī)器學(xué)習(xí)領(lǐng)域的重要分支,專門用于在缺乏標(biāo)記數(shù)據(jù)的環(huán)境識別異常事件。本文深入探討異常檢測技術(shù)的理論基礎(chǔ)與實(shí)踐應(yīng)用,通過Isolatio
    的頭像 發(fā)表于 06-24 11:40 ?641次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>異常檢測實(shí)戰(zhàn):用Isolation Forest快速構(gòu)建無標(biāo)簽異常檢測系統(tǒng)

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識。
    的頭像 發(fā)表于 05-16 14:48 ?691次閱讀
    使用MATLAB進(jìn)行無<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>

    深度學(xué)習(xí)工作負(fù)載GPU與LPU的主要差異

    ,一個新的競爭力量——LPU(Language Processing Unit,語言處理單元)已悄然登場,LPU專注于解決自然語言處理(NLP)任務(wù)的順序性問題,是構(gòu)建AI應(yīng)用不可或缺的一環(huán)。 本文旨在探討深度學(xué)習(xí)工作負(fù)載
    的頭像 發(fā)表于 12-09 11:01 ?3369次閱讀
    深度<b class='flag-5'>學(xué)習(xí)</b>工作負(fù)載<b class='flag-5'>中</b>GPU與LPU的主要差異

    自然語言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學(xué)領(lǐng)域的一個分支,它致力于研究如何讓計(jì)算機(jī)能夠理解、解釋和生成人類語言。機(jī)器學(xué)習(xí)(Machine
    的頭像 發(fā)表于 12-05 15:21 ?1989次閱讀

    Arm成功將Arm KleidiAI軟件庫集成到騰訊研的Angel 機(jī)器學(xué)習(xí)框架

    Arm 與騰訊攜手合作,成功將 Arm KleidiAI 軟件庫集成到騰訊研的 Angel 機(jī)器學(xué)習(xí)框架。 ? 借助 KleidiAI 解鎖卓越性能、能效和可移植性,騰訊混元大模型能夠?qū)崿F(xiàn)更快
    的頭像 發(fā)表于 11-24 15:33 ?1296次閱讀

    什么是LLM?LLM在自然語言處理的應(yīng)用

    所未有的精度和效率處理和生成自然語言。 LLM的基本原理 LLM基于深度學(xué)習(xí)技術(shù),尤其是變換器(Transformer)架構(gòu)。變換器模型因其注意力(Self-Attention)機(jī)制而聞名,這種機(jī)制使得模型能夠捕捉文本的長距
    的頭像 發(fā)表于 11-19 15:32 ?3666次閱讀

    時空引導(dǎo)下的時間序列監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】最近,香港科技大學(xué)、上海AI Lab等多個組織聯(lián)合發(fā)布了一篇時間序列無監(jiān)督預(yù)訓(xùn)練的文章,相比原來的TS2Vec等時間序列表示學(xué)習(xí)工作,核心在于提出了將空間信息融入到預(yù)訓(xùn)練階段,即在預(yù)訓(xùn)練階段
    的頭像 發(fā)表于 11-15 11:41 ?773次閱讀
    時空引導(dǎo)下的時間序列<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學(xué)習(xí)</b>框架

    深度學(xué)習(xí)RNN的優(yōu)勢與挑戰(zhàn)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是深度學(xué)習(xí)領(lǐng)域中處理序列數(shù)據(jù)的基石。它們通過在每個時間步長上循環(huán)傳遞信息,使得網(wǎng)絡(luò)能夠捕捉時間序列數(shù)據(jù)的長期依賴關(guān)系。然而,盡管RNN在某些任務(wù)上表現(xiàn)出色,它們也面臨著一些
    的頭像 發(fā)表于 11-15 09:55 ?1334次閱讀

    NLP技術(shù)在聊天機(jī)器人中的作用

    聊天機(jī)器人,也稱為聊天AI,是一種通過文本或語音與人類進(jìn)行交流的軟件。它們廣泛應(yīng)用于客戶服務(wù)、在線購物、個人助理等領(lǐng)域。NLP技術(shù)是實(shí)現(xiàn)聊天機(jī)器人智能對話能力的關(guān)鍵。 1. 理解用戶意圖 NLP技術(shù)
    的頭像 發(fā)表于 11-11 10:33 ?1037次閱讀

    Llama 3 在自然語言處理的優(yōu)勢

    在自然語言處理(NLP)的快速發(fā)展,我們見證了從基于規(guī)則的系統(tǒng)到基于機(jī)器學(xué)習(xí)的模型的轉(zhuǎn)變。隨著深度學(xué)習(xí)技術(shù)的興起,NLP領(lǐng)域迎來了新的突破
    的頭像 發(fā)表于 10-27 14:22 ?739次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)的核心應(yīng)用領(lǐng)域之一,GPU在加速圖像識別模型訓(xùn)練方面發(fā)揮著關(guān)鍵作用。通過利用GP
    的頭像 發(fā)表于 10-27 11:13 ?1384次閱讀

    AI大模型在自然語言處理的應(yīng)用

    AI大模型在自然語言處理(NLP的應(yīng)用廣泛且深入,其強(qiáng)大的語義理解和生成能力為NLP任務(wù)帶來了顯著的性能提升。以下是對AI大模型在NLP
    的頭像 發(fā)表于 10-23 14:38 ?1549次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語法結(jié)構(gòu)的學(xué)習(xí),還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 監(jiān)督學(xué)習(xí):模型采用
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    章節(jié)最后總結(jié)了機(jī)器學(xué)習(xí)的分類:有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、監(jiān)督學(xué)習(xí)和強(qiáng)化
    發(fā)表于 07-25 14:33

    旗晟機(jī)器人人員行為監(jiān)督AI智慧算法

    ,以實(shí)現(xiàn)對工業(yè)場景巡檢運(yùn)維的高效化目標(biāo)。那么,下面我們來談?wù)勂礻蓹C(jī)器人AI智慧算法之一——人員行為監(jiān)督AI智慧算法。 旗晟人員行為監(jiān)督AI智慧算法是通過各類采集設(shè)備與AI服務(wù)器,結(jié)合行業(yè)大數(shù)據(jù)庫積累以及研AI深度
    的頭像 發(fā)表于 07-24 17:05 ?539次閱讀
    旗晟機(jī)器人人員行為<b class='flag-5'>監(jiān)督</b>AI智慧算法