99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用算法開發(fā)了一種新的自然語言生成解碼方式

深度學(xué)習(xí)自然語言處理 ? 來源:夕小瑤的賣萌屋 ? 作者:Yimin_飯煲 ? 2022-08-02 14:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

相信大多數(shù)學(xué)習(xí)過人工智能課程的讀者,當(dāng)聽到算法的時(shí)候,都會有一種既熟悉又陌生的感覺。說算法熟悉,是因?yàn)橐宦牭竭@個(gè)算法,就想起那本厚厚的《人工智能——一種現(xiàn)代的方法》,想起這個(gè)算法似乎是人工智能課程考試的重點(diǎn);說算法陌生,是因?yàn)榇蠹椰F(xiàn)在在從事人工智能相關(guān)的研究和開發(fā)工作時(shí),似乎又很少用到這個(gè)算法,大部分時(shí)間都花在了研究數(shù)據(jù)處理和處理實(shí)驗(yàn)設(shè)置上面。而在NAACL2022上,一群來自AI2的自然語言處理研究者們利用算法開發(fā)了一種新的自然語言生成解碼方式,還被授予了NAACL2022 Best New Method paper??雌饋硪呀?jīng)過時(shí)的A*算法,居然能在深度學(xué)習(xí)時(shí)代有如此的妙用,看完這篇論文,筆者情不自禁地打開了《人工智能——一種現(xiàn)代的方法》,想看看還有什么經(jīng)典算法可以深挖一下!

論文標(biāo)題:
NEUROLOGIC A*esque Decoding: Constrained Text Generation with Lookahead Heuristics

論文鏈接:
https://arxiv.org/pdf/2112.08726.pdf

問題背景

自然語言生成任務(wù)一般指給定一個(gè)輸入序列,生成一個(gè)輸出序列。目的是解出使得目標(biāo)函數(shù)最大化的序列,其中, , 而衡量對約束條件的滿足。傳統(tǒng)的Beam Search不考慮全局的最優(yōu),而是最優(yōu)化當(dāng)前步驟添加的Token.

為了達(dá)到全局最優(yōu)的效果,需要滿足如下的優(yōu)化目標(biāo)

主要方法

前向啟發(fā)算法

直接優(yōu)化全局最優(yōu)目標(biāo)面臨著搜索空間過大的問題。而A算法可以被用來解決這個(gè)搜索問題。A算法是一個(gè)最優(yōu)優(yōu)先的搜索算法,可以解決這樣形式的搜索問題:

其中是迄今為止的分?jǐn)?shù),是對于未來分?jǐn)?shù)的啟發(fā)式估計(jì)。因此我們將優(yōu)化目標(biāo)修改為如下形式

同時(shí),需要限制前向搜索的長度為,避免模型無限制地向前搜索

在前向生成的過程中有幾種不同的方法。方法只生成一個(gè)序列,從開始,每次選擇概率最大的Token。方法采用插值的思想,混合方法和隨機(jī)選擇一個(gè)Token的概率分布。方法從開始進(jìn)行步的Beam Search,選擇前個(gè)概率最大的序列, 而方法則是直接從按照概率進(jìn)行采樣。

無限制生成

在無限制生成的場景下,使用的優(yōu)化函數(shù)為

其中控制的是對未來估計(jì)的重視程度,類似于加權(quán)算法

受限制生成

在受限制生成任務(wù)上,作者們基于之前的工作NeuroLogic進(jìn)行改進(jìn)。首先我們簡要介紹一下NeuroLogic方法。首先,將對生成文本的限制表示為合取范式。其中每一個(gè)表示一個(gè)限制條件,。NeuroLogic的優(yōu)化目標(biāo)可以寫為

其中遠(yuǎn)大于0,用來懲罰不滿足的約束。在每一步搜索時(shí),NeuroLogic利用如下的打分函數(shù)進(jìn)行計(jì)算

其中是約束條件的前綴,這個(gè)優(yōu)化函數(shù)的目標(biāo)是獎(jiǎng)勵(lì)那些滿足約束條件的樣本。接下來,作者們加入了前向啟發(fā)函數(shù)

這樣的前向啟發(fā)函數(shù)有兩個(gè)好處,如果是滿足多Token約束的一個(gè)Token,前向啟發(fā)函數(shù)包含了全部約束的分?jǐn)?shù),如果不是約束的一部分,如果被選中,這一前向策略能考慮到未來約束的分?jǐn)?shù)。

實(shí)驗(yàn)結(jié)果

無限制生成

0b4c6ef6-118e-11ed-ba43-dac502259ad0.png

作者們在故事生成任務(wù)上開展了實(shí)驗(yàn),可以發(fā)現(xiàn)提出的方法不論是在流暢性,豐富性還是人工評估上都有著很好的表現(xiàn)。

受限制生成

在受限制生成方面,作者們在常識生成,機(jī)器翻譯,表格到文本生成,問題生成等任務(wù)上開展了實(shí)驗(yàn)。在這里展示常識生成方面的結(jié)果。這一任務(wù)的主要內(nèi)容是給定一系列概念,利用全部概念生成一個(gè)合理的句子.

0b65b0be-118e-11ed-ba43-dac502259ad0.png

可以發(fā)現(xiàn),作者們提出的方法在多個(gè)指標(biāo)上都明顯超越了基線模型,取得了很好的效果。

0b779a5e-118e-11ed-ba43-dac502259ad0.png

從文章中給出的例子來看,作者們提出的方法確實(shí)有著更好的生成效果。

結(jié)語

本文的方法實(shí)現(xiàn)并不復(fù)雜,所用到的原理和思想也是非常經(jīng)典的人工智能算法,但卻取得了非常不錯(cuò)的性能,一舉摘得了NAACL2022的最佳方法論文。看來,好的研究并不是追逐熱點(diǎn),調(diào)參魔改結(jié)構(gòu)的增量式創(chuàng)新,而是打好數(shù)學(xué)基礎(chǔ),深入地思考研究問題,廣泛接觸各個(gè)領(lǐng)域的算法,才能在發(fā)現(xiàn)領(lǐng)域的關(guān)鍵待解決問題時(shí)取得成果~

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4709

    瀏覽量

    95349
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49008

    瀏覽量

    249311
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122785

原文標(biāo)題:NAACL最佳方法論文 | 課本上的A*搜索算法可以提升文本生成效果!

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    語言模型的解碼策略與關(guān)鍵優(yōu)化總結(jié)

    的技術(shù)參考。主要涵蓋貪婪解碼、束搜索、采樣技術(shù)等核心解碼方法,以及溫度參數(shù)、懲罰機(jī)制等關(guān)鍵優(yōu)化手段。大型語言模型的技術(shù)基礎(chǔ)大型語言模型是當(dāng)代自然語言
    的頭像 發(fā)表于 02-18 12:00 ?581次閱讀
    大<b class='flag-5'>語言</b>模型的<b class='flag-5'>解碼</b>策略與關(guān)鍵優(yōu)化總結(jié)

    自然語言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的個(gè)核心領(lǐng)域,它使計(jì)算機(jī)能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測或決策。自然語言處理與機(jī)器學(xué)習(xí)之間有著密切的關(guān)系,因?yàn)闄C(jī)器學(xué)習(xí)提供了一種強(qiáng)大的工具,用于從大量文本數(shù)據(jù)中提取模式和知識,從而提高NLP系
    的頭像 發(fā)表于 12-05 15:21 ?1976次閱讀

    語音識別與自然語言處理的關(guān)系

    在人工智能的快速發(fā)展中,語音識別和自然語言處理(NLP)成為了兩個(gè)重要的技術(shù)支柱。語音識別技術(shù)使得機(jī)器能夠理解人類的語音,而自然語言處理則讓機(jī)器能夠理解、解釋和生成人類語言。這兩項(xiàng)技術(shù)
    的頭像 發(fā)表于 11-26 09:21 ?1493次閱讀

    什么是LLM?LLM在自然語言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語言處理(NLP)領(lǐng)域迎來了革命性的進(jìn)步。其中,大型語言模型(LLM)的出現(xiàn),標(biāo)志著我們對語言理解能力的次飛躍。LLM通過深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得
    的頭像 發(fā)表于 11-19 15:32 ?3640次閱讀

    ASR與自然語言處理的結(jié)合

    ASR(Automatic Speech Recognition,自動語音識別)與自然語言處理(NLP)是人工智能領(lǐng)域的兩個(gè)重要分支,它們在許多應(yīng)用中緊密結(jié)合,共同構(gòu)成了自然語言理解和生成的技術(shù)體系
    的頭像 發(fā)表于 11-18 15:19 ?1024次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    自然語言處理是人工智能領(lǐng)域的個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種
    的頭像 發(fā)表于 11-15 14:58 ?802次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    自然語言處理(NLP)是人工智能領(lǐng)域的個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其在處理序列數(shù)據(jù)方面的優(yōu)勢而在NLP中
    的頭像 發(fā)表于 11-15 09:41 ?811次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語言處理任務(wù)

    自然語言處理(NLP)是人工智能領(lǐng)域的個(gè)重要分支,它旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長短期記憶(LSTM)網(wǎng)
    的頭像 發(fā)表于 11-13 09:56 ?1156次閱讀

    自然語言處理的未來發(fā)展趨勢

    隨著技術(shù)的進(jìn)步,自然語言處理(NLP)已經(jīng)成為人工智能領(lǐng)域的個(gè)重要分支。NLP的目標(biāo)是使計(jì)算機(jī)能夠理解、解釋和生成人類語言,這不僅涉及到語言
    的頭像 發(fā)表于 11-11 10:37 ?1723次閱讀

    自然語言處理與機(jī)器學(xué)習(xí)的區(qū)別

    是計(jì)算機(jī)科學(xué)、人工智能和語言學(xué)領(lǐng)域的分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。NLP的目標(biāo)是縮小人類語言和計(jì)算機(jī)之間的差距,使計(jì)算機(jī)能夠處理和
    的頭像 發(fā)表于 11-11 10:35 ?1539次閱讀

    使用LLM進(jìn)行自然語言處理的優(yōu)缺點(diǎn)

    自然語言處理(NLP)是人工智能和語言學(xué)領(lǐng)域的個(gè)分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。大型
    的頭像 發(fā)表于 11-08 09:27 ?2443次閱讀

    AI大模型在自然語言處理中的應(yīng)用

    AI大模型在自然語言處理(NLP)中的應(yīng)用廣泛且深入,其強(qiáng)大的語義理解和生成能力為NLP任務(wù)帶來了顯著的性能提升。以下是對AI大模型在NLP中應(yīng)用的介紹: 、核心應(yīng)用 文本生成 AI
    的頭像 發(fā)表于 10-23 14:38 ?1535次閱讀

    AI智能化問答:自然語言處理技術(shù)的重要應(yīng)用

    自然語言處理(NLP)是人工智能領(lǐng)域的個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。問答系統(tǒng)作為NLP的個(gè)重要應(yīng)用,能夠精確
    的頭像 發(fā)表于 10-12 10:58 ?1094次閱讀
    AI智能化問答:<b class='flag-5'>自然語言</b>處理技術(shù)的重要應(yīng)用

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識學(xué)習(xí)

    的表達(dá)方式生成能力。通過預(yù)測文本中缺失的部分或下個(gè)詞,模型逐漸掌握語言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大語言
    發(fā)表于 08-02 11:03

    圖像識別技術(shù)包括自然語言處理嗎

    圖像識別技術(shù)與自然語言處理是人工智能領(lǐng)域的兩個(gè)重要分支,它們在很多方面有著密切的聯(lián)系,但也存在些區(qū)別。 、圖像識別技術(shù)與自然語言處理的關(guān)系 1.1 圖像識別技術(shù)的定義 圖像識別技術(shù)
    的頭像 發(fā)表于 07-16 10:54 ?1561次閱讀