99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文速覽大語言模型提示最新進展

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 2023-12-27 14:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者|湯昕宇

隨著大語言模型的發(fā)展,其在執(zhí)行許多自然語言處理任務上取得了巨大的成功。但是,大語言模型對于提示是非常敏感的,提示中微小的變化都會導致大語言模型在執(zhí)行任務時產(chǎn)生巨大的性能波動。因此,許多工作對大語言模型的提示進行了研究。本文主要從增強的提示方法,提示的自動優(yōu)化和關(guān)于提示的分析三個方面,調(diào)研了大語言模型提示的最新進展。

增強的提示方法

盡管基本的CoT提示策略在復雜推理任務中展示出了強大的能力,但它仍然面臨著一些問題,比如推理過程存在錯誤和不穩(wěn)定等。因此,一系列的研究通過增強的提示方法激發(fā)大語言模型的能力,從而完成更通用的任務。

Explanation Selection Using Unlabeled Data for Chain-of-Thought Prompting

作者:Xi Ye, Greg Durrett

https://arxiv.org/abs/2302.04813

這篇論文討論了如何優(yōu)化大語言模型的解釋式提示,以提高其在文本推理任務上的表現(xiàn)。

作者提出了一種新穎的兩階段框架,以黑盒方式優(yōu)化這些解釋式提示。首先,為每個提示中的樣例生成多種候選解釋,并使用兩個指標:對數(shù)似然和新例子上的準確性來評估這些解釋。然后,通過評估這些組合對來尋找最有效的解釋組合。文章證明了這種方法在各種文本推理任務上,包括問答、數(shù)學推理和自然語言推理中,能夠提高提示的有效性。

此外,這篇工作還強調(diào)了他們評估的指標的有效性,有助于識別和優(yōu)先考慮效果最好的解釋組合,從而優(yōu)化所需的計算資源。

3b91909e-a465-11ee-8b88-92fbcf53809c.png

Explanation Selection Using Unlabeled Data for Chain-of-Thought Prompting

CoF-CoT: Enhancing Large Language Models with Coarse-to-Fine Chain-of-Thought Prompting for Multi-domain NLU Tasks

作者:Hoang H. Nguyen, Ye Liu, Chenwei Zhang, Tao Zhang, Philip S. Yu

https://arxiv.org/abs/2310.14623

盡管思維鏈的方法在推理任務中頗受歡迎,但其在自然語言理解任務中的潛力尚未被充分挖掘。

本文受到大語言模型進行多步推理的啟發(fā),提出了從粗到細的思維鏈(CoF-CoT)方法,該方法將自然語言理解任務分解為多個推理步驟,用基于語義的抽象意義表示結(jié)構(gòu)化知識作為中間步驟,以捕捉話語的細微差別和多樣結(jié)構(gòu),以便大語言模型獲取并利用關(guān)鍵概念以從不同的粒度解決任務。

3b96d748-a465-11ee-8b88-92fbcf53809c.png

CoF-CoT

Chain of Code: Reasoning with a Language Model-Augmented Code Emulator

作者:Chengshu Li, Jacky Liang, Andy Zeng, Xinyun Chen, Karol Hausman, Dorsa Sadigh, Sergey Levine, Li Fei-Fei, Fei Xia, Brian Ichter

https://arxiv.org/abs/2312.04474

代碼提供了構(gòu)建復雜程序和進行精確計算的通用語法結(jié)構(gòu),當與代碼解釋器配對時,大語言模型可以利用編寫代碼的能力來改進思維鏈推理。因此,代碼可以幫助語言模型更好地進行推理,特別是在涉及邏輯和語義混合的任務中。

本文提出了代碼鏈(Chain of Code),旨在提升語言模型在處理邏輯、算術(shù)以及語義任務時的推理能力。利用大語言模型將語義子任務格式轉(zhuǎn)化為靈活的偽代碼,解釋器可以明確捕捉到未定義的行為,并將其交給大語言模型來模擬執(zhí)行。實驗表明,“代碼鏈”在各種基準測試中都超越了“思維鏈”(Chain of Thought)和其他基線方法;在BIG-Bench Hard測試中,“代碼鏈”達到了84%的準確率,比“思維鏈”高出12%。

3bb032e2-a465-11ee-8b88-92fbcf53809c.png

Chain of Code

Tree Prompting: Efficient Task Adaptation without Fine-Tuning

作者:John X. Morris, Chandan Singh, Alexander M. Rush, Jianfeng Gao, Yuntian Deng

https://arxiv.org/abs/2310.14034

盡管提示是讓語言模型適應新任務的常用方法,但在較小的語言模型中,相比于基于梯度的微調(diào)方法,這種方法在準確度上通常較低。

針對這一挑戰(zhàn),本文提出了一種“樹形提示(Tree Prompting)”的方法。這種方法建立了一個決策樹狀的提示系統(tǒng),將多個語言模型調(diào)用串聯(lián)起來,協(xié)同完成特定任務。在推理階段,每一次對語言模型的調(diào)用都依靠決策樹來高效地確定,基于前一次調(diào)用的結(jié)果進行決定。實驗結(jié)果表明,在各種分類任務的數(shù)據(jù)集上,樹形提示不僅提升了準確性,而且與微調(diào)方法相比更具有競爭力。

3bbde5f4-a465-11ee-8b88-92fbcf53809c.png

Tree Prompting

Everything of Thoughts: Defying the Law of Penrose Triangle for Thought Generation

作者:Ruomeng Ding, Chaoyun Zhang, Lu Wang, Yong Xu, Minghua Ma, Wei Zhang, Si Qin, Saravan Rajmohan, Qingwei Lin, Dongmei Zhang

https://arxiv.org/abs/2311.04254

有效的思維設(shè)計需要考慮三個關(guān)鍵方面:性能、效率和靈活性。然而,現(xiàn)有的思維設(shè)計最多只能體現(xiàn)這三個屬性中的兩個。為了突破現(xiàn)有思維范式的“彭羅斯三角形定律”局限,本文引入了一種創(chuàng)新的思維提示方法,稱為“Everything of Thought”(XoT)。

XoT運用了預訓練的強化學習和蒙特卡洛樹搜索,將外部領(lǐng)域知識整合進思維中,從而增強大語言模型的能力,并使其能夠高效地泛化到未見過的問題。通過利用蒙特卡羅搜索和大語言模型的協(xié)作思維修正框架,這種方法可以自主地產(chǎn)生高質(zhì)量的全面認知映射,并且只需最少的大語言模型的交互。此外,XoT賦予了大語言模型進行無約束思維的能力,為具有多重解決方案的問題提供靈活的認知映射。實驗表明,XoT在包括24點游戲、8數(shù)碼、口袋魔方等多個具有挑戰(zhàn)性的多解決方案問題上超過了現(xiàn)有方法。

3bc3b3c6-a465-11ee-8b88-92fbcf53809c.png

XoT

提示優(yōu)化方法

提示是利用大語言模型解決各種任務的主要方法。由于提示的質(zhì)量在很大程度上會影響大語言模型在特定任務中的表現(xiàn),因此出現(xiàn)了一系列研究,旨在通過手動創(chuàng)建或自動優(yōu)化來生成適當?shù)娜蝿仗崾?。雖然手動創(chuàng)建任務提示更直觀,但這個過程非常耗時,更重要的是,模型對精心設(shè)計的提示非常敏感——不恰當?shù)奶崾緦е氯蝿毡憩F(xiàn)不佳。因此,一系列的研究自動優(yōu)化離散提示,以激發(fā)大語言模型解決特定任務的能力。

Prompt Optimization via Adversarial In-Context Learning

作者:Xuan Long Do, Yiran Zhao, Hannah Brown, Yuxi Xie, James Xu Zhao, Nancy F. Chen, Kenji Kawaguchi, Michael Qizhe Xie, Junxian He

https://arxiv.org/abs/2312.02614

adv-ICL方法借鑒了對抗生成網(wǎng)絡(luò)的思想,通過采用三個不同的大語言模型,分別作為生成器、辨別器和提示修改器來優(yōu)化提示。在這個對抗性學習框架中,生成器和鑒別器之間進行類似于傳統(tǒng)對抗性學習的雙邊游戲,其中生成器嘗試生成足夠逼真的輸出以欺騙鑒別器。

具體來說,在每一輪中,首先給定包含一個任務指令和幾個樣例的輸入,生成器產(chǎn)生一個輸出。然后,辨別器的任務是將生成器的輸入輸出對分類為模型生成的數(shù)據(jù)還是真實數(shù)據(jù)?;诒鎰e器的損失,提示修改器會提出對生成器和辨別器提示的編輯,選擇最能改善對抗性損失的文本修改方法以優(yōu)化提示。實驗表明,adv-ICL在11個生成和分類任務上取得了顯著的提升,包括總結(jié)、算術(shù)推理、機器翻譯、數(shù)據(jù)到文本生成,以及MMLU和Big-Bench Hard基準測試。

3bd386a2-a465-11ee-8b88-92fbcf53809c.png

adv-ICL

Black-Box Prompt Optimization: Aligning Large Language Models without Model Training

作者:Jiale Cheng, Xiao Liu, Kehan Zheng, Pei Ke, Hongning Wang, Yuxiao Dong, Jie Tang, Minlie Huang

https://arxiv.org/abs/2311.04155

雖然大語言模型在多種任務中展現(xiàn)了令人印象深刻的成功,但這些模型往往與人類的意圖不完全對齊。為了使大語言模型更好地遵循用戶指令,現(xiàn)有的方法主要集中在對模型進行額外的訓練上。然而,額外訓練大語言模型通常計算開銷很大;并且,黑盒模型往往無法進行用戶需求的訓練。

本文提出了BPO的方法,從不同的視角——通過優(yōu)化用戶的提示,來適應大語言模型的輸入理解,從而在不更新大語言模型參數(shù)的情況下實現(xiàn)用戶意圖。實驗表明,通過BPO對齊的大語言模型在性能上可以勝過使用PPO和DPO對齊的相同模型,并且將BPO與PPO或DPO結(jié)合,還可以帶來額外的性能提升。

3bd78ce8-a465-11ee-8b88-92fbcf53809c.png

BPO

Robust Prompt Optimization for Large Language Models Against Distribution Shifts

作者:Moxin Li, Wenjie Wang, Fuli Feng, Yixin Cao, Jizhi Zhang, Tat-Seng Chua

https://arxiv.org/abs/2305.13954

大語言模型在多種自然語言處理任務中展現(xiàn)了顯著的能力。然而,它們的效果高度依賴于任務的提示。本文發(fā)現(xiàn),雖然自動的提示優(yōu)化技術(shù)使用帶標注的任務數(shù)據(jù)能帶來性能上的提升,但這些自動提示優(yōu)化的技術(shù)容易受到分布偏移的影響,這在實際應用場景中是很常見的?;诖?,本文提出了一個新問題,針對分布變化對大語言模型進行穩(wěn)定的提示優(yōu)化,這要求在具有標簽的源數(shù)據(jù)上優(yōu)化的提示同時能夠泛化到未標記的目標數(shù)據(jù)上。

為了解決這個問題,本文提出了一種名為“泛化提示優(yōu)化”(Generalized Prompt Optimization)的框架,將來自目標組的未標記數(shù)據(jù)納入提示優(yōu)化中。廣泛的實驗結(jié)果表明,本文提出的框架在未標注的目標數(shù)據(jù)上有顯著的性能提升,并且在源數(shù)據(jù)上保持了性能。這表明該方法在在面對分布變化時,展現(xiàn)出處理真實世界數(shù)據(jù)時的有效性和魯棒性。

3bf02b90-a465-11ee-8b88-92fbcf53809c.png

Robust Prompt Optimization

InstOptima: Evolutionary Multi-objective Instruction Optimization via Large Language Model-based Instruction Operators

作者:Heng Yang, Ke Li

https://arxiv.org/abs/2310.17630

在大語言模型中,基于指令的語言建模受到了顯著的關(guān)注。然而,指令工程的效率仍然較低,最近的研究集中在自動化生成指令上,但它們主要旨在提高性能,而沒有考慮影響指令質(zhì)量的其他重要目標,例如指令長度和困惑度。

因此,本文提出了一種新穎的方法(InstOptima),將指令生成視為一個進化的多目標優(yōu)化問題。與基于文本編輯的方法不同,本文的方法利用大語言模型來模擬指令操作,包括變異和交叉。此外,本文的方法還為這些操作引入了一個目標引導機制,允許大語言模型理解目標并提高生成指令的質(zhì)量。實驗結(jié)果證明了InstOptima在自動化生成指令和提升指令質(zhì)量方面的有效性。

3bf433f2-a465-11ee-8b88-92fbcf53809c.png

InstOptima

關(guān)于提示的分析

How are Prompts Different in Terms of Sensitivity?

作者:Sheng Lu, Hendrik Schuff, Iryna Gurevych

https://arxiv.org/abs/2311.07230

上下文學習(ICL)已成為十分受歡迎的學習范式之一。盡管目前有越來越多的工作關(guān)注于提示工程,但在比較不同模型和任務提示效果的方面,缺乏系統(tǒng)性地分析。因此,本文提出了一種基于函數(shù)敏感性的全面提示分析。

本文的分析揭示了敏感性是模型性能的一種無監(jiān)督代理指標,它與準確度呈現(xiàn)出強烈的負相關(guān)關(guān)系。本文使用基于梯度的顯著性分數(shù)展示了不同提示如何影響輸入對輸出的相關(guān)性,從而產(chǎn)生不同水平的敏感性。此外,本文引入了一種基于敏感性感知的解碼方式,將敏感性估計作為懲罰項納入標準的貪婪解碼中。實驗表明,這種方法在輸入信息稀缺時十分有效。

3c060a00-a465-11ee-8b88-92fbcf53809c.png

How are Prompts Different in Terms of Sensitivity?

The language of prompting: What linguistic properties make a prompt successful?

作者:Alina Leidinger, Robert van Rooij, Ekaterina Shutova

https://arxiv.org/abs/2311.01967

盡管大語言模型的表現(xiàn)高度依賴于提示的選擇,目前仍缺乏對于提示的語言屬性如何與任務表現(xiàn)相關(guān)聯(lián)的系統(tǒng)性分析。

在這項工作中,文章研究了不同大小、預訓練和指令調(diào)優(yōu)過的大語言模型,在語義上等價但在語言結(jié)構(gòu)上有所不同的提示上的表現(xiàn)。本文著重考察了諸如語氣、時態(tài)、情感等語法屬性,以及通過同義詞使用引入的詞匯-語義變化。研究結(jié)果與普遍的假設(shè)相悖,大語言模型在低困惑度的提示上達到最優(yōu)表現(xiàn),這些提示反映了預訓練或指令調(diào)優(yōu)數(shù)據(jù)中使用的語言。提示在不同數(shù)據(jù)集或模型之間的可遷移性較差,且性能通常不能通過困惑度、詞頻、歧義性或提示長度來解釋。

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 生成器
    +關(guān)注

    關(guān)注

    7

    文章

    322

    瀏覽量

    21909
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    561

    瀏覽量

    10799
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14168

原文標題:一文速覽大語言模型提示最新進展

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    中國龍芯CPU及產(chǎn)品最新進展

    本內(nèi)容向大家講解了中國龍芯CPU是什么意思,龍芯CPU最新產(chǎn)品及龍芯CPU最新進展情況
    發(fā)表于 12-07 17:09 ?2.8w次閱讀

    風光互補技術(shù)及應用新進展

    風光互補技術(shù)及應用新進展   [hide]風光互補技術(shù)及應用新進展.rar[/hide] [此貼子已經(jīng)被作者于2009-10-22 11:52:24編輯過]
    發(fā)表于 10-22 11:51

    風光互補技術(shù)原理及最新進展

    風光互補技術(shù)原理及最新進展摘要: 簡要回顧國內(nèi)外風電、光伏技術(shù)與應用發(fā)展態(tài)勢,結(jié)合風光互補系統(tǒng)應用, 分析、介紹了風光互補LED路燈照明系統(tǒng)、智能控制器設(shè)計、分布式供電電源、風光互補水泵系統(tǒng),并著重
    發(fā)表于 10-26 13:45

    DIY懷表設(shè)計正式啟動,請關(guān)注最新進展

    ``我們的電子懷表正式啟動,強烈邀請各電子工程師嚴重關(guān)注,本次PCB板由華強PCB(http://www.hqpcb.com/ )提供。DIY懷表設(shè)計正式啟動,請關(guān)注最新進展。做電子的如
    發(fā)表于 01-13 09:27

    車聯(lián)網(wǎng)技術(shù)的最新進展

    `直播主題及亮點:在介紹中國車聯(lián)網(wǎng)的發(fā)展歷史的基礎(chǔ)上,分析目前的車聯(lián)網(wǎng)產(chǎn)品類型和技術(shù)路線,分析5G的技術(shù)特點、優(yōu)勢和未來市場發(fā)展趨勢,介紹北斗與GPS的區(qū)別和北斗衛(wèi)星的最新進展和應用。針對即將成為車
    發(fā)表于 09-21 14:01

    介紹IXIAIP測試平臺和所提供測試方案的最新進展

    介紹IXIAIP測試平臺和所提供測試方案的最新進展
    發(fā)表于 05-26 06:46

    ITU-T FG IPTV標準化最新進展如何?

    ITU-T FG IPTV標準化最新進展如何?
    發(fā)表于 05-27 06:06

    CMOS圖像傳感器最新進展及發(fā)展趨勢是什么?

    CMOS圖像傳感器最新進展及發(fā)展趨勢是什么?
    發(fā)表于 06-08 06:20

    VisionFive 2 AOSP最新進展即將發(fā)布!

    非常開心地在這里和大家提前預告,我們即將發(fā)布VisionFive 2 集成 AOSP的最新進展!請大家多多期待吧~ 此次通過眾多社區(qū)成員的支持和貢獻(https://github.com
    發(fā)表于 10-08 09:15

    UWB通信技術(shù)最新進展及發(fā)展趨勢

    UWB通信技術(shù)最新進展及發(fā)展趨勢,下來看看
    發(fā)表于 02-07 12:44 ?11次下載

    Topic醫(yī)療開發(fā)平臺的最新進展

    Xilinx醫(yī)療產(chǎn)品營銷經(jīng)理Kamran Khan和Topic Embedded Products首席執(zhí)行官Rieny Rijnen分享了由Xilinx Zynq All Programmable SoC實現(xiàn)的Topic醫(yī)療開發(fā)平臺的最新進展,共同解決了這問題。
    的頭像 發(fā)表于 11-22 06:51 ?3540次閱讀

    工業(yè)機器人市場的最新進展淺析

    靈活的自動化正變得越來越有能力,可用和負擔得起。我們采訪了FANUC America工業(yè)和汽車機器人部門總經(jīng)理Claude Dinsmoor,了解工業(yè)機器人市場的最新進展
    發(fā)表于 12-14 14:14 ?1253次閱讀

    ASML***的最新進展

    、與 Mike在SEMICON 上的些討論以及 ASML 最近的財報電話會議中的些內(nèi)容。以分享了ASML光刻機的最新進展。
    的頭像 發(fā)表于 07-30 10:39 ?2783次閱讀
    ASML***的<b class='flag-5'>最新進展</b>

    5G最新進展深度解析.zip

    5G最新進展深度解析
    發(fā)表于 01-13 09:06 ?1次下載

    百度首席技術(shù)官王海峰解讀心大模型的關(guān)鍵技術(shù)和最新進展

    4月16日,以“創(chuàng)造未來”為主題的Create 2024百度AI開發(fā)者大會在深圳國際會展中心成功舉辦。百度首席技術(shù)官王海峰以“技術(shù)筑基,星河璀璨”為題,發(fā)表演講,解讀了智能體、代碼、多模型等多項心大模型的關(guān)鍵技術(shù)和
    的頭像 發(fā)表于 04-18 09:20 ?1001次閱讀
    百度首席技術(shù)官王海峰解讀<b class='flag-5'>文</b>心大<b class='flag-5'>模型</b>的關(guān)鍵技術(shù)和<b class='flag-5'>最新進展</b>