99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

中國(guó)研究人員提出StructGPT,提高LLM對(duì)結(jié)構(gòu)化數(shù)據(jù)的零樣本推理能力

Qxwdz168 ? 來(lái)源:計(jì)算機(jī)視覺芯片設(shè)計(jì) ? 2023-05-24 16:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大型語(yǔ)言模型 (LLM) 最近在自然語(yǔ)言處理 (NLP) 方面取得了重大進(jìn)展?,F(xiàn)有研究表明,LLM) 具有很強(qiáng)的零樣本和少樣本能力,可以借助專門創(chuàng)建的提示完成各種任務(wù),而無(wú)需針對(duì)特定任務(wù)進(jìn)行微調(diào)。盡管它們很有效,但根據(jù)目前的研究,LLM 可能會(huì)產(chǎn)生與事實(shí)知識(shí)不符的不真實(shí)信息,并且無(wú)法掌握特定領(lǐng)域或?qū)崟r(shí)的專業(yè)知識(shí)。這些問(wèn)題可以通過(guò)在LLM中添加外部知識(shí)源來(lái)修復(fù)錯(cuò)誤的生成來(lái)直接解決。

4fed7bc6-fa05-11ed-90ce-dac502259ad0.jpg

結(jié)構(gòu)化數(shù)據(jù),如數(shù)據(jù)庫(kù)和知識(shí)圖譜,已被常規(guī)用于在各種資源中攜帶 LLM 所需的知識(shí)。但是,由于結(jié)構(gòu)化數(shù)據(jù)使用 LLM 在預(yù)訓(xùn)練期間未接觸過(guò)的獨(dú)特?cái)?shù)據(jù)格式或模式,因此他們可能需要幫助才能理解它們。與純文本相反,結(jié)構(gòu)化數(shù)據(jù)以一致的方式排列并遵循特定的數(shù)據(jù)模型。數(shù)據(jù)表按行排列為列索引記錄,而知識(shí)圖 (KG) 經(jīng)常組織為描述頭尾實(shí)體之間關(guān)系的事實(shí)三元組。

盡管結(jié)構(gòu)化數(shù)據(jù)的體量往往非常巨大,但不可能容納輸入提示中的所有數(shù)據(jù)記錄(例如,ChatGPT 的最大上下文長(zhǎng)度為 4096)。將結(jié)構(gòu)化數(shù)據(jù)線性化為 LLM 可以輕松掌握的語(yǔ)句是解決此問(wèn)題的簡(jiǎn)單方法。工具操作技術(shù)激勵(lì)他們?cè)鰪?qiáng) LLM 解決上述困難的能力。他們策略背后的基本思想是使用專門的接口來(lái)更改結(jié)構(gòu)化數(shù)據(jù)記錄(例如,通過(guò)提取表的列)。在這些接口的幫助下,他們可以更精確地定位完成特定活動(dòng)所需的證據(jù),并成功地限制數(shù)據(jù)記錄的搜索范圍。

來(lái)自中國(guó)人民大學(xué)、北京市大數(shù)據(jù)管理與分析方法重點(diǎn)實(shí)驗(yàn)室和中國(guó)電子科技大學(xué)的研究人員在這項(xiàng)研究中著重于為某些任務(wù)設(shè)計(jì)合適的接口,并將它們用于 LLM 的推理,這些接口是應(yīng)用界面增強(qiáng)方法需要解決的兩個(gè)主要問(wèn)題。以這種方式,LLM 可以根據(jù)從界面收集的證據(jù)做出決定。為此,他們?cè)诒狙芯恐刑峁┝艘环N稱為 StructGPT 的迭代閱讀然后推理 (IRR) 方法,用于解決基于結(jié)構(gòu)化數(shù)據(jù)的任務(wù)。他們的方法考慮了完成各種活動(dòng)的兩個(gè)關(guān)鍵職責(zé):收集相關(guān)數(shù)據(jù)(閱讀)和假設(shè)正確的反應(yīng)或?yàn)橄乱徊叫袆?dòng)制定策略(推理)。

據(jù)他們所知,這是第一項(xiàng)著眼于如何使用單一范式幫助 LLM 對(duì)各種形式的結(jié)構(gòu)化數(shù)據(jù)(例如表、KG 和 DB)進(jìn)行推理的研究。從根本上說(shuō),他們將 LLM 的閱讀和推理兩個(gè)過(guò)程分開:他們使用結(jié)構(gòu)化數(shù)據(jù)接口來(lái)完成精確、有效的數(shù)據(jù)訪問(wèn)和過(guò)濾,并依靠他們的推理能力來(lái)確定下一步的行動(dòng)或查詢的答案。

對(duì)于外部接口,他們特別建議調(diào)用線性化生成過(guò)程,以幫助 LLM 理解結(jié)構(gòu)化數(shù)據(jù)并做出決策。通過(guò)使用提供的接口重復(fù)此過(guò)程,他們可能會(huì)逐漸接近對(duì)查詢的期望響應(yīng)。

他們對(duì)各種任務(wù)(例如基于知識(shí)圖譜的問(wèn)答、基于表的問(wèn)答和基于數(shù)據(jù)庫(kù)的文本到 SQL)進(jìn)行了全面試驗(yàn),以評(píng)估其技術(shù)的有效性。八個(gè)數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明,他們建議的方法可能會(huì)顯著提高 ChatGPT 在結(jié)構(gòu)化數(shù)據(jù)上的推理性能,甚至達(dá)到與全數(shù)據(jù)監(jiān)督調(diào)優(yōu)方法競(jìng)爭(zhēng)的水平。

? KGQA。他們的方法使 KGQA 挑戰(zhàn)的 WebQSP 上的 Hits@1 增加了 11.4%。借助他們的方法,ChatGPT 在多跳 KGQA 數(shù)據(jù)集(例如 MetaQA-2hop 和 MetaQA-3hop)中的性能可能分別提高了 62.9% 和 37.0%。

? 質(zhì)量保證表。在 TableQA 挑戰(zhàn)中,與直接使用 ChatGPT 相比,他們的方法在 WTQ 和 WikiSQL 中將標(biāo)注準(zhǔn)確度提高了大約 3% 到 5%。在 TabFact 中,他們的方法將表格事實(shí)驗(yàn)證的準(zhǔn)確性提高了 4.2%。

? 文本到SQL。在 Text-to-SQL 挑戰(zhàn)中,與直接使用 ChatGPT 相比,他們的方法將三個(gè)數(shù)據(jù)集的執(zhí)行準(zhǔn)確性提高了約 4%。

作者已經(jīng)發(fā)布了 Spider 和 TabFact 的代碼,可以幫助理解 StructGPT 的框架,整個(gè)代碼庫(kù)尚未發(fā)布。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)管理
    +關(guān)注

    關(guān)注

    1

    文章

    312

    瀏覽量

    20029
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14164
  • 知識(shí)圖譜
    +關(guān)注

    關(guān)注

    2

    文章

    132

    瀏覽量

    8008
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    325

    瀏覽量

    844

原文標(biāo)題:中國(guó)研究人員提出StructGPT,提高LLM對(duì)結(jié)構(gòu)化數(shù)據(jù)的零樣本推理能力

文章出處:【微信號(hào):計(jì)算機(jī)視覺芯片設(shè)計(jì),微信公眾號(hào):計(jì)算機(jī)視覺芯片設(shè)計(jì)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    結(jié)構(gòu)化布線系統(tǒng)有哪些難題

    在15年建筑物整修周期內(nèi)限制系統(tǒng)的升級(jí)。經(jīng)過(guò)精心設(shè)計(jì)的結(jié)構(gòu)化布線系統(tǒng)可以承受超過(guò)大多數(shù)局域網(wǎng)傳輸速率10~15倍的數(shù)據(jù)流量。這將允許在不改變結(jié)構(gòu)化布線系統(tǒng)的情況下使用新型網(wǎng)絡(luò)技術(shù)?! ?.通用
    發(fā)表于 05-19 13:46

    泰克儀器助力研究人員首次通過(guò)太赫茲復(fù)用器實(shí)現(xiàn)超高速數(shù)據(jù)傳輸

    通過(guò)使用基于光子的THz電路來(lái)橋接光纖和無(wú)線電的世界,以實(shí)現(xiàn)超高數(shù)據(jù)速率。但是,不管要實(shí)現(xiàn)什么的系統(tǒng),信號(hào)復(fù)用和解復(fù)用系統(tǒng)(復(fù)用器/解復(fù)用器)都是基本要求。研究人員使用兩個(gè)平行的金屬板的波導(dǎo)系統(tǒng),把
    發(fā)表于 08-31 15:58

    TrustZone結(jié)構(gòu)化消息是什么?

    大家好,我已閱讀任何與TrustZone相關(guān)的內(nèi)容,但我無(wú)法弄清楚這兩個(gè)世界是如何相互溝通的。我所能找到的只是TrustZone API規(guī)范中的內(nèi)容:客戶端和服務(wù)可以通過(guò)兩種機(jī)制進(jìn)行通信:結(jié)構(gòu)化
    發(fā)表于 03-20 08:58

    結(jié)構(gòu)化設(shè)計(jì)分為哪幾部分?結(jié)構(gòu)化設(shè)計(jì)的要求有哪些

    結(jié)構(gòu)化設(shè)計(jì)分為哪幾部分?結(jié)構(gòu)化設(shè)計(jì)的要求有哪些?結(jié)構(gòu)化設(shè)計(jì)主要包括哪些部分?
    發(fā)表于 12-23 06:15

    白光LED結(jié)構(gòu)化涂層制備及其應(yīng)用研究

      實(shí)驗(yàn)名稱:基于電場(chǎng)誘導(dǎo)的白光LED結(jié)構(gòu)化涂層制備及其應(yīng)用研究  研究方向:電場(chǎng)誘導(dǎo)結(jié)構(gòu)制備工藝試驗(yàn)研究  實(shí)驗(yàn)內(nèi)容:  本文主要圍繞:平
    發(fā)表于 03-29 15:44

    融合樣本學(xué)習(xí)和小樣本學(xué)習(xí)的弱監(jiān)督學(xué)習(xí)方法綜述

    等現(xiàn)實(shí)挑戰(zhàn),很多學(xué)者針對(duì)數(shù)據(jù)依賴小的弱監(jiān)督學(xué)習(xí)方法開展研究,出現(xiàn)了小樣本學(xué)習(xí)、樣本學(xué)習(xí)等典型研究
    發(fā)表于 02-09 11:22 ?2734次閱讀
    融合<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學(xué)習(xí)和小<b class='flag-5'>樣本</b>學(xué)習(xí)的弱監(jiān)督學(xué)習(xí)方法綜述

    形狀感知樣本語(yǔ)義分割

    由于大規(guī)模視覺語(yǔ)言預(yù)訓(xùn)練取得了令人矚目的進(jìn)展,最近的識(shí)別模型可以以驚人的高準(zhǔn)確度對(duì)任意對(duì)象進(jìn)行樣本和開放式分類。
    的頭像 發(fā)表于 04-28 11:26 ?1131次閱讀
    形狀感知<b class='flag-5'>零</b><b class='flag-5'>樣本</b>語(yǔ)義分割

    一個(gè)通用的自適應(yīng)prompt方法,突破了樣本學(xué)習(xí)的瓶頸

    為了解決這個(gè)問(wèn)題,這篇研究提出了一種Universal Self-adaptive Prompting (USP)方法,對(duì)LLMs的樣本學(xué)習(xí)進(jìn)行了優(yōu)化,同時(shí)也適用于少
    的頭像 發(fā)表于 06-01 14:48 ?1113次閱讀
    一個(gè)通用的自適應(yīng)prompt方法,突破了<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學(xué)習(xí)的瓶頸

    基準(zhǔn)數(shù)據(jù)集(CORR2CAUSE)如何測(cè)試大語(yǔ)言模型(LLM)的純因果推理能力

    ? 因果推理是人類智力的標(biāo)志之一。因果關(guān)系NLP領(lǐng)域近年來(lái)引起了人們的極大興趣,但其主要依賴于從常識(shí)知識(shí)中發(fā)現(xiàn)因果關(guān)系。研究提出了一個(gè)基準(zhǔn)數(shù)據(jù)
    的頭像 發(fā)表于 06-20 15:39 ?2420次閱讀
    基準(zhǔn)<b class='flag-5'>數(shù)據(jù)</b>集(CORR2CAUSE)如何測(cè)試大語(yǔ)言模型(<b class='flag-5'>LLM</b>)的純因果<b class='flag-5'>推理</b><b class='flag-5'>能力</b>

    什么是樣本學(xué)習(xí)?為什么要搞樣本學(xué)習(xí)?

    樣本分類的技術(shù)目前正處于高速發(fā)展時(shí)期, 所涉及的具體應(yīng)用已經(jīng)從最初的圖像分類任務(wù)擴(kuò)展到了其他計(jì)算機(jī)視覺任務(wù)乃至自然語(yǔ)言處理等多個(gè)相關(guān)領(lǐng)域。 對(duì)此, 本文將其稱為廣義樣本分類。 相應(yīng)
    發(fā)表于 09-22 11:10 ?2939次閱讀
    什么是<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學(xué)習(xí)?為什么要搞<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學(xué)習(xí)?

    跨語(yǔ)言提示:改進(jìn)跨語(yǔ)言樣本思維推理

    進(jìn)一步地,提出了Cross-Lingual Self-consistent Prompting (CLSP),利用不同語(yǔ)言專家的知識(shí)和不同語(yǔ)言間更加多樣的思考方式,集成了多個(gè)推理路徑,顯著地提高了self-consistency
    的頭像 發(fā)表于 11-08 16:59 ?1116次閱讀
    跨語(yǔ)言提示:改進(jìn)跨語(yǔ)言<b class='flag-5'>零</b><b class='flag-5'>樣本</b>思維<b class='flag-5'>推理</b>

    什么是LLM?LLM的工作原理和結(jié)構(gòu)

    隨著人工智能技術(shù)的飛速發(fā)展,大型語(yǔ)言模型(Large Language Model,簡(jiǎn)稱LLM)逐漸成為自然語(yǔ)言處理(NLP)領(lǐng)域的研究熱點(diǎn)。LLM以其強(qiáng)大的文本生成、理解和推理
    的頭像 發(fā)表于 07-02 11:45 ?1.4w次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語(yǔ)言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個(gè)研究熱點(diǎn),旨在提高模型在處理復(fù)雜任務(wù)時(shí)的效率和響應(yīng)速度。以下是對(duì)LLM大模型
    的頭像 發(fā)表于 07-24 11:38 ?1824次閱讀

    使用ReMEmbR實(shí)現(xiàn)機(jī)器人推理與行動(dòng)能力

    視覺語(yǔ)言模型(VLM)通過(guò)將文本和圖像投射到同一個(gè)嵌入空間,將基礎(chǔ)大語(yǔ)言模型(LLM)強(qiáng)大的語(yǔ)言理解能力與視覺 transformer(ViT)的視覺能力相結(jié)合。VLM 可以處理非結(jié)構(gòu)化
    的頭像 發(fā)表于 11-19 15:37 ?915次閱讀
    使用ReMEmbR實(shí)現(xiàn)機(jī)器人<b class='flag-5'>推理</b>與行動(dòng)<b class='flag-5'>能力</b>

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語(yǔ)言模型(LLM)的推理能力成了最熱門的話題之一,大量?jī)?yōu)化推理能力的新策略開始出現(xiàn),包括擴(kuò)展
    的頭像 發(fā)表于 04-03 12:09 ?508次閱讀
    詳解 <b class='flag-5'>LLM</b> <b class='flag-5'>推理</b>模型的現(xiàn)狀