99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

知識圖會成為 NLP 的未來嗎?IJCAI杰出論文背后的思考

電子工程師 ? 來源:未知 ? 作者:工程師飛燕 ? 2018-08-07 14:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

IJCAI 的評審歷來都很嚴格,今年投稿數(shù)量更是達到了 3470 篇,接收論文 710 篇,接收率只有 20.5%(同比 2017 年, 2540 篇投稿,接收 660 篇,約26%的接收率);而來自國內(nèi)的論文更是近達半數(shù)之多,可見國內(nèi)研究的活躍。與往年不同,今年 IJCAI 沒有評選出 Best Paper,但是選出了 7 篇 Distinguished Paper ,其中有 4 篇都是來自國內(nèi)的研究成果。

今天 為大家采訪到了本次 IJCAI 大會 Distinguished Paper 《Commonsense Knowledge Aware Conversation Generation with Graph Attention》(具有圖注意力的常識知識感知會話生成系統(tǒng))的第一作者——來自清華大學(xué)的博士研究生周昊,和大家分享其中更多的故事。

其實在去年,周昊和所在的課題組就有一項研究成果——Emotional Chatting Machine(情緒聊天機)獲得了國內(nèi)外的高度關(guān)注,MIT 科技評論、衛(wèi)報和 NIVIDIA 就相繼進行了追蹤和報道。

(來源于 MIT Technology Review)

(此節(jié)選部分內(nèi)容來源于 MIT Technology Review)

計算機無法衡量對話內(nèi)容的情感,對話人的情緒,也就無法和人進行共情。而一個沒有情商的聊天機器人反而會成為一個話題終結(jié)者。周昊和他所在的課題組就開發(fā)了一個能夠評估對話內(nèi)容情感并作出相應(yīng)回應(yīng)的聊天機器人,這項工作打開了通往具有情感意識的新一代聊天機器人的大門。

他們在研究中所提出的情緒聊天機(ECM),不僅可以在內(nèi)容上給出適當(dāng)?shù)姆磻?yīng),而且能在情感上給出適當(dāng)?shù)姆磻?yīng)(情緒一致)。這項工作已經(jīng)在 TensorFlow 中實現(xiàn),我們在文末附上了關(guān)于這項研究工作的論文和 GitHub 訪問鏈接。

IJCAI 會議回來后, 約到了周昊,請他談了談這次獲獎的一些感悟、研究成果和心得,在此分享給 的讀者們。

以下為對話內(nèi)容, 做了不改變原意的整理。

今年國內(nèi)在 ICJAI 會議上的成果很多,是什么時候收到通知被評為 Distinguished Paper的?還記得當(dāng)時是什么心情嗎?

周昊 我是在開幕式的時候才知道被評為Distinguished Paper 的,之前沒有收到任何通知,當(dāng)時就覺得比較幸運吧,論文能被評審認可。

現(xiàn)在 NLP 領(lǐng)域中還有很多有待突破的問題,大家也都很想知道關(guān)于更有價值的研究方向?你覺得未來新的研究方向會有什么?

周昊 在會議上聽了 LeCun 的演講《 Learning World Models: the Next Step Towards AI》,感覺 World Models 或者 Commonsense Knowledge 在機器學(xué)習(xí)中的應(yīng)用可能會成為新的研究方向。

你在這次的研究工作中也是引入了 Commonsense Knowledge (常識知識),從提出到實現(xiàn)的這個研究過程,遇到過什么問題嗎?可以和大家分享一下嗎?

周昊 當(dāng)時最早開始想做知識驅(qū)動的對話生成模型,是因為對話或者語言其實是一種知識交流的媒介,而現(xiàn)有的從大規(guī)模語料中學(xué)習(xí)的生成式對話模型盡管能學(xué)習(xí)到不錯的語法知識,但是對語言背后本質(zhì)的知識卻缺少建模能力。所以我們設(shè)計了這個引入常識知識的對話模型想利用知識驅(qū)動對話生成。我們當(dāng)時的想法是利用知識推理的一種方式,可以從用戶問題的知識子圖出發(fā),選擇一度鄰域的子圖中概率最大的實體作為下一個關(guān)鍵節(jié)點,繼續(xù)拓展其一度鄰域的子圖選擇概率最大的實體,這樣一步步推理下去會得到一個推理路徑,作為我們對話生成的知識信息,這也是我們?nèi)祟愡M行知識推理的方式。然而在實際工作中,我們發(fā)現(xiàn)無論是常識知識圖還是對話語料中都存在許多噪聲,并且數(shù)據(jù)稀疏性也是個大問題。所以我們最后選擇了一度鄰域子圖進行數(shù)據(jù)集的過濾與創(chuàng)建。感興趣的同學(xué)可以繼續(xù)探索知識推理在對話中的應(yīng)用。

能用一句話來介紹一下圖注意力機制嗎?其本質(zhì)是什么?

周昊 圖注意力機制是一種層次化的概率模型,通過不同層次知識圖的概率計算,可以提取知識圖中不同層次的知識,同時生成知識的推理路徑。

知識圖會成為 NLP 的未來嗎?

周昊 知識在nlp中已經(jīng)有了很多應(yīng)用,未來應(yīng)用會更廣泛,至于是否會以知識圖的方式加入進來取決于技術(shù)和模型的發(fā)展了。

去年你的另外一篇論文關(guān)于 Emotional Chatting Machine 的研究也是獲得了非常高的關(guān)注,MIT科技評論、衛(wèi)報和NIVIDIA也進行了專門的報道,再到今年獲得 Distinguished Paper,有什么研究經(jīng)驗可以讓大家借鑒嗎?

周昊 在研究方面,我比較喜歡發(fā)現(xiàn)一些新的問題。大致過程就像做產(chǎn)品一樣,首先要明確需求(需求最好是重要且容易定義的),然后尋找資源構(gòu)造數(shù)據(jù)(數(shù)據(jù)沒有必要十分旁大,因為數(shù)據(jù)處理,模型訓(xùn)練會浪費很多時間,從小數(shù)據(jù)做起驗證想法,一步步擴展也是不錯的思路),接著是從需求出發(fā)設(shè)計模型(可以將人的先驗知識如任務(wù)的定義、語言學(xué)的資源融入到模型中),最后就是對比實驗(不同會議偏好的實驗也不同,比如 AAAI、IJCAI 之類 AI 的會議比較偏向能夠解釋說明 motivation 的實驗,ACL、EMNLP 之類 NLP 的會議比較偏向統(tǒng)計性指標(biāo)、多組 baseline 對比以及 ablation test 等實驗)。通過實驗結(jié)果的反饋不斷迭代修改整個流程,最后得到一個滿意的結(jié)果。

大家都非常關(guān)注也想更多了解關(guān)于清華大學(xué) NLP 的研究,可以給我們的讀者介紹一下清華 NLP 研究課題組嗎?

周昊 清華大學(xué)進行 NLP 研究的課題組有很多,研究方向各不相同。我們組(指導(dǎo)老師 朱小燕、黃民烈)主要研究的是交互式人工智能,即通過對話、交互體現(xiàn)出來的智能行為,通常智能系統(tǒng)通過與用戶或環(huán)境進行交互,并在交互中實現(xiàn)學(xué)習(xí)與建模。我們組的主要研究方向有深度學(xué)習(xí)、強化學(xué)習(xí)、問答系統(tǒng)、對話系統(tǒng)、情感理解、邏輯推理、語言生成等。其他如孫茂松老師組的詩詞生成,劉洋老師組的機器翻譯等等。如果有對 NLP 研究感興趣的同學(xué)們歡迎來各個課題組交流。

很感謝今天周昊和我們聊了這么多關(guān)于 NLP 領(lǐng)域的研究,自己的研究心得還有關(guān)于清華 NLP 課題組的分享。最后我們在周昊的指導(dǎo)意見下對他的獲獎?wù)撐倪M行了解讀,希望可以給大家的研究與學(xué)習(xí)帶來靈感,有所收獲。(譯者 | 王天宇;編輯 | Jane)

摘要

常識知識對于自然語言處理來說至關(guān)重要。在本文中,我們提出了一種新的開放域?qū)υ挼纳赡P停源藖碚宫F(xiàn)大規(guī)模的常識知識庫是如何提升語言理解與生成的。若輸入一個問題,模型會從知識庫中檢索相關(guān)的知識圖,然后基于靜態(tài)圖注意力機制對其進行編碼,圖注意力機制有助于提升語義信息,從而幫助系統(tǒng)更好地理解問題。接下來,在語句的生成過程中,模型會逐個讀取檢索到的知識圖以及每個圖中的知識三元組,并通過動態(tài)的圖注意力機制來優(yōu)化語句的生成。我們首次嘗試了在對話生成中使用大規(guī)模的常識知識庫。此外,現(xiàn)有的模型都是將知識三元組分開使用的,而我們的模型將每個知識圖作為完整的個體,從而獲得結(jié)構(gòu)更清晰,語義也更連貫的編碼信息。實驗顯示,與當(dāng)前的最高水平相比,我們提出的模型所生成的對話更為合理,信息量也更大。

簡介

在許多自然語言處理工作中,尤其在處理常識知識和客觀現(xiàn)象時,語義的理解顯得尤為重要,毋庸置疑,它是一個成功的對話系統(tǒng)的關(guān)鍵要素,因為對話互動是一個基于“語義”的過程。在開放域?qū)υ捪到y(tǒng)中,常識知識對于建立有效的互動是很重要的,這是因為社會共享的常識知識是大眾樂于了解并在談話中使用的信息。

最近,在對話生成方面有很多神經(jīng)模型被提出。但這些模型往往給出比較籠統(tǒng)的回復(fù),大多數(shù)情況下,無法生成合適且信息豐富的答案,因為若不對用戶的輸入信息、背景知識和對話內(nèi)容進行深度理解,是很難從對話數(shù)據(jù)中獲取語義交互信息的。當(dāng)一個模型能夠連接并充分利用大規(guī)模的常識知識庫,它才能更好地理解對話內(nèi)容,并給出更合理的回復(fù)。舉個例子,假如模型要理解這樣一對語句,“Don’t order drinks at the restaurant , ask for free water”和“Not in Germany. Water cost more than beer. Bring your own water bottle”,我們需要的常識知識可以包括(water,AtLocation,restaurant),(free, RelatedTo, cost)等。

在此之前,有些研究已經(jīng)在對話生成中引入了外部知識。這些模型所用到的知識是非結(jié)構(gòu)化的文本或特定領(lǐng)域的知識三元組,但存在兩個問題,第一,它們高度依賴非結(jié)構(gòu)化文本的質(zhì)量,受限于小規(guī)模的、領(lǐng)域特定的知識庫。第二,它們通常將知識三元組分開使用,而不是將其作為每個圖的完整個體。因此,這類模型不能基于互相關(guān)聯(lián)的實體和它們之間的關(guān)系來給出圖的語義信息。

為解決這兩個問題,我們提出了常識知識感知對話模型(Commonsense Knowledge Aware Conversational Model, CCM),以優(yōu)化語言理解和開放域?qū)υ捪到y(tǒng)的對話生成。我們使用大規(guī)模的常識知識來幫助理解問題的背景信息,從而基于此類知識來優(yōu)化生成的答案。該模型為每個提出的問題檢索相應(yīng)的知識圖,然后基于這些圖給出富有信息量又合適的回復(fù),如圖1所示。為了優(yōu)化圖檢索的過程,我們設(shè)計了兩種新的圖注意力機制。靜態(tài)圖注意力機制對檢索到的圖進行編碼,來提升問題的語義,幫助系統(tǒng)充分理解問題。動態(tài)圖注意機制會讀取每個知識圖及其中的三元組,然后利用圖和三元組的語義信息來生成更合理的回復(fù)。

圖 1 兩種模型的對比。第一行回復(fù)由我們的模型(引入常識知識)生成,

第二行回復(fù)由 Seq2Seq 模型(未引入常識知識)生成。

總地來說,本文主要做出了以下突破

該項目是首次在對話生成神經(jīng)系統(tǒng)中,嘗試使用大規(guī)模常識知識。有了這些知識的支撐,我們的模型能夠更好地理解對話,從而給出更合適、信息量更大的回復(fù)。

代替過去將知識三元組分開使用的方法,我們設(shè)計了靜態(tài)和動態(tài)圖注意力機制,把知識三元組看作一個圖,基于與其相鄰實體和它們之間的關(guān)系,我們可以更好地解讀所研究實體的語義。

常識對話模型

2.1 背景 Encoder - Decoder 模型

首先,我們介紹一下基于 seq2seq 的 Encoder-Decoder 模型。編碼器表示一個問題序列???

?,其隱藏層可表示為????,可以簡單寫作如下形式 ??

?

這里的????是?????的詞嵌入結(jié)果,GRU (Gated Recurrent Unit) 是門控循環(huán)單元。

解碼器將上下文向量????和????的詞嵌入結(jié)果作為輸入,同時使用另一個 GRU(門控循環(huán)單元)來更新其狀態(tài)????

?

這里的?

???結(jié)合兩個向量,共同作為 GRU 網(wǎng)絡(luò)的輸入。上下文向量????是?H?的詞嵌入結(jié)果,也就是編碼器隱藏狀態(tài)的權(quán)重和

??,?估量了狀態(tài)????和隱藏狀態(tài)????中間的相關(guān)度。

從輸出的可能性分布中抽取樣本,解碼器會產(chǎn)生一個 token,可能性的計算如下

?

此處?

???,這些詞便生成了。

譯者注 Seq2Seq 模型與經(jīng)典模型有所不同的是,經(jīng)典的 N vs N 循環(huán)神經(jīng)網(wǎng)絡(luò)要求序列要等長,但我們在做對話生成時,問題和回復(fù)長度往往不同。因此 Encoder-Decoder 結(jié)構(gòu)通過 Encoder 將輸入數(shù)據(jù)編碼成一個上下文向量,再通過 Decoder 對這個上下文向量進行解碼,這里的 Encoder 和 Decoder 都是 RNN 網(wǎng)絡(luò)實現(xiàn)的。

2.2 任務(wù)定義與概述

我們的問題描述如下 給定一個問題

??和一些常識知識的圖????,目標(biāo)是生成合理的回復(fù)?

???。本質(zhì)上來看,該模型估計了概率 ???

?;趩栴}從知識庫中檢索圖,每個單詞對應(yīng)G中的一個圖。每個圖包含一個三元組的集合?

???,每個三元組(頭實體、關(guān)系、尾實體)可表示為???

?。

為了把知識庫與非結(jié)構(gòu)化的對話本文相關(guān)聯(lián),我們采用了 MLP 模型 一個知識三元組????可以表示為 k= (h,r,t) =MLP(TransE(h,r,t)),這里的h/r/t是經(jīng)過 TransE 模型分別轉(zhuǎn)化處理過的h / r / t.

圖 2 CCM 結(jié)構(gòu)圖

我們的常識對話模型(Commonsense Conversational Model, CCM)的概覽如圖 2 所示。知識解析器 (Knowledge Interpreter) 將問題?

?和檢索得到的知識圖????作為輸入,通過把單詞向量和與其對應(yīng)的知識圖向量相結(jié)合,來獲得對每個單詞的知識感知。通過靜態(tài)圖注意力機制,知識圖向量包含了問題?X中對應(yīng)每個單詞的知識圖?;谖覀兊膭討B(tài)圖注意力機制,知識感知生成器 (Knowledge Aware Generator) 生成了回復(fù)????。在每個解碼環(huán)節(jié),它讀取檢索到的圖和每個圖中的實體,然后在詞匯表中生成通用詞匯,或在知識圖中生成實體。

2.3 知識解析器

圖 3 知識解析器把單詞向量和圖向量相結(jié)合。

在該例子中,單詞 rays 對應(yīng)第一個圖,sunlight 對應(yīng)第二個圖。

每個圖都用圖向量表示。關(guān)鍵實體 (Key Entity) 表示當(dāng)前問題中的實體。

知識解析器 (Knowledge Interpreter) 旨在優(yōu)化問題理解這一環(huán)節(jié)。它通過引入每個單詞對應(yīng)的圖向量,來增強單詞的語義,如圖 3 所示。知識解析器把問題中的每個單詞 xt 作為關(guān)鍵實體,從整個常識知識庫中檢索圖????

(圖中黃色部分)。每個檢索到的圖包含一個關(guān)鍵實體(圖中紅色圓點),與其相鄰的實體(圖中藍色圓點)以及實體之間的關(guān)系。對一些常用詞匯(如 of)來說,常識知識圖中沒有與其匹配的圖,這類詞匯用一個帶有特殊標(biāo)志 Not_A_Fact(圖中灰色圓點)的圖來表示。接下來,知識解析器會基于靜態(tài)圖注意力機制,來計算檢索到的圖的圖向量????。把單詞向量????和知識圖向量????相結(jié)合,就得到了向量???

?,然后把它喂給編碼器中的 GRU(門控循環(huán)單元,見圖 1)。

靜態(tài)圖注意力

靜態(tài)圖注意力機制的設(shè)計旨在為檢索到的知識圖提供一個表現(xiàn)形式,我們設(shè)計的機制不僅考慮到圖中的所有節(jié)點,也同時考慮節(jié)點之間的關(guān)系,因此編碼的語義信息更加結(jié)構(gòu)化。

靜態(tài)圖注意力機制會為每個圖生成一個靜態(tài)的表現(xiàn)形式,因而有助于加強問題中每個單詞的語義。

形式上,靜態(tài)圖注意力把圖??中的知識三元組向量????作為輸入,來生成如下的圖向量

?

這里的????分別是頭實體、關(guān)系、尾實體的權(quán)重矩陣。注意力的權(quán)重估量了“實體間關(guān)系”????和“頭實體”????以及“尾實體”????之間的關(guān)聯(lián)度。

本質(zhì)上來說,圖向量????的權(quán)重和。

2.4 知識感知生成器

??

圖 4: 知識感知生成器動態(tài)地處理著圖

知識感知生成器 (Knowledge Aware Generator) 旨在通過充分利用檢索到的圖,來生成相應(yīng)的回復(fù),如圖 4 所示。知識感知生成器扮演了兩個角色 1) 讀取所有檢索到的圖,來獲取一個圖感知上下文向量,并用這個向量來更新解碼器的狀態(tài);2) 自適應(yīng)地從檢索到的圖中,選擇通用詞匯或?qū)嶓w來生成詞語。形式上來看,解碼器通過如下過程來更新狀態(tài)

?

這里????是單詞向量????和前一個知識三元組向量????的結(jié)合,其來自上一個所選單詞????。

?是式 2 中的上下文向量,????和????分別是作用于知識圖向量?

???和知識三元組向量???

的上下文向量。

動態(tài)圖注意力

動態(tài)圖注意力機制是一個分層的、自上而下的過程。首先,它讀取所有的知識圖和每個圖中的所有三元組,用來生成最終的回復(fù)。若給定一個解碼器的狀態(tài)????, 它首先作用于知識圖向量????

??,以計算使用每個圖的概率,如下

?

這里??

??都是參數(shù),????是處于第 t 步時選擇知識圖????的概率。圖的上下文向量????是圖向量的權(quán)重和,這個權(quán)重估量了解碼器的狀態(tài)??

接下來,該模型用每個圖?

???,來計算選擇某個三元組來生成答案的概率,過程如下

?

這里???可被看作每個知識三元組向量???和解碼器狀態(tài)???的相似度,

是處于第 t 步時從圖????的所有三元組中選擇??的概率。

最后,知識感知生成器選取通用詞匯或?qū)嶓w詞匯,基于如下概率分布

?

這里??是用來平衡實體詞匯????和通用詞匯????之間選擇的標(biāo)量,????分別是通用詞匯和實體詞匯的概率。最終的概率????由兩種概率結(jié)合所得。

譯者注 在語言生成過程中,引入動態(tài)圖注意力機制,模型可以通過當(dāng)前解碼器的狀態(tài),注意到最合適的知識圖以及對應(yīng)的知識三元組,再基于此來選擇合適的常識與詞匯來生成回復(fù),從而使對話的信息量更大,內(nèi)容更加連貫合理。與很多動態(tài)優(yōu)化算法相類似,狀態(tài)不斷地更新與反饋,隨之自適應(yīng)地調(diào)整下一步?jīng)Q策,在對話生成系統(tǒng)中引入該機制有效地改善了生成結(jié)果。

實驗

3.1 數(shù)據(jù)集

常識知識庫

我們使用語義網(wǎng)絡(luò) (ConceptNet) 作為常識知識庫。語義網(wǎng)絡(luò)不僅包括客觀事實,如“巴黎是法國的首都”這樣確鑿的信息,也包括未成文但大家都知道的常識,如“狗是一種寵物”。這一點對我們的實驗很關(guān)鍵,因為在建立開放域?qū)υ捪到y(tǒng)過程中,能識別常見概念之間是否有未成文但真實存在的關(guān)聯(lián)是必需的。

常識對話數(shù)據(jù)集

我們使用了來自 reddit 上一問一答形式的對話數(shù)據(jù),數(shù)據(jù)集大小約為 10M。由于我們的目標(biāo)是用常識知識優(yōu)化語言理解和生成,所以我們?yōu)V出帶有知識三元組的原始語料數(shù)據(jù)。若一對問答數(shù)據(jù)與任何三元組(即一個實體出現(xiàn)在問題中,另一個在答復(fù)中)都沒有關(guān)聯(lián),那么這一對數(shù)據(jù)就會被剔除掉。具體數(shù)據(jù)概況可見表 1。

表 1: 數(shù)據(jù)集與知識庫概況

3.2 實驗細節(jié)

我們的模型是在 Tensorflow 下運行的。編碼器與解碼器均有兩層 GRU 結(jié)構(gòu),每層有 512 個隱藏單元,它們之間不會共享參數(shù)。詞嵌入時的長度設(shè)置為 300。詞匯表大小限制在 30000。

我們采用了 Adam 優(yōu)化器,學(xué)習(xí)率設(shè)置為 0.0001。具體代碼已共享在 github上,文末附有地址。

3.3 對比模型

我們選取了幾種合適的模型作為標(biāo)準來進行對比

Seq2Seq,一種 seq2seq 模型,它被廣泛應(yīng)用于各種開放域?qū)υ捪到y(tǒng)中。

MemNet,一個基于知識的模型,其中記憶單元用來存儲知識三元組經(jīng) TransE 嵌入處理后的數(shù)據(jù)。

CopyNet,一種拷貝網(wǎng)絡(luò)模型,它會從知識三元組中拷貝單詞或由詞匯表生成單詞。

3.4 自動評估

指標(biāo) 我們采用復(fù)雜度 (perplexity)來評估模型生成的內(nèi)容。我們也計算了每條回復(fù)中的實體個數(shù),來估量模型從常識知識庫中挑選概念的能力,這項指標(biāo)記為 entity score.

結(jié)果 如表 2 所示,CCM 獲得了最低的復(fù)雜度,說明 CCM 可以更好地理解用戶的問題,從而給出語義上更合理的回復(fù)。而且與其他模型相比,在對話生成中,CCM 從常識知識中選取的實體最多,這也可以說明常識知識可以在真正意義上優(yōu)化回復(fù)的生成。

表 2: 基于 perplexity 和 entity score 的模型自動評估

3.5 人工評估

我們借助于眾包服務(wù) Amazon Mechanical Turk,從人工標(biāo)記過的數(shù)據(jù)中隨機采集 400 條數(shù)據(jù)。我們基于此來將 CCM 和另外幾個模型對同一問題生成的回復(fù)進行對比。我們有三個對比模型,總計 1200 個問答數(shù)據(jù)對。

指標(biāo) 我們定義了兩項指標(biāo) appropriateness 在內(nèi)容質(zhì)量上進行評估(基于語法、主題和邏輯);informativeness 在知識層面進行評估(基于生成的答復(fù)是否針對問題提供了新的信息和知識)。

結(jié)果 如表 3 所示,CCM 在兩項指標(biāo)下都比另外幾個模型表現(xiàn)更為突出。其中 CopyNet 是將知識三元組分開單獨使用的,這也證明了圖注意力機制的有效性。

很明顯,在 OOV(out-of-vocabulary)數(shù)據(jù)集的表現(xiàn)上, CCM 比 Seq2Seq 突出得多。這也進一步說明常識知識在理解生僻概念上很有效,而 Seq2Seq 并沒有這個能力。對于 MemNet 和 CopyNet,我們未發(fā)現(xiàn)在這一點上的差別,是因為這兩個模型都或多或少引入使用了常識知識。

表 3: 基于 appropriateness (app.) 和 informativeness (inf.) 的人工評估

3.6 案例研究

如表 4 所示,這是一個對話示例。問題中的紅色單詞 "breakable" 是知識庫里的一個單詞實體,同時對于所有模型來說,也是一個詞匯表以外的單詞。由于沒有使用常識知識,且 "breakable" 是詞匯表之外的單詞,所以 Seq2Seq 模型無法理解問題,從而給出含有OOV的回復(fù)。MemNet 因為讀取了記憶中嵌入的三元組,可以生成若干有意義的詞匯,但輸出中仍包含OOV。CopyNet 可以從知識三元組中讀取和復(fù)制詞匯。然而,CopyNet 生成的實體單詞個數(shù)比我們的少(如表 2 所示),這是因為 CopyNet 將知識三元組分開使用了。相比之下,CCM 將知識圖作為一個整體,通過相連的實體和它們之間的關(guān)系,與信息關(guān)聯(lián)起來,使解碼更加結(jié)構(gòu)化。通過這個簡單的例子,可以證明相比于其他幾個模型,CCM 可以生成更為合理、信息也更豐富的回復(fù)。

表 4: 對于同一問題,所有模型生成的回復(fù)

總結(jié)和未來的工作

在本文中,我們提出了一個常識知識感知對話模型 (CCM),演示了常識知識有助于開放域?qū)υ捪到y(tǒng)中語言的理解與生成。自動評估與人工評估皆證明了,與當(dāng)前最先進的模型相比,CCM 能夠生成更合理、信息量更豐富的回復(fù)。圖注意力機制的表現(xiàn),鼓舞了我們在未來的其他項目中也將使用常識知識。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22621
  • 知識圖譜
    +關(guān)注

    關(guān)注

    2

    文章

    132

    瀏覽量

    8005

原文標(biāo)題:對話清華大學(xué)周昊,詳解IJCAI杰出論文及其背后的故事

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    知識圖譜相關(guān)應(yīng)用

    智慧風(fēng)控的背后,是知識圖譜的深度應(yīng)用
    發(fā)表于 08-22 14:40

    KGB知識圖譜基于傳統(tǒng)知識工程的突破分析

    知識圖譜本質(zhì)上是一種大規(guī)模的語義網(wǎng)絡(luò)。從2012年谷歌提出知識圖譜,知識圖譜一直在快速發(fā)展,其應(yīng)用也不再局限于“語義網(wǎng)絡(luò)”范疇?,F(xiàn)如今的知識圖譜在實際應(yīng)用中,主要作為大數(shù)據(jù)時代的
    發(fā)表于 10-22 15:25

    KGB知識圖譜技術(shù)能夠解決哪些行業(yè)痛點?

    `知識圖譜和行業(yè)應(yīng)用相互結(jié)合時,需要充分發(fā)揮其技術(shù)特色,且要適用于現(xiàn)在的企業(yè)應(yīng)用。那么知識圖譜的應(yīng)用可以解決那些行業(yè)問題呢?知識圖譜在行業(yè)應(yīng)用方面實現(xiàn)的突破具體表現(xiàn)在知識表示、
    發(fā)表于 10-30 15:34

    知識圖譜的三種特性評析

    知識圖譜的應(yīng)用對技術(shù)本身也提出了高要求,KGB知識圖譜現(xiàn)在已經(jīng)在保險行業(yè),為公司分析上市數(shù)據(jù)等行業(yè)得以廣泛應(yīng)用,知識圖譜能夠在應(yīng)用中發(fā)揮優(yōu)勢主要體現(xiàn)在哪里呢?(1) 目標(biāo)的動態(tài)性:考察知識圖
    發(fā)表于 12-13 13:57

    KGB知識圖譜幫助金融機構(gòu)進行風(fēng)險預(yù)判

    高風(fēng)險事件,可以及時預(yù)測未來有潛在風(fēng)險的關(guān)聯(lián)行業(yè),金融機構(gòu)從而可對相關(guān)行業(yè)的風(fēng)險做出預(yù)判,盡早地發(fā)現(xiàn)并規(guī)避風(fēng)險。在潛在風(fēng)險客戶預(yù)測上,通過KGB知識圖譜整合和關(guān)聯(lián)企業(yè)內(nèi)部結(jié)構(gòu)化數(shù)據(jù)、非結(jié)構(gòu)化數(shù)據(jù)以及互聯(lián)網(wǎng)
    發(fā)表于 06-18 23:07

    知識圖譜已經(jīng)取得了哪些學(xué)術(shù)與技術(shù)成果,產(chǎn)業(yè)與應(yīng)用發(fā)生了哪些變化?

    知識圖譜從以前研究與產(chǎn)業(yè)界脫鉤,到現(xiàn)在領(lǐng)域知識圖譜成為研究的重點,開始面向解決實際的問題。比如最近司法知識圖譜的構(gòu)建出現(xiàn)了不少研究成果。另外,知識圖譜用于解決問答、推薦系統(tǒng)、圖像理解方
    的頭像 發(fā)表于 05-11 09:38 ?5618次閱讀

    KDD2020知識圖譜相關(guān)論文分享

    論文專欄:KDD2020知識圖譜相關(guān)論文分享 論文解讀者:北郵 GAMMA Lab 博士生 閆博 題目:魯棒的跨語言知識圖譜實體對齊 會議:
    的頭像 發(fā)表于 09-25 17:36 ?3911次閱讀

    如何在BERT中引入知識圖譜中信息

    引言 隨著BERT等預(yù)訓(xùn)練模型橫空出世,NLP方向迎來了一波革命,預(yù)訓(xùn)練模型在各類任務(wù)上均取得了驚人的成績。隨著各類預(yù)訓(xùn)練任務(wù)層出不窮,也有部分研究者考慮如何在BERT這一類模型中引入或者強化知識圖
    的頭像 發(fā)表于 11-03 17:52 ?4262次閱讀
    如何在BERT中引入<b class='flag-5'>知識圖</b>譜中信息

    在BERT中引入知識圖譜中信息的若干方法

    引言 隨著BERT等預(yù)訓(xùn)練模型橫空出世,NLP方向迎來了一波革命,預(yù)訓(xùn)練模型在各類任務(wù)上均取得了驚人的成績。隨著各類預(yù)訓(xùn)練任務(wù)層出不窮,也有部分研究者考慮如何在BERT這一類模型中引入或者強化知識圖
    的頭像 發(fā)表于 12-26 10:14 ?3522次閱讀
    在BERT中引入<b class='flag-5'>知識圖</b>譜中信息的若干方法

    一文帶你讀懂知識圖

    1 什么是知識圖譜? 通俗地講,知識圖譜就是把所有不同種類的信息(Heterogeneous Information)連接在一起而得到的一個關(guān)系網(wǎng)絡(luò)。 知識圖譜這個網(wǎng)絡(luò)具備以下3種特性: 1.1 由
    的頭像 發(fā)表于 12-26 10:23 ?4124次閱讀

    知識圖譜劃分的相關(guān)算法及研究

    譜分布式處理的首要工作,對知識圖譜分布式存儲、査詢、推理和挖掘起基礎(chǔ)支撐作用。隨著知識圖譜數(shù)據(jù)規(guī)模及分布式處理需求的不斷增長,如何對其進行劃分已成為目前知識圖譜研究的熱點問題。從
    發(fā)表于 03-18 10:10 ?14次下載
    <b class='flag-5'>知識圖</b>譜劃分的相關(guān)算法及研究

    知識圖譜與訓(xùn)練模型相結(jié)合和命名實體識別的研究工作

    Pre-training of Knowledge Graph and Language Understanding)。該論文提出了知識圖譜和文本的聯(lián)合訓(xùn)練框架,通過將RoBERTa作為語言模型將上下文編碼信息傳遞給知識圖
    的頭像 發(fā)表于 03-29 17:06 ?4759次閱讀
    <b class='flag-5'>知識圖</b>譜與訓(xùn)練模型相結(jié)合和命名實體識別的研究工作

    知識圖譜是NLP未來嗎?

    我的看法:知識圖譜不是NLP未來,因為知識圖譜是另外一種與NLP有很多交集的技術(shù)。在目前所有已知的發(fā)展方向中,
    的頭像 發(fā)表于 04-15 14:36 ?3940次閱讀
    <b class='flag-5'>知識圖</b>譜是<b class='flag-5'>NLP</b>的<b class='flag-5'>未來</b>嗎?

    知識圖譜Knowledge Graph構(gòu)建與應(yīng)用

    一、知識圖譜概論 ? ? ? ? 1.1知識圖譜的起源和歷史 1.2知識圖譜的發(fā)展史——從框架、本體論、語義網(wǎng)、鏈接數(shù)據(jù)到知識圖譜 1.3知識圖
    發(fā)表于 09-17 10:12 ?862次閱讀

    知識圖譜:知識圖譜的典型應(yīng)用

    作者:?cooldream2009? 我們構(gòu)建知識圖譜的目的,在于利用知識圖譜來做一些事情。有效利用知識圖譜,就是要考慮知識圖譜的具備的能力,知識圖
    的頭像 發(fā)表于 10-18 09:26 ?2680次閱讀
    <b class='flag-5'>知識圖</b>譜:<b class='flag-5'>知識圖</b>譜的典型應(yīng)用