99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

口語(yǔ)語(yǔ)言理解在任務(wù)型對(duì)話系統(tǒng)中的探討

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:哈工大SCIR ? 作者:滕德川 ? 2021-03-31 17:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1.1 研究背景與任務(wù)定義

口語(yǔ)語(yǔ)言理解在任務(wù)型對(duì)話系統(tǒng)中扮演了一個(gè)非常重要的角色,其目的是識(shí)別出用戶的輸入文本中蘊(yùn)含的意圖和提及到的槽位,一般被分為意圖識(shí)別和槽位填充兩個(gè)子任務(wù)[1]。以句子“use netflix to play music”為例,意圖識(shí)別將整個(gè)句子的意圖分類為播放音樂(lè)(PlayMusic),槽位填充為句子中的每個(gè)單詞賦予不同的槽位標(biāo)簽(即,O, B-service,O,O,O)。從任務(wù)類型來(lái)區(qū)分,意圖識(shí)別屬于句子分類任務(wù),槽位填充可以被建模成序列標(biāo)注任務(wù)。 與英文口語(yǔ)語(yǔ)言理解相比,中文口語(yǔ)語(yǔ)言理解面臨了一個(gè)獨(dú)特的挑戰(zhàn):在完成任務(wù)之前需要進(jìn)行詞語(yǔ)切分。盡管事先做了分詞,不完美的分詞系統(tǒng)仍然會(huì)錯(cuò)誤識(shí)別槽位的邊界,隨即預(yù)測(cè)了錯(cuò)誤的槽位類別,使得模型的性能遭受來(lái)自分詞系統(tǒng)的錯(cuò)誤級(jí)聯(lián)。

c21a09d8-8e8e-11eb-8b86-12bb97331649.png

圖1 中文口語(yǔ)語(yǔ)言理解示例

1.2 研究動(dòng)機(jī)

為了避免來(lái)自分詞系統(tǒng)的錯(cuò)誤級(jí)聯(lián),Liu等人[2]提出了一個(gè)基于字符的聯(lián)合模型完成中文口語(yǔ)語(yǔ)言理解,達(dá)到了當(dāng)時(shí)最好的效果。

然而,直觀上,中文詞語(yǔ)信息的引入有助于對(duì)中文文本的理解,進(jìn)而正確完成意圖識(shí)別和槽位填充任務(wù)。

以圖1為例,正確的中文分詞為"周冬雨 / 有 / 哪些 / 電影"。如果不引入這種分詞信息作為補(bǔ)充,可能會(huì)給"周"賦予Datetime_date槽位標(biāo)記,將"冬雨"看作Datetime_time。而有了類似于"周冬雨"這樣詞語(yǔ)的幫助,檢測(cè)正確的槽位標(biāo)簽Artist會(huì)變得異常容易。

除此之外,由于口語(yǔ)語(yǔ)言理解由兩個(gè)類型不同又相互關(guān)聯(lián)的任務(wù)組成,利用任務(wù)間的交互可以對(duì)在兩個(gè)任務(wù)間建模細(xì)粒度的詞語(yǔ)信息遷移起到重要的幫助。

所以,在考慮任務(wù)特性的同時(shí)引入詞語(yǔ)信息是很有必要的。

因此,接下來(lái)的問(wèn)題是:是否可以在避免分詞系統(tǒng)錯(cuò)誤級(jí)聯(lián)、考慮口語(yǔ)語(yǔ)言理解任務(wù)特性的同時(shí),引入中文詞語(yǔ)信息增強(qiáng)中文意圖識(shí)別和槽位填充。

為了解決此問(wèn)題,我們提出了簡(jiǎn)單而有效的Multi-LevelWordAdapter (MLWA)模型引入中文詞語(yǔ)信息,對(duì)意圖識(shí)別和槽位填充進(jìn)行聯(lián)合建模。其中,1) sentence-level word adapter 直接融合詞級(jí)別和字級(jí)別的句子表示實(shí)現(xiàn)對(duì)意圖的識(shí)別;2) character-level word adapter 針對(duì)輸入文本中的每個(gè)字動(dòng)態(tài)地確定不同字特征和不同詞特征之間的融合比例,進(jìn)而得出該字的槽位標(biāo)簽,以達(dá)到對(duì)詞語(yǔ)知識(shí)的細(xì)粒度組合這一目的。另外,word adapter可以作為一個(gè)依附于輸出層的插件被應(yīng)用于各種基于字符的中文口語(yǔ)語(yǔ)言理解模型,其無(wú)需改變?cè)寄P推渌至康奶匦詭?lái)了更多的應(yīng)用靈活性。

2. 模型

2.1 整體框架

模型以一個(gè)普通的基于字符的模型(圖2 (a))為基礎(chǔ),附以multi-level word adapter模塊(圖2 (b))針對(duì)意圖識(shí)別和槽位填充分別引入并捕獲句子級(jí)和字符級(jí)詞語(yǔ)信息。

c2cdea34-8e8e-11eb-8b86-12bb97331649.png

圖2 Multi-Level Word Adapter 整體框架

2.2 Vanilla Character-based Model

Char-Channel Encoder

自注意力編碼器(Self-Attentive Encoder)[3]由抽取序列上下文信息的自注意力模塊[4]和捕獲序列信息的雙向LSTM[5]組成。其接收中文字輸入序列 = ,獲得BiLSTM和self-attention的輸出后,連接兩者輸出字符編碼表示序列 = 。

Intent Detection and Slot Filling

意圖識(shí)別和槽位填充均以自注意力編碼器的輸出為基礎(chǔ),進(jìn)行進(jìn)一步的編碼,即兩者共享底層表示信息。其中,意圖識(shí)別模塊利用一個(gè)MLP Attention模塊獲得整個(gè)字序列的綜合表示向量 ,進(jìn)而完成對(duì)意圖的分類(意圖標(biāo)簽集表示為 ):

c32b106a-8e8e-11eb-8b86-12bb97331649.png

c3973858-8e8e-11eb-8b86-12bb97331649.png

槽位填充應(yīng)用一個(gè)單向LSTM作為解碼器,在每個(gè)解碼時(shí)間步 ,其接收每個(gè)字表示 ,意圖標(biāo)簽編碼 ,來(lái)自上一個(gè)時(shí)間步解碼的槽位標(biāo)簽編碼 ,輸出解碼器隱層向量 ,進(jìn)而計(jì)算得到第 個(gè)字 的槽位標(biāo)簽(槽位標(biāo)簽集表示為 ):

c3d0bca4-8e8e-11eb-8b86-12bb97331649.png

c41caac4-8e8e-11eb-8b86-12bb97331649.png

2.3 Multi-Level Word Adapter

Word-Channel Encoder

在我們的框架中,單詞通道編碼器獨(dú)立于字符通道編碼器,也就是說(shuō),如何編碼單詞信息,編碼何種單詞信息都是自由的,在這里以使用外部中文分詞系統(tǒng)(CWS)為例。對(duì)字序列 進(jìn)行分詞可以得到單詞序列 = 。與字符通道編碼器相同,單詞通道編碼器利用另一個(gè)自注意力編碼器生成單詞編碼表示序列 = 。

Word Adapter

word adapter 是一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),可以適應(yīng)性地融合不同的字特征的詞語(yǔ)特征,圖2 (c)顯示了其內(nèi)部結(jié)構(gòu)。給定輸入字符向量 和詞語(yǔ)向量 ,word adapter可以計(jì)算兩者之間的權(quán)重比例,進(jìn)而加權(quán)求和得到融合后的特征向量:

c4570cd2-8e8e-11eb-8b86-12bb97331649.png

Sentence-Level Word Adapter

給定字符序列和單詞序列的上下文表示序列 和 ,可以通過(guò)上文的MLP Attention模塊獲得兩種序列的綜合表示向量 和 。

隨后,sentence-level word adapter計(jì)算融合后的綜合向量 ,并利用它預(yù)測(cè)意圖標(biāo)簽 :

c4a19c02-8e8e-11eb-8b86-12bb97331649.png

Character-Level Word Adapter

在完成槽位填充之前,我們首先采納一個(gè)雙向LSTM增強(qiáng)單詞序列的表示。在每個(gè)時(shí)間步 ,單詞通道的槽位填充編碼器輸出的隱層向量由相應(yīng)的單詞表示 和意圖標(biāo)簽的編碼 計(jì)算得到。

然后,character-level word adapter針對(duì)每個(gè)輸入字符,為字符特征和詞語(yǔ)特征的不同組合確定不同的融合比例:

c50ba124-8e8e-11eb-8b86-12bb97331649.png

最后,我們利用融合后的表示 完成第 個(gè)字符的槽位標(biāo)注:

c574d86a-8e8e-11eb-8b86-12bb97331649.png

2.4 Joint Training

我們采納聯(lián)合訓(xùn)練策略優(yōu)化模型,最終的聯(lián)合目標(biāo)函數(shù)如下, and 分別是正確的意圖和槽位標(biāo)簽:

c5dd6d44-8e8e-11eb-8b86-12bb97331649.png

3. 實(shí)驗(yàn)

3.1 實(shí)驗(yàn)設(shè)置

數(shù)據(jù)集

我們?cè)趦蓚€(gè)公開(kāi)的中文數(shù)據(jù)集CAIS和ECDT-NLU上進(jìn)行了實(shí)驗(yàn),我們保持了兩個(gè)數(shù)據(jù)集原分割不變。

CAIS中, 訓(xùn)練集包含7995個(gè)句子,驗(yàn)證集和測(cè)試集分別有994和1024個(gè)句子。

ECDT-NLU由2576個(gè)訓(xùn)練樣本和1033個(gè)測(cè)試樣本組成。

評(píng)價(jià)指標(biāo)

與前人相同,我們使用以下三個(gè)指標(biāo)來(lái)評(píng)價(jià)中文口語(yǔ)語(yǔ)言理解模型的性能:

F1值作為槽位填充任務(wù)的評(píng)價(jià)指標(biāo)。

準(zhǔn)確率(accuracy)作為意圖識(shí)別任務(wù)的評(píng)價(jià)指標(biāo)。

使用整體準(zhǔn)確率(overall accuracy)指標(biāo)評(píng)價(jià)句子級(jí)語(yǔ)義幀解析能力。一個(gè)整體準(zhǔn)確的預(yù)測(cè)表示預(yù)測(cè)的意圖和槽位標(biāo)簽與人工標(biāo)注完全相同。

3.2 主實(shí)驗(yàn)結(jié)果

表1 主實(shí)驗(yàn)結(jié)果

c6496e7c-8e8e-11eb-8b86-12bb97331649.png

所有的baseline模型均考慮了意圖識(shí)別和槽位填充兩個(gè)任務(wù)之間的相關(guān)性,并聯(lián)合建模這兩個(gè)相關(guān)任務(wù)。從結(jié)果可以看出:

我們的實(shí)驗(yàn)結(jié)果在所有指標(biāo)上均超過(guò)了這些baseline模型,達(dá)到了當(dāng)前最好的性能,證明了我們提出的multi-level word adapter的有效性。

Slot和Intent指標(biāo)的提升表明利用multi-level word adapter融入單詞信息可以促進(jìn)模型對(duì)于中文意圖和槽位的識(shí)別和標(biāo)注。

整體準(zhǔn)確率的提升歸因于考慮了兩個(gè)任務(wù)之間的相關(guān)性,并通過(guò)聯(lián)合訓(xùn)練相互增強(qiáng)兩者。

3.3 消融實(shí)驗(yàn)結(jié)果

為了驗(yàn)證已提出的word adapters的有效性,我們對(duì)以下幾個(gè)重要分量執(zhí)行了消融實(shí)驗(yàn):

w/o Multiple Levels 設(shè)置中,我們移除了character-level word adapter,在對(duì)每個(gè)字符的槽位標(biāo)記時(shí)使用相同的單詞信息。

w/o Sentence-Level word adapter 設(shè)置中,不使用sentence-level word adapter,只使用字序列編碼信息去完成意圖識(shí)別。

w/o Character-Level word adapter 設(shè)置中,不使用character-level word adapter,只使用字序列編碼信息去完成槽位填充。

表2 消融實(shí)驗(yàn)結(jié)果

c69c29e6-8e8e-11eb-8b86-12bb97331649.png

上表是消融實(shí)驗(yàn)的結(jié)果,從中可以看出:

使用多層次機(jī)制帶來(lái)了顯著的正向效果,這從側(cè)面證實(shí)了對(duì)于字符級(jí)的槽位填充任務(wù),每個(gè)字需要不同的單詞信息,即細(xì)粒度的詞信息。

不使用sentence-level word adapter時(shí),在ECDT-NLU數(shù)據(jù)集上,意圖識(shí)別準(zhǔn)確率出現(xiàn)了明顯的下降,表明sentence-level word adapter可以抽取有利的詞信息去提升中文意圖識(shí)別。

不使用character-level word adapter時(shí),兩個(gè)數(shù)據(jù)集上的槽位填充指標(biāo)出現(xiàn)了不同程度的下降,證明了詞語(yǔ)信息可以為中文槽位填充的完成提供有效的指導(dǎo)信息(例如,明確的單詞信息可以幫助模型檢測(cè)單詞邊界)。

3.4 預(yù)訓(xùn)練模型探索實(shí)驗(yàn)

我們進(jìn)一步在這兩個(gè)數(shù)據(jù)集上探索了預(yù)訓(xùn)練模型的效果。我們將char-channel encoder替換為預(yù)訓(xùn)練模型BERT,模型的其他部分保持不變,進(jìn)行fine-tuning訓(xùn)練,來(lái)觀察我們提出的multi-level word adapter的效果。

表3 BERT模型探索結(jié)果

c6e29ad4-8e8e-11eb-8b86-12bb97331649.png

表3是對(duì)于BERT預(yù)訓(xùn)練模型的探索結(jié)果。其中,

Joint BERT 利用預(yù)訓(xùn)練模型BERT得到輸入字序列的編碼,經(jīng)過(guò)線性分類層完成意圖識(shí)別和槽位填充,隨后應(yīng)用多任務(wù)學(xué)習(xí)方法進(jìn)行訓(xùn)練。

Our Model + BERT 是使用BERT替換掉char-channel encoder作為字序列的Encoder。具體來(lái)說(shuō),BERT的[CLS]輸出向量作為字序列的綜合向量,其他輸出向量作為各字的表示向量。

實(shí)驗(yàn)結(jié)果表明,multi-level word adapter和BERT的結(jié)合可以進(jìn)一步提升模型效果,證明了我們的貢獻(xiàn)與預(yù)訓(xùn)練模型是互補(bǔ)的。

4.結(jié)論

在這篇文章中,我們的貢獻(xiàn)如下:

我們首次利用一個(gè)簡(jiǎn)單有效的方法向中文口語(yǔ)語(yǔ)言理解中引入中文單詞信息。

我們提出了一個(gè)多層次的單詞適配器,句子級(jí)和字符級(jí)單詞適配器分別向意圖識(shí)別和槽位填充提供兩個(gè)層次的單詞信息表示,從而實(shí)現(xiàn)了不同級(jí)別任務(wù)的詞信息表示定制化。

在兩個(gè)公開(kāi)數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)表明,我們的模型取得了顯著性的改進(jìn),并實(shí)現(xiàn)了最佳的性能。此外,我們的方法與預(yù)訓(xùn)練模型(BERT)在性能上是互補(bǔ)的。

原文標(biāo)題:【工大SCIR】首次探索中文詞信息增強(qiáng)中文口語(yǔ)語(yǔ)言理解!

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3519

    瀏覽量

    50418
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22621

原文標(biāo)題:【工大SCIR】首次探索中文詞信息增強(qiáng)中文口語(yǔ)語(yǔ)言理解!

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    I/O密集任務(wù)開(kāi)發(fā)指導(dǎo)

    使用異步并發(fā)可以解決單次I/O任務(wù)阻塞的問(wèn)題,但是如果遇到I/O密集任務(wù),同樣會(huì)阻塞線程其它任務(wù)的執(zhí)行,這時(shí)需要使用多線程并發(fā)能力來(lái)進(jìn)行
    發(fā)表于 06-19 07:19

    CPU密集任務(wù)開(kāi)發(fā)指導(dǎo)

    CPU密集任務(wù)是指需要占用系統(tǒng)資源處理大量計(jì)算能力的任務(wù),需要長(zhǎng)時(shí)間運(yùn)行,這段時(shí)間會(huì)阻塞線程其它事件的處理,不適宜放在主線程進(jìn)行。例如圖像處理、視頻編碼、數(shù)據(jù)分析等。 基于多線程并發(fā)
    發(fā)表于 06-19 06:05

    基于MindSpeed MM玩轉(zhuǎn)Qwen2.5VL多模態(tài)理解模型

    多模態(tài)理解模型是讓AI像人類一樣,通過(guò)整合多維度信息(如視覺(jué)、語(yǔ)言、聽(tīng)覺(jué)等),理解數(shù)據(jù)背后的語(yǔ)義、情感、邏輯或場(chǎng)景,從而完成推理、決策等任務(wù)。
    的頭像 發(fā)表于 04-18 09:30 ?1473次閱讀
    基于MindSpeed MM玩轉(zhuǎn)Qwen2.5VL多模態(tài)<b class='flag-5'>理解</b>模型

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.初步理解具身智能

    感謝 感謝電子發(fā)燒友網(wǎng)社區(qū)給予《具身智能機(jī)器人系統(tǒng)》試讀機(jī)會(huì)。在這知識(shí)的盛宴,我感受到社區(qū)的關(guān)懷與支持。定不負(fù)期望,認(rèn)真研讀,分享所學(xué),回饋社區(qū)。 一、本書(shū)大綱 《具身智能機(jī)器人系統(tǒng)》是一本
    發(fā)表于 12-28 21:12

    深入理解C語(yǔ)言:循環(huán)語(yǔ)句的應(yīng)用與優(yōu)化技巧

    在程序設(shè)計(jì),我們常常需要重復(fù)執(zhí)行某一段代碼。為了提高效率和簡(jiǎn)化代碼,循環(huán)語(yǔ)句應(yīng)運(yùn)而生。C語(yǔ)言作為一門(mén)經(jīng)典的編程語(yǔ)言,提供了多種循環(huán)控制結(jié)構(gòu),幫助程序員高效地實(shí)現(xiàn)重復(fù)操作。掌握循環(huán)語(yǔ)句的使用,不僅
    的頭像 發(fā)表于 12-07 01:11 ?633次閱讀
    深入<b class='flag-5'>理解</b>C<b class='flag-5'>語(yǔ)言</b>:循環(huán)語(yǔ)句的應(yīng)用與優(yōu)化技巧

    循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理的應(yīng)用

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其在處理序列數(shù)據(jù)方面的優(yōu)勢(shì)而在NLP
    的頭像 發(fā)表于 11-15 09:41 ?813次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語(yǔ)言處理任務(wù)

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)的出現(xiàn)
    的頭像 發(fā)表于 11-13 09:56 ?1160次閱讀

    使用LLM進(jìn)行自然語(yǔ)言處理的優(yōu)缺點(diǎn)

    語(yǔ)言任務(wù),如文本分類、情感分析、機(jī)器翻譯等。以下是使用LLM進(jìn)行NLP的一些優(yōu)缺點(diǎn): 優(yōu)點(diǎn) 強(qiáng)大的語(yǔ)言理解能力 : LLM通過(guò)訓(xùn)練學(xué)習(xí)了大量的語(yǔ)言
    的頭像 發(fā)表于 11-08 09:27 ?2443次閱讀

    AI對(duì)話魔法 Prompt Engineering 探索指南

    Engineering 就是設(shè)計(jì)和優(yōu)化與AI對(duì)話的“提示詞”或“指令”,讓AI能準(zhǔn)確理解并提供有用的回應(yīng)。 Prompt Engineering 主要包括以下幾個(gè)方面: 1.明確目標(biāo):希望AI完成什么任務(wù)。例如:寫(xiě)一篇文章,回
    的頭像 發(fā)表于 11-07 10:11 ?1441次閱讀
    AI<b class='flag-5'>對(duì)話</b>魔法 Prompt Engineering 探索指南

    深入理解 Llama 3 的架構(gòu)設(shè)計(jì)

    最新的自然語(yǔ)言處理(NLP)技術(shù)和深度學(xué)習(xí)算法,旨在提供更加自然、流暢和智能的對(duì)話體驗(yàn)。 1. 核心組件 Llama 3的架構(gòu)設(shè)計(jì)可以分為以下幾個(gè)核心組件: 1.1 預(yù)處理模塊 預(yù)處理模塊負(fù)責(zé)將原始文本數(shù)據(jù)轉(zhuǎn)換為模型可以理解的格
    的頭像 發(fā)表于 10-27 14:41 ?1216次閱讀

    Llama 3 語(yǔ)言模型應(yīng)用

    理解復(fù)雜的上下文信息,包括對(duì)話歷史、用戶偏好和文化差異。這使得它在對(duì)話系統(tǒng)和個(gè)性化推薦中表現(xiàn)出色。 情感分析 :通過(guò)深度學(xué)習(xí)技術(shù),Llama 3 能夠識(shí)別和
    的頭像 發(fā)表于 10-27 14:15 ?735次閱讀

    AI大模型在自然語(yǔ)言處理的應(yīng)用

    AI大模型在自然語(yǔ)言處理(NLP)的應(yīng)用廣泛且深入,其強(qiáng)大的語(yǔ)義理解和生成能力為NLP任務(wù)帶來(lái)了顯著的性能提升。以下是對(duì)AI大模型在NLP
    的頭像 發(fā)表于 10-23 14:38 ?1540次閱讀

    云知聲口語(yǔ)評(píng)測(cè)技術(shù)應(yīng)用于教育領(lǐng)域

    日前,云知聲入選大連、丹東、本溪三地初中學(xué)業(yè)水平考試英語(yǔ)聽(tīng)力口語(yǔ)考試智能口語(yǔ)評(píng)測(cè)技術(shù)服務(wù)商,并以其專業(yè)可靠的口語(yǔ)評(píng)測(cè),確保三地英語(yǔ)考試結(jié)果的公平、客觀、準(zhǔn)確,為教育公平和學(xué)生能力的真實(shí)反映提供了有力保障。
    的頭像 發(fā)表于 09-19 15:41 ?704次閱讀

    打開(kāi)labview時(shí)很慢,在任務(wù)管理器里面看到,內(nèi)存能有1000多M,重裝也沒(méi)用,各位大佬這是什么問(wèn)題引起的,怎么解決

    打開(kāi)labview時(shí)很慢,在任務(wù)管理器里面看到,內(nèi)存能有1000多M,重裝也沒(méi)用,各位大佬這是什么問(wèn)題引起的,怎么解決
    發(fā)表于 09-14 09:24

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    信息有助于模型更深入地理解文本的含義和意圖。 3. 推理與判斷 在問(wèn)答任務(wù),大語(yǔ)言模型不僅需要理解問(wèn)題的字面意義,還需要進(jìn)行推理和判斷以得
    發(fā)表于 08-02 11:03