99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用NVIDIA NeMo進(jìn)行文本規(guī)范化和反向文本規(guī)范化

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:NVIDIA ? 2022-10-11 11:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

文本規(guī)范化( TN )將文本從書(shū)面形式轉(zhuǎn)換為口頭形式,是文本到語(yǔ)音( TTS )之前的一個(gè)重要預(yù)處理步驟。 TN 確保 TTS 可以處理所有輸入文本,而不會(huì)跳過(guò)未知符號(hào)。例如,“ 123 美元”轉(zhuǎn)換為“一百二十三美元”

反向文本規(guī)范化( ITN )是自動(dòng)語(yǔ)音識(shí)別( ASR )后處理管道的一部分。 ITN 將 ASR 模型輸出轉(zhuǎn)換為書(shū)面形式,以提高文本可讀性。例如, ITN 模塊將 ASR 模型轉(zhuǎn)錄的“ 123 美元”替換為“ 123 美元?!?/p>

ITN 不僅提高了可讀性,還提高了下游任務(wù)(如神經(jīng)機(jī)器翻譯或命名實(shí)體識(shí)別)的性能,因?yàn)檫@些任務(wù)在訓(xùn)練期間使用書(shū)面文本。

pYYBAGNE5dmAPcpOAACvpftVosU813.png

圖 1.會(huì)話 AI 管道中的 TN 和 ITN

TN 和 ITN 任務(wù)面臨幾個(gè)挑戰(zhàn):

標(biāo)記的數(shù)據(jù)稀缺且難以收集。

由于 TN 和 ITN 錯(cuò)誤會(huì)級(jí)聯(lián)到后續(xù)模型,因此對(duì)不可恢復(fù)錯(cuò)誤的容忍度較低。改變輸入語(yǔ)義的 TN 和 ITN 錯(cuò)誤稱為不可恢復(fù)。

TN 和 ITN 系統(tǒng)支持多種 semiotic classes ,即口語(yǔ)形式不同于書(shū)面形式的單詞或標(biāo)記,需要規(guī)范化。例如日期、小數(shù)、基數(shù)、度量等。

許多最先進(jìn)的 TN systems in production 仍然使用 加權(quán)有限狀態(tài)傳感器 ( WFST )基于規(guī)則。 WFST 是 finite-state machines 的一種形式,用于繪制正則語(yǔ)言(或 regular expressions )之間的關(guān)系。對(duì)于這篇文章,它們可以由兩個(gè)主要屬性定義:

用于文本替換的已接受輸入和輸出表達(dá)式之間的映射

直接圖遍歷的路徑加權(quán)

如果存在歧義,則選擇權(quán)重總和最小的路徑。在圖 2 中,“二十三”被轉(zhuǎn)換為“ 23 ”而不是“ 203 ”

poYBAGNE5duAY_g6AACZe7ntwds780.jpg

圖 2.輸入“二十三”的 WFST 格子

目前, NVIDIA NeMo 為 TN 和 ITN 系統(tǒng)提供以下選項(xiàng):

Context-independent WFST-based TN and ITN grammars

Context-aware WFST-based grammars + neural LM for TN

Audio-based TN for speech datasets creation

Neural TN and ITN

基于 WFST 的語(yǔ)法(系統(tǒng) 1 、 2 和 3 )

NeMo 文本處理包是一個(gè) Python 框架,它依賴于 Python 包 Pynini 來(lái)編寫(xiě)和編譯規(guī)范化語(yǔ)法。有關(guān)最新支持的語(yǔ)言的更多信息,請(qǐng)參閱 Language Support Matrix 。有關(guān)如何擴(kuò)展或添加語(yǔ)言語(yǔ)法的更多信息,請(qǐng)參閱 語(yǔ)法定制 。

Pynini 是一個(gè)構(gòu)建在 OpenFst 之上的工具包,它支持將語(yǔ)法導(dǎo)出到 OpenFST Archive File (FAR) 中(圖 3 )。 FAR 文件可以在基于 Sparrowhawk 的 C ++生產(chǎn)框架中使用。

pYYBAGNE5d6AdgDWAADcR5Wldv8789.png

圖 3. NeMo 反向文本規(guī)范化開(kāi)發(fā)和部署示意圖

我們最初版本的 TN / ITN 系統(tǒng)# 1 沒(méi)有考慮上下文,因?yàn)檫@會(huì)使規(guī)則更加復(fù)雜,這需要廣泛的語(yǔ)言知識(shí),并降低延遲。如果輸入不明確,例如,與“ 1 / 4 個(gè)杯子”相比,“火車(chē)在 1 / 4 上出發(fā)”中的“ 1 / 4 ”,則系統(tǒng)# 1 會(huì)在不考慮上下文的情況下確定地選擇歸一化。

該系統(tǒng)擴(kuò)展了系統(tǒng)# 1 ,并在規(guī)范化期間合并了上下文。在上下文不明確的情況下,系統(tǒng)輸出多個(gè)規(guī)范化選項(xiàng),使用預(yù)處理語(yǔ)言模型使用 Masked Language Model Scoring 重新搜索(圖 4 )。

poYBAGNE5d-Aeu8KAACE1FkLtwQ378.png

圖 4.WFST + LM 淺熔管線

WFST 生成所有可能的標(biāo)準(zhǔn)化表格,并為每個(gè)選項(xiàng)分配權(quán)重。

修剪權(quán)重高于閾值“ 401.2 ”的標(biāo)準(zhǔn)化選項(xiàng)。在本例中,我們刪除了“ 1 / 4 ”。它的權(quán)重更高,因?yàn)樗鼪](méi)有完全歸一化。

LM 重新排序在其余選項(xiàng)中選擇了最佳選項(xiàng)。

這種方法類似于 ASR 的淺層融合,并結(jié)合了基于規(guī)則和神經(jīng)系統(tǒng)的優(yōu)點(diǎn)。 WFST 仍然限制了不可恢復(fù)的錯(cuò)誤,而神經(jīng)語(yǔ)言模型在不需要大量規(guī)則或難以獲取數(shù)據(jù)的情況下解決了上下文模糊性。有關(guān)詳細(xì)信息,請(qǐng)參閱 Text normalization 。

表 1 比較了 WFST + LM 方法在句子準(zhǔn)確性方面與之前的系統(tǒng)# 1 ( DetWFST )和三個(gè)數(shù)據(jù)集上的純神經(jīng)系統(tǒng)( Duplex )。在本文后面,我們將提供有關(guān)系統(tǒng)# 4 的更多詳細(xì)信息。

總的來(lái)說(shuō), WFST + LM 模型是最有效的,特別是在 EngConf 上,這是一個(gè)具有模糊示例的自收集數(shù)據(jù)集。

圖 5 顯示了這三種方法對(duì)錯(cuò)誤的敏感性。雖然神經(jīng)方法受不可恢復(fù)錯(cuò)誤(如幻覺(jué)或遺漏)的影響最大,但 WFST + LM 受這些錯(cuò)誤和類歧義的影響最小。

pYYBAGNE5d-AC4NHAAGl3a8ZE3A118.png

圖 5.上下文無(wú)關(guān)的 WFST 、 Duplex 和 WFST + LM 系統(tǒng)的錯(cuò)誤模式

基于音頻的 TN (系統(tǒng) 3 )

在創(chuàng)建新的語(yǔ)音數(shù)據(jù)集時(shí),文本規(guī)范化也很有用。例如,“六二七”和“六二十七”都是“ 627 ”的有效規(guī)范化選項(xiàng)。但是,您必須選擇最能反映相應(yīng)音頻中實(shí)際內(nèi)容的選項(xiàng)。基于音頻的文本規(guī)范化提供了此類功能(圖 6 )。

poYBAGNE5eCAEQBtAAE-G9ySJZA471.png

圖 6.基于音頻的標(biāo)準(zhǔn)化分辨率示例

神經(jīng) TN 和 ITN 模型(系統(tǒng) 4 )

與基于規(guī)則的系統(tǒng)相比,神經(jīng)系統(tǒng)的一個(gè)顯著優(yōu)勢(shì)是,如果存在新語(yǔ)言的訓(xùn)練數(shù)據(jù),那么它們很容易擴(kuò)展。基于規(guī)則的系統(tǒng)需要花費(fèi)大量精力來(lái)創(chuàng)建,并且由于組合爆發(fā),可能會(huì)在某些輸入上工作緩慢。

作為 WFST 解決方案的替代方案, NeMo 為 TN / ITN 提供了 seq2seq Duplex 模型,為 ITN 提供了基于標(biāo)記器的神經(jīng)模型。

雙重 TN 和 ITN

Duplex TN and ITN 是一個(gè)基于神經(jīng)的系統(tǒng),可以同時(shí)進(jìn)行 TN 和 ITN 。在較高的層次上,該系統(tǒng)由兩個(gè)組件組成:

DuplexTaggerModel: 基于 transformer 的標(biāo)記器,用于識(shí)別輸入中的符號(hào)跨度(例如,關(guān)于時(shí)間、日期或貨幣金額的跨度)。

DuplexDecoderModel :基于變壓器的 seq2seq 模型,用于將符號(hào)跨度解碼為適當(dāng)?shù)男问剑ɡ纾?TN 的口語(yǔ)形式和 ITN 的書(shū)面形式)。

術(shù)語(yǔ)“雙工”指的是這樣一個(gè)事實(shí),即該系統(tǒng)可以訓(xùn)練為同時(shí)執(zhí)行 TN 和 ITN 。但是,您也可以專門(mén)針對(duì)其中一項(xiàng)任務(wù)對(duì)系統(tǒng)進(jìn)行培訓(xùn)。

圖特莫斯塔格

雙工模型是一種順序到順序模型。不幸的是,這種神經(jīng)模型容易產(chǎn)生幻覺(jué),從而導(dǎo)致無(wú)法恢復(fù)的錯(cuò)誤。

Thutmose Tagger 模型將 ITN 視為一項(xiàng)標(biāo)記任務(wù),并緩解了幻覺(jué)問(wèn)題(圖 7 和 8 )。 Thutmose 是一個(gè)單通道令牌分類器模型,它為每個(gè)輸入令牌分配一個(gè)替換片段,或?qū)⑵錁?biāo)記為刪除或復(fù)制而不做更改。

NeMo 提供了一種基于 ITN 示例粒度對(duì)齊的數(shù)據(jù)集準(zhǔn)備方法。該模型在谷歌文本規(guī)范化數(shù)據(jù)集上進(jìn)行訓(xùn)練,并在英語(yǔ)和俄語(yǔ)測(cè)試集上實(shí)現(xiàn)了最先進(jìn)的句子準(zhǔn)確性。

表 2 和表 3 總結(jié)了兩個(gè)指標(biāo)的評(píng)估結(jié)果:

Sentence accuracy :將每個(gè)預(yù)測(cè)與參考的多個(gè)可能變體相匹配的自動(dòng)度量。所有錯(cuò)誤分為兩組:數(shù)字錯(cuò)誤和其他錯(cuò)誤。當(dāng)至少有一個(gè)數(shù)字與最接近的參考變量不同時(shí),會(huì)發(fā)生數(shù)字錯(cuò)誤。其他錯(cuò)誤意味著預(yù)測(cè)中存在非數(shù)字錯(cuò)誤,例如標(biāo)點(diǎn)符號(hào)或字母不匹配。

Word error rate ( WER ): ASR 中常用的自動(dòng)度量。

d- BERT 代表蒸餾 BERT 。
默認(rèn)值是默認(rèn)的 Google 文本規(guī)范化測(cè)試集。
Hard 是一個(gè)測(cè)試集,每個(gè)符號(hào)類至少有 1000 個(gè)樣本。

標(biāo)簽和輸入詞之間的一對(duì)一對(duì)應(yīng)提高了模型預(yù)測(cè)的可解釋性,簡(jiǎn)化了調(diào)試,并支持后期處理更正。該模型比序列到序列模型更簡(jiǎn)單,更容易在生產(chǎn)設(shè)置中進(jìn)行優(yōu)化。

pYYBAGNE5eGAGMAiAAC8Zz7ko5c597.png

圖 7.ITN 作為標(biāo)記:推理示例

輸入單詞的序列由基于 BERT 的標(biāo)記分類器處理,給出輸出標(biāo)記序列。簡(jiǎn)單的確定性后處理提供最終輸出。

poYBAGNE5emANzzBAAR_57DglUg026.png

圖 8.錯(cuò)誤示例:(左) Thutmose tagger ,(右) Duplex 模型

結(jié)論

文本規(guī)范化和反向文本規(guī)范化對(duì)于會(huì)話系統(tǒng)至關(guān)重要,并極大地影響用戶體驗(yàn)。本文結(jié)合 WFST 和預(yù)處理語(yǔ)言模型的優(yōu)點(diǎn),介紹了一種處理 TN 任務(wù)的新方法,以及一種處理 ITN 任務(wù)的基于神經(jīng)標(biāo)記的新方法。

關(guān)于作者

Yang Zhang 是英偉達(dá)人工智能應(yīng)用集團(tuán)的一名深度學(xué)習(xí)軟件工程師。她目前的重點(diǎn)是自然語(yǔ)言處理、對(duì)話管理和文本(去規(guī)范化)。在過(guò)去,她一直致力于大型 ASR 模型和語(yǔ)言模型預(yù)培訓(xùn)的可擴(kuò)展培訓(xùn)。她在卡內(nèi)基梅隆大學(xué)獲得機(jī)器學(xué)習(xí)碩士學(xué)位,在德國(guó)卡爾斯魯厄理工學(xué)院獲得計(jì)算機(jī)科學(xué)學(xué)士學(xué)位。

Evelina Bakhturina 是 Nvidia 的一個(gè)深學(xué)習(xí)應(yīng)用科學(xué)家,專注于自然語(yǔ)言處理任務(wù)和英偉達(dá) NeMo 框架。她畢業(yè)于紐約大學(xué),獲得數(shù)據(jù)科學(xué)碩士學(xué)位

Alexandra Antonova 是 NVIDIA Conversational AI 團(tuán)隊(duì)( NeMo )的高級(jí)研究科學(xué)家,致力于 ASR 模型。她在莫斯科國(guó)立大學(xué)學(xué)習(xí)理論和應(yīng)用語(yǔ)言學(xué),在莫斯科物理技術(shù)學(xué)院深造。在加入 NVIDIA 之前,她曾在幾家俄羅斯科技公司工作。在空閑時(shí)間,她喜歡讀書(shū)。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2565

    文章

    53008

    瀏覽量

    767481
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5309

    瀏覽量

    106412
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    飛書(shū)開(kāi)源“RTV”富文本組件 重塑鴻蒙應(yīng)用富文本渲染體驗(yàn)

    近日,飛書(shū)正式將其自研的富文本組件庫(kù)?RichTextVista(簡(jiǎn)稱“RTV”)開(kāi)源,并上線OpenHarmony?三方庫(kù)中心倉(cāng)。該組件以領(lǐng)先的性能、流暢的渲染體驗(yàn)與高度的開(kāi)放性,為鴻蒙生態(tài)提供了
    的頭像 發(fā)表于 07-11 15:20 ?110次閱讀
    飛書(shū)開(kāi)源“RTV”富<b class='flag-5'>文本</b>組件 重塑鴻蒙應(yīng)用富<b class='flag-5'>文本</b>渲染體驗(yàn)

    Allegro Skill工藝輔助之導(dǎo)入疊層模板

    在PCB設(shè)計(jì)中,導(dǎo)入疊層模板能夠確保設(shè)計(jì)的標(biāo)準(zhǔn)規(guī)范化,避免因手動(dòng)設(shè)置疊層參數(shù)而可能出現(xiàn)的錯(cuò)誤或不一致情況。
    的頭像 發(fā)表于 07-10 17:10 ?1101次閱讀
    Allegro Skill工藝輔助之導(dǎo)入疊層模板

    鐳神智能深度參與兩項(xiàng)激光雷達(dá)國(guó)家標(biāo)準(zhǔn)制定 引領(lǐng)行業(yè)規(guī)范化發(fā)展新征程

    ,深圳市鐳神智能系統(tǒng)有限公司在董事長(zhǎng)胡小波先生的帶領(lǐng)下,深度參與標(biāo)準(zhǔn)制定工作,為推動(dòng)激光雷達(dá)技術(shù)規(guī)范化、產(chǎn)業(yè)發(fā)展貢獻(xiàn)了核心力量。國(guó)家標(biāo)準(zhǔn)《車(chē)載激光雷達(dá)性能要求及
    的頭像 發(fā)表于 05-09 18:57 ?422次閱讀
    鐳神智能深度參與兩項(xiàng)激光雷達(dá)國(guó)家標(biāo)準(zhǔn)制定 引領(lǐng)行業(yè)<b class='flag-5'>規(guī)范化</b>發(fā)展新征程

    眾合云科林枚參編的人力資源AI領(lǐng)域團(tuán)體標(biāo)準(zhǔn)正式發(fā)布,助推行業(yè)數(shù)字人才能力規(guī)范化建設(shè)

    專家組成員,參與該標(biāo)準(zhǔn)的起草、研討、修訂及技術(shù)審核工作,為人工智能與人力資源數(shù)字應(yīng)用技能領(lǐng)域的人才能力規(guī)范化建設(shè)提供專業(yè)支持。 (眾合云科人力資源副總裁林枚受邀擔(dān)任《標(biāo)準(zhǔn)》編委) 本次《標(biāo)準(zhǔn)》共有9個(gè)章節(jié),規(guī)定AI+人力資源數(shù)字
    的頭像 發(fā)表于 05-09 15:05 ?156次閱讀
    眾合云科林枚參編的人力資源AI領(lǐng)域團(tuán)體標(biāo)準(zhǔn)正式發(fā)布,助推行業(yè)數(shù)字<b class='flag-5'>化</b>人才能力<b class='flag-5'>規(guī)范化</b>建設(shè)

    共建標(biāo)準(zhǔn),共享未來(lái):狄耐克積極參與腦機(jī)產(chǎn)業(yè)規(guī)范化建設(shè)

    感化智能家居控制等突破性發(fā)展。作為人工智能與神經(jīng)科學(xué)的交叉前沿,腦機(jī)領(lǐng)域?qū)⑹侨蚩萍几?jìng)爭(zhēng)的制高點(diǎn)。 近年來(lái),中國(guó)腦機(jī)市場(chǎng)仍處于快速發(fā)展期,技術(shù)路徑多元、應(yīng)用場(chǎng)景分散、行業(yè)標(biāo)準(zhǔn)缺失等問(wèn)題制約著產(chǎn)業(yè)進(jìn)程。為應(yīng)對(duì)這些挑戰(zhàn),國(guó)家層面也不斷推出政策,以
    的頭像 發(fā)表于 04-25 09:58 ?437次閱讀
    共建標(biāo)準(zhǔn),共享未來(lái):狄耐克積極參與腦機(jī)產(chǎn)業(yè)<b class='flag-5'>規(guī)范化</b>建設(shè)

    把樹(shù)莓派打造成識(shí)別文本的“神器”!

    在許多項(xiàng)目中,RaspberryPi被用作監(jiān)控?cái)z像頭或執(zhí)行機(jī)器學(xué)習(xí)任務(wù)。在這些場(chǎng)景中,圖像中經(jīng)常包含應(yīng)用程序感興趣的文本信息。我們希望提取這些信息并將其轉(zhuǎn)換,以便通過(guò)程序分析文本
    的頭像 發(fā)表于 03-25 09:30 ?426次閱讀
    把樹(shù)莓派打造成識(shí)別<b class='flag-5'>文本</b>的“神器”!

    NVIDIA NeMo Guardrails引入三項(xiàng)全新NIM微服務(wù)

    NVIDIA NeMo Guardrails 包含全新 NVIDIA NIM 微服務(wù),能夠?yàn)楦餍袠I(yè)構(gòu)建 AI 的企業(yè)提高 AI 的準(zhǔn)確性、安全性和可控性。
    的頭像 發(fā)表于 01-18 09:39 ?715次閱讀

    如何使用自然語(yǔ)言處理分析文本數(shù)據(jù)

    使用自然語(yǔ)言處理(NLP)分析文本數(shù)據(jù)是一個(gè)復(fù)雜但系統(tǒng)的過(guò)程,涉及多個(gè)步驟和技術(shù)。以下是一個(gè)基本的流程,幫助你理解如何使用NLP來(lái)分析文本數(shù)據(jù): 1. 數(shù)據(jù)收集 收集文本數(shù)據(jù) :從各種來(lái)源(如社交
    的頭像 發(fā)表于 12-05 15:27 ?1582次閱讀

    科華數(shù)據(jù)參編《西藏金融數(shù)據(jù)中心建設(shè)規(guī)范》近日發(fā)布

    數(shù)據(jù)中心發(fā)展更加標(biāo)準(zhǔn)、規(guī)范化?!?b class='flag-5'>規(guī)范》由中國(guó)人民銀行西藏自治區(qū)分行、中國(guó)人民銀行清算總中心等金融機(jī)構(gòu)、設(shè)計(jì)院、高校及部分優(yōu)秀的科技廠商共同起草?!?b class='flag-5'>規(guī)范》適用于建設(shè)在
    的頭像 發(fā)表于 12-04 11:41 ?657次閱讀
    科華數(shù)據(jù)參編《西藏金融數(shù)據(jù)中心建設(shè)<b class='flag-5'>規(guī)范</b>》近日發(fā)布

    哈鍋攜手中設(shè)智控共建數(shù)智設(shè)備管理系統(tǒng)項(xiàng)目

    哈鍋攜手中設(shè)智控建設(shè)智能設(shè)備管理系統(tǒng),推動(dòng)設(shè)備管理標(biāo)準(zhǔn)、規(guī)范化、信息和數(shù)字、智能。系統(tǒng)
    的頭像 發(fā)表于 11-14 15:57 ?852次閱讀
    哈鍋攜手中設(shè)智控共建數(shù)智<b class='flag-5'>化</b>設(shè)備管理系統(tǒng)項(xiàng)目

    圖紙模板中的文本變量

    進(jìn)行定義。無(wú)論是系統(tǒng)內(nèi)置的變量,還是用戶自定義的變量,都以這種方式表述。 系統(tǒng)內(nèi)置文本變量 以下表格展示系統(tǒng)內(nèi)置的文本變量,無(wú)需定義,可以直接使用: 比如說(shuō),如果在圖紙編輯器中定義了以下標(biāo)題欄: 當(dāng)該圖紙模板應(yīng)用于原理圖或PCB
    的頭像 發(fā)表于 11-13 18:21 ?659次閱讀
    圖紙模板中的<b class='flag-5'>文本</b>變量

    如何在文本字段中使用上標(biāo)、下標(biāo)及變量

    在KiCad的任何文本字段中,都可以通過(guò)以下的方式實(shí)現(xiàn)上標(biāo)、下標(biāo)、上劃線以及顯示變量及字段值的描述: 文本變量“文本變量”可以在 原理圖設(shè)置->工程->文本變量 中設(shè)置。下圖中設(shè)置了一
    的頭像 發(fā)表于 11-12 12:23 ?666次閱讀
    如何在<b class='flag-5'>文本</b>字段中使用上標(biāo)、下標(biāo)及變量

    如何使用 Llama 3 進(jìn)行文本生成

    使用LLaMA 3(Large Language Model Family of AI Alignment)進(jìn)行文本生成,可以通過(guò)以下幾種方式實(shí)現(xiàn),取決于你是否愿意在本地運(yùn)行模型或者使用現(xiàn)成的API
    的頭像 發(fā)表于 10-27 14:21 ?1088次閱讀

    Dell PowerScale數(shù)據(jù)湖助力醫(yī)研一體建設(shè)

    近年來(lái),醫(yī)療影像設(shè)備不斷向更高水平和精密發(fā)展,推動(dòng)醫(yī)療服務(wù)向更高更快的品質(zhì)發(fā)展?;卺t(yī)學(xué)影像多學(xué)科會(huì)診的協(xié)作、智能輔助診斷、智能質(zhì)控、智能術(shù)前規(guī)劃,將快速推進(jìn)各項(xiàng)醫(yī)學(xué)科研成果進(jìn)行規(guī)范化的臨床應(yīng)用與轉(zhuǎn)化。
    的頭像 發(fā)表于 10-16 10:13 ?674次閱讀

    NVIDIA文本嵌入模型NV-Embed的精度基準(zhǔn)

    NVIDIA 的最新嵌入模型 NV-Embed —— 以 69.32 的分?jǐn)?shù)創(chuàng)下了嵌入準(zhǔn)確率的新紀(jì)錄海量文本嵌入基準(zhǔn)測(cè)試(MTEB)涵蓋 56 項(xiàng)嵌入任務(wù)。
    的頭像 發(fā)表于 08-23 16:54 ?2500次閱讀
    <b class='flag-5'>NVIDIA</b><b class='flag-5'>文本</b>嵌入模型NV-Embed的精度基準(zhǔn)