99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么要引入遠(yuǎn)程監(jiān)督方法?

深度學(xué)習(xí)自然語言處理 ? 來源:AI自然語言處理與知識圖譜 ? 作者:AI自然語言處理與 ? 2021-04-02 09:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

從早期到現(xiàn)在來看關(guān)系抽取任務(wù)的話,基本的做法包括基于規(guī)則匹配、監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)以及遠(yuǎn)程監(jiān)督學(xué)習(xí)等方法,上篇文章《從頭來看關(guān)系抽取》已經(jīng)介紹了監(jiān)督學(xué)習(xí)早期的一些開山之作,而今天的主人公是遠(yuǎn)程監(jiān)督來做關(guān)系抽取,那么為什么要引入遠(yuǎn)程監(jiān)督的方法,什么是遠(yuǎn)程監(jiān)督的方法,基于遠(yuǎn)程監(jiān)督的關(guān)系抽取的方法從古至今是怎么演變發(fā)展的,帶著這些疑問,我們簡單了解一下。

為什么要引入遠(yuǎn)程監(jiān)督方法?

監(jiān)督學(xué)習(xí)

監(jiān)督學(xué)習(xí)是利用標(biāo)注好的訓(xùn)練數(shù)據(jù),傳統(tǒng)的機(jī)器學(xué)習(xí)模型或者是深度學(xué)習(xí)算法構(gòu)建網(wǎng)絡(luò)模型,老生常談的問題,這種方法的問題在于雖然能夠利用標(biāo)注質(zhì)量高的數(shù)據(jù)獲取很好的效果,但是獲取高質(zhì)量的標(biāo)注數(shù)據(jù)需要花費(fèi)昂貴的人力、物力,因此引出很多其他的學(xué)習(xí)方式,比如半監(jiān)督、無監(jiān)督、遠(yuǎn)程監(jiān)督、遷移學(xué)習(xí)等等。

半監(jiān)督學(xué)習(xí)

半監(jiān)督學(xué)習(xí)是解決獲取大量高質(zhì)量標(biāo)注數(shù)據(jù)難問題的一種解決方式,利用少部分高質(zhì)量標(biāo)注數(shù)據(jù),通過相關(guān)算法學(xué)習(xí),常用的是Bootstrapping learning 以及遠(yuǎn)程監(jiān)督方法。對于關(guān)系抽取任務(wù)來說,Bootstrapping 算法的輸入少量實(shí)體關(guān)系數(shù)據(jù)作為種子,找到更多有某種關(guān)系的相關(guān)數(shù)據(jù)。但是我們可以想到一個(gè)問題就是利用少量的種子數(shù)據(jù)在大規(guī)模數(shù)據(jù)中搜尋出來的結(jié)果,是否是我們真正想要的,會不會存歧義的數(shù)據(jù),畢竟利用一點(diǎn)種子就想達(dá)到我們的目標(biāo),肯定是存在某些問題的,這也是 Bootstraping 算法的語義漂移問題。

遠(yuǎn)程監(jiān)督學(xué)習(xí)

遠(yuǎn)程監(jiān)督學(xué)習(xí)很早之前就被提出來了,但是應(yīng)用在關(guān)系抽取任務(wù)上面應(yīng)該是2009年的一篇論文,作為遠(yuǎn)程監(jiān)督學(xué)習(xí)在關(guān)系抽取的開山之作,下面會介紹這個(gè)工作。簡單來說,遠(yuǎn)程監(jiān)督關(guān)系抽取是通過將大規(guī)模非結(jié)構(gòu)化文本中的語料與知識庫對齊,這樣便可以獲取大量訓(xùn)練數(shù)據(jù)供模型訓(xùn)練。遠(yuǎn)程監(jiān)督關(guān)系抽取的工作可以分為兩階段,其中后期以及目前的發(fā)展都集中在神經(jīng)網(wǎng)絡(luò)提取特征信息結(jié)合多實(shí)例學(xué)習(xí)思想。

開山燎原-2009-ACL

論文題目:Distant supervision for relation extraction without labeled data

論文地址:https://www.aclweb.org/anthology/P09-1113.pdf

這篇文章應(yīng)該是最早的將遠(yuǎn)程監(jiān)督學(xué)習(xí)用于關(guān)系抽取,是一篇開山之作。

文中提出了一個(gè)強(qiáng)有力的假設(shè):如果兩個(gè)實(shí)體在已知知識庫中存在,并且兩者有相對應(yīng)的某種關(guān)系,那么當(dāng)這兩個(gè)實(shí)體在其他非結(jié)構(gòu)化文本中存在的時(shí)候也能夠表達(dá)這種關(guān)系?;谶@種強(qiáng)有力的假設(shè),遠(yuǎn)程監(jiān)督算法可以利用已有的知識庫,給外部非結(jié)構(gòu)化文本中的句子標(biāo)注某種關(guān)系標(biāo)簽,相當(dāng)于自動語料標(biāo)注,能夠獲取大量的標(biāo)注數(shù)據(jù)供模型訓(xùn)練。

訓(xùn)練階段

文中所采用的知識庫為Freebase,非結(jié)構(gòu)化文本采用的是維基百科等數(shù)據(jù)。既然是要判定句子中的實(shí)體是否在知識庫中存在,那么必然要識別出對應(yīng)的實(shí)體,識別實(shí)體部分文中依賴NER標(biāo)注工具。如果句子中的兩個(gè)實(shí)體存在于知識庫中且具有某種關(guān)系,便從句子中抽取出特征(很多特征),并把具有這種關(guān)系的多個(gè)句子中特征拼接作為這個(gè)關(guān)系的某一特征向量,從不同的句子中抽取出的特征拼接,會讓后面的分類器獲取更多的信息。

特征

訓(xùn)練的分類器需要很多的特征,2009年的時(shí)候還在大量的構(gòu)造特征工程,因此構(gòu)造的也正也幾乎完全是詞典或者語法特征,主要包括以下:

Lexical features

1、Thesequenceofwordsbetweenthetwoentities 2、Thepart-of-speechtagsofthesewords 3、Aflagindicatingwhichentitycamefirstinthesentence 4、AwindowofkwordstotheleftofEntity1andtheirpart-of-speechtags 5、AwindowofkwordstotherightofEntity2andtheirpart-of-speechtags

另外還有關(guān)系依存句法樹以及實(shí)體類別特征等。

測試階段

在測試階段中,將再次使用NER工具識別實(shí)體,句子中一起出現(xiàn)的每一對實(shí)體都被認(rèn)為是一個(gè)潛在的關(guān)系實(shí)例,當(dāng)這些實(shí)體同時(shí)出現(xiàn)便從句子中提取特征添加到該實(shí)體對的特征向量中。例如在測試集中10個(gè)句子中出現(xiàn)了一對實(shí)體,每個(gè)句子提取3個(gè)特征,那么這個(gè)實(shí)體對將有30個(gè)相關(guān)特征,對測試語料庫中每個(gè)句子的每個(gè)實(shí)體對進(jìn)行特征提取,分類器根據(jù)實(shí)體對出現(xiàn)的所有特征為每個(gè)實(shí)體對預(yù)測關(guān)系。

問題

1、文中提出的假設(shè)太過強(qiáng)橫,必然會出現(xiàn)大量的badcase,比如句子中出現(xiàn)的兩個(gè)實(shí)體刻畫的并非實(shí)體庫中對應(yīng)的關(guān)系描述,這樣會引入噪音臟數(shù)據(jù),影響最終的結(jié)果。例如,創(chuàng)始人(喬布斯,蘋果)和ceo(喬布斯,蘋果)都是正確的。

2、文中依賴于NER工具、以及構(gòu)造詞典語法句法等特征,也會存在錯(cuò)誤傳播問題。

多實(shí)例學(xué)習(xí)-2011-ACL

論文題目:Knowledge-Based Weak Supervision for Information Extraction of Overlapping Relations

論文地址:https://www.aclweb.org/anthology/P11-1055.pdf

本文針對上篇文章中的強(qiáng)假設(shè)導(dǎo)致的badcase,采用多實(shí)例學(xué)習(xí)的思想,減少遠(yuǎn)程監(jiān)督噪音數(shù)據(jù)的影響。提出新的模型MULTIR,引入多實(shí)例學(xué)習(xí)的概率圖形模型,從而解決重疊關(guān)系抽取問題,重疊關(guān)系問題指的是同一對實(shí)體之間的存在多種不同類型的關(guān)系,同時(shí)結(jié)合句子級別和文檔級別的特征進(jìn)行關(guān)系抽取,MULTIR在計(jì)算推理上面具有很高的效率。

多實(shí)例學(xué)習(xí)可以被描述為:假設(shè)訓(xùn)練數(shù)據(jù)集中的每個(gè)數(shù)據(jù)是一個(gè)包(Bag),每個(gè)包都是一個(gè)示例(instance)的集合,每個(gè)包都有一個(gè)訓(xùn)練標(biāo)記,而包中的示例是沒有標(biāo)記的;如果包中至少存在一個(gè)正標(biāo)記的示例,則包被賦予正標(biāo)記;而對于一個(gè)有負(fù)標(biāo)記的包,其中所有的示例均為負(fù)標(biāo)記。(這里說包中的示例沒有標(biāo)記,而后面又說包中至少存在一個(gè)正標(biāo)記的示例時(shí)包為正標(biāo)記包,是相對訓(xùn)練而言的,也就是說訓(xùn)練的時(shí)候是沒有給示例標(biāo)記的,只是給了包的標(biāo)記,但是示例的標(biāo)記是確實(shí)存在的,存在正負(fù)示例來判斷正負(fù)類別)。通過定義可以看出,與監(jiān)督學(xué)習(xí)相比,多示例學(xué)習(xí)數(shù)據(jù)集中的樣本示例的標(biāo)記是未知的,而監(jiān)督學(xué)習(xí)的訓(xùn)練樣本集中,每個(gè)示例都有一個(gè)一已知的標(biāo)記;與非監(jiān)督學(xué)習(xí)相比,多示例學(xué)習(xí)僅僅只有包的標(biāo)記是已知的,而非監(jiān)督學(xué)習(xí)樣本所有示例均沒有標(biāo)記。但是多示例學(xué)習(xí)有個(gè)特點(diǎn)就是它廣泛存在真實(shí)的世界中,潛在的應(yīng)用前景非常大。from http://blog.csdn.net/tkingreturn/article/details/39959931

經(jīng)典-2015-EMNLP

論文題目:Distant Supervision for Relation Extraction via Piecewise Convolutional Neural Networks

論文地址:https://www.aclweb.org/anthology/D15-1203.pdf

上面的幾篇文章已經(jīng)提出了遠(yuǎn)程監(jiān)督學(xué)習(xí)在關(guān)系抽取的開山之作,以及后面會通過多實(shí)例學(xué)習(xí)(Multi Instance Learning, MIL)來減少其中的噪音數(shù)據(jù),這篇文章也是在前人的基礎(chǔ)之上去做的工作,主要有兩部分,其中之一是提出piece-wise卷積神經(jīng)網(wǎng)絡(luò)自動抽取句子中的特征信息,從而替換之前設(shè)計(jì)的特征工程;另外和之前一樣,采用多實(shí)例學(xué)習(xí)思想來減緩錯(cuò)誤的badcase數(shù)據(jù),既這篇文章將多實(shí)例學(xué)習(xí)整合到卷積神經(jīng)網(wǎng)絡(luò)中來完成關(guān)系抽取任務(wù)。

ad567324-8e8e-11eb-8b86-12bb97331649.png

Piecewise-CNN

Vector representation

上圖是PCNN針對bags中的一個(gè)句子編碼的情況,主要分為幾部分,其中向量表示部分也和之前我們介紹過的幾篇一樣,采用的預(yù)訓(xùn)練的word embedding以及句子中詞和兩個(gè)實(shí)體之間的相對距離向量,下圖中再對這個(gè)解釋一下,圖中 son 對兩個(gè)實(shí)體的相對距離分為是-2和3,到時(shí)候會把這些均轉(zhuǎn)換為向量表示,采用隨機(jī)初始化的方式。

ad9c5c68-8e8e-11eb-8b86-12bb97331649.png

Convolution

卷積部分從圖中便可以看出采用的是多卷積核操作,文中的Zero Padding值為1 , 卷積核的長為向量矩陣的長,寬為3,從上到下,單向滑動。

Piecewise max pooling

這部分也是之前介紹過的一篇論文中的類似做法,根據(jù)實(shí)體的位置將句子分為左中右三部分,對左中右三部分分別max-pooling,最后將所有的結(jié)果拼接,過softmax層,圖中的一個(gè)細(xì)節(jié)就是分段pooling的時(shí)候并沒有丟失兩個(gè)實(shí)體,而是將兩個(gè)實(shí)體劃分在在左中兩段中,這是一個(gè)細(xì)節(jié),圖中也很明顯給畫出來了。

MIL-PCNN

上面的PCNN網(wǎng)絡(luò)結(jié)構(gòu)展示的是多實(shí)例學(xué)習(xí)中一個(gè)bag(包)中的一個(gè)instance(句子)的情況,而多實(shí)例學(xué)習(xí)的輸入到網(wǎng)絡(luò)中的是一個(gè)包,里面包含了很多句子。假設(shè)我們存在 個(gè)bags {},每個(gè)bag包含個(gè)句子 。多實(shí)例學(xué)習(xí)的目的是預(yù)測看不見的袋子的標(biāo)簽。在本文中,bag中的所有實(shí)例都是獨(dú)立考慮的,并且bag中的instance是沒有l(wèi)abel的,只有bag中才有l(wèi)abel,因此只需要關(guān)注bag的label即可。

模型圖中經(jīng)過softmax得到的是bag中的一個(gè)instance的關(guān)系類別概率,而非bag的,因此重新定義了基于bag的損失函數(shù),文中采取的措施是At-Least-One的假設(shè),每個(gè)bag中至少有一個(gè)標(biāo)注正確的instance,這樣就可以找到bag中置信度得分最高的instance,代表當(dāng)前bag的結(jié)果。定義如下的目標(biāo)函數(shù)

adf9db4a-8e8e-11eb-8b86-12bb97331649.png

2016-ACL

論文題目:Neural Relation Extraction with Selective Attention over Instances

論文地址:https://www.aclweb.org/anthology/P16-1200.pdf

這篇文章是在上一篇文章PCNN的基礎(chǔ)之上進(jìn)行的改進(jìn),主要是因?yàn)镻CNN在多實(shí)例學(xué)習(xí)部分采用的是選取bag中置信度最高的instance(句子)作為bag的標(biāo)簽,這樣的做法可能會丟失太多的信息,因?yàn)橐粋€(gè)bag中正負(fù)樣本的數(shù)量是不定的,可能存在多個(gè)正樣本或者多個(gè)負(fù)樣本。這篇文章為了充分利用bag中的所有instance信息,利用注意力機(jī)制充分利用instance信息,減弱噪音的影響。模型的整體結(jié)構(gòu)如下圖。

ae482642-8e8e-11eb-8b86-12bb97331649.png

模型的整體結(jié)構(gòu)也是分為兩大部分

Sentence Encoder:句子編碼部分采用的方式和上文的PCNN一樣,包括輸入部分的詞向量和位置向量,卷積神經(jīng)網(wǎng)絡(luò),以及分段max-pooling,這部分的方式?jīng)]有區(qū)別,這部分的模型結(jié)構(gòu)如下圖所示。

aea13dd6-8e8e-11eb-8b86-12bb97331649.png

Selective Attention over Instances:這部分是文章的重點(diǎn),改進(jìn)的地方主要是在這里,利用注意力機(jī)制對bag中的instance進(jìn)行加權(quán),得到bag的最終向量表示,,其中 是權(quán)重,文中具體的有兩種計(jì)算權(quán)重的方式。

Average: 將bag中所有instance的重要程度都等同看待,即,這會放大instance的噪音影響,文中將其作為對比實(shí)驗(yàn)的一個(gè)baseline。

Selective Attention: 這部分attention的目的是加強(qiáng)正樣本的instance、弱化負(fù)樣本instance的噪音影響。具體的計(jì)算公式見下面,其中 代表的是句子句子和關(guān)系 的相關(guān)程度, 為attention的對角矩陣,這樣就可以得到加權(quán)后的bag向量表示 。

aee67cb6-8e8e-11eb-8b86-12bb97331649.png

af257bbe-8e8e-11eb-8b86-12bb97331649.png

2016-COLING

論文題目:Relation Extraction with Multi-instance Multi-label Convolutional Neural Networks

論文地址:https://www.aclweb.org/anthology/C16-1139.pdf

這篇文章也是在PCNN的基礎(chǔ)之上進(jìn)行的改進(jìn),主要有兩方面,其一也是和上文一樣認(rèn)為PCNN的at-least-once假設(shè)太過強(qiáng)硬,應(yīng)該充分利用bag中的所有instance信息,另外是評估了數(shù)據(jù)集中存在18.3%的重疊關(guān)系數(shù)據(jù),因此之前的單標(biāo)簽是不合理的,所以這篇文章針對這兩部分進(jìn)行了改進(jìn),模型的整體結(jié)構(gòu)如下圖。

af9c1954-8e8e-11eb-8b86-12bb97331649.png

Sentence-level Feature Extraction:這部分和之前的PCNN一樣,Embedding (word + position) -> CNN -> 分段最大池化獲取每一個(gè)instance的句子表示。

Cross-sentence Max-pooling:這篇文章融合bag中所有instance信息的方法和上文不一樣,不是采用的注意力機(jī)制,而是采用了非常簡單直觀或者說粗暴的方式,將bag中每個(gè)instance的句子信息取每一維度的最大值,獲取bag的向量表示,就如圖中中間部分所示。

Multi-label Relation Modeling:之前的方式都是采用softmax多標(biāo)簽分類的方式,而這篇文章為了解決重疊關(guān)系問題,將不在采用softmax,而是對每一個(gè) relation 做 sigmoid ,然后根據(jù)閾值來判定該instance是否應(yīng)該包含這個(gè) relation 。

2017-AAAI

論文題目:Distant Supervision for Relation Extraction with Sentence-Level Attention and Entity Descriptions

論文地址:https://www.aaai.org/ocs/index.php/AAAI/AAAI17/paper/download/14491/14078

這篇文章的關(guān)鍵點(diǎn)主要也是兩部分,其一也是考慮了at-least-once的假設(shè)太多強(qiáng)硬,需要采用注意力機(jī)制考慮bag中更多的instance信息,另外一個(gè)是之前的方法都過多關(guān)注實(shí)體本身,而忽略了實(shí)體背后的文本描述信息,因此,這篇文章的將實(shí)體鏈接到實(shí)體描述文本上面獲取很多的信息表達(dá),文章的主要結(jié)構(gòu)如下。

aff7c7ae-8e8e-11eb-8b86-12bb97331649.png

主要包括三部分

(a) PCNNs Module:這部分還是和之前一樣,完全延續(xù)了 PCNN 的模型結(jié)構(gòu),采用word + position -> CNN -> Piecewise Max-pooling獲取文中的 bag 中的句子信息表達(dá)。

(b) Sentence-level Attention Module:這部分類似之前的Selective Attention,也是計(jì)算 bag 中每個(gè) instance 與 relation 的相關(guān)性,這里關(guān)系的向量采用的是 兩個(gè)實(shí)體信息來表達(dá),然后計(jì)算相關(guān)的權(quán)重(如下),最后通過加權(quán)的方式獲取 bag 的向量表達(dá),然后過線性層和softmax層做多分類,沒有考慮重疊關(guān)系。

b147ce24-8e8e-11eb-8b86-12bb97331649.png

Entity Descriptions:這部分是將實(shí)體的文本描述信息編碼,采用的是簡單的CNN + max-pooling 獲取實(shí)體描述文本的向量表達(dá),文中提出,為了盡可能使實(shí)體的向量表達(dá)與實(shí)體描述文本的向量表達(dá)在語義空間中接近,直接定義了一個(gè)距離公式計(jì)算loss, ,然后和上面判別關(guān)系的loss結(jié)合, ,兩個(gè)損失函數(shù)聯(lián)合訓(xùn)練。

b1abf0fc-8e8e-11eb-8b86-12bb97331649.png

2018-EMNLP

論文題目:Hierarchical Relation Extraction with Coarse-to-Fine Grained Attention

論文地址:https://www.aclweb.org/anthology/D18-1247.pdf

這篇文章主要考慮到之前的關(guān)系抽取方法中,沒有考慮到關(guān)系之間是存在語義依賴關(guān)系的,而且,知識庫的關(guān)系中很多都是帶有層級結(jié)構(gòu)的,另外,之前的方法沒有對關(guān)系的長尾分布問題進(jìn)行仔細(xì)的考量,易導(dǎo)致關(guān)系數(shù)量多的則準(zhǔn)確率更高,關(guān)系數(shù)量極少的準(zhǔn)確率堪憂,針對上面的問題,這篇文章提出了在多實(shí)例學(xué)習(xí)中采用注意力機(jī)制的思想,提出層次化注意力機(jī)制來做具有層級的關(guān)系抽取問題,而且對于長尾分布的關(guān)系抽取也有很明顯的改善。

b21b1c2a-8e8e-11eb-8b86-12bb97331649.png

b2762764-8e8e-11eb-8b86-12bb97331649.png

2018-EMNLP

論文題目:RESIDE: Improving Distantly-Supervised Neural Relation Extraction using Side Information

論文地址:https://www.aclweb.org/anthology/D18-1157.pdf

這篇文章主題思想還是遠(yuǎn)程監(jiān)督的思想,考慮到知識庫中除了實(shí)體關(guān)系之外,還有很多其他的信息可以加以利用,因此在模型中考慮了這部分特征信息,比如關(guān)系的別名信息以及實(shí)體的類別信息。另外,之前看到的很多文章都是采用了CNN的網(wǎng)絡(luò)結(jié)構(gòu),但是本文不同,摒棄了之前的CNN網(wǎng)絡(luò)結(jié)構(gòu),而是采用Bi-GRU以及GCN的文本編碼方式,考慮到采用GCN的編碼方式還是考量了Bi-GRU對文本的長距離信息依賴。文章的模型結(jié)構(gòu)如下。

b289c38c-8e8e-11eb-8b86-12bb97331649.png

總結(jié)

以上是幾篇遠(yuǎn)程監(jiān)督關(guān)系抽取的論文,從09年的開山之作,到前兩年的一些工作,文中的工作雖然沒有覆蓋全部,但是基本的方法已有大概的脈絡(luò)梳理,總體來說,輸入表示部分基本都是詞向量與位置編碼結(jié)合,獲取句子語義部分采用CNN,Piecewise max-pool池化較多,當(dāng)然也有采用GRU/GCN等,另外大多數(shù)工作基本都是多實(shí)例學(xué)習(xí) + 注意力機(jī)制的改進(jìn)與創(chuàng)新,其他的一些涉及到重疊關(guān)系、長尾分布等相關(guān)處理。除了前幾年的一些工作之外,最近也有遠(yuǎn)程監(jiān)督關(guān)系抽取的一些工作。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:【關(guān)系抽取】從頭來看關(guān)系抽取-遠(yuǎn)程監(jiān)督來襲

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識。
    的頭像 發(fā)表于 05-16 14:48 ?689次閱讀
    使用MATLAB進(jìn)行無<b class='flag-5'>監(jiān)督</b>學(xué)習(xí)

    LTspice里壓敏電阻MOV怎么引入?

    LTspice里壓敏電阻MOV怎么引入
    發(fā)表于 04-28 08:26

    遠(yuǎn)程hyper-v,配置遠(yuǎn)程Hyper-V的步驟

    的維護(hù),遠(yuǎn)程Hyper-V都能發(fā)揮關(guān)鍵作用。 ? ?遠(yuǎn)程Hyper-V的應(yīng)用場景 ? ?企業(yè)遠(yuǎn)程辦公:在企業(yè)中,員工可能需要在家或外出時(shí)管理公司的虛擬機(jī)。比如,運(yùn)維人員
    的頭像 發(fā)表于 02-10 10:25 ?440次閱讀
    <b class='flag-5'>遠(yuǎn)程</b>hyper-v,配置<b class='flag-5'>遠(yuǎn)程</b>Hyper-V的步驟

    AMC1200BDUBR在工作時(shí)引入了112MHz和132MHz的EMC噪聲,怎么消除?

    請問前輩,我用的TI芯片:AMC1200BDUBR 在工作時(shí)引入了112MHz和132MHz的EMC 噪聲。請問電路怎么改進(jìn)才能消除這個(gè)噪聲?望前輩能幫忙推薦解決方法 不勝感激!
    發(fā)表于 12-23 07:31

    如何遠(yuǎn)程登錄路由器

    當(dāng)路由器放置在機(jī)房、弱電箱等不方便直接操作的位置,或當(dāng)網(wǎng)絡(luò)出現(xiàn)故障或者需要遠(yuǎn)程協(xié)助時(shí)遠(yuǎn)程登錄路由器可以極大的解決問,本期重點(diǎn)說明遠(yuǎn)程登錄路由器的方法,供各位參考使用: 首先 ,需要確保
    的頭像 發(fā)表于 12-18 12:01 ?803次閱讀
    如何<b class='flag-5'>遠(yuǎn)程</b>登錄路由器

    曙光公司成都云中心助力提升監(jiān)督質(zhì)效

    數(shù)字化時(shí)代,用好大數(shù)據(jù),推動數(shù)字技術(shù)深度融入紀(jì)檢監(jiān)察各項(xiàng)業(yè)務(wù),是大勢所趨。當(dāng)前,各地正在探索推進(jìn)大數(shù)據(jù)監(jiān)督,借助海量數(shù)據(jù)、算力、算法,不斷延伸監(jiān)督的觸角,拓展發(fā)現(xiàn)問題的渠道。以“算力”補(bǔ)“人力”,“人去看”加“云端算”,大數(shù)據(jù)在類案分析、預(yù)警糾治、溯源治理等方面,正發(fā)揮越
    的頭像 發(fā)表于 11-05 10:05 ?528次閱讀

    一種利用wireshark對遠(yuǎn)程服務(wù)器/路由器網(wǎng)絡(luò)抓包方法

    一種利用wireshark對遠(yuǎn)程服務(wù)器/路由器網(wǎng)絡(luò)抓包方法
    的頭像 發(fā)表于 09-21 08:03 ?4929次閱讀
    一種利用wireshark對<b class='flag-5'>遠(yuǎn)程</b>服務(wù)器/路由器網(wǎng)絡(luò)抓包<b class='flag-5'>方法</b>

    反饋的判斷方法有哪些

    一、有無反饋的判斷 判斷電路中是否存在反饋,需要檢查放大電路的輸出回路與輸入回路之間是否存在相互聯(lián)系的反饋通路。如果存在這樣的通路,那么就可以確定電路中引入了反饋。這種判斷方法簡單直觀,適用于
    的頭像 發(fā)表于 09-20 17:41 ?3067次閱讀
    反饋的判斷<b class='flag-5'>方法</b>有哪些

    遠(yuǎn)程操作電腦的方法有哪些?

    隨著遠(yuǎn)程辦公、遠(yuǎn)程技術(shù)支持和跨地域協(xié)作的需求不斷增加,遠(yuǎn)程操作電腦的方法也越來越多樣化。無論是個(gè)人用戶還是企業(yè),選擇合適的遠(yuǎn)程控制
    的頭像 發(fā)表于 09-12 08:11 ?1372次閱讀
    <b class='flag-5'>遠(yuǎn)程</b>操作電腦的<b class='flag-5'>方法</b>有哪些?

    VCA820821設(shè)置-20dB到20dB的可控,怎么設(shè)計(jì)電路和控制方法?

    VCA820821設(shè)置-20dB到20dB的可控,怎么設(shè)計(jì)電路和控制方法?看了資料還是不懂,求救!
    發(fā)表于 09-05 07:12

    變頻器遠(yuǎn)程啟動不了是怎么回事

    變頻器遠(yuǎn)程啟動不了可能由多種原因造成,以下是一些常見的原因及相應(yīng)的解決方法: 一、通信故障 原因 :遠(yuǎn)程控制需要通過網(wǎng)絡(luò)通信實(shí)現(xiàn),如果通信線路出現(xiàn)問題,如線路斷裂、接觸不良或網(wǎng)絡(luò)設(shè)置錯(cuò)誤等,都可
    的頭像 發(fā)表于 08-25 10:44 ?4241次閱讀

    AMC1200BDUBR在工作時(shí)引入了112MHz和132MHz的EMC噪聲,請問電路怎么改進(jìn)才能消除這個(gè)噪聲?

    請問前輩,我用的TI芯片:AMC1200BDUBR 在工作時(shí)引入了112MHz和132MHz的EMC 噪聲。請問電路怎么改進(jìn)才能消除這個(gè)噪聲?望前輩能幫忙推薦解決方法 不勝感激!
    發(fā)表于 08-22 06:26

    提高帶負(fù)載能力引入什么反饋

    在電力系統(tǒng)和電子電路中,提高帶負(fù)載能力是一個(gè)重要的問題。引入反饋控制是提高帶負(fù)載能力的一種有效方法。 一、反饋控制原理 反饋控制定義 反饋控制是一種自動控制系統(tǒng),通過測量系統(tǒng)的輸出并將其與期望的輸入
    的頭像 發(fā)表于 08-09 14:37 ?1590次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    講解,包括偏置、權(quán)重、激活函數(shù);三要素包括網(wǎng)絡(luò)結(jié)構(gòu)、損失函數(shù)和優(yōu)化方法。章節(jié)最后總結(jié)了神經(jīng)網(wǎng)絡(luò)參數(shù)學(xué)習(xí)的關(guān)鍵步驟。 1.4章節(jié)描述了自然語言處理的相關(guān)知識點(diǎn),包括什么是自然語言處理、文本的向量化和自監(jiān)督學(xué)習(xí)方法
    發(fā)表于 07-25 14:33

    #安寶特方案 解放雙手,解決死角,AR帶來質(zhì)量監(jiān)督新體驗(yàn)

    安寶特AR遠(yuǎn)程協(xié)助方案通過AR眼鏡實(shí)現(xiàn)工廠質(zhì)量監(jiān)督革新,解放雙手提高效率,解決攝像頭死角和查崗不及時(shí)問題,支持實(shí)時(shí)遠(yuǎn)程協(xié)助,輕便易用,兼容性強(qiáng),助力工業(yè)數(shù)字化轉(zhuǎn)型。
    的頭像 發(fā)表于 07-23 10:44 ?723次閱讀
    #安寶特方案  解放雙手,解決死角,AR帶來質(zhì)量<b class='flag-5'>監(jiān)督</b>新體驗(yàn)