99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通俗介紹如何使用python

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:DataWhale ? 作者:佚名 ? 2021-03-12 10:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀:據(jù)《福布斯》報(bào)道,每天大約會(huì)有 250 萬(wàn)字節(jié)的數(shù)據(jù)被產(chǎn)生。然后,可以使用數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)技術(shù)對(duì)這些數(shù)據(jù)進(jìn)行分析,以便提供分析和作出預(yù)測(cè)。盡管在大多數(shù)情況下,在開(kāi)始任何統(tǒng)計(jì)分析之前,需要先對(duì)最初收集的數(shù)據(jù)進(jìn)行預(yù)處理。有許多不同的原因?qū)е滦枰M(jìn)行預(yù)處理分析,例如:

收集的數(shù)據(jù)格式不對(duì)(如 SQL 數(shù)據(jù)庫(kù)、JSON、CSV 等)

缺失值和異常值

標(biāo)準(zhǔn)化

減少數(shù)據(jù)集中存在的固有噪聲(部分存儲(chǔ)數(shù)據(jù)可能已損壞)

數(shù)據(jù)集中的某些功能可能無(wú)法收集任何信息以供分析

在本文中,我將通俗介紹如何使用 python 減少 kaggle Mushroom Classification 數(shù)據(jù)集中的特性數(shù)量。減少統(tǒng)計(jì)分析期間要使用的特征的數(shù)量可能會(huì)帶來(lái)一些好處,例如:

高精度

降低過(guò)擬合風(fēng)險(xiǎn)

加快訓(xùn)練速度

改進(jìn)數(shù)據(jù)可視化

增加我們模型的可解釋性

事實(shí)上,統(tǒng)計(jì)上證明,當(dāng)執(zhí)行機(jī)器學(xué)習(xí)任務(wù)時(shí),存在針對(duì)每個(gè)特定任務(wù)應(yīng)該使用的最佳數(shù)量的特征(圖 1)。如果添加的特征比必要的特征多,那么我們的模型性能將下降(因?yàn)樘砑恿嗽肼暎?。真正的挑?zhàn)是找出哪些特征是最佳的使用特征(這實(shí)際上取決于我們提供的數(shù)據(jù)量和我們正在努力實(shí)現(xiàn)的任務(wù)的復(fù)雜性)。這就是特征選擇技術(shù)能夠幫到我們的地方!

圖 1:分類(lèi)器性能和維度之間的關(guān)系01

特征選擇

有許多不同的方法可用于特征選擇。其中最重要的是:1.過(guò)濾方法=過(guò)濾我們的數(shù)據(jù)集,只取包含所有相關(guān)特征的子集(例如,使用 Pearson 相關(guān)的相關(guān)矩陣)。2.遵循過(guò)濾方法的相同目標(biāo),但使用機(jī)器學(xué)習(xí)模型作為其評(píng)估標(biāo)準(zhǔn)(例如,向前/向后/雙向/遞歸特征消除)。我們將一些特征輸入機(jī)器學(xué)習(xí)模型,評(píng)估它們的性能,然后決定是否添加或刪除特征以提高精度。因此,這種方法可以比濾波更精確,但計(jì)算成本更高。3.嵌入方法。與過(guò)濾方法一樣,嵌入方法也使用機(jī)器學(xué)習(xí)模型。這兩種方法的區(qū)別在于,嵌入的方法檢查 ML 模型的不同訓(xùn)練迭代,然后根據(jù)每個(gè)特征對(duì) ML 模型訓(xùn)練的貢獻(xiàn)程度對(duì)每個(gè)特征的重要性進(jìn)行排序。

圖 2:過(guò)濾器、包裝器和嵌入式方法表示 [3]02實(shí)踐在本文中,我將使用 Mushroom Classification 數(shù)據(jù)集,通過(guò)查看給定的特征來(lái)嘗試預(yù)測(cè)蘑菇是否有毒。在這樣做的同時(shí),我們將嘗試不同的特征消除技術(shù),看看它們會(huì)如何影響訓(xùn)練時(shí)間和模型整體的精度。數(shù)據(jù)下載:https://github.com/ffzs/dataset/blob/master/mushrooms.csv首先,我們需要導(dǎo)入所有必需的庫(kù)。

我們將在本例中使用的數(shù)據(jù)集如下圖所示。

圖 3:Mushroom Classification 數(shù)據(jù)集在將這些數(shù)據(jù)輸入機(jī)器學(xué)習(xí)模型之前,我決定對(duì)所有分類(lèi)變量進(jìn)行 one hot 編碼,將數(shù)據(jù)分為特征(x)和標(biāo)簽(y),最后在訓(xùn)練集和測(cè)試集中進(jìn)行。

X = df.drop([‘class’], axis = 1)Y = df[‘class’]X = pd.get_dummies(X, prefix_sep=‘_’)Y = LabelEncoder().fit_transform(Y)

X2 = StandardScaler().fit_transform(X)

X_Train, X_Test, Y_Train, Y_Test = train_test_split(X2, Y, test_size = 0.30, random_state = 101)

03特征重要性基于集合的決策樹(shù)模型(如隨機(jī)森林)可以用來(lái)對(duì)不同特征的重要性進(jìn)行排序。了解我們的模型最重要的特征對(duì)于理解我們的模型如何做出預(yù)測(cè)(使其更易于解釋?zhuān)┦侵陵P(guān)重要的。同時(shí),我們可以去掉那些對(duì)我們的模型沒(méi)有任何好處的特征。

start = time.process_time()trainedforest = RandomForestClassifier(n_estimators=700).fit(X_Train,Y_Train)print(time.process_time() - start)predictionforest = trainedforest.predict(X_Test)print(confusion_matrix(Y_Test,predictionforest))print(classification_report(Y_Test,predictionforest))

如下圖所示,使用所有特征訓(xùn)練一個(gè)隨機(jī)森林分類(lèi)器,在大約 2.2 秒的訓(xùn)練時(shí)間內(nèi)獲得 100% 的準(zhǔn)確率。在下面的每個(gè)示例中,每個(gè)模型的訓(xùn)練時(shí)間都將打印在每個(gè)片段的第一行,供你參考。

一旦我們的隨機(jī)森林分類(lèi)器得到訓(xùn)練,我們就可以創(chuàng)建一個(gè)特征重要性圖,看看哪些特征對(duì)我們的模型預(yù)測(cè)來(lái)說(shuō)是最重要的(圖 4)。在本例中,下面只顯示了前 7 個(gè)特性。

figure(num=None, figsize=(20, 22), dpi=80, facecolor=‘w’, edgecolor=‘k’)

feat_importances = pd.Series(trainedforest.feature_importances_, index= X.columns)feat_importances.nlargest(7).plot(kind=‘barh’)

圖 4:特征重要性圖現(xiàn)在我們知道了哪些特征被我們的隨機(jī)森林認(rèn)為是最重要的,我們可以嘗試使用前 3 個(gè)來(lái)訓(xùn)練我們的模型。

X_Reduced = X[[‘odor_n’,‘odor_f’, ‘gill-size_n’,‘gill-size_b’]]X_Reduced = StandardScaler().fit_transform(X_Reduced)X_Train2, X_Test2, Y_Train2, Y_Test2 = train_test_split(X_Reduced, Y, test_size = 0.30, random_state = 101)

start = time.process_time()trainedforest = RandomForestClassifier(n_estimators=700).fit(X_Train2,Y_Train2)print(time.process_time() - start)predictionforest = trainedforest.predict(X_Test2)print(confusion_matrix(Y_Test2,predictionforest))print(classification_report(Y_Test2,predictionforest))

正如我們?cè)谙旅婵吹降模瑑H僅使用 3 個(gè)特征,只會(huì)導(dǎo)致準(zhǔn)確率下降 0.03%,訓(xùn)練時(shí)間減少一半。

我們還可以通過(guò)可視化一個(gè)訓(xùn)練過(guò)的決策樹(shù)來(lái)理解如何進(jìn)行特征選擇。

start = time.process_time()trainedtree = tree.DecisionTreeClassifier().fit(X_Train, Y_Train)print(time.process_time() - start)predictionstree = trainedtree.predict(X_Test)print(confusion_matrix(Y_Test,predictionstree))print(classification_report(Y_Test,predictionstree))

樹(shù)結(jié)構(gòu)頂部的特征是我們的模型為了執(zhí)行分類(lèi)而保留的最重要的特征。因此,只選擇頂部的前幾個(gè)特征,而放棄其他特征,可能創(chuàng)建一個(gè)準(zhǔn)確度非常可觀的模型。

import graphvizfrom sklearn.tree import DecisionTreeClassifier, export_graphviz

data = export_graphviz(trainedtree,out_file=None,feature_names= X.columns, class_names=[‘edible’, ‘poisonous’], filled=True, rounded=True, max_depth=2, special_characters=True)graph = graphviz.Source(data)graph

圖 5:決策樹(shù)可視化04遞歸特征消除(RFE)遞歸特征消除(RFE)將機(jī)器學(xué)習(xí)模型的實(shí)例和要使用的最終期望特征數(shù)作為輸入。然后,它遞歸地減少要使用的特征的數(shù)量,采用的方法是使用機(jī)器學(xué)習(xí)模型精度作為度量對(duì)它們進(jìn)行排序。創(chuàng)建一個(gè) for 循環(huán),其中輸入特征的數(shù)量是我們的變量,這樣就可以通過(guò)跟蹤在每個(gè)循環(huán)迭代中注冊(cè)的精度,找出我們的模型所需的最佳特征數(shù)量。使用 RFE 支持方法,我們可以找出被評(píng)估為最重要的特征的名稱(chēng)(rfe.support 返回一個(gè)布爾列表,其中 true 表示一個(gè)特征被視為重要,false 表示一個(gè)特征不重要)。

from sklearn.feature_selection import RFE

model = RandomForestClassifier(n_estimators=700)rfe = RFE(model, 4)start = time.process_time()RFE_X_Train = rfe.fit_transform(X_Train,Y_Train)RFE_X_Test = rfe.transform(X_Test)rfe = rfe.fit(RFE_X_Train,Y_Train)print(time.process_time() - start)print(“Overall Accuracy using RFE: ”, rfe.score(RFE_X_Test,Y_Test))

05

SelecFromModel

selectfrommodel 是另一種 scikit 學(xué)習(xí)方法,可用于特征選擇。此方法可用于具有 coef 或 feature 重要性屬性的所有不同類(lèi)型的 scikit 學(xué)習(xí)模型(擬合后)。與 rfe 相比,selectfrommodel 是一個(gè)不太可靠的解決方案。實(shí)際上,selectfrommodel 只是根據(jù)計(jì)算出的閾值(不涉及優(yōu)化迭代過(guò)程)刪除不太重要的特性。為了測(cè)試 selectfrommodel 的有效性,我決定在這個(gè)例子中使用一個(gè) ExtraTreesClassifier。ExtratreesClassifier(極端隨機(jī)樹(shù))是基于樹(shù)的集成分類(lèi)器,與隨機(jī)森林方法相比,它可以產(chǎn)生更少的方差(因此減少了過(guò)擬合的風(fēng)險(xiǎn))。隨機(jī)森林和極隨機(jī)樹(shù)的主要區(qū)別在于極隨機(jī)樹(shù)中節(jié)點(diǎn)的采樣不需要替換。

from sklearn.ensemble import ExtraTreesClassifierfrom sklearn.feature_selection import SelectFromModel

model = ExtraTreesClassifier()start = time.process_time()model = model.fit(X_Train,Y_Train)model = SelectFromModel(model, prefit=True)print(time.process_time() - start)Selected_X = model.transform(X_Train)

start = time.process_time()trainedforest = RandomForestClassifier(n_estimators=700).fit(Selected_X, Y_Train)print(time.process_time() - start)Selected_X_Test = model.transform(X_Test)predictionforest = trainedforest.predict(Selected_X_Test)print(confusion_matrix(Y_Test,predictionforest))print(classification_report(Y_Test,predictionforest))

06相關(guān)矩陣分析為了減少數(shù)據(jù)集中的特征數(shù)量,另一種可能的方法是檢查特征與標(biāo)簽的相關(guān)性。使用皮爾遜相關(guān),我們的返回系數(shù)值將在-1 和 1 之間變化:

如果兩個(gè)特征之間的相關(guān)性為 0,則意味著更改這兩個(gè)特征中的任何一個(gè)都不會(huì)影響另一個(gè)。

如果兩個(gè)特征之間的相關(guān)性大于 0,這意味著增加一個(gè)特征中的值也會(huì)增加另一個(gè)特征中的值(相關(guān)系數(shù)越接近 1,兩個(gè)不同特征之間的這種聯(lián)系就越強(qiáng))。

如果兩個(gè)特征之間的相關(guān)性小于 0,這意味著增加一個(gè)特征中的值將使減少另一個(gè)特征中的值(相關(guān)性系數(shù)越接近-1,兩個(gè)不同特征之間的這種關(guān)系將越強(qiáng))。

在這種情況下,我們將只考慮與輸出變量至少 0.5 相關(guān)的特性。

Numeric_df = pd.DataFrame(X)Numeric_df[‘Y’] = Ycorr= Numeric_df.corr()corr_y = abs(corr[“Y”])highest_corr = corr_y[corr_y 》0.5]highest_corr.sort_values(ascending=True)

我們現(xiàn)在可以通過(guò)創(chuàng)建一個(gè)相關(guān)矩陣來(lái)更仔細(xì)地研究不同相關(guān)特征之間的關(guān)系。

figure(num=None, figsize=(12, 10), dpi=80, facecolor=‘w’, edgecolor=‘k’)

corr2 = Numeric_df[[‘bruises_f’ , ‘bruises_t’ , ‘gill-color_b’ , ‘gill-size_b’ , ‘gill-size_n’ , ‘ring-type_p’ , ‘stalk-surface-below-ring_k’ , ‘stalk-surface-above-ring_k’ , ‘odor_f’, ‘odor_n’]].corr()

sns.heatmap(corr2, annot=True, fmt=“.2g”)

圖 6:最高相關(guān)特征的相關(guān)矩陣在這項(xiàng)分析中,另一個(gè)可能要控制的方面是檢查所選變量是否彼此高度相關(guān)。如果是的話,我們就只需要保留其中一個(gè)相關(guān)的,去掉其他的。最后,我們現(xiàn)在可以只選擇與 y 相關(guān)度最高的特征,訓(xùn)練/測(cè)試一個(gè)支持向量機(jī)模型來(lái)評(píng)估該方法的結(jié)果。

b07f3d58-82c5-11eb-8b86-12bb97331649.png

07

單變量選擇

單變量特征選擇是一種統(tǒng)計(jì)方法,用于選擇與我們對(duì)應(yīng)標(biāo)簽關(guān)系最密切的特征。使用 selectkbest 方法,我們可以決定使用哪些指標(biāo)來(lái)評(píng)估我們的特征,以及我們希望保留的 k 個(gè)最佳特征的數(shù)量。根據(jù)我們的需要,提供不同類(lèi)型的評(píng)分函數(shù):? Classification = chi2, f_classif, mutual_info_classif? Regression = f_regression, mutual_info_regression在本例中,我們將使用 chi2(圖 7)。

圖 7:卡方公式 [4]卡方(chi-squared,chi2)可以將非負(fù)值作為輸入,因此,首先,我們?cè)?0 到 1 之間的范圍內(nèi)縮放輸入數(shù)據(jù)。

from sklearn.feature_selection import SelectKBestfrom sklearn.feature_selection import chi2

min_max_scaler = preprocessing.MinMaxScaler()Scaled_X = min_max_scaler.fit_transform(X2)

X_new = SelectKBest(chi2, k=2).fit_transform(Scaled_X, Y)X_Train3, X_Test3, Y_Train3, Y_Test3 = train_test_split(X_new, Y, test_size = 0.30, random_state = 101)start = time.process_time()trainedforest = RandomForestClassifier(n_estimators=700).fit(X_Train3,Y_Train3)print(time.process_time() - start)predictionforest = trainedforest.predict(X_Test3)print(confusion_matrix(Y_Test3,predictionforest))print(classification_report(Y_Test3,predictionforest))

b0eada7c-82c5-11eb-8b86-12bb97331649.png

08套索回歸當(dāng)將正則化應(yīng)用于機(jī)器學(xué)習(xí)模型時(shí),我們?cè)谀P蛥?shù)上加上一個(gè)懲罰,以避免我們的模型試圖太接近我們的輸入數(shù)據(jù)。通過(guò)這種方式,我們可以使我們的模型不那么復(fù)雜,并且我們可以避免過(guò)度擬合(使我們的模型不僅學(xué)習(xí)關(guān)鍵的數(shù)據(jù)特征,而且學(xué)習(xí)它的內(nèi)在噪聲)。其中一種可能的正則化方法是套索回歸。當(dāng)使用套索回歸時(shí),如果輸入特征的系數(shù)對(duì)我們的機(jī)器學(xué)習(xí)模型訓(xùn)練沒(méi)有積極的貢獻(xiàn),則它們會(huì)縮小。這樣,一些特征可能會(huì)被自動(dòng)丟棄,即將它們的系數(shù)指定為零。

from sklearn.linear_model import LassoCV

regr = LassoCV(cv=5, random_state=101)regr.fit(X_Train,Y_Train)print(“LassoCV Best Alpha Scored: ”, regr.alpha_)print(“LassoCV Model Accuracy: ”, regr.score(X_Test, Y_Test))model_coef = pd.Series(regr.coef_, index = list(X.columns[:-1]))print(“Variables Eliminated: ”, str(sum(model_coef == 0)))print(“Variables Kept: ”, str(sum(model_coef != 0)))

b11c1c18-82c5-11eb-8b86-12bb97331649.png

一旦訓(xùn)練了我們的模型,我們就可以再次創(chuàng)建一個(gè)特征重要性圖來(lái)了解哪些特征被我們的模型認(rèn)為是最重要的(圖 8)。這是非常有用的,尤其是在試圖理解我們的模型是如何決定做出預(yù)測(cè)的時(shí)候,因此使我們的模型更易于解釋。

figure(num=None, figsize=(12, 10), dpi=80, facecolor=‘w’, edgecolor=‘k’)

top_coef = model_coef.sort_values()top_coef[top_coef != 0].plot(kind = “barh”)plt.title(“Most Important Features Identified using Lasso (!0)”)

圖 8:套索特征重要性圖來(lái)源:https://towardsdatascience.com/feature-selection-techniques-1bfab5fe0784
編輯:lyn

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 特性
    +關(guān)注

    關(guān)注

    0

    文章

    41

    瀏覽量

    15561
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4827

    瀏覽量

    86795
  • 數(shù)據(jù)可視化

    關(guān)注

    0

    文章

    476

    瀏覽量

    10804

原文標(biāo)題:【特征選擇】特征選擇的通俗講解!

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    跟老齊學(xué)Python:從入門(mén)到精通

    礎(chǔ)的學(xué)習(xí)者介紹一門(mén)時(shí)下比較流行、并且用途比較廣泛的編程語(yǔ)言,所以,本書(shū)讀起來(lái)不晦澀,并且在其中穿插了很多貌似與Python 編程無(wú)關(guān),但與學(xué)習(xí)者未來(lái)程序員職業(yè)生涯有關(guān)的內(nèi)容。 獲取完整文檔資料可下載附件哦?。。?! 如果內(nèi)容有幫助可以關(guān)注、點(diǎn)贊、評(píng)論支持一下哦~
    發(fā)表于 06-03 16:10

    python入門(mén)圣經(jīng)-高清電子書(shū)(建議下載)

    此資料內(nèi)容是一本針對(duì)所有層次的Python 讀者而作的Python 入門(mén)電子書(shū)。 全書(shū)分兩部分:第一部分介紹Python 編程所必須了解的基本概念,包括matplotlib、NumP
    發(fā)表于 04-10 16:53

    零基礎(chǔ)入門(mén):如何在樹(shù)莓派上編寫(xiě)和運(yùn)行Python程序?

    在這篇文章中,我將為你簡(jiǎn)要介紹Python程序是什么、Python程序可以用來(lái)做什么,以及如何在RaspberryPi上編寫(xiě)和運(yùn)行一個(gè)簡(jiǎn)單的Python程序。什么是
    的頭像 發(fā)表于 03-25 09:27 ?762次閱讀
    零基礎(chǔ)入門(mén):如何在樹(shù)莓派上編寫(xiě)和運(yùn)行<b class='flag-5'>Python</b>程序?

    如何將python文件導(dǎo)入到ROS系統(tǒng)中

    本文通過(guò)使用myCobot機(jī)械臂進(jìn)行QR碼視覺(jué)追蹤的實(shí)踐案例分析,介紹如何將 python 文件導(dǎo)入到 ROS 系統(tǒng)中。
    的頭像 發(fā)表于 02-11 11:08 ?808次閱讀
    如何將<b class='flag-5'>python</b>文件導(dǎo)入到ROS系統(tǒng)中

    Python繪圖Matplotlib快速參考手冊(cè)

    ?PYTHON
    發(fā)表于 02-07 14:04 ?0次下載

    Python Connector for InterBase連接解決方案

    適用于 InterBase 的 Python 連接器 Python Connector for InterBase 是一種可靠的連接解決方案,用于從 Python 應(yīng)用程序訪問(wèn) InterBase
    的頭像 發(fā)表于 01-22 14:34 ?458次閱讀

    使用Python實(shí)現(xiàn)xgboost教程

    使用Python實(shí)現(xiàn)XGBoost模型通常涉及以下幾個(gè)步驟:數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、模型評(píng)估和模型預(yù)測(cè)。以下是一個(gè)詳細(xì)的教程,指導(dǎo)你如何在Python中使用XGBoost。 1. 安裝XGBoost
    的頭像 發(fā)表于 01-19 11:21 ?1383次閱讀

    使用Python進(jìn)行串口通信的案例

    當(dāng)然!以下是一個(gè)使用Python進(jìn)行串口通信的簡(jiǎn)單示例。這個(gè)示例展示了如何配置串口、發(fā)送數(shù)據(jù)以及接收數(shù)據(jù)。我們將使用 pyserial 庫(kù),這是一個(gè)非常流行的用于串口通信的Python庫(kù)。 首先,你
    的頭像 發(fā)表于 11-22 09:11 ?1474次閱讀

    使用Python進(jìn)行圖像處理

    下面是一個(gè)關(guān)于使用Python在幾行代碼中分析城市輪廓線的快速教程。
    的頭像 發(fā)表于 11-07 10:14 ?591次閱讀
    使用<b class='flag-5'>Python</b>進(jìn)行圖像處理

    利用Python腳本登錄到交換機(jī)并創(chuàng)建VLAN

    本文將詳細(xì)介紹如何利用Python腳本登錄到交換機(jī)并創(chuàng)建VLAN。
    的頭像 發(fā)表于 08-12 17:59 ?978次閱讀

    使用Python進(jìn)行Ping測(cè)試

    )請(qǐng)求包,然后等待目標(biāo)主機(jī)返回響應(yīng)包,從而測(cè)量網(wǎng)絡(luò)的延遲和丟包情況。隨著Python編程語(yǔ)言的廣泛應(yīng)用,越來(lái)越多的網(wǎng)絡(luò)工程師開(kāi)始使用Python進(jìn)行自動(dòng)化網(wǎng)絡(luò)測(cè)試和管理任務(wù)。本篇文章將詳細(xì)介紹如何使用
    的頭像 發(fā)表于 08-12 17:56 ?1015次閱讀
    使用<b class='flag-5'>Python</b>進(jìn)行Ping測(cè)試

    使用Python批量連接華為網(wǎng)絡(luò)設(shè)備

    隨著網(wǎng)絡(luò)規(guī)模的擴(kuò)大和設(shè)備數(shù)量的增加,手動(dòng)配置和管理每臺(tái)網(wǎng)絡(luò)設(shè)備變得越來(lái)越不現(xiàn)實(shí)。因此,自動(dòng)化工具和腳本變得尤為重要。Python語(yǔ)言以其簡(jiǎn)潔性和強(qiáng)大的第三方庫(kù)支持,成為了網(wǎng)絡(luò)自動(dòng)化領(lǐng)域的首選。本篇文章將詳細(xì)介紹如何使用Python
    的頭像 發(fā)表于 08-12 17:48 ?917次閱讀

    pytorch和python的關(guān)系是什么

    ,PyTorch已經(jīng)成為了一個(gè)非常受歡迎的框架。本文將介紹PyTorch和Python之間的關(guān)系,以及它們?cè)谏疃葘W(xué)習(xí)領(lǐng)域的應(yīng)用。 Python簡(jiǎn)介 Python是一種高級(jí)、解釋型、通用
    的頭像 發(fā)表于 08-01 15:27 ?3285次閱讀

    Python建模算法與應(yīng)用

    上成為理想的腳本語(yǔ)言,特別適用于快速的應(yīng)用程序開(kāi)發(fā)。本文將詳細(xì)介紹Python在建模算法中的應(yīng)用,包括常見(jiàn)的建模算法、Python在建模中的優(yōu)勢(shì)、常用庫(kù)以及實(shí)際案例。
    的頭像 發(fā)表于 07-24 10:41 ?1274次閱讀

    python寫(xiě)驗(yàn)證環(huán)境cocotb

    本文介紹了cocotb的安裝、python tb文件的寫(xiě)法、用xrun仿真cocotb的腳本等,我們來(lái)看看體驗(yàn)如何。
    的頭像 發(fā)表于 07-24 09:38 ?1062次閱讀
    用<b class='flag-5'>python</b>寫(xiě)驗(yàn)證環(huán)境cocotb