99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機器學(xué)習(xí)算法基礎(chǔ)與流程

倩倩 ? 來源:人人都是產(chǎn)品經(jīng)理 ? 2020-04-15 17:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、什么是機器學(xué)習(xí)

1. 含義

機器學(xué)習(xí)machine learning,是人工智能的分支,專門研究計算機怎樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,其通過各種算法訓(xùn)練模型,并用這些模型對新問題進行識別與預(yù)測。

本質(zhì)上機器學(xué)習(xí)是一種從數(shù)據(jù)或以往的經(jīng)驗中提取模式,并以此優(yōu)化計算機程序的性能標準。

2. 解決什么問題

解決復(fù)雜規(guī)則的問題。如果簡單規(guī)則可以實現(xiàn),則沒必要借助機器學(xué)習(xí)算法實現(xiàn)。

2009年ACM世界冠軍戴文淵加入百度的時候,百度所有的搜索、廣告都是基于1萬條的專家規(guī)則。借助于機器算法,戴文淵把百度廣告的規(guī)則從1萬條提升到了1000億條。與此相對應(yīng)的,百度的收入在四年內(nèi)提升了八倍。

3. 三個名詞之間的關(guān)系

人工智能》機器學(xué)習(xí)》深度學(xué)習(xí)

以機器學(xué)習(xí)算法是否應(yīng)用了神經(jīng)網(wǎng)絡(luò)作為區(qū)分標準,應(yīng)用了多隱含層神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)就是深度學(xué)習(xí)。

4. 對AI產(chǎn)品經(jīng)理的要求

熟悉機器學(xué)習(xí)流程(詳見文章第三部分);

了解機器學(xué)習(xí)可以解決的問題分類(詳見文章第四部分);

了解算法的基本原理;

了解工程實踐中算數(shù)據(jù)和計算資源三者間的依賴關(guān)系等。

二、機器學(xué)習(xí)的基礎(chǔ)

1. 機器學(xué)習(xí)的基礎(chǔ)——數(shù)據(jù)

人工智能產(chǎn)品由數(shù)據(jù)、算法、計算能力三部分組成,而數(shù)據(jù),是其中的基礎(chǔ)。

全球頂尖人工智能科學(xué)家李飛飛的成功離不開ImageNet千萬級的數(shù)據(jù)集。

“ImageNet 讓 AI 領(lǐng)域發(fā)生的一個重大變化是,人們突然意識到構(gòu)建數(shù)據(jù)集這個苦活累活是 AI 研究的核心,”李飛飛說: “人們真的明白了,數(shù)據(jù)集跟算法一樣,對研究都至關(guān)重要?!薄叭绻阒豢?5 張貓的照片,那么你只知道這 5 個攝像機角度、照明條件和最多 5 種不同種類的貓。但是,如果你看過 500 張貓的照片,你就能從更多的例子中發(fā)現(xiàn)共同點?!?/p>

數(shù)據(jù)量多大為好?

千級別:基本要求,可以解決簡單手寫體數(shù)字識別問題,例如MNIST;

萬級別:一般要求,可以解決圖片分類問題,例如cifar-100;

千萬級:比較好,例如ImageNet,準確率2%左右,超過了人類5.1%。

2. 數(shù)據(jù)的衡量

人工智能產(chǎn)品對數(shù)據(jù)除了有量的要求,還有質(zhì)的要求,衡量數(shù)據(jù)質(zhì)量的標準包括四個R:關(guān)聯(lián)度relevancy(首要因素)、可信性reliability(關(guān)鍵因素)、范圍range、時效性recency。

數(shù)據(jù)獲取地址:

ICPSR:www.icpsr.umich.edu

美國政府開放數(shù)據(jù):www.data.gov

加州大學(xué)歐文分校:archive.ics.uci.edu/ml

數(shù)據(jù)堂:www.datatang.com

三、機器學(xué)習(xí)的流程

機器學(xué)習(xí)的流程可以劃分為以下幾個主要步驟:目標定義、數(shù)據(jù)收集、數(shù)據(jù)預(yù)處理、模型訓(xùn)練、準確率測試、調(diào)參、模型輸出。

機器學(xué)習(xí)流程拆解

1. 目標定義

確認機器學(xué)習(xí)要解決的問題本質(zhì)以及衡量的標準。

機器學(xué)習(xí)的目標可以被分為:分類、回歸、聚類、異常檢測等。

2. 數(shù)據(jù)采集

原始數(shù)據(jù)作為機器學(xué)習(xí)過程中的輸入來源是從各種渠道中被采集而來的。

3. 數(shù)據(jù)預(yù)處理

普通數(shù)據(jù)挖掘中的預(yù)處理包括數(shù)據(jù)清洗、數(shù)據(jù)集成、數(shù)據(jù)轉(zhuǎn)換、數(shù)據(jù)削減、數(shù)據(jù)離散化。

深度學(xué)習(xí)數(shù)據(jù)預(yù)處理包含數(shù)據(jù)歸一化(包含樣本尺度歸一化、逐樣本的均值相減、標準化)和數(shù)據(jù)白化。需要將數(shù)據(jù)分為三種數(shù)據(jù)集,包括用來訓(xùn)練模型的訓(xùn)練集(training set),開發(fā)過程中用于調(diào)參(parameter tuning)的驗證集(validation set)以及測試時所使用的測試集(test set)。

數(shù)據(jù)標注的質(zhì)量對于算法的成功率至關(guān)重要。

4. 模型訓(xùn)練

模型訓(xùn)練流程:每當(dāng)有數(shù)據(jù)輸入,模型都會輸出預(yù)測結(jié)果,而預(yù)測結(jié)果會用來調(diào)整和更新W和B的集合,接著訓(xùn)練新的數(shù)據(jù),直到訓(xùn)練出可以預(yù)測出接近真實結(jié)果的模型。

5. 準確率測試

用第三步數(shù)據(jù)預(yù)處理中準備好的測試集對模型進行測試。

6. 調(diào)參

參數(shù)可以分為兩類,一類是需要在訓(xùn)練(學(xué)習(xí))之前手動設(shè)置的參數(shù),即超參數(shù)(hypeparameter),另外一類是通常不需要手動設(shè)置、在訓(xùn)練過程中可以被自動調(diào)整的參數(shù)(parameter)。

調(diào)參通常需要依賴經(jīng)驗和靈感來探尋其最優(yōu)值,本質(zhì)上更接近藝術(shù)而非科學(xué),是考察算法工程師能力高低的重點環(huán)節(jié)。

7. 模型輸出

模型最終輸出應(yīng)用于實際應(yīng)用場景的接口或數(shù)據(jù)集。

四、算法分類

機器學(xué)習(xí)囊括了多種算法,通常按照模型訓(xùn)練方式和解決任務(wù)的不同進行分類。

1. 按照模型訓(xùn)練方式不同,可以分為

(1)監(jiān)督學(xué)習(xí)supervised learning

定義:監(jiān)督學(xué)習(xí)指系統(tǒng)通過對帶有標記信息的訓(xùn)練樣本進行學(xué)習(xí),以盡可能準確地預(yù)測未知樣本的標記信息。

常見的監(jiān)督學(xué)習(xí)類算法包括:人工神經(jīng)網(wǎng)絡(luò)artificial neural network、貝葉斯bayesian、決策樹decision tree、線性分類器linear classifier(svm支持向量機)等。

(2)無監(jiān)督學(xué)習(xí)unsupervised learning

定義:無監(jiān)督學(xué)習(xí)指系統(tǒng)對沒有標記信息的訓(xùn)練樣本進行學(xué)習(xí),以發(fā)現(xiàn)數(shù)據(jù)中隱藏的結(jié)構(gòu)性知識。

常見的無監(jiān)督學(xué)習(xí)類算法包括:人工神經(jīng)網(wǎng)絡(luò)artificial neural network、關(guān)聯(lián)規(guī)則學(xué)習(xí)association rule learning、分層聚類hierarchical clustering、聚類分析cluster analysis、異常檢測anomaly detection等。

(3)半監(jiān)督學(xué)習(xí)semi-supervised learning

含義:半監(jiān)督學(xué)習(xí)指系統(tǒng)在學(xué)習(xí)時不僅有帶有標記信息的訓(xùn)練樣本,還有部分標記未知信息的訓(xùn)練樣本。

常見的半監(jiān)督學(xué)習(xí)算法包括:生成模型generative models、低密度分離low-density separation、基于圖形的方法graph-based methods、聯(lián)合訓(xùn)練co-training等。

(4)強化學(xué)習(xí)reinforcement learning

定義:強化學(xué)習(xí)指系統(tǒng)從不標記信息,但是會在具有某種反饋信號(即瞬間獎賞)的樣本中進行學(xué)習(xí),以學(xué)到一種從狀態(tài)到動作的映射來最大化累積獎賞,這里的瞬時獎賞可以看成對系統(tǒng)的某個狀態(tài)下執(zhí)行某個動作的評價。

常見的強化學(xué)習(xí)算法包括:Q學(xué)習(xí)Q-learning、狀態(tài)-行動-獎勵-狀態(tài)-行動state-action-reward-state-action,SARSA、DQN deep Q network、策略梯度算法policy gradients、基于模型強化學(xué)習(xí)model based RL、時序差分學(xué)習(xí)temporal different learning等。

(5)遷移學(xué)習(xí)transfer learning

定義:遷移學(xué)習(xí)指通過從已學(xué)習(xí)的相關(guān)任務(wù)中轉(zhuǎn)移知識來改進學(xué)習(xí)的新任務(wù),雖然大多數(shù)機器學(xué)習(xí)算法都是為了解決單個任務(wù)而設(shè)計的,但是促進遷移學(xué)習(xí)的算法的開發(fā)是機器學(xué)習(xí)社區(qū)持續(xù)關(guān)注的話題。

遷移學(xué)習(xí)對人類來說很常見,例如,我們可能會發(fā)現(xiàn)學(xué)習(xí)識別蘋果可能有助于識別梨,或者學(xué)習(xí)彈奏電子琴可能有助于學(xué)習(xí)鋼琴。

常見的遷移學(xué)習(xí)算法包括:歸納式遷移學(xué)習(xí)inductive transfer learning、直推式遷移學(xué)習(xí)transductive transfer learning、無監(jiān)督式遷移學(xué)習(xí)unsupervised transfer learning、傳遞式遷移學(xué)習(xí)transitive transfer learning等。

(6)深度學(xué)習(xí)deep learning

定義:深度學(xué)習(xí)是指多層的人工神經(jīng)網(wǎng)絡(luò)和訓(xùn)練它的方法。一層神經(jīng)網(wǎng)絡(luò)會把大量矩陣數(shù)字作為輸入,通過非線性激活方法取權(quán)重,再產(chǎn)生另一個數(shù)據(jù)集合作為輸出。

這就像生物神經(jīng)大腦的工作機理一樣,通過合適的矩陣數(shù)量,多層組織鏈接一起,形成神經(jīng)網(wǎng)絡(luò)“大腦”進行精準復(fù)雜的處理,就像人們識別物體標注圖片一樣。

常見的深度學(xué)習(xí)算法包括:深度信念網(wǎng)絡(luò)deep belief machines、深度卷積神經(jīng)網(wǎng)絡(luò)deep convolutional neural networks、深度遞歸神經(jīng)網(wǎng)絡(luò)deep recurrent neural networks、深度波爾茲曼機deep boltzmann machine,DBM、棧式自動編碼器stacked autoencoder、生成對抗網(wǎng)絡(luò)generative adversarial networks等。

遷移學(xué)習(xí)與半監(jiān)督學(xué)習(xí)的區(qū)別:遷移學(xué)習(xí)的初步模型是完整的,半監(jiān)督學(xué)習(xí)的已標注部分無法形成完整的模型。

2. 按照解決任務(wù)的不同分類,可以分為

(1)二分類算法two-class classification,解決非黑即白的問題。

(2)多分類算法muti-class classification,解決不是非黑即白的多種分類問題。

(3)回歸算法regression,回歸問題通常被用來預(yù)測具體的數(shù)值而非分類。除了返回的結(jié)果不同,其他方法與分類問題類似。我們將定量輸出,或者連續(xù)變量預(yù)測稱為回歸;將定性輸出,或者離散變量預(yù)測稱為分類。

(4)聚類算法clustering,聚類的目標是發(fā)現(xiàn)數(shù)據(jù)的潛在規(guī)律和結(jié)構(gòu)。聚類通常被用做描述和衡量不同數(shù)據(jù)源間的相似性,并把數(shù)據(jù)源分類到不同的簇中。

(5)異常檢測anomaly detection,異常檢測是指對數(shù)據(jù)中存在的不正?;蚍堑湫偷姆煮w進行檢測和標志,有時也稱為偏差檢測。異常檢測看起來和監(jiān)督學(xué)習(xí)問題非常相似,都是分類問題。都是對樣本的標簽進行預(yù)測和判斷,但是實際上兩者的區(qū)別非常大,因為異常檢測中的正樣本(異常點)非常小。

3. 對AI產(chǎn)品經(jīng)理的要求

產(chǎn)品經(jīng)理應(yīng)了解和掌握每種常見算法的基本邏輯、最佳使用場景以及每種算法對數(shù)據(jù)的需求。

這樣有助于:

建立必要的知識體系以與研發(fā)人員進行良好的交流;

在團隊需要的時候提供必要的幫助;

識別和評估產(chǎn)品迭代過程中的風(fēng)險、成本、預(yù)期效果等。

五、各類算法的對比

1. 算法與學(xué)習(xí)過程的對比

監(jiān)督學(xué)習(xí)——上課:有求知欲的學(xué)生從老師那里獲取知識、信息,老師提供對錯指示、告知最終答案的學(xué)習(xí)過程;

無監(jiān)督學(xué)習(xí)——自習(xí):沒有老師的情況下,學(xué)生自習(xí)的過程;

強化學(xué)習(xí)下——自測:沒有老師提示的情況下,自己對預(yù)測的結(jié)果進行評估的方法。

2. 算法適用場景的影響因素

業(yè)務(wù)核心問題;

數(shù)據(jù)大小、質(zhì)量;

計算時間要求;

算法精度要求。

3. 算法優(yōu)缺點及適用場景

注意:

(1)目前監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)是目前應(yīng)用范圍最廣且效果最好的機器學(xué)習(xí)方式。

(2)深度學(xué)習(xí)將在后續(xù)的文章中單獨介紹。

(3)半監(jiān)督學(xué)習(xí)依賴以下3個模型假設(shè)才能確保它良好的學(xué)習(xí)性能。

1)平滑假設(shè)(Smoothness Assumption)

位于稠密數(shù)據(jù)區(qū)域的兩個距離很近的樣例的類標簽相似,當(dāng)兩個樣例北稀疏區(qū)域分開時,它們的類標簽趨于不同。

2)聚類假設(shè)(Cluster Assumption)

當(dāng)兩個樣例位于同一聚類簇時,它們在很大的概率在有相同的類標簽。這個假設(shè)的等價定義為低密度分類假設(shè)(Low Density Separation Assumption),即分類決策邊界應(yīng)該穿過稀疏數(shù)據(jù)區(qū)域,而避免將稠密數(shù)據(jù)區(qū)域的樣例劃分到?jīng)Q策邊界兩側(cè)。

3)流形假設(shè)(Manifold Assumption)

將高維數(shù)據(jù)嵌入到低維流形中,當(dāng)兩個樣例位于低維流形中的一個小局部鄰域內(nèi)時,它們具有相似的類標簽。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49028

    瀏覽量

    249539
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134622
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    FPGA在機器學(xué)習(xí)中的具體應(yīng)用

    ,越來越多地被應(yīng)用于機器學(xué)習(xí)任務(wù)中。本文將探討 FPGA 在機器學(xué)習(xí)中的應(yīng)用,特別是在加速神經(jīng)網(wǎng)絡(luò)推理、優(yōu)化算法和提升處理效率方面的優(yōu)勢。
    的頭像 發(fā)表于 07-16 15:34 ?384次閱讀

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應(yīng)用

    視覺巡線,展示了如何從數(shù)據(jù)采集、模型訓(xùn)練到機器人部署的完整流程。 值得注意的是,深度學(xué)習(xí)模型的實時性對機器人計算資源提出了較高要求,優(yōu)化模型(如TensorRT加速)是實際部署的關(guān)鍵。
    發(fā)表于 05-03 19:41

    請問STM32部署機器學(xué)習(xí)算法硬件至少要使用哪個系列的芯片?

    STM32部署機器學(xué)習(xí)算法硬件至少要使用哪個系列的芯片?
    發(fā)表于 03-13 07:34

    機器學(xué)習(xí)模型市場前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計算能力的飛速提升,機器學(xué)習(xí)模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機器學(xué)習(xí)模型市場
    的頭像 發(fā)表于 02-13 09:39 ?363次閱讀

    算法加速的概念、意義、流程和應(yīng)用

    本文介紹算法加速的概念、意義、流程和應(yīng)用 一、什么是算法加速 面向“最耗時”的部分做專用化處理: 在軟件運行時,總有一些特定算法會消耗大量 CPU 資源,比如加密解密、圖像處理或神經(jīng)網(wǎng)
    的頭像 發(fā)表于 01-15 09:34 ?599次閱讀

    華為云 Flexus X 實例部署安裝 Jupyter Notebook,學(xué)習(xí) AI,機器學(xué)習(xí)算法

    前言 由于本人最近在學(xué)習(xí)一些機器算法,AI 算法的知識,需要搭建一個學(xué)習(xí)環(huán)境,所以就在最近購買的華為云 Flexus X 實例上安裝了
    的頭像 發(fā)表于 01-02 13:43 ?536次閱讀
    華為云 Flexus X 實例部署安裝 Jupyter Notebook,<b class='flag-5'>學(xué)習(xí)</b> AI,<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>

    傳統(tǒng)機器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上一篇文章中,我們介紹了機器學(xué)習(xí)的關(guān)鍵概念術(shù)語。在本文中,我們會介紹傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多種算法特征,供各位老師選擇。 01 傳統(tǒng)
    的頭像 發(fā)表于 12-30 09:16 ?1191次閱讀
    傳統(tǒng)<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    如何選擇云原生機器學(xué)習(xí)平臺

    當(dāng)今,云原生機器學(xué)習(xí)平臺因其彈性擴展、高效部署、低成本運營等優(yōu)勢,逐漸成為企業(yè)構(gòu)建和部署機器學(xué)習(xí)應(yīng)用的首選。然而,市場上的云原生機器
    的頭像 發(fā)表于 12-25 11:54 ?457次閱讀

    構(gòu)建云原生機器學(xué)習(xí)平臺流程

    構(gòu)建云原生機器學(xué)習(xí)平臺是一個復(fù)雜而系統(tǒng)的過程,涉及數(shù)據(jù)收集、處理、特征提取、模型訓(xùn)練、評估、部署和監(jiān)控等多個環(huán)節(jié)。
    的頭像 發(fā)表于 12-14 10:34 ?434次閱讀

    什么是機器學(xué)習(xí)?通過機器學(xué)習(xí)方法能解決哪些問題?

    來源:Master編程樹“機器學(xué)習(xí)”最初的研究動機是讓計算機系統(tǒng)具有人的學(xué)習(xí)能力以便實現(xiàn)人工智能。因為沒有學(xué)習(xí)能力的系統(tǒng)很難被認為是具有智能的。目前被廣泛采用的
    的頭像 發(fā)表于 11-16 01:07 ?965次閱讀
    什么是<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>?通過<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問題?

    NPU與機器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機器學(xué)習(xí)算法是實現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對計算資源的需求也在不斷增長。NPU作為一種專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-15 09:19 ?1223次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與其他機器學(xué)習(xí)算法的比較

    隨著人工智能技術(shù)的飛速發(fā)展,機器學(xué)習(xí)算法在各個領(lǐng)域中扮演著越來越重要的角色。長短期記憶網(wǎng)絡(luò)(LSTM)作為一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),因其在處理序列數(shù)據(jù)方面的優(yōu)勢而受到廣泛關(guān)注。 LSTM
    的頭像 發(fā)表于 11-13 10:17 ?2144次閱讀

    人工智能、機器學(xué)習(xí)和深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI有很多技術(shù),但其中一個很大的子集是機器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)。
    發(fā)表于 10-24 17:22 ?2978次閱讀
    人工智能、<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別

    LIBS結(jié)合機器學(xué)習(xí)算法的江西名優(yōu)春茶采收期鑒別

    以廬山云霧茶和狗牯腦茶的明前茶、雨前茶為對象,研究激光誘導(dǎo)擊穿光譜結(jié)合機器學(xué)習(xí)的茶葉鑒別方法。將茶葉茶,水?dāng)?shù)據(jù)融合可有效鑒別春茶采收期,且數(shù)據(jù)融合后表現(xiàn)出更好的穩(wěn)定性和魯棒性,LIBS結(jié)合機器
    的頭像 發(fā)表于 10-22 18:05 ?646次閱讀
    LIBS結(jié)合<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>的江西名優(yōu)春茶采收期鑒別

    【「時間序列與機器學(xué)習(xí)」閱讀體驗】+ 鳥瞰這本書

    清晰,從時間序列分析的基礎(chǔ)理論出發(fā),逐步深入到機器學(xué)習(xí)算法在時間序列預(yù)測中的應(yīng)用,內(nèi)容全面,循序漸進。每一章都經(jīng)過精心設(shè)計,對理論知識進行了詳細的闡述,對實際案例進行了生動的展示,使讀者在理論與實踐
    發(fā)表于 08-12 11:28