99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

人工智能和機器學習的概念介紹

我快閉嘴 ? 來源:賢集網(wǎng) ? 作者:賢集網(wǎng) ? 2020-10-13 10:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能AI)和機器學習(ML)在不同領域的應用改變了傳統(tǒng)的方法,以適應不同的應用。雖然術語AI和ML可以互換使用,但前者的目標是任務的成功,而后者則確保任務的準確性。

從市場營銷、零售到醫(yī)療保健和金融,人工智能(AI)和機器學習(ML)在這些領域的應用正在徹底改變傳統(tǒng)的方法,以適應不同的應用。人工智能使系統(tǒng)能夠感知、理解、行動和學習,以執(zhí)行復雜的任務,例如早期需要人類智能的決策。與常規(guī)編程不同,在常規(guī)編程中,需要為每種情況定義動作,AI與ML算法結合可以處理大數(shù)據(jù)集,訓練如何響應,并從遇到的每一個問題中學習以產生更準確的結果。

這不僅影響了我們使用數(shù)據(jù)的方式,也影響了我們設計和制造用于下一代設備的硬件芯片或集成電路(IC)的方法,從而打開了新的機遇。人工智能的發(fā)展將創(chuàng)新的核心從軟件轉向硬件。例如,為了獲得更好的性能,與傳統(tǒng)的處理和傳輸大數(shù)據(jù)集的要求相比,人工智能需要更多的內存。以家庭中越來越多地使用虛擬助理為例,如果沒有可靠的硬件來實現(xiàn)與內存和邏輯相關的功能,這些功能就無法正常工作。

根據(jù)埃森哲實驗室和埃森哲研究所的年度報告,與擴展現(xiàn)實、分布式賬本和量子計算等技術相比,半導體行業(yè)對未來幾年人工智能在其工作中的潛力高度樂觀。四分之三(77%)的受訪半導體高管表示,他們要么已經在自己的業(yè)務范圍內采用人工智能,要么正在試點這項技術。

AI和ML的概念

雖然術語AI和ML可以互換使用,但前者的目標是任務的成功,而后者則確保任務的準確性。因此,解決一個復雜的問題是通過人工智能訓練來完成的,但是通過從數(shù)據(jù)和已經執(zhí)行的任務中學習來最大限度地提高效率是ML的概念。ML依賴于大數(shù)據(jù)集來找到共同的模式,并基于概率進行預測。

應用人工智能在為金融市場預測和自主車輛控制而設計的系統(tǒng)中更為常見。在所謂的監(jiān)督學習ML算法中,建立輸入數(shù)據(jù)與目標輸出之間的關系模型來進行預測,而無監(jiān)督學習不需要對數(shù)據(jù)進行分類訓練。在復雜的計算機游戲中,需要不斷從環(huán)境中獲取信息的情況下,可以實現(xiàn)強化學習。

類ML神經網(wǎng)絡的分支已經應用于語音識別、社會網(wǎng)絡過濾、計算機視覺、自然語言處理等領域。這些技術獲取和檢查成千上萬用戶的數(shù)據(jù),以實現(xiàn)精確和精確的應用,如人臉識別。這有助于現(xiàn)在被認為不可思議的創(chuàng)新的快速發(fā)展,但隨著硬件的進步,在未來幾十年里,它的位置可能會被更先進的創(chuàng)新所取代。

AI和ML能夠發(fā)展到目前的程度,這不僅是由于算法的進步,而且是由于存儲能力、計算能力、網(wǎng)絡等方面的進步,使得以經濟的成本使先進的設備能夠為大眾所用。傳統(tǒng)上,邏輯在電子系統(tǒng)的設計中通常是硬連線的。但是,鑒于目前制造成本的高企和芯片開發(fā)的復雜性,人工智能驅動的處理器架構正在重新定義傳統(tǒng)的處理器架構,以適應新的需求。

計算主要在中央處理器(CPU)上進行,即計算機的大腦。隨著應用AI和ML算法的計算要求越來越高的應用程序的出現(xiàn),通過圖形處理單元(GPU)、微處理器(MPU)、微控制器MCU)、現(xiàn)場可編程門陣列(FPGA)和數(shù)字信號處理器(DSP)的組合,額外的處理選擇正在出現(xiàn),以滿足最佳特性要求。這些被視為不同類別的選項正逐漸成為異構處理解決方案,如片上系統(tǒng)(soc)和定制設計的專用集成電路(asic)。

與傳統(tǒng)的神經網(wǎng)絡模型不同的是,它不僅需要高帶寬的數(shù)據(jù)存儲,而且還需要存儲大量的數(shù)據(jù)。為了正常工作而增加的易失性內存量會導致功耗水平的過度上升。這就需要不斷發(fā)展的內存接口,以確保任務以高速執(zhí)行。雖然新的處理器架構有助于減少負載,但其他機制,如新的內存接口和內存處理本身也在研究和實現(xiàn)。

英國初創(chuàng)公司Graphcore的IPU是一款新型處理器,具有高片上存儲容量,專門為處理機器智能模型中的復雜數(shù)據(jù)結構而設計。外部內存源比片上內存源返回結果所需的時間要長得多。根據(jù)IHS Markit的一份報告,全球人工智能應用中的存儲設備收入將從2019年的206億美元增加到2025年的604億美元,而處理器部分將從2019年的222億美元增長到2025年的685億美元。

因此,半導體提供了所有人工智能應用所需的處理和存儲能力。提高網(wǎng)絡速度對于同時處理多個服務器和開發(fā)精確的人工智能模型也很重要。高速互連和路由交換機等措施正在進行負載平衡檢查。

人工智能的答案在于應用技術的改進。AI和ML正在被用來提高性能,隨著設計團隊在這一領域的經驗越來越豐富,他們將提高芯片的開發(fā)、制造和調整以進行更新。

在現(xiàn)有的EDA工具中使用基于ML的預測模型,美國Synopsys公司宣稱,在HSPICE中,黃金時段的功率恢復速度提高了5倍,高西格瑪模擬速度提高了100倍。所有這些都需要專注于研發(fā)和精確的端到端解決方案,為半導體公司不同細分市場創(chuàng)造價值的可能全新的市場創(chuàng)造機會。

克服挑戰(zhàn)

主要關注的是數(shù)據(jù)及其使用。這不僅僅需要一個新的處理器架構。對于不同的目的和應用,人工智能的結構和價值可能會因為不同的目的而變得無用。

人工智能使處理數(shù)據(jù)成為可能,而不是單個的位,并且在以矩陣的形式執(zhí)行存儲器操作時工作得最好,從而增加了被處理和存儲的數(shù)據(jù)量,從而提高了軟件的效率。例如,當數(shù)據(jù)以尖峰形式輸入時,尖峰神經網(wǎng)絡可以減少數(shù)據(jù)流。而且,即使有大量的數(shù)據(jù),訓練預測模型所需的有用數(shù)據(jù)量也可以減少。但問題仍然存在。就像在芯片設計中一樣,ML模型的訓練在不同的環(huán)境中獨立地在不同的層次上進行。

人工智能的應用需要一個標準化的方法。為了有效地利用人工智能,需要考慮為人工智能設計的芯片,以及為適應人工智能要求而修改的芯片。如果系統(tǒng)中存在問題,則需要工具和方法來快速解決問題。盡管設計自動化工具的應用越來越多,但設計過程仍然是高度人工的。調整輸入是一個耗時但效率極低的過程。即使是設計實現(xiàn)中的一小步,本身也可能是一個全新的問題。

有許多公司聲稱使用人工智能和機器語言來獲得這一趨勢的優(yōu)勢并增加銷售額和收入,這一現(xiàn)象已經被廣泛濫用。雖然壓縮和解壓縮的成本不是很高,但片上存儲器的成本卻不那么便宜。人工智能芯片也往往非常大。

為了建立這樣的存儲和處理數(shù)據(jù)的系統(tǒng),需要不同團隊的專家協(xié)作。主要芯片制造商、IP供應商和其他電子公司將采用某種形式的人工智能來提高其運營效率。以更低的計算成本提供云計算服務有助于推動進進步。技術進步將迫使半導體公司增強其勞動力的能力并重新進行技能培訓,從而使市場上的下一代設備成為可能。
責任編輯:tzh

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    460

    文章

    52520

    瀏覽量

    440966
  • AI
    AI
    +關注

    關注

    88

    文章

    35164

    瀏覽量

    279970
  • 人工智能
    +關注

    關注

    1806

    文章

    49028

    瀏覽量

    249531
  • 機器學習
    +關注

    關注

    66

    文章

    8503

    瀏覽量

    134622
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)

    人工智能大模型重塑教育與社會發(fā)展的當下,無論是探索未來職業(yè)方向,還是更新技術儲備,掌握大模型知識都已成為新時代的必修課。從職場上輔助工作的智能助手,到課堂用于學術研究的智能工具,大模型正在工作生活
    發(fā)表于 07-04 11:10

    人工智能機器學習以及Edge AI的概念與應用

    人工智能相關各種技術的概念介紹,以及先進的Edge AI(邊緣人工智能)的最新發(fā)展與相關應用。 人工智能
    的頭像 發(fā)表于 01-25 17:37 ?934次閱讀
    <b class='flag-5'>人工智能</b>和<b class='flag-5'>機器</b><b class='flag-5'>學習</b>以及Edge AI的<b class='flag-5'>概念</b>與應用

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.初步理解具身智能

    人工智能、機器人技術和計算系統(tǒng)交叉領域感興趣的讀者來說不可或缺的書。這本書深入探討了具身智能這一結合物理機器人和智能算法的領域,該領域正在
    發(fā)表于 12-28 21:12

    【「具身智能機器人系統(tǒng)」閱讀體驗】+數(shù)據(jù)在具身人工智能中的價值

    嵌入式人工智能(EAI)將人工智能集成到機器人等物理實體中,使它們能夠感知、學習環(huán)境并與之動態(tài)交互。這種能力使此類機器人能夠在人類社會中有效
    發(fā)表于 12-24 00:33

    如何在低功耗MCU上實現(xiàn)人工智能機器學習

    人工智能 (AI) 和機器學習 (ML) 的技術不僅正在快速發(fā)展,還逐漸被創(chuàng)新性地應用于低功耗的微控制器 (MCU) 中,從而實現(xiàn)邊緣AI/ML的解決方案。
    的頭像 發(fā)表于 12-17 16:06 ?874次閱讀

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的一個核心領域,它使計算機能夠從數(shù)據(jù)中學習并做出預測或決策。自然語言處理與機器學習之間有著密切的關系,因為
    的頭像 發(fā)表于 12-05 15:21 ?1987次閱讀

    嵌入式和人工智能究竟是什么關系?

    嵌入式和人工智能究竟是什么關系? 嵌入式系統(tǒng)是一種特殊的系統(tǒng),它通常被嵌入到其他設備或機器中,以實現(xiàn)特定功能。嵌入式系統(tǒng)具有非常強的適應性和靈活性,能夠根據(jù)用戶需求進行定制化設計。它廣泛應用于各種
    發(fā)表于 11-14 16:39

    具身智能機器學習的關系

    具身智能(Embodied Intelligence)和機器學習(Machine Learning)是人工智能領域的兩個重要概念,它們之間存
    的頭像 發(fā)表于 10-27 10:33 ?1050次閱讀

    人工智能、機器學習和深度學習存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設備。AI有很多技術,但其中一個很大的子集是機器學習——讓算法從數(shù)據(jù)中學習
    發(fā)表于 10-24 17:22 ?2978次閱讀
    <b class='flag-5'>人工智能</b>、<b class='flag-5'>機器</b><b class='flag-5'>學習</b>和深度<b class='flag-5'>學習</b>存在什么區(qū)別

    《AI for Science:人工智能驅動科學創(chuàng)新》第6章人AI與能源科學讀后感

    探討了人工智能如何通過技術創(chuàng)新推動能源科學的進步,為未來的可持續(xù)發(fā)展提供了強大的支持。 首先,書中通過深入淺出的語言,介紹人工智能在能源領域的基本概念和技術原理。這使得我對
    發(fā)表于 10-14 09:27

    《AI for Science:人工智能驅動科學創(chuàng)新》第二章AI for Science的技術支撐學習心得

    人工智能在科學研究中的核心技術,包括機器學習、深度學習、神經網(wǎng)絡等。這些技術構成了AI for Science的基石,使得AI能夠處理和分析復雜的數(shù)據(jù)集,從而發(fā)現(xiàn)隱藏在數(shù)據(jù)中的模式和規(guī)
    發(fā)表于 10-14 09:16

    《AI for Science:人工智能驅動科學創(chuàng)新》第一章人工智能驅動的科學創(chuàng)新學習心得

    人工智能:科學研究的加速器 第一章清晰地闡述了人工智能作為科學研究工具的強大功能。通過機器學習、深度學習等先進技術,AI能夠處理和分析海量
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應用前景分析

    RISC-V和Arm內核及其定制的機器學習和浮點運算單元,用于處理復雜的人工智能圖像處理任務。 四、未來發(fā)展趨勢 隨著人工智能技術的不斷發(fā)展和普及,RISC-V在
    發(fā)表于 09-28 11:00

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅動科學創(chuàng)新

    活的世界? 編輯推薦 《AI for Science:人工智能驅動科學創(chuàng)新》聚焦于人工智能與材料科學、生命科學、電子科學、能源科學、環(huán)境科學五大領域的交叉融合,通過深入淺出的語言和諸多實際應用案例,介紹
    發(fā)表于 09-09 13:54

    FPGA在人工智能中的應用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領域的應用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學習加速 訓練和推理過程加速:FPGA可以用來加速深度學習的訓練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05