正在從事智能假肢的課題,需要用到,這篇給我的實(shí)現(xiàn)起到到很好的指導(dǎo)意義,特此轉(zhuǎn)載,也特此感謝作者,利用顏色傳感器讀取pH試紙的顏色,然后得到他代表的pH值。一開(kāi)始想擬合出一個(gè)關(guān)于RGB和pH的函數(shù),但是總是效果不好。于是利用神經(jīng)網(wǎng)絡(luò)來(lái)根據(jù)RGB判斷他的pH值。思路是首先利用MATLAB訓(xùn)練...
2021-08-17 08:19:35
第1章 概述 1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展 1.2 生物神經(jīng)元 1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成 第2章人工神經(jīng)網(wǎng)絡(luò)基本模型 2.1 MP模型 2.2 感知器模型 2.3 自適應(yīng)線性
2012-03-20 11:32:43
將神經(jīng)網(wǎng)絡(luò)移植到STM32最近在做的一個(gè)項(xiàng)目需要用到網(wǎng)絡(luò)進(jìn)行擬合,并且將擬合得到的結(jié)果用作控制,就在想能不能直接在單片機(jī)上做神經(jīng)網(wǎng)絡(luò)計(jì)算,這樣就可以實(shí)時(shí)計(jì)算,不依賴(lài)于上位機(jī)。所以要解決的主要是兩個(gè)
2022-01-11 06:20:53
神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介
2012-08-05 21:01:08
神經(jīng)網(wǎng)絡(luò)的發(fā)展可以追溯到二戰(zhàn)時(shí)期,那時(shí)候先輩們正想著如何用人類(lèi)的方式去存儲(chǔ)和處理信息,于是他們開(kāi)始構(gòu)建計(jì)算系統(tǒng)。由于當(dāng)時(shí)計(jì)算機(jī)機(jī)器和技術(shù)的發(fā)展限制,這一技術(shù)并沒(méi)有得到廣泛的關(guān)注和應(yīng)用。幾十年來(lái)
2018-06-05 10:11:50
Keil軟件仿真STM32時(shí)出現(xiàn)錯(cuò)誤是怎樣一回事?怎樣去解決這個(gè)問(wèn)題?
2021-11-10 06:23:02
M453VG6AE芯片中 ISP Flash 和 LDROM 是不是一回事?它們基地址分別是什么?
2024-01-17 06:31:10
MOV中的 8位圖立即數(shù),是怎么一回事 0xF0000001是怎么來(lái)的A:是循環(huán)右移,就是一個(gè) 0—255 之間的數(shù)左移或右移偶數(shù)位的來(lái)的,也就是這個(gè)數(shù)除以 4一直除, 直到在 0-255的范圍內(nèi)它是整數(shù)就說(shuō)明是可以的!
2022-10-13 14:11:51
MOV中的 8位圖立即數(shù),是怎么一回事 0xF0000001是怎么來(lái)的A:是循環(huán)右移。就是一個(gè) 0—255 之間的數(shù)左移或右移偶數(shù)位的來(lái)的,也就是這個(gè)數(shù)除以 4一直除, 直到在 0-255的范圍內(nèi)它是整數(shù)就說(shuō)明是可以的!
2023-02-17 15:02:50
RT-Thread Studio 工程文件帶有感嘆號(hào),這個(gè)是怎么一回事,如何去除感嘆號(hào)?
2022-11-30 10:11:23
SFUD庫(kù) 看不到初始化spi1的GPIO的代碼是怎么一回事?
2022-07-29 10:39:35
使用ch582 想最終實(shí)現(xiàn)的結(jié)果是2.4G和藍(lán)牙外設(shè)共存,但發(fā)現(xiàn)把peripheral例程和RF_PHY歷程合并之后就會(huì)死機(jī),經(jīng)測(cè)試單獨(dú)RF_PHY歷程只要拷入了peripheral例程中的Profile文件夾內(nèi)容在接收的時(shí)候就跑不了了,發(fā)送可以動(dòng),這是怎么一回事?
2022-09-20 07:18:15
請(qǐng)問(wèn):我在用labview做BP神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)故障診斷,在NI官網(wǎng)找到了機(jī)器學(xué)習(xí)工具包(MLT),但是里面沒(méi)有關(guān)于這部分VI的幫助文檔,對(duì)于”BP神經(jīng)網(wǎng)絡(luò)分類(lèi)“這個(gè)范例有很多不懂的地方,比如
2017-02-22 16:08:08
習(xí)神經(jīng)神經(jīng)網(wǎng)絡(luò),對(duì)于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)是如何一直沒(méi)有具體實(shí)現(xiàn)一下:現(xiàn)看到一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)模型用于訓(xùn)練的輸入數(shù)據(jù):對(duì)應(yīng)的輸出數(shù)據(jù):我們這里設(shè)置:1:節(jié)點(diǎn)個(gè)數(shù)設(shè)置:輸入層、隱層、輸出層的節(jié)點(diǎn)
2021-08-18 07:25:21
tf卡啟動(dòng),燒寫(xiě)dp2lvds閃光出錯(cuò)?這是怎么一回事呢?求解
2021-12-31 06:05:50
探索整個(gè)過(guò)程中資源利用的優(yōu)化使整個(gè)過(guò)程更加節(jié)能高效預(yù)計(jì)成果:1、在PYNQ上實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)2、對(duì)以往實(shí)現(xiàn)結(jié)構(gòu)進(jìn)行優(yōu)化3、為卷積神經(jīng)網(wǎng)絡(luò)網(wǎng)路在硬件上,特別是在FPGA實(shí)現(xiàn)提供一種優(yōu)化思路和方案
2018-12-19 11:37:22
能在外界信息的基礎(chǔ)上改變內(nèi)部結(jié)構(gòu),是一種自適應(yīng)系統(tǒng),通俗的講就是具備學(xué)習(xí)功能。現(xiàn)代神經(jīng)網(wǎng)絡(luò)是一種非線性統(tǒng)計(jì)性數(shù)據(jù)建模工具。簡(jiǎn)單來(lái)說(shuō),就是給定輸入,神經(jīng)網(wǎng)絡(luò)經(jīng)過(guò)一系列計(jì)算之后,輸出最終結(jié)果。這好比人的大腦
2019-03-03 22:10:19
` 本帖最后由 楓雪天 于 2019-3-2 23:12 編輯
本次試用PYNQ-Z2的目標(biāo)作品是“基于PYNQ的神經(jīng)網(wǎng)絡(luò)自動(dòng)駕駛小車(chē)”。在之前的一個(gè)多月內(nèi),已經(jīng)完成了整個(gè)項(xiàng)目初步實(shí)現(xiàn),在接下來(lái)
2019-03-02 23:10:52
今天學(xué)習(xí)了兩個(gè)神經(jīng)網(wǎng)絡(luò),分別是自適應(yīng)諧振(ART)神經(jīng)網(wǎng)絡(luò)與自組織映射(SOM)神經(jīng)網(wǎng)絡(luò)。整體感覺(jué)不是很難,只不過(guò)一些最基礎(chǔ)的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡(luò)是競(jìng)爭(zhēng)學(xué)習(xí)的一個(gè)代表,競(jìng)爭(zhēng)型學(xué)習(xí)
2019-07-21 04:30:00
`BP神經(jīng)網(wǎng)絡(luò)首先給出只包含一個(gè)隱層的BP神經(jīng)網(wǎng)絡(luò)模型(兩層神經(jīng)網(wǎng)絡(luò)): BP神經(jīng)網(wǎng)絡(luò)其實(shí)由兩部分組成:前饋神經(jīng)網(wǎng)絡(luò):神經(jīng)網(wǎng)絡(luò)是前饋的,其權(quán)重都不回送到輸入單元,或前一層輸出單元(數(shù)據(jù)信息是單向
2019-07-21 04:00:00
人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)是一種類(lèi)似生物神經(jīng)網(wǎng)絡(luò)的信息處理結(jié)構(gòu),它的提出是為了解決一些非線性,非平穩(wěn),復(fù)雜的實(shí)際問(wèn)題。那有哪些辦法能實(shí)現(xiàn)人工神經(jīng)網(wǎng)絡(luò)呢?
2019-08-01 08:06:21
這個(gè)網(wǎng)絡(luò)輸入和相應(yīng)的輸出來(lái)“訓(xùn)練”這個(gè)網(wǎng)絡(luò),網(wǎng)絡(luò)根據(jù)輸入和輸出不斷地調(diào)節(jié)自己的各節(jié)點(diǎn)之間的權(quán)值來(lái)滿足輸入和輸出。這樣,當(dāng)訓(xùn)練結(jié)束后,我們給定一個(gè)輸入,網(wǎng)絡(luò)便會(huì)根據(jù)自己已調(diào)節(jié)好的權(quán)值計(jì)算出一個(gè)輸出。這就是神經(jīng)網(wǎng)絡(luò)的簡(jiǎn)單原理。 神經(jīng)網(wǎng)絡(luò)原理下載-免費(fèi)
2008-06-19 14:40:42
簡(jiǎn)單理解LSTM神經(jīng)網(wǎng)絡(luò)
2021-01-28 07:16:57
麻煩請(qǐng)教一下:我們的代碼在未開(kāi)優(yōu)化和-o1的條件下是可以跑出正確結(jié)果,但是-o2和-o3條件下同樣的輸入輸出結(jié)果出錯(cuò),這是怎么一回事?謝謝大家!
2018-07-11 07:47:39
使用stm32時(shí)看不到flash中的初始化變量值是怎么一回事呢?
2022-12-01 07:33:35
全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別
2019-06-06 14:21:42
inference在設(shè)備端上做。嵌入式設(shè)備的特點(diǎn)是算力不強(qiáng)、memory小??梢酝ㄟ^(guò)對(duì)神經(jīng)網(wǎng)絡(luò)做量化來(lái)降load和省memory,但有時(shí)可能memory還吃緊,就需要對(duì)神經(jīng)網(wǎng)絡(luò)在memory使用上做進(jìn)一步優(yōu)化
2021-12-23 06:16:40
卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問(wèn)題,我們似乎可以給出相對(duì)簡(jiǎn)明的答案。
2019-07-17 07:21:50
。神經(jīng)網(wǎng)絡(luò)的思想起源于1943年McCulloch 和 Pitts 提出的神經(jīng)元模型[19],簡(jiǎn)稱(chēng) MCP 神經(jīng)元模 型。它是利用計(jì)算機(jī)來(lái)模擬人的神經(jīng)元反應(yīng)的過(guò) 程,具有開(kāi)創(chuàng)性意義。此模型將神經(jīng)元反應(yīng)簡(jiǎn)化
2022-08-02 10:39:39
卷積神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)的常用框架
2020-12-29 06:16:44
什么是卷積神經(jīng)網(wǎng)絡(luò)?ImageNet-2010網(wǎng)絡(luò)結(jié)構(gòu)是如何構(gòu)成的?有哪些基本參數(shù)?
2021-06-17 11:48:22
我們可以對(duì)神經(jīng)網(wǎng)絡(luò)架構(gòu)進(jìn)行優(yōu)化,使之適配微控制器的內(nèi)存和計(jì)算限制范圍,并且不會(huì)影響精度。我們將在本文中解釋和探討深度可分離卷積神經(jīng)網(wǎng)絡(luò)在 Cortex-M 處理器上實(shí)現(xiàn)關(guān)鍵詞識(shí)別的潛力。關(guān)鍵詞識(shí)別
2021-07-26 09:46:37
聽(tīng)說(shuō)可以借助掃描儀設(shè)計(jì)電路板,不知道是怎么一回事
2013-02-26 10:26:20
最近在學(xué)習(xí)電機(jī)的智能控制,上周學(xué)習(xí)了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線性表達(dá)能力,可以通過(guò)對(duì)系統(tǒng)性能的學(xué)習(xí)來(lái)實(shí)現(xiàn)具有最佳組合的PID控制。利用BP
2021-09-07 07:43:47
FPGA實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)關(guān)鍵問(wèn)題分析基于FPGA的ANN實(shí)現(xiàn)方法基于FPGA的神經(jīng)網(wǎng)絡(luò)的性能評(píng)估及局限性
2021-04-30 06:58:13
FPGA 上實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò) (CNN)。CNN 是一類(lèi)深度神經(jīng)網(wǎng)絡(luò),在處理大規(guī)模圖像識(shí)別任務(wù)以及與機(jī)器學(xué)習(xí)類(lèi)似的其他問(wèn)題方面已大獲成功。在當(dāng)前案例中,針對(duì)在 FPGA 上實(shí)現(xiàn) CNN 做一個(gè)可行性研究
2019-06-19 07:24:41
大家都來(lái)討論一下元器件降額設(shè)計(jì)是怎么一回事吧 各位前輩之前 做設(shè)計(jì)有進(jìn)行過(guò)降額設(shè)計(jì)嗎?
2016-04-22 15:34:59
如何利用神經(jīng)網(wǎng)絡(luò)來(lái)根據(jù)RGB判斷他的pH值?
2021-11-19 06:36:21
不確定因素影響,并且隨著可編程片上系統(tǒng)SoPC和大規(guī)?,F(xiàn)場(chǎng)可編程門(mén)陣列FPGA的出現(xiàn),為神經(jīng)網(wǎng)絡(luò)控制器的硬件實(shí)現(xiàn)提供了新的載體。
2019-08-12 06:25:35
巡線智能車(chē)控制中的CNN網(wǎng)絡(luò)有何應(yīng)用?嵌入式單片機(jī)中的神經(jīng)網(wǎng)絡(luò)該怎樣去使用?如何利用卷積神經(jīng)網(wǎng)絡(luò)去更好地控制巡線智能車(chē)呢?
2021-12-21 07:47:24
如何用stm32cube.ai簡(jiǎn)化人工神經(jīng)網(wǎng)絡(luò)映射?如何使用stm32cube.ai部署神經(jīng)網(wǎng)絡(luò)?
2021-10-11 08:05:42
原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測(cè)的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測(cè)能力輸出層:基于輸入和隱藏層的數(shù)據(jù)輸出預(yù)測(cè)
2021-07-12 08:02:11
訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)并移植到Lattice FPGA上,通常需要開(kāi)發(fā)人員既要懂軟件又要懂?dāng)?shù)字電路設(shè)計(jì),是個(gè)不容易的事。好在FPGA廠商為我們提供了許多工具和IP,我們可以在這些工具和IP的基礎(chǔ)上做
2020-11-26 07:46:03
神經(jīng)網(wǎng)絡(luò)(Neural Networks)是人工神經(jīng)網(wǎng)絡(luò)(Ar-tificial Neural Networks)的簡(jiǎn)稱(chēng),是當(dāng)前的研究熱點(diǎn)之一。人腦在接受視覺(jué)感官傳來(lái)的大量圖像信息后,能迅速做出反應(yīng)
2019-08-08 06:11:30
今天在qq群里,有個(gè)看起來(lái)資歷豐富的前輩問(wèn)了一個(gè)問(wèn)題,嵌入式和單片機(jī)是不是一回事,這個(gè)問(wèn)題提的很好。對(duì)于嵌入式方向領(lǐng)域,我最近一直也在想這些底層基礎(chǔ)的概念問(wèn)題。然而在網(wǎng)上查找一些前輩的回答,概念太過(guò)
2021-10-27 07:30:41
大家好,最近項(xiàng)目中遇到一款德國(guó)的KAISER無(wú)勵(lì)磁磁阻同步電機(jī),花了一段時(shí)間研究后,還是有幾個(gè)基本的概念沒(méi)有搞明白:
1.開(kāi)關(guān)磁阻電機(jī)和交流磁阻同步電機(jī)是一回事嗎?
2.各自的控制器是什么呢?普通的變頻器能實(shí)現(xiàn)嗎?
2024-01-10 06:35:40
本文提出了一個(gè)基于FPGA 的信息處理的實(shí)例:一個(gè)簡(jiǎn)單的人工神經(jīng)網(wǎng)絡(luò)應(yīng)用Verilog 語(yǔ)言描述,該數(shù)據(jù)流采用模塊化的程序設(shè)計(jì),并考慮了模塊間數(shù)據(jù)傳輸信號(hào)同 步的問(wèn)題,有效地解決了人工神經(jīng)網(wǎng)絡(luò)并行數(shù)據(jù)處理的問(wèn)題。
2021-05-06 07:22:07
譯者|VincentLee來(lái)源 |曉飛的算法工程筆記脈沖神經(jīng)網(wǎng)絡(luò)(Spiking neural network, SNN)將脈沖神經(jīng)元作為計(jì)算單...
2021-07-26 06:23:59
誰(shuí)有利用LABVIEW 實(shí)現(xiàn)bp神經(jīng)網(wǎng)絡(luò)的程序?。ㄎ矣玫陌姹臼?.6的 )
2012-11-26 14:54:59
小女子做基于labview的蒸發(fā)過(guò)程中液位的控制,想使用神經(jīng)網(wǎng)絡(luò)pid控制,請(qǐng)問(wèn)這個(gè)控制方法可以嗎?有誰(shuí)會(huì)神經(jīng)網(wǎng)絡(luò)pid控制么。。。叩謝
2016-09-23 13:43:16
求助大神 小的現(xiàn)在有個(gè)難題: 一組車(chē)重實(shí)時(shí)數(shù)據(jù) 對(duì)應(yīng)一個(gè)車(chē)重的最終數(shù)值(一個(gè)一維數(shù)組輸入對(duì)應(yīng)輸出一個(gè)數(shù)值) 這其中可能經(jīng)過(guò)均值、方差、去掉N個(gè)最大值、、、等等的計(jì)算 我的目的就是弄清楚這個(gè)中間計(jì)算過(guò)程 最近實(shí)在想不出什么好辦法就打算試試神經(jīng)網(wǎng)絡(luò) 請(qǐng)教大神用什么神經(jīng)網(wǎng)絡(luò)好求神經(jīng)網(wǎng)絡(luò)程序
2016-07-14 13:35:44
求高手,基于labview的BP神經(jīng)網(wǎng)絡(luò)算法的實(shí)現(xiàn)過(guò)程,最好有程序哈,謝謝??!
2012-12-10 14:55:50
求指教求教 MPU3050如何確定其slaveaddress,這和who am i的默認(rèn)值0x68是一回事么?謝謝了
2016-11-08 10:38:04
法拉第圓筒是怎么一回事?????求詳細(xì)的解說(shuō)...
2011-07-30 14:40:35
最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)
2019-09-11 11:57:36
脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN)在FPGA上的實(shí)現(xiàn),實(shí)現(xiàn)數(shù)據(jù)分類(lèi)功能,有報(bào)酬。QQ470345140.
2013-08-25 09:57:14
在藍(lán)牙的學(xué)習(xí)中,有講到藍(lán)牙的拓?fù)浣Y(jié)構(gòu),包含微微網(wǎng)和散射網(wǎng),其中散射網(wǎng)是微微網(wǎng)的拓展網(wǎng)絡(luò)設(shè)備數(shù)量的,請(qǐng)問(wèn)散射網(wǎng)和MESH網(wǎng)是不是一回事,謝謝
2020-03-15 19:38:00
本帖最后由 eehome 于 2013-1-5 09:43 編輯
請(qǐng)問(wèn)一下數(shù)碼管陽(yáng)極顯示和共陽(yáng)極是一回事嗎?
2012-12-03 11:21:32
KVA 和KW是不是一回事?
比如負(fù)載時(shí)2kw那么我的變壓器的容量需要大于2/cosφ呢?
2023-12-11 07:43:44
原子大哥和各位大神,我想問(wèn)一下,1、STM32F407以太網(wǎng)所用的DMA控制器和和DMA1、DMA2控制器是一回事嗎?2、為什么我在看DMA1、DMA2請(qǐng)求映射(STM32F4xx中文參考手冊(cè))時(shí)找不到關(guān)于以太網(wǎng)的請(qǐng)求?
2019-07-24 22:59:34
請(qǐng)問(wèn)電源去耦和電源濾波是一回事嗎?
2023-04-21 17:42:23
芯片中 ISP Flash 和 LDROM 是不是一回事?
如果不是一回事,以M453VG6AE為例,它們基地址分別是什么?
2023-08-29 08:08:05
超聲波程序中的clock文件和主程序中的Time是怎么一回事?
2023-10-08 07:32:01
視覺(jué)任務(wù)中,并取得了巨大成功。然而,由于存儲(chǔ)空間和功耗的限制,神經(jīng)網(wǎng)絡(luò)模型在嵌入式設(shè)備上的存儲(chǔ)與計(jì)算仍然是一個(gè)巨大的挑戰(zhàn)。前面幾篇介紹了如何在嵌入式AI芯片上部署神經(jīng)網(wǎng)絡(luò):【嵌入式AI開(kāi)發(fā)】篇五|實(shí)戰(zhàn)篇一:STM32cubeIDE上部署神經(jīng)網(wǎng)絡(luò)之pytorch搭建指紋識(shí)別模型.onnx...
2021-12-14 07:35:25
,非局部運(yùn)算將某一處位置的響應(yīng)作為輸入特征映射中所有位置的特征的加權(quán)和來(lái)進(jìn)行計(jì)算。我們將非局部運(yùn)算作為一個(gè)高效、簡(jiǎn)單和通用的模塊,用于獲取深度神經(jīng)網(wǎng)絡(luò)的長(zhǎng)時(shí)記憶。我們提出的非局部運(yùn)算是計(jì)算機(jī)視覺(jué)中經(jīng)
2018-11-12 14:52:50
慢速保險(xiǎn)絲是怎樣一回事?
慢速保險(xiǎn)絲也叫延時(shí)保險(xiǎn)絲,它的延時(shí)特性表現(xiàn)在電路出現(xiàn)非故障脈沖電流時(shí)保持完好而能對(duì)長(zhǎng)時(shí)間的過(guò)載提供保護(hù)。有些電路在
2009-11-12 09:11:04
822 美國(guó)加州大學(xué)洛杉磯分校的科學(xué)家利用光信息實(shí)現(xiàn)了神經(jīng)網(wǎng)絡(luò)計(jì)算,相較傳統(tǒng)電子器件,其處理速度接近光速,但準(zhǔn)確性有所降低。
2018-08-23 17:25:43
2926 工神經(jīng)元聯(lián)結(jié)進(jìn)行計(jì)算。大多數(shù)情況下人工神經(jīng)網(wǎng)絡(luò)能在外界信息的基礎(chǔ)上改變內(nèi)部結(jié)構(gòu),是一種自適應(yīng)系統(tǒng)?,F(xiàn)代神經(jīng)網(wǎng)絡(luò)
2018-09-18 22:40:01
517 機(jī)器人即服務(wù)是怎么一回事
2019-08-06 16:48:23
1431 基于進(jìn)化計(jì)算的神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)與實(shí)現(xiàn)說(shuō)明。
2021-06-01 09:25:11
4 手機(jī)里的射頻與天線當(dāng)然不是一回事了。
2021-10-04 12:52:00
8911 在SMT工廠,生產(chǎn)過(guò)程中經(jīng)常會(huì)遇到拋料的情況,甚至有時(shí)候拋料會(huì)非常嚴(yán)重,影響到生產(chǎn)效率,那么拋料是怎么一回事呢?具體需要怎么解決?
2024-01-24 10:42:46
373
評(píng)論