99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過回歸神經(jīng)網(wǎng)絡(luò)可以描繪出人類神經(jīng)元圖譜

EdXK_AI_News ? 來源:未知 ? 作者:工程師郭婷 ? 2018-08-05 11:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌公司和德國馬普學(xué)會(huì)的研究人員聯(lián)合開發(fā)出了一種回歸神經(jīng)網(wǎng)絡(luò),能夠描繪出人類大腦的神經(jīng)元圖譜。

刻畫神經(jīng)系統(tǒng)中的生物網(wǎng)絡(luò)結(jié)構(gòu)是一個(gè)被稱為聯(lián)接組學(xué)(connectomics)的研究領(lǐng)域,它是計(jì)算密集型的。人的大腦大約包含由100萬億個(gè)神經(jīng)突觸連接起來的860億個(gè)神經(jīng)元,如果對1立方毫米的人腦組織進(jìn)行成像,可以產(chǎn)生超過1000TB的數(shù)據(jù)。

幸運(yùn)的是,人工智能可以提供幫助。

Google和Max Planck神經(jīng)生物學(xué)研究所的科學(xué)家在《自然方法》雜志上發(fā)表了一篇論文(高精度自動(dòng)重建神經(jīng)元與洪水填充網(wǎng)絡(luò)),介紹了一種循環(huán)神經(jīng)網(wǎng)絡(luò)—一種常用于手寫和語音識(shí)別機(jī)器學(xué)習(xí)算法—已經(jīng)針對聯(lián)通組學(xué)的分析工作進(jìn)行了專門優(yōu)化。

最先將機(jī)器學(xué)習(xí)用于聯(lián)通組學(xué)的并不是谷歌的研究人員——2018年3月,英特爾與麻省理工學(xué)院的計(jì)算機(jī)科學(xué)和人工智能實(shí)驗(yàn)室合作開發(fā)了“下一代”腦圖像處理流水線。但谷歌聲稱他們模型的準(zhǔn)確性比以前的深度學(xué)習(xí)技術(shù)提高了“一個(gè)數(shù)量級(jí)”。

研究人員采用了一種邊緣檢測算法來識(shí)別神經(jīng)突起的邊界(生長于神經(jīng)元體上的結(jié)構(gòu)),結(jié)合反饋卷積神經(jīng)網(wǎng)絡(luò)—遞歸神經(jīng)網(wǎng)絡(luò)的一個(gè)子類別—將掃描圖像中能夠描述神經(jīng)元的像素組合在一起并進(jìn)行突出顯示。

為了保持準(zhǔn)確性,該團(tuán)隊(duì)提出了一個(gè)度量值“預(yù)期運(yùn)行長度”(expected run length,ERL)。如果給定大腦3D圖像中的一個(gè)帶有隨機(jī)神經(jīng)元的隨機(jī)點(diǎn),這個(gè)度量值能夠測量算法在不出錯(cuò)的情況下跟蹤神經(jīng)元的距離。該研究小組報(bào)告說,在對斑胸草雀的大腦進(jìn)行的一次100萬立方微米的掃描中,該模型的表現(xiàn)比以前的算法“好得多”。

谷歌的研究人員和論文的主要作者Viren Jain與Michal Januszewski在一篇博文中寫道:“通過將這些自動(dòng)化結(jié)果與修復(fù)剩余錯(cuò)誤所需的少量額外人力相結(jié)合,Max Planck研究所的研究人員現(xiàn)在能夠研究鳴鳥的聯(lián)接組(connectome),以獲得對斑胸草雀的歌唱機(jī)理的新見解,并測試與這種鳥如何學(xué)習(xí)歌唱相關(guān)的理論?!?/p>

除了論文之外,該團(tuán)隊(duì)還在Github上發(fā)布了其模型的TensorFlow代碼,以及用于可視化數(shù)據(jù)集和改進(jìn)重建結(jié)果的WebGL 3D軟件。他們計(jì)劃在未來對該系統(tǒng)做進(jìn)一步完善,目的是實(shí)現(xiàn)突觸解析過程的完全自動(dòng)化,并“為Max Planck研究所和其他地方的項(xiàng)目做出貢獻(xiàn)?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108114
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49011

    瀏覽量

    249347
  • 神經(jīng)元
    +關(guān)注

    關(guān)注

    1

    文章

    368

    瀏覽量

    18836

原文標(biāo)題:研究人員開發(fā)出可描繪大腦神經(jīng)元的人工智能

文章出處:【微信號(hào):AI_News,微信公眾號(hào):人工智能快報(bào)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    無刷直流電機(jī)單神經(jīng)元自適應(yīng)智能控制系統(tǒng)

    摘要:針對無刷直流電機(jī)(BLDCM)設(shè)計(jì)了一種可在線學(xué)習(xí)的單神經(jīng)元自適應(yīng)比例-積分-微分(PID)智能控制器,通過有監(jiān)督的 Hebb學(xué)習(xí)規(guī)則調(diào)整權(quán)值,每次采樣根據(jù)反饋誤差對神經(jīng)元權(quán)值進(jìn)行調(diào)整,以實(shí)現(xiàn)
    發(fā)表于 06-26 13:36

    無刷直流電機(jī)單神經(jīng)元PI控制器的設(shè)計(jì)

    刷直流電機(jī)單神經(jīng)元PI控制器的設(shè)計(jì).pdf 【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時(shí)間告知,刪除內(nèi)容,謝謝!
    發(fā)表于 06-26 13:34

    BP神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)原則

    ,僅作為數(shù)據(jù)輸入的接口。輸入層的神經(jīng)元個(gè)數(shù)通常與輸入數(shù)據(jù)的特征數(shù)量相對應(yīng)。 隱藏層 :對輸入信號(hào)進(jìn)行非線性變換,是神經(jīng)網(wǎng)絡(luò)的核心部分,負(fù)責(zé)學(xué)習(xí)輸入與輸出之間的復(fù)雜映射關(guān)系。隱藏層可以有一層或多層,層數(shù)和
    的頭像 發(fā)表于 02-12 16:41 ?739次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一層都由若干個(gè)神經(jīng)元構(gòu)成,神經(jīng)元之間通過權(quán)重連接。信號(hào)在神經(jīng)網(wǎng)絡(luò)中是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(luò)(CNN) :
    的頭像 發(fā)表于 02-12 15:53 ?661次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    自學(xué)習(xí)能力 : BP神經(jīng)網(wǎng)絡(luò)能夠通過訓(xùn)練數(shù)據(jù)自動(dòng)調(diào)整網(wǎng)絡(luò)參數(shù),實(shí)現(xiàn)對輸入數(shù)據(jù)的分類、回歸等任務(wù),無需人工進(jìn)行復(fù)雜的特征工程。 泛化能力強(qiáng) : BP
    的頭像 發(fā)表于 02-12 15:36 ?914次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立在梯度下降法的基礎(chǔ)上,是一種適合于多層神經(jīng)元網(wǎng)絡(luò)的學(xué)習(xí)算法。該算法通過計(jì)算每層網(wǎng)絡(luò)的誤差,并將這
    的頭像 發(fā)表于 02-12 15:18 ?765次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    輸入層、隱藏層和輸出層組成。其中,輸入層負(fù)責(zé)接收外部輸入數(shù)據(jù),這些數(shù)據(jù)隨后被傳遞到隱藏層。隱藏層是BP神經(jīng)網(wǎng)絡(luò)的核心部分,它可以通過一層或多層神經(jīng)元對輸入數(shù)據(jù)進(jìn)行加權(quán)求和,并
    的頭像 發(fā)表于 02-12 15:13 ?845次閱讀

    如何訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)模型

    BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)是一種經(jīng)典的人工神經(jīng)網(wǎng)絡(luò)模型,其訓(xùn)練過程主要分為兩個(gè)階段:前向傳播和反向傳播。以下是訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)模型的步驟: 一、前向傳播 前向傳播是信號(hào)在
    的頭像 發(fā)表于 02-12 15:10 ?904次閱讀

    深度學(xué)習(xí)入門:簡單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,神經(jīng)元之間
    的頭像 發(fā)表于 01-23 13:52 ?528次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    所擬合的數(shù)學(xué)模型的形式受到大腦中神經(jīng)元的連接和行為的啟發(fā),最初是為了研究大腦功能而設(shè)計(jì)的。然而,數(shù)據(jù)科學(xué)中常用的神經(jīng)網(wǎng)絡(luò)作為大腦模型已經(jīng)過時(shí),現(xiàn)在它們只是能夠在某些應(yīng)用中提供最先進(jìn)性能的機(jī)器學(xué)習(xí)模型。近年來,由于
    的頭像 發(fā)表于 01-09 10:24 ?1183次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    神經(jīng)網(wǎng)絡(luò),也稱為全連接神經(jīng)網(wǎng)絡(luò)(Fully Connected Neural Networks,F(xiàn)CNs),其特點(diǎn)是每一層的每個(gè)神經(jīng)元都與下一層的所有神經(jīng)元相連。這種結(jié)構(gòu)簡單直觀,但在
    的頭像 發(fā)表于 11-15 14:53 ?1865次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(前饋神經(jīng)網(wǎng)絡(luò)) 2.1 結(jié)構(gòu) 傳統(tǒng)神經(jīng)網(wǎng)絡(luò),通常指的是前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks, FNN),是一種最簡單的人工
    的頭像 發(fā)表于 11-15 09:42 ?1125次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    的結(jié)構(gòu)與工作機(jī)制的介紹: 一、LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)主要包括以下幾個(gè)部分: 記憶單元(Memory Cell) : 記憶單元是LSTM網(wǎng)絡(luò)的核心,負(fù)責(zé)在整個(gè)序列處理過程中保持和更新長期依賴信息。 它主要由
    的頭像 發(fā)表于 11-13 10:05 ?1628次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    可以不局限于已知的訓(xùn)練圖像開展識(shí)別。該神經(jīng)網(wǎng)絡(luò)需要映射到MCU中。 5、AI的模式識(shí)別內(nèi)部到底是什么? AI的神經(jīng)元網(wǎng)絡(luò)類似于人腦的生物神經(jīng)元網(wǎng)絡(luò)。一個(gè)
    發(fā)表于 10-24 13:56

    Python自動(dòng)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)

    人工神經(jīng)網(wǎng)絡(luò)(ANN)是機(jī)器學(xué)習(xí)中一種重要的模型,它模仿了人腦神經(jīng)元的工作方式,通過多層節(jié)點(diǎn)(神經(jīng)元)之間的連接和權(quán)重調(diào)整來學(xué)習(xí)和解決問題。Python由于其強(qiáng)大的庫支持(如Tenso
    的頭像 發(fā)表于 07-19 11:54 ?698次閱讀