99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于神經(jīng)科學(xué)的Numenta介紹

Astroys ? 來源:Astroys ? 2023-09-21 09:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人腦以高效著稱,它以稀疏的表征方式存儲和處理信息。在任何時刻,只有一小部分神經(jīng)元處于活躍狀態(tài)。神經(jīng)科學(xué)家相信,他們可以將大腦啟發(fā)的邏輯映射到運行AI模型的算法、數(shù)據(jù)結(jié)構(gòu)和架構(gòu)中,從而提供一個讓AI降低功耗的配方。數(shù)據(jù)科學(xué)家是否愿意改變他們基于蠻力計算的AI實踐,這一點尚未確定,因為這種方法似乎越來越難以為繼。

正自籌資金起家的初創(chuàng)公司并不多見,更不用說這家公司在神經(jīng)科學(xué)研究領(lǐng)域玩了18年的長線游戲之后,突然推出了一款商業(yè)軟件產(chǎn)品。

更重要的是,這家初創(chuàng)公司的新產(chǎn)品直接向炙手可熱的大語言模型(LLM)AI市場發(fā)出了挑戰(zhàn)。

這家公司就是Numenta,它承諾其受神經(jīng)科學(xué)啟發(fā)的軟件可以大幅降低在CPU上運行LLM的功耗。

持懷疑態(tài)度的人可能會認(rèn)為這種策略是投機取巧。Numenta的CEO Subutai Ahmad認(rèn)為,這種說法并不用準(zhǔn)確。

Numenta將數(shù)十年的神經(jīng)科學(xué)研究應(yīng)用于商業(yè)產(chǎn)品的手段、動機和機遇都出現(xiàn)在AI領(lǐng)域。Numenta的研究人員特別注意到了AI科學(xué)家依靠蠻力計算來實現(xiàn)transformer的方式。

當(dāng)然,神經(jīng)科學(xué)和AI并非完全形同陌路。這兩個學(xué)科在二十世紀(jì)五六十年代相互影響,后來逐漸分道揚鑣。不過,Ahmad表示,神經(jīng)科學(xué)和AI一直孤立地存在著,這點令人驚訝。

以ChatGPT為例。

盡管ChatGPT已是當(dāng)紅炸子雞,但Ahmad認(rèn)為,ChatGPT消耗的能源太多,最終將難以為繼。他認(rèn)為,只有應(yīng)用神經(jīng)科學(xué)的基本原理,開發(fā)者才能改變AI邁向死胡同軌跡。

了解Numenta

Numenta與其它大多數(shù)初創(chuàng)公司的區(qū)別在于,其聯(lián)合創(chuàng)始人Jeff Hawkins、Donna Dubinsky和Dileep George的履歷、經(jīng)驗和專業(yè)知識。

Hawkins在90年代是著名的Palm Pilot PDA的設(shè)計師。之后,他又在Handspring開創(chuàng)了名為Treo的智能手機。

Dubinsky曾在1980年代負(fù)責(zé)管理Apple的部分分銷網(wǎng)絡(luò),又曾任Palm的CEO,后來與Hawkins共同創(chuàng)辦了Handspring。

2005年,AI和神經(jīng)科學(xué)研究員Dileep George與Hawkins和Dubinsky合作。

每位聯(lián)合創(chuàng)始人都為Numenta帶來了技術(shù)、創(chuàng)業(yè)和激情方面的獨特面向,而Hawkins則因癡迷腦科學(xué)而聞名,他是Numenta的公眾導(dǎo)師。他撰寫了兩本書,“On Intelligence”(2004年與Sandra Blakeslee合著)和“A Thousand Brains: A new theory of intelligence”(2021 年)。他在科學(xué)雜志上發(fā)表的許多論文經(jīng)常被大量引用。

但具有諷刺意味的是,神經(jīng)科學(xué)的進步主要局限于研究機構(gòu),對商業(yè)市場影響甚微。據(jù)Numenta的CEO Ahmad稱,只有極少數(shù)實驗室積極將神經(jīng)科學(xué)應(yīng)用于AI?!拔覀兛赡苁俏ㄒ灰患覈L試這樣做的公司?!?/p>

他說,Numenta很幸運能走到今天,但他認(rèn)為ChatGPT是一個“巨大的功耗”。Ahmad堅信,Numenta基于神經(jīng)科學(xué)的數(shù)據(jù)結(jié)構(gòu)和算法能為LLM帶來更高的效率。

Numenta的商業(yè)產(chǎn)品

Numenta上周推出的第一款產(chǎn)品是AI軟件“NuPIC(Numenta Platform for Intelligent Computing)”。

NuPIC是為現(xiàn)有transformer設(shè)計的即插即用軟件,可以在CPU上以“極高的吞吐量和低延遲”運行LLM,該公司稱,“速度明顯快于Nvidia A100 GPU”。

Ahmad解釋說,NuPIC將作為“企業(yè)軟件”授權(quán)給“希望將LLM納入工作流程的企業(yè)”。他強調(diào)說,Numenta不提供云服務(wù),因此這不是SaaS。NuPIC授權(quán)用戶將在自己的基礎(chǔ)設(shè)施中安裝該軟件,因此“數(shù)據(jù)和模型對他們來說是完全私有的”。

Numenta產(chǎn)品的關(guān)鍵之一是它可以“直接插入”現(xiàn)有的transformer。Ahmad說:“在外界看來,它并沒有什么不同。因此,下圖中的中間部分和界面看起來與AI世界已經(jīng)知道的完全相同。你甚至可以把傳統(tǒng)的transformer換成我們的transformer,整個東西仍然可以工作?!?/p>

wKgaomULmKmAbG2MAADcM3d2HX0684.jpg

Numenta聲稱,其基于神經(jīng)科學(xué)的AI解決方案“能讓客戶實現(xiàn)10到100倍以上的性能提升”。這些數(shù)字似乎好得不像真的,但該公司并非憑空捏造。Numenta有與Intel合作完成的案例研究為證。

與Intel和Xilinx的合作

Intel今年在其Xeon Max系列和第四代Intel Xeon可擴展處理器上發(fā)布了x86指令集架構(gòu)的新擴展,稱為AMX(Advanced Matrix Extensions)。AMX設(shè)計用于矩陣,以加速AI工作負(fù)載的矩陣乘法。

Numenta的團隊從去年開始與Intel合作,當(dāng)時Intel正在開發(fā)AMX。Ahmad解釋說,Intel正在“利用CPU并添加類似于GPU的指令來進行矩陣乘法運算。但它仍然是CPU,而這些CPU非常靈活”。

Ahmad說,這種靈活性使Numenta“可以將我們的算法移植到這些芯片上”。Intel的一份文件指出:“Numenta展示了他們定制訓(xùn)練的LLM在Intel Xeon CPU Max系列處理器上運行時,與當(dāng)前一代AMD Milan CPU的實現(xiàn)相比,在處理器上配備高帶寬內(nèi)存的LLM在大型文檔(長序列長度)上的運行速度要快20倍?!?/p>

Intel總結(jié)說,Numenta已經(jīng)證明“有能力大幅降低在Intel上運行語言模型的總體成本,為客戶釋放全新的自然語言處理能力”。

wKgaomULmKmAZF0VAAKMQBF81X4252.jpg

Numenta的Ahmad則更進一步說:“我們可以讓transformer運行得比Nvidia GPU更快?!?/p>

現(xiàn)在判斷Numenta的軟件是否真的是Nvidia GPU Killer還為時尚早。但在Ahmad看來,Numenta從神經(jīng)科學(xué)中學(xué)到的基本原理讓公司處于優(yōu)勢地位?!斑@并不是說我們有什么魔法能讓速度提高100倍。我們所做的是減少計算量。這就是大腦的工作。這就是我們提高效率的方法。”

Numenta技術(shù)的應(yīng)用范圍包括計算機視覺、語音識別機器人技術(shù)。

在語音識別領(lǐng)域,Numenta已經(jīng)與Xilinx(已被AMD收購)開展了合作。Numenta演示了其大腦啟發(fā)的稀疏算法如何輔助機器學(xué)習(xí),該算法在Xilinx現(xiàn)成的FPGA和GSC(Google Speech Commands)數(shù)據(jù)集上運行。根據(jù)Numenta提交的案例研究,該公司展示了“利用稀疏性擴展深度學(xué)習(xí)模型的巨大優(yōu)勢”。

神經(jīng)科學(xué)與AI

那么,究竟什么是神經(jīng)科學(xué),它與AI有何不同?

神經(jīng)科學(xué)側(cè)重于了解神經(jīng)系統(tǒng)(大腦、脊髓和外周神經(jīng))的基本特性以及它們?nèi)绾伟l(fā)揮作用。相比之下,AI的興趣在于開發(fā)機器來完成通常與人類智能相關(guān)的任務(wù)。

正如Ahmad所解釋的,在人工神經(jīng)網(wǎng)絡(luò)的早期,AI在很大程度上受到了神經(jīng)科學(xué)的啟發(fā)。Ahmad說:“20世紀(jì)40年代,Donald Hebb提出了神經(jīng)元可以學(xué)習(xí)的最初想法,而且神經(jīng)元可以學(xué)習(xí)模式。這啟發(fā)了最早的人工神經(jīng)元,當(dāng)時被稱為感知器(perceptron)。”

他補充說,神經(jīng)科學(xué)還啟發(fā)了“反向傳播(backpropagation)”,這是深度學(xué)習(xí)的核心學(xué)習(xí)算法,一直沿用至今。

David Hunter Hubel和Torsten Wiesel共同獲得了1981年諾貝爾獎,他們研究了視覺皮層的結(jié)構(gòu)和功能。Ahmad解釋說,他們極大地增強了人類對視覺系統(tǒng)如何按層次學(xué)習(xí)物體特征的理解,首先從邊緣到角落,然后到形狀,最后到物體。

Ahmad強調(diào)說:“這種對層次結(jié)構(gòu)和特征檢測的理解直接啟發(fā)了卷積網(wǎng)絡(luò),這種核心架構(gòu)甚至被用于當(dāng)今的計算機視覺領(lǐng)域。”

直到Ahmad感興趣的90年代初,神經(jīng)科學(xué)家和深度學(xué)習(xí)研究人員之間的互動還很普遍。

不知從何時起,AI開始專注于GPU和計算。隨著GPU速度越來越快,網(wǎng)絡(luò)也越來越大。隨著計算機越來越強大,數(shù)據(jù)科學(xué)家依賴的數(shù)據(jù)也越來越多。AI成了更強大和更多閃存的代名詞。

Ahmad援引這一背景,認(rèn)為當(dāng)今的AI存在兩個基本問題。其弱點在于“無法持續(xù)學(xué)習(xí)”,以及對“過多數(shù)據(jù)”的貪得無厭。

根據(jù)他的定義,真正的智能系統(tǒng)是“不斷學(xué)習(xí)”的。他說,AI系統(tǒng)首先在實驗室中接受訓(xùn)練,然后部署到現(xiàn)實世界中。但它們不會不斷學(xué)習(xí)。

與人類不斷漸進地學(xué)習(xí)不同,代碼還不能真正地“學(xué)習(xí)”。Ahmad在最近的一篇文章中寫道:“如果一個AI模型今天犯了一個錯誤,那么它將繼續(xù)重復(fù)這個錯誤,直到使用新的數(shù)據(jù)對它進行重新訓(xùn)練?!?/p>

他說:“作為人類,我們通過四處走動來學(xué)習(xí),我們了解世界的結(jié)構(gòu),甚至做出預(yù)測?!?/p>

想想AI模型是如何學(xué)會識別一種新車型的。

Ahmad說,人類只需要看到“一個例子。我會從另一個角度、一天中的不同時間或在下雨天都可以認(rèn)出那輛車”。Ahmad說,深度學(xué)習(xí)系統(tǒng)沒有真實的世界模型,“你必須向它們展示數(shù)以千計的各種圖像”。“它必須記住這輛車的每一個可能的角度”。

神經(jīng)形態(tài)(neuromorphic)計算與神經(jīng)科學(xué)有何不同?Ahmad解釋說,神經(jīng)形態(tài)計算是“神經(jīng)科學(xué)和AI這一更廣泛領(lǐng)域的一個子集”。雖然神經(jīng)形態(tài)工程的重點通常是構(gòu)建新的、能效極高的硬件系統(tǒng),但Ahmad說:“我們正在開發(fā)更多的軟件和算法。我們將能夠利用芯片行業(yè)正在進行的所有創(chuàng)新,包括CPU、GPU以及所有SIMD指令和架構(gòu)?!?/p>

融資情況

Ahmad說,Numenta的資金主要來自董事會內(nèi)部,其中包括Hawkins和Dubinsky,但也有一些外部投資者。

目前,Numenta規(guī)模仍然很小,只有20名員工。Ahmad補充說:“現(xiàn)在,Numenta正在走向商業(yè)化,我們將在明年的某個時候,很可能是今年晚些時候,進行一輪大規(guī)模融資?!?/p>

過去二十年來,神經(jīng)科學(xué)家和數(shù)據(jù)科學(xué)家之間的分化很有啟發(fā)性。硅谷通過一個非常男性化的方式實現(xiàn)了驚人的發(fā)展,更大更快的CPU和GPU永遠(yuǎn)是贏家。但如今,他們需要想辦法從拼肌肉的死胡同過渡到基于效率的模式。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19897

    瀏覽量

    235386
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    305

    瀏覽量

    6207
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14168
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1590

    瀏覽量

    9119
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    325

    瀏覽量

    850

原文標(biāo)題:基于神經(jīng)科學(xué)的Numenta能否挑戰(zhàn)強大的Nvidia?

文章出處:【微信號:Astroys,微信公眾號:Astroys】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    國內(nèi)首例閉環(huán)脊髓神經(jīng)接口系統(tǒng)臨床植入成功,佳量醫(yī)療引領(lǐng)神經(jīng)接口技術(shù)新突破

    2025 年7 月 1 日,中國杭州 ——2025年3月,國內(nèi)領(lǐng)先的神經(jīng)外科和腦科學(xué)技術(shù)平臺佳量醫(yī)療自主研發(fā)的閉環(huán)脊髓神經(jīng)接口系統(tǒng)成功完成國內(nèi)首例臨床植入,標(biāo)志著其通用神經(jīng)接口技術(shù)平臺
    發(fā)表于 07-01 16:13 ?938次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?676次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法的介紹: 一、基本概念 反向傳播算
    的頭像 發(fā)表于 02-12 15:18 ?778次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Ba
    的頭像 發(fā)表于 02-12 15:15 ?867次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個核心過程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、網(wǎng)絡(luò)結(jié)構(gòu) BP神經(jīng)
    的頭像 發(fā)表于 02-12 15:13 ?870次閱讀

    Meta AI推出Brain2Qwerty:非侵入性大腦信號轉(zhuǎn)文本系統(tǒng)

    據(jù)外媒最新報道,Meta AI成功研發(fā)出一款名為Brain2Qwerty的人工智能系統(tǒng),該系統(tǒng)能夠無需手術(shù)即可將大腦信號直接轉(zhuǎn)換為文本。這一創(chuàng)新成果為神經(jīng)科學(xué)與人工智能的融合開辟了新的道路
    的頭像 發(fā)表于 02-11 13:37 ?602次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工
    的頭像 發(fā)表于 01-09 10:24 ?1215次閱讀
    人工<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)的原理和多種<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)架構(gòu)方法

    科學(xué)相機暗電流介紹

    圖 1:相機傳感器邊緣的熱積聚和暗電流噪聲。隨著長時間曝光熱量的增加,這種噪音會傳播到整個相機,并會影響圖像質(zhì)量。 科學(xué)相機的靈敏度至關(guān)重要,如果靈敏度不足,甚至可能無法獲取樣品的清晰圖像。在
    的頭像 發(fā)表于 11-27 06:24 ?674次閱讀
    <b class='flag-5'>科學(xué)</b>相機暗電流<b class='flag-5'>介紹</b>

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)神經(jīng)
    的頭像 發(fā)表于 11-15 14:53 ?1882次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機制

    網(wǎng)絡(luò)的結(jié)構(gòu)與工作機制的介紹: 一、LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)主要包括以下幾個部分: 記憶單元(Memory Cell) : 記憶單元是LSTM網(wǎng)絡(luò)的核心,負(fù)責(zé)在整個序列處理過程中保持和更新長期依賴信息。 它主
    的頭像 發(fā)表于 11-13 10:05 ?1636次閱讀

    中國研發(fā)出新型三維電壓成像新技術(shù)

    分析成為現(xiàn)實。這一創(chuàng)新技術(shù)不僅為電壓成像技術(shù)的應(yīng)用奠定了堅實基礎(chǔ),也為神經(jīng)科學(xué)研究領(lǐng)域帶來了全新的研究工具。
    的頭像 發(fā)表于 10-29 14:34 ?658次閱讀

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感

    探討了人工智能如何通過技術(shù)創(chuàng)新推動能源科學(xué)的進步,為未來的可持續(xù)發(fā)展提供了強大的支持。 首先,書中通過深入淺出的語言,介紹了人工智能在能源領(lǐng)域的基本概念和技術(shù)原理。這使得我對人工智能在能源預(yù)測、管理
    發(fā)表于 10-14 09:27

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    很幸運社區(qū)給我一個閱讀此書的機會,感謝平臺。 《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章關(guān)于AI與生命科學(xué)的部分,為我們揭示了人工智能技術(shù)在生命科學(xué)領(lǐng)域中的廣泛應(yīng)用和深遠(yuǎn)影響。在
    發(fā)表于 10-14 09:21

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    人工智能在科學(xué)研究中的核心技術(shù),包括機器學(xué)習(xí)、深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等。這些技術(shù)構(gòu)成了AI for Science的基石,使得AI能夠處理和分析復(fù)雜的數(shù)據(jù)集,從而發(fā)現(xiàn)隱藏在數(shù)據(jù)中的模式和規(guī)律。 2. 高性能
    發(fā)表于 10-14 09:16

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新

    活的世界? 編輯推薦 《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》聚焦于人工智能與材料科學(xué)、生命科學(xué)、電子科學(xué)、能源科學(xué)、環(huán)境
    發(fā)表于 09-09 13:54