99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

保護(hù)神經(jīng)網(wǎng)絡(luò)免受攻擊的對(duì)策

牽手一起夢 ? 來源:ALGOROBOT機(jī)器人資訊 ? 作者:AiRobotNews ? 2020-06-19 14:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

泄露計(jì)算機(jī)系統(tǒng)秘密的最偷偷摸摸的方法之一是研究計(jì)算機(jī)在執(zhí)行操作時(shí)的用電模式。這就是為什么研究人員已開始開發(fā)方法,以防止他人窺視AI系統(tǒng)的電源信號(hào)。

在最容易受到此類攻擊的AI系統(tǒng)中,機(jī)器學(xué)習(xí)算法可幫助智能家居設(shè)備或智能汽車自動(dòng)識(shí)別不同類型的圖像或聲音,例如單詞或音樂。這樣的算法由神經(jīng)網(wǎng)絡(luò)組成,這些神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)為在直接嵌入智能設(shè)備中的專用計(jì)算機(jī)芯片上運(yùn)行,而不是在數(shù)英里外的數(shù)據(jù)中心內(nèi)的云計(jì)算服務(wù)器內(nèi)部運(yùn)行。

這種物理上的接近度使此類神經(jīng)網(wǎng)絡(luò)能夠以最小的延遲快速執(zhí)行計(jì)算,但也使黑客可以輕松地使用稱為差分功率分析的方法對(duì)芯片的內(nèi)部工作進(jìn)行逆向工程。

“這更是對(duì)邊緣設(shè)備或物聯(lián)網(wǎng)設(shè)備的威脅,因?yàn)閷?duì)手可以對(duì)其進(jìn)行物理訪問,” 北卡羅萊納州立大學(xué)羅利分校電氣和計(jì)算機(jī)工程助理教授艾登·艾蘇(Aydin Aysu)說 ?!巴ㄟ^物理訪問,您可以測量功率,也可以查看電磁輻射?!?/p>

北卡羅萊納州立大學(xué)的研究人員已經(jīng)證明了他們所說的保護(hù)神經(jīng)網(wǎng)絡(luò)免受這種差分功率分析攻擊的第一種對(duì)策。他們在12月初在加利福尼亞州圣何塞舉行的2020 IEEE面向硬件的安全性和信任國際研討會(huì)上發(fā)表 的預(yù)印本中描述了他們的方法。

事實(shí)證明,差分功率分析攻擊可有效應(yīng)對(duì)多種目標(biāo),例如保護(hù)數(shù)字信息的加密算法以及ATM卡或信用卡中的智能芯片。但是Aysu和他的同事們認(rèn)為,在公司將AI系統(tǒng)嵌入似乎所有事物的時(shí)候,神經(jīng)網(wǎng)絡(luò)同樣可能成為黑客或商業(yè)競爭對(duì)手的豐厚回報(bào)。

在他們的最新研究中,他們專注于二值化神經(jīng)網(wǎng)絡(luò),它已成為精簡和簡化的神經(jīng)網(wǎng)絡(luò)版本,能夠以較少的計(jì)算資源進(jìn)行計(jì)算。

研究人員首先展示了對(duì)手如何使用功耗測量來揭示有助于確定神經(jīng)網(wǎng)絡(luò)計(jì)算的秘密權(quán)重值。通過反復(fù)讓神經(jīng)網(wǎng)絡(luò)使用已知的輸入數(shù)據(jù)運(yùn)行特定的計(jì)算任務(wù),對(duì)手最終可以找出與秘密權(quán)重值關(guān)聯(lián)的功率模式。例如,此方法僅運(yùn)行200組功耗測量值即可揭示未受保護(hù)的二值化神經(jīng)網(wǎng)絡(luò)的秘密權(quán)重。

接下來,Aysu和他的同事開發(fā)了一種對(duì)策來保護(hù)神經(jīng)網(wǎng)絡(luò)免受此類攻擊。他們通過將中間計(jì)算拆分為兩個(gè)隨機(jī)份額來采用一種稱為屏蔽的技術(shù),每次神經(jīng)網(wǎng)絡(luò)運(yùn)行相同的中間計(jì)算時(shí),份額會(huì)有所不同。這些隨機(jī)份額在神經(jīng)網(wǎng)絡(luò)中進(jìn)行獨(dú)立處理,并且僅在產(chǎn)生結(jié)果之前的最后一步進(jìn)行重組。

掩蔽防御有效地防止了對(duì)手使用單個(gè)中間計(jì)算來分析不同的功耗模式。受掩蔽保護(hù)的二進(jìn)制神經(jīng)網(wǎng)絡(luò)需要假設(shè)的對(duì)手執(zhí)行100,000組功耗測量,而不僅僅是200組。

Aysu說:“防御是我們從密碼學(xué)研究工作中借鑒來的,并且為了增強(qiáng)神經(jīng)網(wǎng)絡(luò)的安全性而進(jìn)行了擴(kuò)充?!?“我們使用安全的多部分計(jì)算并隨機(jī)化所有中間計(jì)算以減輕攻擊?!?/p>

這種防御很重要,因?yàn)閷?duì)手可以通過計(jì)算構(gòu)成特定機(jī)器學(xué)習(xí)算法基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)的秘密權(quán)重值來竊取公司的知識(shí)產(chǎn)權(quán)。了解神經(jīng)網(wǎng)絡(luò)的內(nèi)部運(yùn)作方式還可以使對(duì)手更輕松地發(fā)起可能使神經(jīng)網(wǎng)絡(luò)感到困惑的對(duì)抗性機(jī)器學(xué)習(xí)攻擊。

可以在可運(yùn)行神經(jīng)網(wǎng)絡(luò)的任何類型的計(jì)算機(jī)芯片(例如現(xiàn)場可編程門陣列(FPGA)和專用集成電路ASIC))上實(shí)施屏蔽防御。但是確實(shí)需要針對(duì)每個(gè)需要保護(hù)的特定機(jī)器學(xué)習(xí)模型調(diào)整掩蔽防御。

此外,對(duì)手可以通過分析多個(gè)中間計(jì)算而不是單個(gè)計(jì)算來避開基本掩蓋防御。如果掩蓋防御通過將計(jì)算分成更多份額來進(jìn)行反擊,則可能導(dǎo)致計(jì)算軍備競賽?!懊看危S著攻擊的發(fā)展以及防御的發(fā)展,都會(huì)增加一些額外的開銷,” Aysu說。

Aysu解釋說,即使實(shí)施基本的掩蔽防御,也已經(jīng)在安全性和計(jì)算性能之間進(jìn)行了權(quán)衡。最初的屏蔽防御將神經(jīng)網(wǎng)絡(luò)的性能降低了 50%,并需要將FPGA芯片上的計(jì)算面積擴(kuò)大大約一倍。

盡管如此,仍然需要針對(duì)差分功率分析攻擊的這種主動(dòng)對(duì)策。首次證明這種攻擊已經(jīng)過去了二十年,研究人員仍在開發(fā)理想的掩蔽解決方案,即使是針對(duì)標(biāo)準(zhǔn)密碼算法也是如此。對(duì)于神經(jīng)網(wǎng)絡(luò)而言,挑戰(zhàn)變得更加艱巨,這就是為什么Aysu和他的同事從相對(duì)簡單的二值化神經(jīng)網(wǎng)絡(luò)入手的原因,二元神經(jīng)網(wǎng)絡(luò)也可能是最脆弱的。

“這非常困難,我們絕不認(rèn)為這項(xiàng)研究已經(jīng)完成,” Aysu說。“這是概念的證明,因此對(duì)于許多其他神經(jīng)網(wǎng)絡(luò)算法,我們需要更高效,更強(qiáng)大的屏蔽?!?/p>

他們的研究得到了美國國家科學(xué)基金會(huì)和半導(dǎo)體研究公司的全球研究合作的支持。
責(zé)任編輯:tzh

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)系統(tǒng)

    關(guān)注

    0

    文章

    290

    瀏覽量

    24634
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35041

    瀏覽量

    279182
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8501

    瀏覽量

    134548
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?648次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?906次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法的介紹: 一、基本概念 反向傳播算法是BP
    的頭像 發(fā)表于 02-12 15:18 ?760次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?846次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個(gè)核心過程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、網(wǎng)絡(luò)結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:13 ?837次閱讀

    深度學(xué)習(xí)入門:簡單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡單的神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,神經(jīng)元之間通過
    的頭像 發(fā)表于 01-23 13:52 ?520次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1177次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:53 ?1850次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1122次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    LSTM(Long Short-Term Memory,長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計(jì)用于解決長期依賴問題,特別是在處理時(shí)間序列數(shù)據(jù)時(shí)表現(xiàn)出色。以下是LSTM神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-13 10:05 ?1622次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長序列時(shí)存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)運(yùn)而生。 循環(huán)
    的頭像 發(fā)表于 11-13 09:58 ?1195次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實(shí)現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴信息。在處理序列數(shù)據(jù)時(shí),如時(shí)間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時(shí)間序列中的長期依賴關(guān)系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1560次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    Moku3.3版更新在Moku:Pro平臺(tái)新增了全新的儀器功能【神經(jīng)網(wǎng)絡(luò)】,使用戶能夠在Moku設(shè)備上部署實(shí)時(shí)機(jī)器學(xué)習(xí)算法,進(jìn)行快速、靈活的信號(hào)分析、去噪、傳感器調(diào)節(jié)校準(zhǔn)、閉環(huán)反饋等應(yīng)用。如果您
    的頭像 發(fā)表于 11-01 08:06 ?655次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14

    如何構(gòu)建多層神經(jīng)網(wǎng)絡(luò)

    構(gòu)建多層神經(jīng)網(wǎng)絡(luò)(MLP, Multi-Layer Perceptron)模型是一個(gè)在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域廣泛使用的技術(shù),尤其在處理分類和回歸問題時(shí)。在本文中,我們將深入探討如何從頭開始構(gòu)建一個(gè)多層神經(jīng)網(wǎng)絡(luò)模型,包括模型設(shè)計(jì)、數(shù)據(jù)預(yù)處理、模型訓(xùn)練、評(píng)估以及優(yōu)化等方面的內(nèi)
    的頭像 發(fā)表于 07-19 17:19 ?1545次閱讀