99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

未來機(jī)器人:讀腦繪圖像 看臉認(rèn)嫌犯 握手辨性格

OaXG_jingzhengl ? 來源:未知 ? 作者:鄧佳佳 ? 2018-03-26 17:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

都說最難讀懂的是人心,這種復(fù)雜高等動(dòng)物互相理解都有難度。然而,科技卻可能輕而易舉地做到了。在我們還沒搞清楚自己腦子想什么,情緒是快樂還是憤怒時(shí),人工智能就準(zhǔn)確冷靜不帶感情色彩地指了出來,通過簡(jiǎn)單的“讀腦”“握手”“看臉”,就能輕松看透你,簡(jiǎn)直是比你自己都更了解你。

讀腦繪圖像

拷貝別人記憶不是夢(mèng)

多倫多斯卡伯勒大學(xué)的神經(jīng)科學(xué)家團(tuán)隊(duì)開發(fā)出了一種“讀心術(shù)”方法,通過掃描你的大腦,來展現(xiàn)你腦海中想象的圖像,按照實(shí)驗(yàn),這種讀心術(shù)方法幾乎萬無一失。完成這項(xiàng)“讀心”任務(wù)的是科學(xué)家制造出的一種“讀心機(jī)器人”,簡(jiǎn)單來說就是一種人工智能程序,這種程序通過識(shí)別大腦中的電子信號(hào),來復(fù)制描繪大腦中的圖形形狀。該團(tuán)隊(duì)一邊讓受試者觀看電腦屏幕上的人臉圖片,一邊用腦電圖系統(tǒng)記錄他們的腦電波,通過機(jī)器人學(xué)習(xí)算法運(yùn)行腦電波數(shù)據(jù),以數(shù)字方式重現(xiàn)受試者剛剛看到的人臉圖像。

這項(xiàng)技術(shù)依賴于電腦程序“神經(jīng)網(wǎng)絡(luò)系統(tǒng)”,也就是由人工智能來模擬大腦工作時(shí)的腦電波數(shù)據(jù),然后將其數(shù)字化并呈現(xiàn)出來。理論來說,這種程序不僅可以學(xué)習(xí)捕捉大腦中看到人臉圖像時(shí)所形成的數(shù)據(jù)信號(hào),對(duì)于一些演講內(nèi)容、文字?jǐn)?shù)據(jù)、動(dòng)態(tài)圖像等都可以進(jìn)行識(shí)別。所以,雖然目前實(shí)驗(yàn)僅完成了對(duì)人腦看到的人臉圖像的識(shí)別和描繪,未來對(duì)于人腦中形成的關(guān)于文字、數(shù)據(jù)、動(dòng)態(tài)圖像都可以實(shí)現(xiàn)復(fù)制和重現(xiàn)。

研究人員在培訓(xùn)這種“讀心機(jī)器人”時(shí),首先讓其通過大量的人像數(shù)據(jù)庫(kù)掌握人臉的基本形狀和標(biāo)志特征。當(dāng)機(jī)器人可以識(shí)別面部特征之后,再將這些特征與相對(duì)應(yīng)的腦電圖信號(hào)相關(guān)聯(lián)。這樣,在受測(cè)人員觀察人臉圖像時(shí),機(jī)器人就可以根據(jù)他們當(dāng)時(shí)的腦電圖反饋準(zhǔn)確描繪出人腦中所反射出的圖像。

實(shí)驗(yàn)參與人、神經(jīng)科學(xué)家阿德里安·內(nèi)斯特對(duì)于結(jié)果非常興奮,“機(jī)器人最終描繪出的可不是簡(jiǎn)單的四邊形或是三角形輪廓,而是由細(xì)微筆觸構(gòu)成的人臉模擬圖。這樣不僅可以重建人們看到的東西,而且還可以用來表達(dá)他們想象出來的,或者記憶中的內(nèi)容?!眱?nèi)斯特說,“這就出現(xiàn)了另外一種價(jià)值,執(zhí)法部門可以通過這個(gè)方法,從目擊者那里收集到潛在嫌疑人的信息?!?/p>

或許有一天,人們的記憶將呈現(xiàn)另一種可能性,就像英劇《黑鏡》中所展現(xiàn)的那樣,人們可以任意地拷貝或者回放一個(gè)人大腦中的記憶。同時(shí),這種技術(shù)的實(shí)現(xiàn)也可能在醫(yī)學(xué)上提供參考價(jià)值,為失語者提供一種表達(dá)自己思想的手段。

看臉識(shí)情緒

真正的測(cè)謊儀要來了

通過看臉色、眉眼高低就可以識(shí)別一個(gè)人的情緒,一直是區(qū)分機(jī)器人是否真“智能”的一個(gè)標(biāo)準(zhǔn),世界各大領(lǐng)域的技術(shù)大咖也都在努力讓人工智能學(xué)會(huì)“察言觀色”。谷歌的研究者們開發(fā)了一款網(wǎng)頁(yè)應(yīng)用,向人們展示由人工智能創(chuàng)作的小動(dòng)物繪畫,然后通過攝像頭記錄人們看到繪畫時(shí)的反應(yīng),準(zhǔn)確識(shí)別觀眾的喜好之后,網(wǎng)頁(yè)就可以更好地“投其所好”繪畫,這也應(yīng)該是“察言觀色”的最初級(jí)體現(xiàn)。

跟谷歌團(tuán)隊(duì)不同的是,麻省理工學(xué)院的研究者們正在針對(duì)“負(fù)面”情緒在探索,因?yàn)榭謶?、惡心時(shí)的表情可能會(huì)更夸張,人工智能也就更容易上手。

另外,類似美國(guó)知名初創(chuàng)公司Affectiva的諸多企業(yè)都在探索有情感的人工智能,以及讓機(jī)器更好地理解人類面部表情和社會(huì)行為的技術(shù)。比如說如何讓無人駕駛汽車識(shí)別司機(jī)情緒,在司機(jī)分心時(shí)接管駕車任務(wù)等。

人工智能理解人類情緒的方法其實(shí)和人類一樣,無非就是通過面部表情變化判斷情緒波動(dòng)。即使人會(huì)故意控制面部表情和聲音不產(chǎn)生變化或者展現(xiàn)出與內(nèi)心世界不一樣的表情和聲音,也總會(huì)露出一些破綻,只不過可能會(huì)很微小或一閃而過,讓人不易察覺。但對(duì)于人工智能來說,發(fā)現(xiàn)細(xì)微的現(xiàn)象或捕捉稍縱即逝的變化正是他們的長(zhǎng)項(xiàng),他們可以借助高速攝像機(jī)和高性能處理器來完成這項(xiàng)工作,從這個(gè)方面來說,人工智能對(duì)人類情緒的理解可能會(huì)比人還優(yōu)秀。

人工智能情緒識(shí)別的能力用處極大,在醫(yī)療業(yè)、服務(wù)業(yè)甚至審訊領(lǐng)域都會(huì)發(fā)揮不小的作用,就像美劇《Lie to me》能透過辨別微表情指認(rèn)犯罪者一樣,也許會(huì)在不久后實(shí)現(xiàn)。

握手辨性格

自閉兒童將有新伙伴

機(jī)器人的可怕之處不僅在于可以洞察你的大腦,還能夠從一次簡(jiǎn)單的握手中,瞬間挖掘到你的性格。據(jù)英國(guó)《每日郵報(bào)》報(bào)道,研究人員正在研發(fā)類人的情感機(jī)器人,它們對(duì)于觸覺相當(dāng)敏感,所以僅從簡(jiǎn)單的肢體接觸就可以判斷對(duì)方的性別、情緒和性格,從而回應(yīng)以相對(duì)的感情安慰。這樣的機(jī)器人就不僅僅看起來像人,還擁有和人類相似的社交能力,通過感情慰藉來融入到人類環(huán)境中。

“給機(jī)器人賦予情感是唯一可以拉近它們和人類之間情感距離的方法?!卑屠杷_克雷大學(xué)的教授阿德里亞娜表示,“我們此后的研究方向就是讓機(jī)器人能夠擁有一個(gè)‘玻璃心’,敏感到可以感知人類情緒,并學(xué)會(huì)禮貌、同情或者幽默地回應(yīng)人類的情緒?!毖芯咳藛T在初期的實(shí)驗(yàn)中已經(jīng)完成了機(jī)器人通過握手的簡(jiǎn)單肢體接觸就能判斷對(duì)方性別的能力,且正確率達(dá)到75%。

阿德里亞娜解釋:“我們首先設(shè)定了男女不同性別在握手這個(gè)動(dòng)作中的不同表現(xiàn)模式,比如男女在握手時(shí)的力度、幅度上和時(shí)間都不一樣,外向的人和內(nèi)向的人表現(xiàn)出的握手姿勢(shì)和頻率也不一樣,通過給機(jī)器人‘灌輸’這些握手模式,讓它們能夠在實(shí)際操作中識(shí)別對(duì)方身份?!?/p>

為了能夠更全面準(zhǔn)確地進(jìn)行模式設(shè)定,研究人員對(duì)大量男女握手姿勢(shì)進(jìn)行了觀察研究,除了握手力度、擺動(dòng)幅度、時(shí)間長(zhǎng)度、放松程度的區(qū)別外,研究人員還發(fā)現(xiàn),男士主動(dòng)握女士手時(shí)普遍習(xí)慣手臂更向下伸,推測(cè)是因?yàn)橐话闩慷几。斐赡惺课帐值牧?xí)慣動(dòng)作。如果這種敏感的感知能力可以推行,那么未來機(jī)器人可能扮演的角色將有很多,比如成為自閉癥孩子最好的朋友,或者孤寡老人的貼心“老伴兒”。

此前的一份調(diào)查顯示,5歲至18歲之間的青少年中,有20%表示更愿意與機(jī)器人交朋友。而對(duì)于有自閉癥的孩子來說,機(jī)器人的敏感和貼心也更會(huì)成為打動(dòng)這些孩子并換以真心的特質(zhì)。

相關(guān)知識(shí)

人工智能怎么學(xué)習(xí)

以上所有的人工智能“讀心術(shù)”歸根結(jié)底都還是基于其“深度學(xué)習(xí)能力”才能達(dá)成的。人工智能之所以具備學(xué)習(xí)能力,是因?yàn)樗灿蓄愃迫祟惖拇竽X——人工神經(jīng)網(wǎng)絡(luò)(ANN),它的本質(zhì)就在于試圖模仿大腦神經(jīng)元之間的傳遞處理信息的模式。

人工神經(jīng)網(wǎng)絡(luò)的創(chuàng)造理念受到生物學(xué)的啟發(fā),是生物神經(jīng)網(wǎng)絡(luò)的一種模擬和近似,它從結(jié)構(gòu)、實(shí)現(xiàn)機(jī)理和功能上模擬生物神經(jīng)網(wǎng)絡(luò)。一般認(rèn)為,人工神經(jīng)元網(wǎng)絡(luò)是由大量神經(jīng)元通過極其豐富和完善的連接而構(gòu)成的自適應(yīng)非線性動(dòng)態(tài)系統(tǒng)。因?yàn)樯锏膶W(xué)習(xí)系統(tǒng)是由相互連接的神經(jīng)元組成的異常復(fù)雜的網(wǎng)絡(luò),其中每一個(gè)神經(jīng)元單元有一定數(shù)量的實(shí)值輸入,并產(chǎn)生單一的實(shí)數(shù)值輸出。這種輸入和輸出模式基于數(shù)學(xué)統(tǒng)計(jì)學(xué)類型的學(xué)習(xí)方法得以優(yōu)化,所以人工神經(jīng)網(wǎng)絡(luò)也是數(shù)學(xué)統(tǒng)計(jì)學(xué)方法的一種實(shí)際應(yīng)用。

這種神經(jīng)網(wǎng)絡(luò)依靠系統(tǒng)的復(fù)雜程度,通過調(diào)整內(nèi)部大量節(jié)點(diǎn)之間相互連接的關(guān)系,達(dá)到處理信息的目的,自身也就具備了學(xué)習(xí)和自適應(yīng)的能力。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29748

    瀏覽量

    212911
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49029

    瀏覽量

    249564
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122798

原文標(biāo)題:未來機(jī)器人能有多懂你:讀腦繪圖像 看臉認(rèn)嫌犯 握手辨性格

文章出處:【微信號(hào):jingzhenglizixun,微信公眾號(hào):機(jī)器人博覽】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    工業(yè)通信界的“月老”:CC\\-Link IE和DeviceNet如何牽起機(jī)器人的“紅線”

    協(xié)議,兼容性強(qiáng),堪稱設(shè)備間的“老好人”。這兩種協(xié)議看似“八字不合”,但通過協(xié)議轉(zhuǎn)換網(wǎng)關(guān)這個(gè)“神奇月老”,能讓它們握手言和。有了它,工業(yè)機(jī)器人就能無障礙接收PLC指令,還能實(shí)時(shí)反饋狀態(tài),實(shí)現(xiàn)精準(zhǔn)協(xié)作
    發(fā)表于 06-12 14:35

    盤點(diǎn)#機(jī)器人開發(fā)平臺(tái)

    Athena機(jī)器人****開發(fā)平臺(tái)思嵐推出Athena機(jī)器人開發(fā)平臺(tái),有望主導(dǎo)機(jī)器人開發(fā)平臺(tái)未來市場(chǎng)-電子發(fā)燒友網(wǎng)AUTO CUBEROS機(jī)器人
    發(fā)表于 05-13 15:02

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】視覺實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    的cv_bridge庫(kù),可以輕松實(shí)現(xiàn)ROS圖像消息與OpenCV格式的轉(zhuǎn)換,這在實(shí)際開發(fā)中極為便利。 視覺巡線與二維碼識(shí)別的應(yīng)用 視覺巡線是機(jī)器人自主導(dǎo)航的經(jīng)典案例,書中從仿真到真實(shí)機(jī)器人
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】機(jī)器人入門的引路書

    ROS的全稱:Robot Operating System 機(jī)器人操作系統(tǒng) ROS的 目的 :ROS支持通用庫(kù),是通信總線,協(xié)調(diào)多個(gè)傳感器 為了解決機(jī)器人里各廠商模塊不通用的問題,讓機(jī)器人快速開發(fā)
    發(fā)表于 04-30 01:05

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】+內(nèi)容初識(shí)

    出有用的信息,如障礙物的位置和形狀。對(duì)于攝像頭數(shù)據(jù),可以使用 OpenCV 等圖像處理庫(kù)進(jìn)行圖像識(shí)別、目標(biāo)跟蹤等操作,為機(jī)器人的導(dǎo)航和決策提供支持。 運(yùn)動(dòng)控制:運(yùn)動(dòng)控制是機(jī)器人開發(fā)的核
    發(fā)表于 04-27 11:24

    什么是機(jī)器人?追蹤機(jī)器人技術(shù)的發(fā)展和未來

    什么是機(jī)器人? 我們都知道“機(jī)器人”這個(gè)詞,并在日常對(duì)話中隨意使用它。但我們知道它真正的含義嗎?讓我們花點(diǎn)時(shí)間來深入研究機(jī)器人的定義。它是像看起來那么簡(jiǎn)單,還是挑戰(zhàn)了我們的理解? 在其核心,機(jī)
    的頭像 發(fā)表于 04-24 19:21 ?1128次閱讀

    名單公布!【書籍評(píng)測(cè)活動(dòng)NO.58】ROS 2智能機(jī)器人開發(fā)實(shí)踐

    資格! 從 PC 到智能手機(jī),下一個(gè)更大的計(jì)算平臺(tái)是什么? 最佳答案可能是 機(jī)器人 ! 如果設(shè)想成真,則需要有人為機(jī)器人“造”,即打造適配的計(jì)算平臺(tái)及操作系統(tǒng)。 就像以計(jì)算機(jī)為平臺(tái)的計(jì)算機(jī)時(shí)代,和以
    發(fā)表于 03-03 14:18

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人的基礎(chǔ)模塊

    具身智能機(jī)器人的基礎(chǔ)模塊,這個(gè)是本書的第二部分內(nèi)容,主要分為四個(gè)部分:機(jī)器人計(jì)算系統(tǒng),自主機(jī)器人的感知系統(tǒng),自主機(jī)器人的定位系統(tǒng),自主機(jī)器人
    發(fā)表于 01-04 19:22

    《具身智能機(jī)器人系統(tǒng)》第10-13章閱讀心得之具身智能機(jī)器人計(jì)算挑戰(zhàn)

    閱讀《具身智能機(jī)器人系統(tǒng)》第10-13章,我對(duì)具身智能機(jī)器人的工程實(shí)踐有了全新認(rèn)識(shí)。第10章從實(shí)時(shí)性角度剖析了機(jī)器人計(jì)算加速問題。機(jī)器人定位中的SLAM算法需要處理兩個(gè)計(jì)算密集型任務(wù):
    發(fā)表于 01-04 01:15

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+兩本互為支持的書

    之極。 《計(jì)算機(jī)視覺之PyTorch數(shù)字圖像處理》為《具身智能機(jī)器人系統(tǒng)》提供了感知和識(shí)別能力,而《具身智能機(jī)器人系統(tǒng)》則為《計(jì)算機(jī)視覺之PyTorch數(shù)字圖像處理》提供了執(zhí)行體。
    發(fā)表于 01-01 15:50

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    指令和當(dāng)前機(jī)器人靜態(tài)圖像,生成一段預(yù)測(cè)的未來狀態(tài)視頻。從這些預(yù)測(cè)視頻中,可以提取機(jī)器人的位姿信息,并解碼出控制所需的速度、加速度等關(guān)鍵參數(shù),再傳遞給
    發(fā)表于 12-29 23:04

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.初步理解具身智能

    對(duì)人工智能、機(jī)器人技術(shù)和計(jì)算系統(tǒng)交叉領(lǐng)域感興趣的讀者來說不可或缺的書。這本書深入探討了具身智能這一結(jié)合物理機(jī)器人和智能算法的領(lǐng)域,該領(lǐng)域正在塑造自主系統(tǒng)及其應(yīng)用的未來。 開篇部分探討了具身智能
    發(fā)表于 12-28 21:12

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+初品的體驗(yàn)

    的快速發(fā)展,相關(guān)人才的需求也在不斷增加,通過閱讀該書可以幫助大家系統(tǒng)性地了解和分析當(dāng)前具身智能機(jī)器人系統(tǒng)的發(fā)展現(xiàn)狀和前沿研究,為未來的研究和開發(fā)工作提供指導(dǎo)。此外,本書還可以為研究人員和工程師提供具體
    發(fā)表于 12-20 19:17

    鴻蒙機(jī)器人與鴻蒙開發(fā)板聯(lián)動(dòng)演示

    鴻蒙機(jī)器人與鴻蒙開發(fā)板聯(lián)動(dòng)演示,機(jī)器人的角色為迎賓機(jī)器人,開發(fā)板負(fù)責(zé)人賓客出現(xiàn)監(jiān)聽
    發(fā)表于 12-02 14:55

    在用機(jī)器人未來機(jī)器人并行推進(jìn)的權(quán)重關(guān)系

    在用機(jī)器人未來機(jī)器人并行推進(jìn)的權(quán)重關(guān)系
    的頭像 發(fā)表于 08-01 08:14 ?741次閱讀
    在用<b class='flag-5'>機(jī)器人</b>與<b class='flag-5'>未來</b><b class='flag-5'>機(jī)器人</b>并行推進(jìn)的權(quán)重關(guān)系