近年來,一些悲觀的媒體與專家開始擔(dān)憂人工智能的高速發(fā)展將會對人類自身的生存產(chǎn)生威脅,甚至連理論物理學(xué)家、《時間簡史》的作者霍金都曾公開告誡大眾:“完全人工智能的研發(fā)意味著人類的末日”。特斯拉與Space X的創(chuàng)始人埃隆·馬斯克與霍金有大致相似的擔(dān)憂。馬斯克說:我們必須非常小心人工智能。如果必須預(yù)測我們面臨的最大現(xiàn)實威脅,恐怕就是人工智能。”
李開復(fù)博士在《人工智能》一書中提到了三種不同層級的人工智能來回答這個問題。
一、弱人工智能(Weak AI)
弱人工智能(Weak AI)也稱限制領(lǐng)域人工智能(Narrow AI)或應(yīng)用型人工智能(Applied AI),指的是專注于且只能解決特定領(lǐng)域問題的人工智能。毫無疑問,今天我們看到的所有人工智能算法和應(yīng)用都屬于弱人工智能的范疇。
Alpha Go是弱人工智能的一個最好實例。Alpha Go在圍棋領(lǐng)域超越了人類最頂尖選手,笑傲江湖。但Alpha Go的能力也僅止于圍棋(或類似的博弈領(lǐng)域),下棋時,如果沒有人類的幫助(還記得Alpha Go與李世石比賽時,幫機(jī)器擺棋的黃士杰博士嗎?),Alpha Go連從棋盒里拿出棋子并置于棋盤之上的能力都沒有,更別提下棋前向?qū)κ中卸Y、下棋后一起復(fù)盤等圍棋禮儀了。
一般而言,限于弱人工智能在功能上的局限性,人們更愿意將弱人工智能看成是人類的工具,而不會將弱人工智能視為威脅。也就是說,弱人工智能在總體上只是一種技術(shù)工具,如果說弱人工智能存在風(fēng)險,那也和人類已大規(guī)模使用的其他技術(shù)沒有本質(zhì)的不同。只要嚴(yán)格控制,嚴(yán)密監(jiān)管,人類完全可以像使用其他工具那樣,放心地使用今天的所有AI技術(shù)。
二、強(qiáng)人工智能(Strong AI)
強(qiáng)人工智能又稱通用人工智能(Artificial general intelligence)或完全人工智能(Full AI),指的是可以勝任人類所有工作的人工智能。
人可以做什么,強(qiáng)人工智能就可以做什么。這種定義過于寬泛,缺乏一個量化的標(biāo)準(zhǔn)來評估什么樣的計算機(jī)程序才是強(qiáng)人工智能。為此,不同的研究者提出了許多不同的建議。最為流行、被廣為接受的標(biāo)準(zhǔn)是圖靈測試。
(圖靈測試(The Turing test)由艾倫·麥席森·圖靈發(fā)明,指測試者與被測試者(一個人和一臺機(jī)器)隔開的情況下,通過一些裝置(如鍵盤)向被測試者隨意提問。
進(jìn)行多次測試后,如果有超過30%的測試者不能確定出被測試者是人還是機(jī)器,那么這臺機(jī)器就通過了測試,并被認(rèn)為具有人類智能圖靈測試一詞來源于計算機(jī)科學(xué)和密碼學(xué)的先驅(qū)阿蘭·麥席森·圖靈寫于1950年的一篇論文《計算機(jī)器與智能》,其中30%是圖靈對2000年時的機(jī)器思考能力的一個預(yù)測,目前我們已遠(yuǎn)遠(yuǎn)落后于這個預(yù)測。
但即便是圖靈測試本身,也只是關(guān)注于計算機(jī)的行為和人類行為之間,從觀察者角度而言的不可區(qū)分性,并沒有提及計算機(jī)到底需要具備哪些具體的特質(zhì)或能力,才能實現(xiàn)這種不可區(qū)分性。
一般認(rèn)為,一個可以稱得上強(qiáng)人工智能的程序,大概需要具備以下幾方面的能力:
1)存在不確定因素時進(jìn)行推理,使用策略,解決問題,制定決策的能力;
2)知識表示的能力,包括常識性知識的表示能力;
3)規(guī)劃能力;
4)學(xué)習(xí)能力;
5)使用自然語言進(jìn)行交流溝通的能力;
6)將上述能力整合起來實現(xiàn)既定目標(biāo)的能力;
基于上面幾種能力的描述,我們大概可以想象,一個具備強(qiáng)人工智能的計算機(jī)程序會表現(xiàn)出什么樣的行為特征。一旦實現(xiàn)了符合這一描述的強(qiáng)人工智能,那我們幾乎可以肯定地說,所有人類工作都可以由人工智能來取代。從樂觀主義的角度講,人類到時就可以坐享其成,讓機(jī)器人為我們服務(wù),每部機(jī)器人也許可以一對一地替換每個人類個體的具體工作,人類則獲得完全意義上的自由,只負(fù)責(zé)享樂,不再需要勞動。
強(qiáng)人工智能的定義里,存在一個關(guān)鍵的爭議性問題:強(qiáng)人工智能是否有必要具備人類的“意識”(Consciousness)。有些研究者認(rèn)為,只有具備人類意識的人工智能才可以叫強(qiáng)人工智能。另一些研究者則說,強(qiáng)人工智能只需要具備勝任人類所有工作的能力就可以了,未必需要人類的意識。
一旦牽涉“意識”,強(qiáng)人工智能的定義和評估標(biāo)準(zhǔn)就會變得異常復(fù)雜。而人們對于強(qiáng)人工智能的擔(dān)憂也主要來源于此。不難設(shè)想,一旦強(qiáng)人工智能程序具備人類的意識,那我們就必然需要像對待一個有健全人格的人那樣對待一臺機(jī)器。那時,人與機(jī)器的關(guān)系就絕非工具使用者與工具本身這么簡單。擁有意識的機(jī)器會不會甘愿為人類服務(wù)?機(jī)器會不會因為某種共同訴求而聯(lián)合起來站在人類的對立面?一旦擁有意識的強(qiáng)人工智能得以實現(xiàn),這些問題將直接成為人類面臨的現(xiàn)實挑戰(zhàn)。
三、超人工智能(Superintelligence)
假設(shè)計算機(jī)程序通過不斷發(fā)展,可以比世界上最聰明、最有天賦的人類還聰明,那么,由此產(chǎn)生的人工智能系統(tǒng)就可以被稱為超人工智能。
牛津大學(xué)哲學(xué)家、未來學(xué)家尼克·波斯特洛姆(Nick Bostrom)在他的《超級智能》一書中,將超人工智能定義為“在科學(xué)創(chuàng)造力、智慧和社交能力等每一方面都比最強(qiáng)的人類大腦聰明很多的智能”。顯然,對今天的人來說,這是一種只存在于科幻電影中的想象場景。
與弱人工智能、強(qiáng)人工智能相比,超人工智能的定義最為模糊,因為沒人知道,超越人類最高水平的智慧到底會表現(xiàn)為何種能力。如果說對于強(qiáng)人工智能,我們還存在從技術(shù)角度進(jìn)行探討的可能性的話,那么,對于超人工智能,今天的人類大多就只能從哲學(xué)或科幻的角度加以解析了。
首先,我們不知道強(qiáng)于人類的智慧形式將是怎樣的一種存在。現(xiàn)在去談?wù)摮斯ぶ悄芎腿祟惖年P(guān)系,不僅僅是為時過早,而是根本不存在可以清晰界定的討論對象。
其次,我們沒有方法,也沒有經(jīng)驗去預(yù)測超人工智能到底是一種不現(xiàn)實的幻想,還是一種在未來(不管這個未來是一百年還是一千年、一萬年)必然會降臨的結(jié)局。事實上,我們根本無法準(zhǔn)確推斷,到底計算機(jī)程序有沒有能力達(dá)到這一目標(biāo)。
顯然,如果公眾對人工智能會不會挑戰(zhàn)、威脅人類有擔(dān)憂的話,公眾心目中所擔(dān)心的那個人工智能,基本上屬于這里所說的“強(qiáng)人工智能”和“超人工智能”。
我們到底該如何看待“強(qiáng)人工智能”和“超人工智能”的未來?它們會像Alpha Go那樣,以遠(yuǎn)超我們預(yù)料的速度降臨世間嗎?
科技發(fā)展瓶頸帶來的緩沖帶
那么究竟什么到什么時候強(qiáng)人工智能和超人工智能才能被制造出來?是有前提的,前提是人類科技總是以加速度形式躍進(jìn)的基礎(chǔ)上的。一種更有可能出現(xiàn)的情況是:特定的科技如人工智能,在一定時間的加速發(fā)展后,會遇到某些難以逾越的技術(shù)瓶頸。
有關(guān)計算機(jī)芯片性能的摩爾定律(價格不變時,集成電路上可容納的元器件數(shù)目每隔18到24個月便會增加一倍,性能也將提升一倍)就是一個技術(shù)發(fā)展遭遇瓶頸的很好例子。計算機(jī)芯片的處理速度,曾在1975年到2012年的數(shù)十年間保持穩(wěn)定的增長趨勢,卻在2013年前后顯著放緩。2015年,連提出摩爾定律的高登·摩爾(Gordon Moore)本人都說:“我猜我可以看見摩爾定律會在大約10年內(nèi)失效,但這并不是一件令人吃驚的事?!?/p>
正如原本受摩爾定律左右的芯片性能發(fā)展已遭遇技術(shù)瓶頸那樣,人工智能在從弱人工智能發(fā)展到強(qiáng)人工智能的道路上,未必就是一帆風(fēng)順的。從技術(shù)角度說,弱人工智能與強(qiáng)人工智能之間的鴻溝可能遠(yuǎn)比我們目前所能想象的要大得多。而且,最重要的是,由于基礎(chǔ)科學(xué)(如物理學(xué)和生物學(xué))尚缺乏對人類智慧和意識的精確描述,從弱人工智能發(fā)展到強(qiáng)人工智能,其間有很大概率存在難以在短期內(nèi)解決的技術(shù)難題。今天,學(xué)者們對超人工智能何時到來的問題眾說紛紜。悲觀者認(rèn)為技術(shù)加速發(fā)展的趨勢無法改變,超越人類智能的機(jī)器將在不遠(yuǎn)的將來得以實現(xiàn),那時的人類將面臨生死存亡的重大考驗。而樂觀主義者則更愿意相信,人工智能在未來相當(dāng)長的一個歷史時期都只是人類的工具,很難突破超人工智能的門檻。
-
摩爾定律
+關(guān)注
關(guān)注
4文章
640瀏覽量
79866 -
人工智能
+關(guān)注
關(guān)注
1806文章
49011瀏覽量
249356
原文標(biāo)題:怎么理解人工智能的“威脅論”?
文章出處:【微信號:jingzhenglizixun,微信公眾號:機(jī)器人博覽】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
人工智能和機(jī)器學(xué)習(xí)以及Edge AI的概念與應(yīng)用

嵌入式和人工智能究竟是什么關(guān)系?
心智理論測試:人工智能擊敗人類
人工智能對人類的影響有哪些
《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感
AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感
《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第一章人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得
risc-v在人工智能圖像處理應(yīng)用前景分析
人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析
生成式人工智能的概念_生成式人工智能主要應(yīng)用場景
人工智能ai4s試讀申請
名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新
報名開啟!深圳(國際)通用人工智能大會將啟幕,國內(nèi)外大咖齊聚話AI
利用人工智能改變 PCB 設(shè)計

評論