發(fā)明家兼作家雷·科茲威爾(Ray Kurzweil)最近在谷歌與Gmail團隊合作,就自動回復(fù)電子郵件進行研究。他最近在美國外交關(guān)系委員會( Council on Foreign Relations)與《連線》雜志主編尼古拉斯·湯普森進行了交談。以下是經(jīng)過編輯的對話記錄。
【尼古拉斯·湯普森】:我們的談話就從解釋加速回報定律開始,這是支撐你寫作和工作的基本思想之一。
【雷·科茲威爾】:在人類基因組計劃進行到一半的時候,1%的基因組在7年后才被收集起來。所以主流評論家說,“我告訴過你,這行不通。你花了7年才達到1%,那一共需要700年的時間。我當(dāng)時的反應(yīng)是:“哇,我們完成了1%?那我們快完成了?!币驗?%只是100%的7倍。它每年都在翻倍。的確,這種情況還在繼續(xù)。7年后,這個項目完成了。自從基因組計劃結(jié)束后,這種情況一直持續(xù)下去。第一個基因組的成本是十億美元,而現(xiàn)在我們已經(jīng)降到了1,000美元。
我要提一下加速回報定律的一個含義,因為它有很多連鎖反應(yīng)。它確實是我們所看到的這場令人矚目的數(shù)字革命背后的原因,信息技術(shù)的通貨緊縮率高達50%。因此,我可以像一年前那樣,獲得同樣的計算、通信、基因測序和大腦數(shù)據(jù),而一年前的價格只有今天的一半。這就是為什么你今天可以用兩年前價格的一半買一部iPhone或一部安卓手機,而手機性能卻比以前優(yōu)秀兩倍。改進后的性價比一部分表現(xiàn)在價格上,另一部分表現(xiàn)在手機性能上。因此,當(dāng)一個非洲女孩以75美元的價格購買一部智能手機時,它就相當(dāng)于75美元的經(jīng)濟活動,盡管這一數(shù)字在1960年前后約為一萬億美元,在1980年大約為十億美元。它有數(shù)百萬美元的免費信息應(yīng)用,其中一個是百科全書,遠比我十幾歲時攢錢買的要好得多。所有這些在經(jīng)濟活動中都是零,因為它們都是免費的。所以我們真的不計算這些產(chǎn)品的價值。
所有這些都將改變:我們將用3-D打印機打印出衣服。目前我們處于某種3-D打印的炒作階段。但在本世紀(jì)20年代初,我們將能夠打印出服裝。屆時會有很多很酷的開源設(shè)計,你可以免費下載。我們?nèi)該碛袝r尚產(chǎn)業(yè),就像我們?nèi)匀粨碛幸魳?、電影和圖書行業(yè)一樣,與免費、開源的產(chǎn)品共存,這些產(chǎn)品都是一流的產(chǎn)品和專有產(chǎn)品。我們可以用垂直農(nóng)業(yè)生產(chǎn)出非常便宜的食物:用水培來種植水果和蔬菜,在體外克隆肌肉組織。第一個以這種方式生產(chǎn)的漢堡包已經(jīng)被購買了。它很貴,售價幾十萬美元,但是很不錯。所有這些不同的資源都將成為信息技術(shù)。最近,用亞洲的3-D打印機出來的樂高風(fēng)格的小模塊,幾天后就拼建成了一棟三層樓的辦公大樓。這將是本世紀(jì)20年代建筑的本質(zhì)。3-D打印機將打印出我們需要的實物。
【尼古拉斯·湯普森】:讓我們來談?wù)?a target="_blank">智能,就像我口袋里的手機一樣。它數(shù)學(xué)比我好,下棋比我厲害。它在很多事情上比我都做的好。什么時候它能比我更擅長與人交談?什么時候會代替我來采訪你?
【雷·科茲威爾】:我們的確擁有可以進行對話的技術(shù)。我的團隊在谷歌創(chuàng)造了智能回復(fù)。所以我們正在寫數(shù)百萬封電子郵件。它必須理解所要回復(fù)的電子郵件的含義,盡管提出的建議很簡短。但你的問題是一個類似于圖靈測試的問題,它就相當(dāng)于圖靈測試。我相信,圖靈測試是對人類智力全部范圍的有效測試。你需要完全的人類智能才能通過一個有效的圖靈測試。沒有任何單純的自然語言處理技巧可以做到這一點。如果人類法官無法分辨出其中的區(qū)別,那么我們認(rèn)為人工智能是人類智慧的一部分,而這正是你所要問的。這是我的一個關(guān)鍵預(yù)測。我一直在說2029年。1989年,在《智能機器時代》(The Age of Intelligent Machines)一書中,我設(shè)定的界限是在20世紀(jì)20年代初到20世紀(jì)30年代末之間,在1999年的《精神機器時代》(The Age of Spiritual Machines)一書中,我說的是2029年。斯坦福大學(xué)的人工智能部覺得這令人生畏,因此他們召開了一次會議,當(dāng)時人工智能專家的共識是這需要數(shù)百年的時間。25%的人認(rèn)為這永遠不會發(fā)生。我的觀點與人工智能專家的共同觀點或中間觀點越來越接近,但這并不是因為我一直在改變我的觀點。
2006年,達特茅斯召開了一個名為“人工智能@50”的會議。當(dāng)時的共識是50年,那時我說的是23年。我們剛剛在阿西洛瑪舉辦了一個人工智能倫理會議,當(dāng)時的共識是在20到30年之間,而那會我說是13年。我還是比較樂觀,但并沒有那么樂觀,越來越多的人認(rèn)為我太保守了。
我沒有提到加速回報定律的一個關(guān)鍵問題是:硬件不僅會呈指數(shù)級增長,軟件也同樣如此。我感覺越來越自信,我認(rèn)為人工智能群體正越來越有信心,相信我們離這一里程碑不遠了。
我們將與人工智能技術(shù)結(jié)合,讓我們變得更聰明。它已經(jīng)做到了。這些設(shè)備都是大腦擴展器,人們也會這么想,這是一種新事物。就在幾年前,人們還沒有把他們的智能手機看做是大腦擴展器。按照定義,它們會進入我們的身體和大腦,但我認(rèn)為這是一個武斷的區(qū)分。雖然它們在我們的身體和大腦之外,但它們已經(jīng)是大腦的延伸,它們會讓我們變得更聰明、更有趣。
【尼古拉斯·湯普森】:請解釋一下政策制定者的框架,他們應(yīng)該如何看待這種加速技術(shù)、他們應(yīng)該做以及他們不應(yīng)該做的事情。
【雷·科茲威爾】:人們對人工智能非常關(guān)注,如何保證技術(shù)的安全,這是一種兩極分化的討論,就像現(xiàn)在很多討論一樣。實際上,我在很長一段時間里都在談?wù)摮兄Z和危險。技術(shù)永遠都是一把雙刃劍?;鹗刮覀兣?,為我們烹飪食物的同時,也能燒毀我們的房子。這些技術(shù)比火更加強大。我認(rèn)為我們應(yīng)該經(jīng)歷三個階段,至少我是這么認(rèn)為的。首先是為能有機會解決一直以來的難題而感到高興:比如貧窮、疾病等等。然后要警告這些技術(shù)可能具有破壞性,甚至?xí)砩骘L(fēng)險。最后,我認(rèn)為我們需要指出的是,我們必須意識到,除了我們已經(jīng)取得的進步,我們在道義上必須持續(xù)推動這些技術(shù)的發(fā)展。這是一個完全不同的問題,人們認(rèn)為情況正在變得更糟,但實際上情況正在變得更好,仍然有很多的人類苦難需要去解決。只有人工智能領(lǐng)域取得的持續(xù)發(fā)展,才能使我們繼續(xù)克服貧困、疾病和環(huán)境退化,但同時我們也將面臨危險。
這是一個很好的框架。四十年前,有遠見卓識的人看到了生物技術(shù)的前景和風(fēng)險,從根本上改變了生物學(xué),讓生物學(xué)在正確的道路上獲得了長足發(fā)展。因此,他們在阿西洛瑪?shù)臅h中心舉辦了一場“阿西洛瑪會議”,并提出了道德準(zhǔn)則和策略,即如何保證這些技術(shù)的安全?,F(xiàn)在已經(jīng)是四十年后了。我們正受到生物技術(shù)的臨床影響。今天是涓涓細流,未來十年將是一場洪水猛獸。到目前為止,因濫用生物技術(shù)而受到傷害的人數(shù)為零。這是一個很好的學(xué)習(xí)模型。
我們剛剛舉行了第一屆關(guān)于人工智能倫理的阿西洛瑪會議。這些倫理準(zhǔn)則中有很多,特別是在生物技術(shù)領(lǐng)域,已經(jīng)寫入了法律。所以我認(rèn)為這就是我們的目標(biāo)。最極端的是,“讓我們禁止這項技術(shù)”,或者“讓我們慢下腳步”。這的確不是正確的方法。我們要以一種建設(shè)性的方式來引導(dǎo)。有一些策略可以做到這一點,這是另一個復(fù)雜的討論。
【尼古拉斯·湯普森】你可以想象一下,國會可能會說,在某種技術(shù)領(lǐng)域工作的每個人都必須公開自己的數(shù)據(jù),或者必須愿意分享他的數(shù)據(jù)集,至少要讓競爭激烈的市場戰(zhàn)勝這些難以置信的強大工具。你可以想象,政府會說,“實際上,我們將會有一個由政府資助的大項目,就像OpenAI一樣,但是由政府管理。”你可以想象,有一場巨大的國家基礎(chǔ)設(shè)施運動來發(fā)展這項技術(shù),所以至少負責(zé)公眾利益的核心人士可以控制其中的一部分。你有什么推薦的嗎?
【雷·科茲威爾】:我認(rèn)為開源數(shù)據(jù)和算法通常是一個好主意。谷歌將所有的人工智能算法與開源的附源代碼(TensorFlow)都放在公共領(lǐng)域。我認(rèn)為這實際上是開源和不斷加速的回報定律的結(jié)合,它將使我們更接近理想。有很多問題,比如隱私,這些都是維護的關(guān)鍵,我認(rèn)為這個領(lǐng)域的人通常都很關(guān)心這些問題。目前還不清楚正確答案是什么。我認(rèn)為我們想要繼續(xù)進步,但是當(dāng)你有這么大的權(quán)力時,即使是出于善意,也會有濫用的情況。
【尼古拉斯·湯普森】:你擔(dān)心什么?你看待未來非常樂觀。但是你擔(dān)心什么呢?
【雷·科茲威爾】:我被指責(zé)為一個樂觀主義者,作為一個企業(yè)家,你必須是一個樂觀主義者,因為如果你了解你遇到的所有問題,你可能永遠都不會開始做任何項目。但正如我說過的,我一直在關(guān)注和撰寫切實存在的一些負面影響。這些技術(shù)非常強大,所以我確實很擔(dān)心,盡管我是一個樂觀主義者。我很樂觀,我們最終會度過難關(guān)。我也不會樂觀說,我們不會遇到任何困難。第二次世界大戰(zhàn)期間,有5000萬人死亡,而當(dāng)時的技術(shù)的力量更是加劇了死亡人數(shù)。我認(rèn)為讓人們意識到我們正在取得進步是很重要的。最近在26個國家進行了一項24,000人的民意調(diào)查。調(diào)查的問題是,“世界的貧困狀況是否緩解?”90%的人說,情況變得更糟了,但這是錯誤的答案。只有1%的人給了正確答案,認(rèn)為世界貧困人口下降了至少50%。
【尼古拉斯·湯普森】:有關(guān)職業(yè)生涯,觀眾們應(yīng)該做些什么?他們即將進入這樣一個世界,在這個世界里,職業(yè)選擇映射到一個擁有完全不同技術(shù)的世界。所以在你看來,給這個房間里的人什么建議?
【雷·科茲威爾】:這確實是一條古老的建議,那就是跟隨你的激情,因為真的沒有什么領(lǐng)域不會受到影響,或者這不是這個故事的一部分。我們將在云端合并模擬新大腦皮層。所以,我們還是會變得更聰明。我并不認(rèn)為人工智能會取代我們。它會增強我們的力量。它已經(jīng)做到了。沒有我們今天擁有的這些大腦擴展器,誰能完成它們的工作。這種情況將持續(xù)下去。人們會說,“好吧,只有富人才會有這些工具,”我說,“是的,就像智能手機一樣,現(xiàn)在有三十億人已經(jīng)擁有智能手機了?!蔽抑罢f的是二十億人,但我剛看了新聞,大概是三十億人。幾年后就會變成六十億。這是因為驚人的價格表現(xiàn)爆炸。所以要找到你有激情的地方。有些人有復(fù)雜的情感,他們不容易被歸類,所以要找到一種方法,使用可用的工具,讓你覺得自己可以改變世界。我提出加速回報定律的原因是,要記錄我自己的技術(shù)項目所需時間,所以我可以在項目可行的幾年前便開始,去嘗試和預(yù)測技術(shù)的發(fā)展方向。就在幾年前,我們擁有了一些看起來像智能手機的小設(shè)備,但它們不太好用。因此,像這種科技革命和移動應(yīng)用在五年前幾乎不存在。五年后,世界將會變得截然不同,所以試著讓你的項目發(fā)展速度跟上與火車站臺的火車的速度。
觀眾提問:這么多的強調(diào)都是關(guān)于人性、科學(xué)和探索的美好一面,我也很好奇朝我們的機器人合作伙伴邁進的下一步。那黑暗的一面呢?那么戰(zhàn)爭、戰(zhàn)爭機器和暴力呢?
【雷·科茲威爾】:我們正在學(xué)習(xí)如何利用并操控這些平臺來擴大人類的各種傾向,而其中很多都是我們正在學(xué)習(xí)的最新信息。所以人工智能從例子中學(xué)習(xí)。在這個領(lǐng)域有一句格言,生命始于十億個例子,最好的例子就是向人們學(xué)習(xí),所以人工智能經(jīng)常向人類學(xué)習(xí)。情況并不總是這樣。阿爾法狗(AlphaGo Zero)剛剛自己學(xué)會如何自我對戰(zhàn),但這并不總是可行的,尤其是當(dāng)你在嘗試處理更復(fù)雜的現(xiàn)實世界問題時。這一領(lǐng)域做出了巨大努力,所有大公司和開源研究領(lǐng)域也在努力研究中,其目的就是為了消除人工智能的偏見,以及克服性別偏見和種族偏見,因為如果人工智能向有偏見的人類學(xué)習(xí),它就會從人們那里獲得偏見。作為人類,我們會從我們所見過的所有事物中獲取偏見,其中很多都是潛意識的。作為受過教育的人,我們會認(rèn)識到偏見并試圖克服它,我們的頭腦中會產(chǎn)生沖突。有一整個領(lǐng)域的研究都是為了消除人工智能的偏見,并克服它們從人類身上獲取的偏見。所以這是一種能夠克服機器智能的問題的研究。從這些方面來看,機器智能實際上比它學(xué)習(xí)的人類偏見更少??偟膩碚f,盡管社交媒體上各種各樣的承諾和風(fēng)險交織在一起,但總體來說,這是一件非常有益的事情。我穿過機場,每個兩歲以上的孩子都拿著自己的設(shè)備。社交媒體已經(jīng)成為了一個世界性的社區(qū),我認(rèn)為現(xiàn)在的一代比其他任何一代人都更能感覺到他們是世界公民,因為他們與世界上所有的文化都有聯(lián)系。
【尼古拉斯·湯普森】:去年,美國與世界其他地區(qū)的關(guān)系并沒有變得更緊密,很多人會說,我們的民主沒有變得更好。這是持續(xù)進步與人類攜手共進道路上的曲折,還是很多人誤解了它?
【雷·科茲威爾】:美國和世界其他地方在政治上的兩極分化是不幸的。我不認(rèn)為這是我們今天談?wù)摰?a href="http://www.socialnewsupdate.com/v/tag/" target="_blank">話題。我的意思是,我們在世界上經(jīng)歷過重大的波折。第二次世界大戰(zhàn)是一個相當(dāng)大的波折,實際上并沒有影響到這些趨勢。在某些政府官員或政府中,可能有些事情是我們不喜歡的。但這里有一點需要討論。我們并不是在無法表達自己的觀點的極權(quán)主義的時代。如果我們朝那個方向發(fā)展,我會更擔(dān)心,但我不認(rèn)為會發(fā)生這種情況。所以,不要貶低政府和當(dāng)權(quán)者的重要性,但這是在一個不同的層面上。我們談?wù)摰倪@些問題并沒有受到這些事情的影響。我擔(dān)心的是存在的風(fēng)險,因為技術(shù)是一把雙刃劍。
觀眾提問:我的問題與不平等有關(guān)。在人類歷史的大部分時期,經(jīng)濟不平等程度相當(dāng)高,這其中有很多階段。我想知道,你是否認(rèn)為20世紀(jì)是一種反?,F(xiàn)象,以及科技的擴散將如何影響這種不平等。
【雷·科茲威爾】:經(jīng)濟平等問題正在朝好的方向發(fā)展。根據(jù)世界銀行的數(shù)據(jù),在過去的20年里,亞洲的貧困人口減少了90%以上,從原始的農(nóng)業(yè)經(jīng)濟發(fā)展到繁榮的信息經(jīng)濟。非洲和南美的經(jīng)濟增長率遠高于發(fā)達國家。你看到的任何地方,都存在著不平等現(xiàn)象,但事情正在朝著正確的方向快速發(fā)展。在過去的20年里,全世界的貧困人口減少了50%。還有很多其他的衡量標(biāo)準(zhǔn)。所以我們正朝著正確的方向前進。在任何一個時間點上,都存在嚴(yán)重的不平等,都有人正經(jīng)歷苦難,但這些現(xiàn)象正朝著好的方向發(fā)展。
觀眾提問:我從你的評論中得知你正在預(yù)測人工智能離下一階段還有12年,你已經(jīng)提到過幾次,盡管你很樂觀,但你擔(dān)心的是存在風(fēng)險,所以我想知道你是否可以詳細說明一下你的意思,你認(rèn)為技術(shù)專家應(yīng)該做什么來降低這些風(fēng)險?
【雷·科茲威爾】:我的意思是,存在的風(fēng)險是威脅我們文明生存的風(fēng)險。因此,人類面臨的第一個生存風(fēng)險是核擴散。我們已經(jīng)有能力摧毀所有人類的生命。有了這些新技術(shù),我們不難想到,它們可能具有極大的破壞性,并摧毀全人類。例如,生物技術(shù)。我們有能力從疾病中重新規(guī)劃生物學(xué),比如免疫療法,這是治療癌癥的一個非常令人興奮的突破,我認(rèn)為這非常具有革命性,不過它只是剛剛開始。它正在重新編程免疫系統(tǒng)去治療癌癥,而通常情況下不可能做到。但是,生物恐怖分子可以對一種病毒進行重新編程,使其更加致命,更具傳染性,更加隱秘,從而制造出一種超級武器。這就是40年前第一次阿西洛瑪會議所引發(fā)的難題。這些反復(fù)出現(xiàn)的會議讓這些倫理準(zhǔn)則、安全協(xié)議和策略變得更加復(fù)雜,到目前為止,它已經(jīng)起作用了。但我們一直在讓這項技術(shù)變得更加復(fù)雜,所以我們必須一次又一次地重新制定這些準(zhǔn)則。我們剛剛舉行了第一次關(guān)于人工智能倫理的會議。我們提出了一套道德規(guī)范,并且都已署名通過。其中很多都是模糊的。我認(rèn)為這是一個非常重要的問題。我們發(fā)現(xiàn)我們必須在軟件中建立倫理價值觀。一個典型的例子就是無人駕駛汽車。自動駕駛汽車的全部動機是,在200萬名人類司機中,避免99%的司機的死亡,但它將陷入一種境地,必須做出道德決策:它應(yīng)該朝著嬰兒車或向老年夫婦行駛,還是向墻壁行駛,而這可能導(dǎo)致乘客死亡。無人駕駛車是否有道德準(zhǔn)則,不導(dǎo)致車內(nèi)乘客的死亡?在這種情況下,無人駕駛車不能給軟件設(shè)計師發(fā)送電子郵件,然后說,“天哪,我該怎么辦?”道德準(zhǔn)則必須內(nèi)置在軟件中。所以這些都是實際問題,在這個問題上,人工智能有一個完整的領(lǐng)域。
但我們該如何應(yīng)對更為實際存在的風(fēng)險:短期內(nèi)就能實現(xiàn)的人工智能武器化。世界各地的國防部都在使用人工智能。當(dāng)時有一份文件要求人們同意禁止使用自動武器,這聽起來是個好主意,而使用的例子是“我們禁止化學(xué)武器,所以為什么不使用自主的人工智能武器呢?”這有點復(fù)雜,因為我們可以不用炭疽,也不用天花。禁止化學(xué)武器是可以的。但自動武器是一種兩用技術(shù)。能將你的冷凍華夫餅或藥品送到非洲一家醫(yī)院的亞馬遜無人機,可能用于運輸一種武器。這是同樣的技術(shù),一切已蓄勢待發(fā)。也就是說,這是一個更復(fù)雜的問題,如何處理。但我們的目標(biāo)是收獲承諾并控制風(fēng)險。沒有簡單的算法,我們可以把這個子程序放入我們的人工智能中,“好吧,把這個子程序放進去?!彼鼤屇愕娜斯ぶ悄鼙3至夹??!敝橇μ焐褪菬o法控制的。我的策略并不愚蠢,它是在我們自己的人類社會中實踐我們希望在世界上看到的道德、道德和價值觀。因為未來的社會并不是某些來自火星的智能機器的入侵。它誕生于我們今天的文明。這將會增強我們的自我。因此,如果我們正在實踐我們今天所珍視的價值觀,那就是在未來擁有一個包含這些價值觀的世界的最佳策略。
評論