電子發(fā)燒友早八點(diǎn)訊:雖然史蒂夫-霍金開設(shè)了微博,但對(duì)大部分中國(guó)人來說,能與他直接交流的機(jī)會(huì)還是非常罕見。畢竟,我們多是從編譯的外媒報(bào)道中,窺見這位科學(xué)巨擘思想的一二,而中文媒體的專訪更是寥寥無幾。
新浪科技聯(lián)合長(zhǎng)城會(huì)發(fā)起了“科學(xué)復(fù)興 對(duì)話霍金”的活動(dòng),獲得與霍金面談的機(jī)會(huì),短短一周時(shí)間內(nèi),超過700萬(wàn)網(wǎng)友瀏覽討論了該活動(dòng)。我們也最終收集到了上萬(wàn)條對(duì)霍金提出的問題,與長(zhǎng)城會(huì)創(chuàng)始人文廚遠(yuǎn)赴劍橋面見了這位當(dāng)今世界最偉大的物理學(xué)家、宇宙學(xué)家,霍金講述了人工智能可能帶給人類的變化及其對(duì)人生的態(tài)度。
霍金近幾年對(duì)人工智能十分關(guān)注,多次發(fā)表對(duì)人工智能發(fā)展的看法。在今天開幕的GMIC 2017北京大會(huì)上,霍金發(fā)表演講稱:“強(qiáng)大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。對(duì)于好壞我們?nèi)詿o法確定,現(xiàn)在人類只能竭盡所能,確保其未來發(fā)展對(duì)人類和環(huán)境有利,人類別無選擇?!?/p>
人工智能的研究與開發(fā)現(xiàn)在正以極快的速度迅速推進(jìn),霍金稱:“也許我們所有人都應(yīng)該暫停片刻,把我們的研究重復(fù)從提升人工智能能力轉(zhuǎn)移到最大化人工智能的社會(huì)效益上面?!被谶@樣的考慮,美國(guó)人工智能協(xié)會(huì)(AAAI)于2008至2009年,成立了人工智能長(zhǎng)期未來總籌委員會(huì)(Presidential Panel on Long-Term AI Futures),他們近期在目的導(dǎo)向的中性技術(shù)上投入了大量的關(guān)注,確保人工智能系統(tǒng)須要按照人類的意志工作。
霍金提及聰明的機(jī)器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬(wàn)計(jì)的工作崗位。他稱:“文明所提產(chǎn)生的一切都是人類智能的產(chǎn)物,我相信生物大腦可以達(dá)到的和計(jì)算機(jī)可以達(dá)到的,沒有本質(zhì)區(qū)別。因此,它遵循了‘計(jì)算機(jī)在理論上可以模仿人類智能,然后超越’這一原則。但我們并不確定,所以我們無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅?!?/p>
演講中,霍金特別提到了,2015年1月,霍金與和SpaceX太空探索技術(shù)公司和特斯拉CEO埃隆-馬斯克等其他人工智能專家簽署的一份關(guān)于人工智能的公開信,目的提倡就人工智能對(duì)社會(huì)所造成的影響做認(rèn)真的調(diào)研。在這之前,埃隆-馬斯克就警告過人們:超人類人工智能可能帶來不可估量的利益,但是如果部署不當(dāng),則可能給人類帶來相反的效果?;艚鸱Q這份公開信號(hào)召展開可以阻止?jié)撛趩栴}的直接研究,同時(shí)也收獲人工智能帶給人類的潛在利益,致力于讓人工智能的研發(fā)人員更關(guān)注人工智能安全。
霍金辦公室的一角霍金辦公室的一角
在過去的20年里,人工智能一直專注于圍繞建設(shè)智能代理所產(chǎn)生的問題,也就是在特定環(huán)境下可以感知并行動(dòng)的各種系統(tǒng)。在這種情況下,智能是一個(gè)與統(tǒng)計(jì)學(xué)和經(jīng)濟(jì)學(xué)相關(guān)的理性概念。通俗地講,這是一種做出好的決定、計(jì)劃和推論的能力。基于這些工作,大量的整合和交叉孕育被應(yīng)用在人工智能、機(jī)器學(xué)習(xí)、統(tǒng)計(jì)學(xué)、控制論、神經(jīng)科學(xué)、以及其它領(lǐng)域。共享理論框架的建立,結(jié)合數(shù)據(jù)的供應(yīng)和處理能力,在各種細(xì)分的領(lǐng)域取得了顯著的成功。例如語(yǔ)音識(shí)別、圖像分類、自動(dòng)駕駛、機(jī)器翻譯、步態(tài)運(yùn)動(dòng)和問答系統(tǒng)。
霍金解釋:“隨著這些領(lǐng)域的發(fā)展,從實(shí)驗(yàn)室研究到有經(jīng)濟(jì)價(jià)值的技術(shù)形成良性循環(huán)。哪怕很小的性能改進(jìn),都會(huì)帶來巨大的經(jīng)濟(jì)效益,進(jìn)而鼓勵(lì)更長(zhǎng)期、更偉大的投入和研究。目前人們廣泛認(rèn)同,人工智能的研究正在穩(wěn)步發(fā)展,而它對(duì)社會(huì)的影響很可能擴(kuò)大,潛在的好處是巨大的,既然文明所產(chǎn)生的一切,都是人類智能的產(chǎn)物;我們無法預(yù)測(cè)我們可能取得什么成果,當(dāng)這種智能是被人工智能工具放大過的。但是,正如我說過的,根除疾病和貧窮并不是完全不可能,由于人工智能的巨大潛力,研究如何(從人工智能)獲益并規(guī)避風(fēng)險(xiǎn)是非常重要的?!?/p>
人工智能的迅速發(fā)展,霍金稱對(duì)短期的擔(dān)憂在無人駕駛方面、智能的致命性自主武器、由人工智逐漸可以解讀大量監(jiān)控?cái)?shù)據(jù)而引起對(duì)隱私的擔(dān)憂以及如何管理因人工智能取代工作崗位帶來的經(jīng)濟(jì)影響,而長(zhǎng)期的擔(dān)憂則是對(duì)人工智能系統(tǒng)失控的潛在風(fēng)險(xiǎn),隨著不遵循人類意愿行事的超級(jí)智能的崛起,強(qiáng)大的系統(tǒng)是否會(huì)威脅到人類?;艚饟?dān)憂當(dāng)前控制人工智能技術(shù)的工具,例如強(qiáng)化學(xué)習(xí),還不足以解決上述問題。因此,人類需要進(jìn)一步研究來找到和確認(rèn)一個(gè)可靠的解決辦法來掌控這些問題。
霍金曾稱人工智能的全方位發(fā)展可能招致人類的滅亡,今年早些時(shí)候,還和一些來自世界各國(guó)的科學(xué)家共同在聯(lián)合國(guó)會(huì)議上支持其對(duì)于核武器的禁令,因?yàn)樗X得作為科學(xué)家,對(duì)核武器承擔(dān)著特殊的責(zé)任,因?yàn)檎强茖W(xué)家發(fā)明了它們,并發(fā)現(xiàn)它們的影響比最初預(yù)想的更加可怕。而對(duì)于人工智能,霍金同樣覺得可能是人類文明史的終結(jié),除非人類學(xué)會(huì)如何避免危險(xiǎn)。
對(duì)于災(zāi)難的探討并非危言聳聽,霍金希望人類要認(rèn)清自己在影響當(dāng)前技術(shù)的未來研發(fā)中的位置,呼吁國(guó)際條約的支持或者簽署呈交給各國(guó)政府的公開信,希望科技領(lǐng)袖和科學(xué)家極盡所能避免不可控的人工智能的崛起。
一個(gè)事物的好壞都有兩面性,霍金表達(dá)完對(duì)人工智能的擔(dān)心后,也表示人工智能的成功同樣也可能是人類文明史上最大的事件,他稱:“當(dāng)人類的頭腦被人工智能放大以后,也許在這種新技術(shù)革命的輔助下可以解決一些工業(yè)化對(duì)自然界造成的損害。關(guān)乎到我們生活的各個(gè)方面都即將被改變?!睘榇嘶艚鹑ツ暝谟?guó)劍橋建立了一個(gè)新的機(jī)構(gòu)“利弗休姆智能未來中心”,試圖解決一些在人工智能研究快速發(fā)展中出現(xiàn)的尚無定論的問題。
演講最后,霍金稱人類還應(yīng)該扮演一個(gè)角色,確保下一代不僅有機(jī)會(huì)還要有決心,在早期階段充分參與科學(xué)研究,以便他們繼續(xù)發(fā)揮潛力,幫助人類創(chuàng)造一個(gè)更加美好的世界,“我們需要跳出‘事情應(yīng)該如何’這樣的理論探討,并且采取行動(dòng),以確保他們有機(jī)會(huì)參與進(jìn)來。我們站在一個(gè)美麗新世界的入口。這是一個(gè)令人興奮的、同時(shí)充滿了不確定性的世界,而你們是先行者。我祝福你們?!?/p>
以下為霍金回答中國(guó)網(wǎng)友與科技大咖、科學(xué)家、投資家的問題實(shí)錄:
創(chuàng)新工場(chǎng)的CEO李開復(fù)提問:互聯(lián)網(wǎng)巨頭擁有巨量的數(shù)據(jù),而這些數(shù)據(jù)會(huì)給他們各種以用戶隱私和利益換取暴利的機(jī)會(huì)。在巨大的利益誘惑下,他們是無法自律的。而且,這種行為也會(huì)導(dǎo)致小公司和創(chuàng)業(yè)者更難創(chuàng)新。您常談到如何約束人工智能,但更難的是如何約束人本身。您認(rèn)為我們應(yīng)該如何約束這些巨頭?
霍金:據(jù)我了解,許多公司僅將這些數(shù)據(jù)用于統(tǒng)計(jì)分析,但任何涉及到私人信息的使用都應(yīng)該被禁止。會(huì)有助于隱私保護(hù)的是,如果互聯(lián)網(wǎng)上所有的信息,均通過基于量子技術(shù)加密,這樣互聯(lián)網(wǎng)公司在一定時(shí)間內(nèi)便無法破解。但安全服務(wù)會(huì)反對(duì)這個(gè)做法。
獵豹移動(dòng)CEO傅盛提問:靈魂會(huì)不會(huì)是量子的一種存在形態(tài)?或者是高維空間里的另一個(gè)表現(xiàn)?
霍金:我認(rèn)為近來人工智能的發(fā)展,比如電腦在國(guó)際象棋和圍棋的比賽中戰(zhàn)勝人腦,都顯示出人腦和電腦并沒有本質(zhì)差別。這點(diǎn)上我和我的同事羅杰-彭羅斯正好相反。會(huì)有人認(rèn)為電腦有靈魂嗎?對(duì)我而言,靈魂這個(gè)說法是一個(gè)基督教的概念,它和來世聯(lián)系在一起。我認(rèn)為這是一個(gè)童話故事。
百度總裁張亞勤提問:人類觀察和抽象世界的方式不斷演進(jìn),從早期的觀察和估算,到牛頓定律和愛因斯坦方程式, 到今天數(shù)據(jù)驅(qū)動(dòng)的計(jì)算和人工智能,下一個(gè)是什么?
霍金:我們需要一個(gè)新的量子理論,將重力和其他自然界的其它力量整合在一起。許多人聲稱這是弦理論,但我對(duì)此表示懷疑,目前唯一的推測(cè)是,時(shí)空有十個(gè)維度。
斯坦福大學(xué)物理學(xué)教授張首晟提問:如果讓你告訴外星人我們?nèi)祟惾〉玫淖罡叱删?,寫在一張明信片的背面,您?huì)寫什么?
霍金:告訴外星人關(guān)于美,或者任何可能代表最高藝術(shù)成就的藝術(shù)形式都是無益的,因?yàn)檫@是人類特有的。我會(huì)告訴他們哥德爾不完備定理和費(fèi)馬大定理。這才是外星人能夠理解的事情。
長(zhǎng)城會(huì)創(chuàng)始人文廚提問:我們希望提倡科學(xué)精神,貫穿GMIC全球九站,請(qǐng)您推薦三本書,讓科技界的朋友們更好的理解科學(xué)及科學(xué)的未來。
霍金:他們應(yīng)該去寫書而不是讀書。只有當(dāng)一個(gè)人關(guān)于某件事能寫出一本書,才代表他完全理解了這件事。
中國(guó)網(wǎng)友提問:您認(rèn)為一個(gè)人一生中最應(yīng)當(dāng)做的一件事和最不應(yīng)當(dāng)做的一件事是什么?
霍金:我們絕不應(yīng)當(dāng)放棄,我們都應(yīng)當(dāng)盡可能多的去理解這個(gè)世界。
中國(guó)網(wǎng)友提問:人類在漫漫的歷史長(zhǎng)河中,重復(fù)著一次又一次的革命與運(yùn)動(dòng)。從石器、蒸汽、電氣……您認(rèn)為下一次的革命會(huì)是由什么驅(qū)動(dòng)的?
霍金:我認(rèn)為是計(jì)算機(jī)科學(xué)的發(fā)展,包括人工智能和量子計(jì)算??萍家呀?jīng)成為我們生活中重要的一部分,但未來幾十年里,它會(huì)逐漸滲透到社會(huì)的每一個(gè)方面,為我們提供智能的支持和建議,在醫(yī)療、工作、教育和科技等眾多領(lǐng)域。但是我們必須要確保是我們來掌控人工智能,而非它(掌控)我們。
音樂人、投資者胡海泉提問:如果星際移民技術(shù)的成熟窗口期遲到,有沒有完全解決不了的內(nèi)發(fā)災(zāi)難導(dǎo)致人類滅絕?拋開隕星撞地球這樣的外來災(zāi)難。
霍金:是的。人口過剩、疾病、戰(zhàn)爭(zhēng)、饑荒、氣候變化和水資源匱乏, 人類有能力解決這些危機(jī)。但很可惜,這些危機(jī)還嚴(yán)重威脅著我們?cè)诘厍蛏系纳?,這些危機(jī)都是可以解決的,但目前還沒有。
聲明:電子發(fā)燒友網(wǎng)轉(zhuǎn)載作品均盡可能注明出處,該作品所有人的一切權(quán)利均不因本站轉(zhuǎn)載而轉(zhuǎn)移。作者如不同意轉(zhuǎn)載,即請(qǐng)通知本站予以刪除或改正。轉(zhuǎn)載的作品可能在標(biāo)題或內(nèi)容上或許有所改動(dòng)。
評(píng)論