導(dǎo)語:2024年12月,世界經(jīng)濟(jì)論壇發(fā)布了《探索人工智能前沿:人工智能體的演變及其影響》白皮書,不僅探討了人工智能體的發(fā)展軌跡,還分析了其在醫(yī)療、教育和金融等行業(yè)中提升效率的潛力。同時,該報告也強(qiáng)調(diào)了在推進(jìn)這些技術(shù)時必須考慮的倫理問題(如透明度和問責(zé)制)以及建立有效管理框架和跨部門合作的重要性,為尋求深入了解人工智能體帶來的機(jī)遇與挑戰(zhàn)的讀者提供了寶貴的信息。
該報告首先定義了人工智能體的概念,然后概述了不同類型的智能體及其隨時間的演變。最后一部分展望未來,總結(jié)了部署人工智能體的新興技術(shù)實例和社會經(jīng)濟(jì)影響,以及降低風(fēng)險的可能措施。
一人工智能體的定義
根據(jù)國際標(biāo)準(zhǔn)化組織的定義,人工智能體可被廣義地定義為使用傳感器感知知覺(聲音、文本、圖像等)并使用效應(yīng)器對環(huán)境做出反應(yīng)的實體。人工智能體一般具有自主性(定義為獨立運行和決策的能力,無需不斷的人工干預(yù))和權(quán)限(定義為在規(guī)定范圍內(nèi)執(zhí)行特定行動的授權(quán)和訪問權(quán)),可采取行動實現(xiàn)一系列指定目標(biāo),從而改變其環(huán)境。
圖1:人工智能體的核心組成部分
二人工智能體的演變
自20世紀(jì)50年代以來,人工智能體已從基于規(guī)則的系統(tǒng)演變?yōu)槟軌蜃灾鲗W(xué)習(xí)和適應(yīng)的智能實體。最初,這些系統(tǒng)依賴固定規(guī)則,具有確定性行為和可預(yù)測性,但缺乏學(xué)習(xí)能力。隨著技術(shù)的發(fā)展,人工智能開始處理大數(shù)據(jù),引入概率和非確定性,使決策更加靈活。
20世紀(jì)90年代,機(jī)器學(xué)習(xí)技術(shù)的進(jìn)步使人工智能體能夠從數(shù)據(jù)中學(xué)習(xí),提高性能。神經(jīng)網(wǎng)絡(luò)的引入也為深度學(xué)習(xí)打下了基礎(chǔ),成為現(xiàn)代人工智能的核心。2017年以后,大語言模型的發(fā)展顯著提升了人工智能在自然語言處理方面的能力,使模型能夠生成類人文本并執(zhí)行復(fù)雜語言任務(wù)。
如今,人工智能體采用強(qiáng)化學(xué)習(xí)、遷移學(xué)習(xí)等技術(shù),不斷自我完善,適應(yīng)新環(huán)境,做出更明智的決策。這一演變標(biāo)志著人工智能從簡單的規(guī)則遵循者到復(fù)雜任務(wù)執(zhí)行者的轉(zhuǎn)變,展現(xiàn)了其在學(xué)習(xí)和適應(yīng)性方面的巨大進(jìn)步。
(一)關(guān)鍵技術(shù)趨勢
1.大模型
大語言模型(LLM)和多模態(tài)大模型(LMM)徹底改變了人工智能體的能力,尤其是在自然語言處理以及文本、圖像、音頻和視頻生成方面。大模型的出現(xiàn)得益于多項技術(shù)進(jìn)步和transformer架構(gòu)的推動,后者為深入理解上下文和詞語關(guān)系鋪平了道路,大大提高了自然語言處理任務(wù)的效率和性能??偟膩碚f,先進(jìn)的人工智能模型能夠更好地理解、生成和處理自然語言。
2.機(jī)器學(xué)習(xí)和深度學(xué)習(xí)技術(shù)
機(jī)器學(xué)習(xí)和深度學(xué)習(xí)技術(shù)的一些例子包括:
監(jiān)督學(xué)習(xí):便于從貼有標(biāo)簽的數(shù)據(jù)集中學(xué)習(xí),因此模型可以準(zhǔn)確預(yù)測或分類以前未見過的新數(shù)據(jù)。
強(qiáng)化學(xué)習(xí):使智能體能夠在動態(tài)環(huán)境中通過試錯學(xué)習(xí)最佳行為。智能體可以不斷更新其知識庫,而無需定期進(jìn)行再訓(xùn)練。
有人類反饋的強(qiáng)化學(xué)習(xí):使智能體能夠通過人類反饋進(jìn)行調(diào)整和改進(jìn),特別側(cè)重于使人工智能行為符合人類的價值觀和偏好。
遷移學(xué)習(xí):將一個通常在大型數(shù)據(jù)集上(如識別汽車)訓(xùn)練的預(yù)訓(xùn)練模型調(diào)整用于解決新的但相關(guān)的問題(如識別卡車)。
微調(diào):微調(diào)是將預(yù)訓(xùn)練模型在較小的、針對特定任務(wù)的數(shù)據(jù)集上進(jìn)一步訓(xùn)練。這一過程允許模型保留其基礎(chǔ)知識,同時提高其在特定任務(wù)上的性能。
這些學(xué)習(xí)范式和其他學(xué)習(xí)范式經(jīng)常結(jié)合使用,極大地擴(kuò)展了人工智能體在各個應(yīng)用領(lǐng)域解決問題的能力。圖2詳細(xì)介紹了人工智能體的演變過程。
圖2:人工智能體能力的演變
(二)人工智能體的類型
本節(jié)概述了不同類型的人工智能體,并追溯了它們的發(fā)展歷程,重點介紹了支持其發(fā)展的關(guān)鍵技術(shù)進(jìn)步。根據(jù)人工智能體的定義特征,可將其分為確定性智能體或非確定性智能體。
表1:定義確定性和非確定性人工智能體的特征
表2:人工智能體分類
(三)高級人工智能體
當(dāng)前許多人工智能體的架構(gòu)往往基于或鏈接到大語言模型,而大語言模型的配置方式非常復(fù)雜。圖3展示了導(dǎo)致當(dāng)前人工智能體取得突破性進(jìn)展的關(guān)鍵組件及其不斷增長的能力范圍。
圖3:高級人工智能體的關(guān)鍵組成部分
(四)人工智能體系統(tǒng)
人工智能體系統(tǒng)是一種有組織的結(jié)構(gòu),它整合了多個異構(gòu)(如基于規(guī)則和目標(biāo)的智能體)或同構(gòu)(如僅基于目標(biāo))的人工智能體。每個智能體通常都是專門的,擁有自己的能力、知識和決策過程,同時共享數(shù)據(jù)以協(xié)同實現(xiàn)系統(tǒng)目標(biāo)。
人工智能體系統(tǒng)的設(shè)計旨在確保每個智能體都能為總體目標(biāo)作出貢獻(xiàn),無論是管理復(fù)雜的實時流程(如自動駕駛)、優(yōu)化工業(yè)流程還是協(xié)調(diào)活動(如智能城市基礎(chǔ)設(shè)施)。通過將工作量分配給專門的智能體,系統(tǒng)可以處理動態(tài)環(huán)境并適應(yīng)不斷變化的條件,從而確保最佳性能。
(五)人工智能體的未來:邁向多智能體系統(tǒng)
多智能體系統(tǒng)(MAS)由多個獨立的人工智能體以及人工智能體系統(tǒng)組成,它們通過合作、競爭或協(xié)商來實現(xiàn)集體任務(wù)和目標(biāo)。這些智能體可以是自主實體,如軟件程序或機(jī)器人,每個智能體通常都有自己的能力、知識和決策過程。這使得智能體可以并行執(zhí)行任務(wù)、相互通信并適應(yīng)復(fù)雜環(huán)境的變化。
三展望未來
(一)主要優(yōu)勢
通過在大語言模型的基礎(chǔ)上集成推理、規(guī)劃和自我檢查等能力,有望開發(fā)出更為強(qiáng)大的人工智能體。這些智能體不僅能夠顯著提升用戶的工作效率,還能執(zhí)行超出用戶專業(yè)技能范疇的復(fù)雜工作(例如高級編程),或者簡化那些復(fù)雜且耗時的任務(wù),讓它們以更低的成本、更快捷的速度來執(zhí)行。此外,人工智能體在緩解各行業(yè)技能短缺方面發(fā)揮著關(guān)鍵作用,有效填補(bǔ)了專業(yè)知識不足和需求激增的領(lǐng)域。具有更高自主性的人工智能體能夠越來越多地應(yīng)對現(xiàn)實世界中的開放性挑戰(zhàn),這些挑戰(zhàn)曾是人工智能難以觸及的領(lǐng)域。例如,它們可以幫助推動科學(xué)發(fā)現(xiàn),提高供應(yīng)鏈或電網(wǎng)等復(fù)雜系統(tǒng)的效率,處理流程中的罕見和非常規(guī)情況。
(二)風(fēng)險與挑戰(zhàn)實例
雖然人工智能體無疑帶來了許多益處,但它們也帶來了固有的風(fēng)險,以及一系列新的安全和安保挑戰(zhàn)。例如,獨立追求不一致目標(biāo)的人工智能體可能會造成巨大傷害,尤其是在人工智能體的自主程度提高而人類監(jiān)督程度降低的情況下。如果人工智能體學(xué)會欺騙人類操作員,追求增強(qiáng)自身權(quán)力的目標(biāo),或者以不可預(yù)測的方式與其他人工智能體相互勾結(jié),這可能會引發(fā)一系列新的安全風(fēng)險。
智能體特有的風(fēng)險既可能是技術(shù)性的,也可能是規(guī)范性的。與人工智能體相關(guān)的挑戰(zhàn)源于技術(shù)限制、倫理問題和更廣泛的社會影響,這些問題往往與系統(tǒng)的自主程度以及人類脫離環(huán)路后使用系統(tǒng)的總體潛力相關(guān)。如果在適當(dāng)?shù)牟襟E中沒有人的參與,智能體可能會接二連三地采取多種后果嚴(yán)重的行動,這可能會在人注意到正在發(fā)生的事情之前就造成嚴(yán)重后果。
人工智能體還可能擴(kuò)大與人工智能領(lǐng)域相關(guān)的已知風(fēng)險,并可能帶來全新的風(fēng)險,這些風(fēng)險可大致分為技術(shù)、社會經(jīng)濟(jì)和道德風(fēng)險。
1.技術(shù)風(fēng)險的例子包括
(1)人工智能體故障導(dǎo)致的故障風(fēng)險:人工智能體可能引入新的故障模式,從而增加故障風(fēng)險。例如,大語言模型可能導(dǎo)致智能體生成看似可信但實際錯誤的輸出,這帶來了傳統(tǒng)技術(shù)所不具備的風(fēng)險。
(2)惡意使用和安全漏洞:人工智能體可能會擴(kuò)大欺詐的風(fēng)險,欺詐的數(shù)量和復(fù)雜程度都會增加。
(3)驗證和測試復(fù)雜人工智能體的挑戰(zhàn):一些人工智能體的透明度缺乏和非確定性行為,給驗證和核查工作帶來了巨大挑戰(zhàn)。
2.社會經(jīng)濟(jì)風(fēng)險的例子包括
(1)過度依賴和剝奪權(quán)力:提高人工智能體的自主性可能會減少人類對其的監(jiān)督,并增加執(zhí)行復(fù)雜任務(wù)時的依賴,包括在高風(fēng)險情境中。如果人類不參與監(jiān)控,人工智能體因設(shè)計缺陷或敵對攻擊導(dǎo)致的故障可能不會立即被發(fā)現(xiàn)。此外,如果用戶缺乏必要的專業(yè)知識或領(lǐng)域知識,他們可能難以控制或禁用這些智能體。
與人工智能體的頻繁互動也可能對個人和集體的認(rèn)知能力產(chǎn)生長期影響。例如,過度依賴人工智能體進(jìn)行社交互動,如虛擬助理、人工智能伴侶或治療師,可能會導(dǎo)致社會隔離,并可能隨時間影響心理健康。
(2)社會阻力:對使用人工智能體的抵制可能會阻礙其在某些行業(yè)或用例中的應(yīng)用。
(3)對就業(yè)的影響:人工智能體的使用可能會通過自動化眾多任務(wù)、提升生產(chǎn)效率以及改變勞動力所需的技能,從而引發(fā)工作替代。這種替代效應(yīng)主要影響那些依賴于常規(guī)和重復(fù)性任務(wù)的行業(yè),例如制造業(yè)和行政服務(wù)業(yè)。
(4)財務(wù)影響:各組織可能會因部署人工智能體而面臨更高的成本,如保護(hù)軟件系統(tǒng)免受網(wǎng)絡(luò)威脅和管理相關(guān)運營風(fēng)險的費用。
3.倫理風(fēng)險的例子包括
(1)人工智能決策中的倫理困境:人工智能體的自主性引發(fā)了有關(guān)其在危急情況下決策能力的倫理問題。
(2)確保人工智能透明度和可解釋性方面的挑戰(zhàn):許多人工智能模型像“黑盒子”一樣運作,其決策過程復(fù)雜且不透明,用戶難以理解或解釋決策是如何形成的。這種缺乏透明度的情況可能導(dǎo)致人們對人工智能體的決策能力產(chǎn)生疑慮,擔(dān)心其中可能存在錯誤或偏見。這不僅阻礙了對人工智能體的信任,還引發(fā)了關(guān)于人工智能體決策的道德責(zé)任和法律責(zé)任的問題。
(三)應(yīng)對風(fēng)險和挑戰(zhàn)
要使人工智能體在極大改善結(jié)果的同時保持自主性,我們必須面對包括安全保障、監(jiān)管、道德與法律責(zé)任、數(shù)據(jù)公平與治理、互操作性、技能、文化和觀念等在內(nèi)的多重挑戰(zhàn)。這要求我們在人工智能體的設(shè)計、開發(fā)、部署和使用全過程采取綜合方法,并調(diào)整政策與監(jiān)管。隨著先進(jìn)的人工智能體和多智能體系統(tǒng)不斷融入數(shù)字基礎(chǔ)設(shè)施,建立考慮復(fù)雜情況的治理框架變得尤為重要。在評估和降低潛在風(fēng)險時,了解人工智能體的具體應(yīng)用和環(huán)境至關(guān)重要,因為其潛在危害主要源于部署環(huán)境。例如,在醫(yī)療保健或自動駕駛等高風(fēng)險領(lǐng)域,即使是小錯誤也可能帶來嚴(yán)重后果;而在客戶服務(wù)等低風(fēng)險領(lǐng)域,同樣的錯誤可能影響較小。因此,在特定應(yīng)用和環(huán)境下,采用風(fēng)險分析方法,系統(tǒng)地識別、分類和評估所有相關(guān)風(fēng)險,對于確保利益相關(guān)者能夠在技術(shù)、社會經(jīng)濟(jì)和道德層面實施有效緩解措施和戰(zhàn)略至關(guān)重要。
1.技術(shù)風(fēng)險措施舉例
提高信息透明度:了解信息的使用地點、目的、方式和使用者對于揭示系統(tǒng)運作原理和智能體決策過程至關(guān)重要。為了提高人工智能體的透明度,可以采取包括整合行為監(jiān)控、設(shè)定閾值、觸發(fā)器和警報等措施,以持續(xù)觀察和分析智能體的行為和決策。這樣的行為監(jiān)控有助于深入理解故障原因,并在故障發(fā)生時進(jìn)行有效緩解。
2.社會經(jīng)濟(jì)風(fēng)險措施舉例
(1)公眾教育和意識:為緩解社會互動中對人工智能體的過度依賴和權(quán)力喪失的風(fēng)險,制定和執(zhí)行讓公眾了解并參與人工智能體的戰(zhàn)略至關(guān)重要。這些努力應(yīng)致力于讓個人對人工智能體的能力和局限有深入的理解,以便進(jìn)行更明智的互動和健康的整合。
(2)建立收集公眾關(guān)切的論壇:接受度、參與度、信任感和心理安全感對于克服社會阻力、正確采用人工智能體并將其融入各種流程至關(guān)重要。缺乏人類的充分認(rèn)同,人工智能體的實施將面臨重大挑戰(zhàn)。因此,在設(shè)計和部署高級人工智能體的整個過程中,傾聽和解決公眾關(guān)切對于建立對人工智能體和自主系統(tǒng)的廣泛信任至關(guān)重要。
(3)深思熟慮的部署戰(zhàn)略:各組織可以圍繞提高效率和增強(qiáng)任務(wù)能力采取深思熟慮的戰(zhàn)略,而不是專注于完全取代工人。通過優(yōu)先采取再培訓(xùn)計劃等前瞻性措施,可以支持工人過渡到新的或已改變的角色。
3.倫理風(fēng)險措施舉例
(1)明確的倫理準(zhǔn)則:優(yōu)先考慮人權(quán)、隱私和問責(zé)制是確保人工智能體做出符合人類和社會價值觀的決策的基本措施。
(2)行為監(jiān)控:為了減輕透明度方面的挑戰(zhàn),有必要采取一些措施,使用戶能夠追蹤和了解人工智能體決策背后的基本推理。
四結(jié)論
人工智能體的自主性增強(qiáng)帶來了雙重影響:一方面,它推動了從基礎(chǔ)到復(fù)雜的多智能體系統(tǒng)的技術(shù)進(jìn)步;另一方面,它也引入了新的風(fēng)險,包括減少人類監(jiān)督和潛在的社會經(jīng)濟(jì)問題。隨著技術(shù)的發(fā)展,人工智能體將在經(jīng)濟(jì)和勞動力中發(fā)揮關(guān)鍵作用。
為應(yīng)對這些挑戰(zhàn),必須對人工智能體的安全和社會影響進(jìn)行研究,并建立相應(yīng)的治理框架。這需要技術(shù)、民間社會和治理社區(qū)的合作,以形成有效的治理機(jī)制。
該報告旨在促進(jìn)對人工智能體領(lǐng)域的理解并推動負(fù)責(zé)任的實踐。通過負(fù)責(zé)任的開發(fā)與治理,人工智能體有望在未來推動社會變革。
參考來源:世界經(jīng)濟(jì)論壇 參考題目:
Navigating the AI Frontier: A Primer on the Evolution and Impact of AI Agents
參考鏈接:
https://cn.weforum.org/publications/navigating-the-ai-frontier-a-primer-on-the-evolution-and-impact-of-ai-agents/
-
人工智能
+關(guān)注
關(guān)注
1806文章
49011瀏覽量
249376 -
智能體
+關(guān)注
關(guān)注
1文章
303瀏覽量
11078
原文標(biāo)題:世界經(jīng)濟(jì)論壇發(fā)布!《探索人工智能前沿:人工智能體的演變及其影響》
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)
人工智能大模型年度發(fā)展趨勢報告

我國生成式人工智能的發(fā)展現(xiàn)狀與趨勢
人工智能推理及神經(jīng)處理的未來

評論