昔日的競(jìng)爭(zhēng)對(duì)手,今日的合作盟友;
忽如一夜春風(fēng)來(lái),開(kāi)源大模型迎來(lái)新局面;
今天是 OSS AI 勝利的一天;
隨著 Meta 最新發(fā)布一個(gè)新的開(kāi)源 AI 模型——Llama 2,網(wǎng)上盛贊的聲音不絕于耳,甚至圖靈獎(jiǎng)得主、卷積網(wǎng)絡(luò)之父、Meta 首席人工智能科學(xué)家 Yann LeCun 更是直言,「這將改變 LLM 市場(chǎng)的格局」。
而Llama 2 之所以能引起這么大的反響,不僅是因?yàn)樗情_(kāi)源的,更主要的原因便是它可以被免費(fèi)地用于研究和商業(yè)用途。與此同時(shí),Meta 還與微軟強(qiáng)強(qiáng)聯(lián)手,旨在驅(qū)動(dòng) OpenAI 的 ChatGPT、Bing Chat 和其他現(xiàn)代聊天機(jī)器人等應(yīng)用程序。
在 Meta 看來(lái),「開(kāi)放的方法是當(dāng)今人工智能模型開(kāi)發(fā)的正確方法,特別是在技術(shù)快速發(fā)展的生成領(lǐng)域。通過(guò)公開(kāi)提供人工智能模型,它們可以使每個(gè)人受益。為企業(yè)、初創(chuàng)企業(yè)、企業(yè)家和研究人員提供其開(kāi)發(fā)的工具,這些工具的開(kāi)發(fā)規(guī)模是他們自己難以構(gòu)建的,并以他們可能無(wú)法獲得的計(jì)算能力為后盾,將為他們以令人興奮的方式進(jìn)行實(shí)驗(yàn)。」
僅是這一點(diǎn),便是當(dāng)前很多專注于大模型開(kāi)發(fā)的企業(yè)無(wú)法做到的,也如網(wǎng)友評(píng)價(jià)的那番,格局一下被打開(kāi)。
Llama 2 的前身
今日發(fā)布的 Llama 2 是 Llama(大羊駝)的后續(xù)版本。
今年 2 月,Meta 首次公開(kāi)發(fā)布 LLaMA,作為具有非商業(yè)許可證的開(kāi)源版本。這是一種先進(jìn)的基礎(chǔ)大型語(yǔ)言模型,旨在幫助研究人員推進(jìn) AI 這一子領(lǐng)域的工作。更小、性能更高的模型(例如 LLaMA)使研究界中無(wú)法訪問(wèn)大量基礎(chǔ)設(shè)施的其他人能夠研究這些模型,從而進(jìn)一步實(shí)現(xiàn)這一重要且快速變化的領(lǐng)域的訪問(wèn)民主化。
彼時(shí),Meta提供多種尺寸的 LLaMA(7B、13B、33B 和 65B 參數(shù))。僅從功能上來(lái)看,Llama 可以根據(jù)提示生成文本和代碼,與其他類(lèi)似聊天機(jī)器人的系統(tǒng)相當(dāng)。
然而,當(dāng)時(shí)由于擔(dān)心被濫用,Meta 決定限制對(duì)模型的訪問(wèn),所以也只是對(duì)具有一定資格的研究者開(kāi)放,還需要寫(xiě)申請(qǐng)表格等。
不過(guò),令人沒(méi)想到的是,不久之后便有人將 LLaMA 的權(quán)重(包括經(jīng)過(guò)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)的參數(shù)值文件)泄露到了 torrent 網(wǎng)站,使得并沒(méi)有完全開(kāi)放的 LLaMA 大模型短時(shí)間內(nèi)在 AI 社區(qū)大規(guī)模擴(kuò)散開(kāi)。
很快,經(jīng)過(guò)微調(diào)的 LLaMA 的諸多模型如雨后春筍般涌現(xiàn),“羊駝”家族一時(shí)太過(guò)擁擠,如斯坦福發(fā)布了 Alpaca(羊駝)、UC 伯克利開(kāi)源了 Vicuna(小羊駝)、華盛頓大學(xué)提出了 QLoRA 還開(kāi)源了 Guanaco(原駝)...國(guó)內(nèi)哈工大還基于中文醫(yī)學(xué)知識(shí)的 LLaMA 模型指令微調(diào)出了一個(gè)“華駝”。
時(shí)下,Llama 2 的發(fā)布將這款開(kāi)源大模型推向一個(gè)新的高度。相比上一代 Llama 模型,經(jīng)過(guò)混合公開(kāi)數(shù)據(jù)的訓(xùn)練,Llama 2 的性能有了顯著提高。
Llama 2:從 7B 到 70B 參數(shù)不等
為此,Meta 發(fā)布了一篇長(zhǎng)達(dá) 76 頁(yè)的論文《Llama 2: Open Foundation and Fine-Tuned Chat Models》詳述Llama 2大模型的預(yù)訓(xùn)練、微調(diào)、安全性等相關(guān)的工作。
論文地址:https://scontent-lax3-2.xx.fbcdn.net/v/t39.2365-6/10000000_663429262362723_1696968207443577320_n.pdf?_nc_cat=101&ccb=1-7&_nc_sid=3c67a6&_nc_ohc=5ol-jUSglG4AX_EKgWk&_nc_ht=scontent-lax3-2.xx&oh=00_AfC4pQWErthyr1jwgSScKeyjXW3wwEUnqvIh7MNeb-Et3g&oe=64BBB691
據(jù)論文顯示,Llama 2 有兩種版本:Llama 2和Llama 2-Chat,后者針對(duì)雙向?qū)υ掃M(jìn)行了微調(diào)。Llama 2 和 Llama 2-Chat 進(jìn)一步細(xì)分為不同復(fù)雜程度的版本:70 億個(gè)參數(shù)、130 億個(gè)參數(shù)和 700 億個(gè)參數(shù)。
Meta 將 Llama 2 預(yù)訓(xùn)練語(yǔ)料庫(kù)的規(guī)模增加了 40%,這一款模型(基本模型)接受了 2 萬(wàn)億個(gè) token 的訓(xùn)練,上下文窗口包含了 4096 個(gè) token,相比上一代,提升了一倍。上下文窗口決定了模型一次可以處理的內(nèi)容的長(zhǎng)度。在硬件方面,Meta 都使用了 NVIDIA A100。
Meta 還表示,Llama 2 微調(diào)模型是為類(lèi)似于 ChatGPT 的聊天應(yīng)用程序開(kāi)發(fā)的,已經(jīng)接受了“超過(guò) 100 萬(wàn)條人工注釋”的訓(xùn)練。
不過(guò),Meta 在論文中并沒(méi)有透露訓(xùn)練數(shù)據(jù)的具體來(lái)源,只是說(shuō)它來(lái)自網(wǎng)絡(luò),其中不包括來(lái)自 Meta 的產(chǎn)品或服務(wù)的數(shù)據(jù)。
根據(jù)官方基準(zhǔn)測(cè)試,Llama 2 在開(kāi)源模型領(lǐng)域,一馬當(dāng)先。其中,Llama 2 70B 模型的性能優(yōu)于所有開(kāi)放源碼模型。
和閉源的大模型相比,Llama270B 在推理任務(wù)上接近 GPT-3.5,但在編碼基準(zhǔn)上存在顯著差距。同時(shí),其在性能上還無(wú)法與 OpenAI 的 GPT-4、PaLM-2-L 相媲美,在計(jì)算機(jī)編程方面 Llama 2 明顯落后于 GPT-4。
論及 Llama 2 此次真正的優(yōu)勢(shì),Nvidia 高級(jí) AI 科學(xué)家 Jim Fan 高度評(píng)價(jià)道:
Llama-2 的訓(xùn)練費(fèi)用可能超過(guò) 2000 萬(wàn)美元。Meta 通過(guò)發(fā)布具有商業(yè)友好許可的模型,為社區(qū)提供了令人難以置信的服務(wù)。由于許可證問(wèn)題,大公司的人工智能研究人員對(duì) Llama-1 持謹(jǐn)慎態(tài)度,但現(xiàn)在我認(rèn)為他們中的很多人都會(huì)加入進(jìn)來(lái),貢獻(xiàn)自己的力量。
Meta 的團(tuán)隊(duì)對(duì) 4K 提示進(jìn)行了人類(lèi)研究,以評(píng)估 Llama-2 是否有用。他們使用 "勝率 "作為比較模型的指標(biāo),其精神與 Vicuna 基準(zhǔn)類(lèi)似。70B 模型與 GPT-3.5-0301 大致持平,表現(xiàn)明顯強(qiáng)于 Falcon、MPT 和 Vicuna。
與學(xué)術(shù)基準(zhǔn)相比,我更相信這些真實(shí)的人類(lèi)評(píng)級(jí)。
Llama-2 還沒(méi)有達(dá)到 GPT-3.5 的水平,主要是因?yàn)樗木幋a能力較弱。在 "HumanEval"(標(biāo)準(zhǔn)編碼基準(zhǔn))上,它還不如 StarCoder 或其他許多專門(mén)為編碼而設(shè)計(jì)的模型。盡管如此,我毫不懷疑 Llama-2 將因其開(kāi)放的權(quán)重而得到顯著改善。
Meta 團(tuán)隊(duì)在人工智能安全問(wèn)題上不遺余力。事實(shí)上,這篇論文幾乎有一半的篇幅都在談?wù)摪踩?、紅線和評(píng)估。我們要為這種負(fù)責(zé)任的努力鼓掌!
在之前的研究中,幫助性和安全性之間存在著棘手的權(quán)衡問(wèn)題。Meta 通過(guò)訓(xùn)練兩個(gè)獨(dú)立的 reward 模型來(lái)緩解這一問(wèn)題。這些模型還沒(méi)有開(kāi)源,但對(duì)社區(qū)來(lái)說(shuō)非常有價(jià)值。
我認(rèn)為 Llama-2 將極大地推動(dòng)多模態(tài)人工智能和機(jī)器人研究。這些領(lǐng)域需要的不僅僅是黑盒子訪問(wèn) API。
到目前為止,我們必須將復(fù)雜的感官信息(視頻、音頻、三維感知)轉(zhuǎn)換為文本描述,然后再輸入到 LLM,這樣做既笨拙又會(huì)導(dǎo)致大量信息丟失。將感官模塊直接嫁接到強(qiáng)大的 LLM 上會(huì)更有效。
Llama 2 的論文本身就是一部杰作。GPT-4 的技術(shù)詳解論文只分享了很少的信息,而 Llama-2 則不同,它詳細(xì)介紹了整個(gè)細(xì)節(jié),包括模型細(xì)節(jié)、訓(xùn)練階段、硬件、數(shù)據(jù)管道和注釋過(guò)程。例如,論文對(duì) RLHF 的影響進(jìn)行了系統(tǒng)分析,并提供了漂亮的可視化效果。
引用第 5.1 節(jié):"我們認(rèn)為,LLMs 在某些任務(wù)中超越人類(lèi)注釋者的超強(qiáng)寫(xiě)作能力,從根本上說(shuō)是由 RLHF 驅(qū)動(dòng)的"。
來(lái)源:https://twitter.com/DrJimFan/status/1681372700881854465
不過(guò),值得注意的是,Llama 2 雖然允許了商業(yè)使用,但是它在社區(qū)許可協(xié)議中還添加了一條附加商業(yè)條款:
如果在 Llama 2 版本發(fā)布之日,被許可方或被許可方的關(guān)聯(lián)公司提供的產(chǎn)品或服務(wù)的每月活躍用戶數(shù)在上一個(gè)日歷月中超過(guò) 7 億,則您必須向Meta申請(qǐng)?jiān)S可,Meta 可以自行決定向您授予該權(quán)利,并且您無(wú)權(quán)行使本協(xié)議項(xiàng)下的任何權(quán)利,除非或直到 Meta 明確授予您此類(lèi)權(quán)利。
這意味著一些大廠,譬如亞馬遜、Google 這樣的巨頭想要使用 Llama 2,還存在一定限制。
Meta 與微軟強(qiáng)強(qiáng)聯(lián)手
當(dāng)然,Meta 也并沒(méi)有將所有大廠拒絕門(mén)外。在此次官方公告中,Meta 宣布了和微軟的深度合作。
其中,作為 Llama 2 的首選合作伙伴微軟,Meta 表示,從今天開(kāi)始,Llama 2 可在 Azure AI 模型目錄中使用,基于此,使用 Microsoft Azure 的開(kāi)發(fā)人員能夠使用 Llama 2 進(jìn)行構(gòu)建,并利用其云原生工具進(jìn)行內(nèi)容過(guò)濾和安全功能。
與此同時(shí),Llama 2 還經(jīng)過(guò)優(yōu)化,可以在 Windows 上本地運(yùn)行,為開(kāi)發(fā)人員提供無(wú)縫的工作流程,為跨不同平臺(tái)的客戶帶來(lái)生成式 AI 體驗(yàn)。Llama 2 也可通過(guò) Amazon Web Services (AWS)、Hugging Face 和其他提供商獲取。
有網(wǎng)友評(píng)論,微軟這一波又贏了!
除了與微軟合作之外,Meta 也與高通進(jìn)行了合作。高通宣布,“計(jì)劃從 2024 年起,在旗艦智能手機(jī)和 PC 上支持基于 Llama 2 的 AI 部署,賦能開(kāi)發(fā)者使用驍龍平臺(tái)的 AI 能力,推出激動(dòng)人心的全新生成式 AI 應(yīng)用?!?/p>
沒(méi)有 100% 完美的大模型
不過(guò),對(duì)于 Llama 2,Meta 公司也承認(rèn)它并非絕對(duì)的完美,因?yàn)槠錅y(cè)試不可能捕獲所有現(xiàn)實(shí)世界場(chǎng)景,并且其基準(zhǔn)測(cè)試可能缺乏多樣性,換句話說(shuō),沒(méi)有充分涵蓋編碼和人類(lèi)推理等領(lǐng)域。
Meta 還承認(rèn),Llama 2 與所有生成式 AI 模型一樣,在某些層面存在偏差。例如,由于訓(xùn)練數(shù)據(jù)的不平衡以及訓(xùn)練數(shù)據(jù)中存在“有毒”文本,它可能會(huì)制造“幻覺(jué)”、生成“有毒性”的內(nèi)容。
針對(duì)這一點(diǎn),Meta 選擇和微軟合作的一部分,也包括使用 Azure AI Content Safety,該服務(wù)旨在檢測(cè) AI 生成的圖像和文本中的“不當(dāng)”內(nèi)容,以減少 Azure 上有毒的 Llama 2 輸出。
同時(shí),Meta 在論文中強(qiáng)調(diào) Llama 2 用戶除了遵守有關(guān)“安全開(kāi)發(fā)和使用”的準(zhǔn)則外,還必須遵守 Meta 的許可條款和可接受的使用政策,在一定程度上減少有偏差性的內(nèi)容。
開(kāi)源大模型的未來(lái)
最后,如果說(shuō) OpenAI 引領(lǐng)大模型賽道,那么 Meta 則開(kāi)辟了開(kāi)源大模型的新大門(mén)。
以開(kāi)源的方式,匯聚更多的創(chuàng)新,Llama 2 的開(kāi)源也為眾人預(yù)測(cè)中的“未來(lái),開(kāi)源大模型會(huì)主導(dǎo)整個(gè)大模型的發(fā)展方向”帶來(lái)更多可能性。
這也正如 Ars Technica 總結(jié)的:開(kāi)源人工智能模型的到來(lái),不僅鼓勵(lì)透明度(用于制作模型的訓(xùn)練數(shù)據(jù)而言),而且促進(jìn)經(jīng)濟(jì)競(jìng)爭(zhēng)(不將技術(shù)限制于大公司)、鼓勵(lì)言論自由(沒(méi)有審查制度),并使人工智能的訪問(wèn)民主化(沒(méi)有付費(fèi)專區(qū)限制)。
同時(shí),為了避免 Llama 2 開(kāi)源存在的潛在爭(zhēng)議,Meta 還同時(shí)發(fā)布了一封主題為《支持 Meta 對(duì)當(dāng)今人工智能的開(kāi)放方法的聲明》的聲明,其寫(xiě)道:
“我們支持對(duì)人工智能采取開(kāi)放式創(chuàng)新方法。負(fù)責(zé)任和開(kāi)放式創(chuàng)新為我們所有人提供了參與人工智能開(kāi)發(fā)過(guò)程,為這些技術(shù)帶來(lái)可見(jiàn)性、審查和信任。今天開(kāi)放的 Llama 模型將使每個(gè)人都從這項(xiàng)技術(shù)中受益?!?/p>
截至目前,已有近百位 AI 專家參與簽名,其中包括 Drew Houston(Dropbox 首席執(zhí)行官)、Matt Bornstein(Andreessen Horowitz 合伙人)、Julien Chaumond(Hugging Face 首席技術(shù)官)、Lex Fridman(麻省理工學(xué)院研究科學(xué)家)和 Paul Graham(Y Combinator 的創(chuàng)始合伙人)等。
當(dāng)然,也不容忽視的是,無(wú)論是開(kāi)源還是閉源大模型,其都面臨著復(fù)雜的法律問(wèn)題,因?yàn)樗麄冃枰袆e用于訓(xùn)練的數(shù)據(jù)池中是否存在受版權(quán)保護(hù)的資源。如何有效避免這些問(wèn)題,也成為這些大模型開(kāi)發(fā)公司下一階段需要解決的事情。
-
微軟
+關(guān)注
關(guān)注
4文章
6686瀏覽量
105778 -
AI
+關(guān)注
關(guān)注
88文章
35167瀏覽量
280101 -
大模型
+關(guān)注
關(guān)注
2文章
3146瀏覽量
4078
原文標(biāo)題:微軟又贏麻了!聯(lián)合 Meta 發(fā)布免費(fèi)商業(yè)應(yīng)用的開(kāi)源 AI 模型 Llama 2
文章出處:【微信號(hào):AI科技大本營(yíng),微信公眾號(hào):AI科技大本營(yíng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
使用 NPU 插件對(duì)量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無(wú)符號(hào) int 的錯(cuò)誤”,怎么解決?
無(wú)法在OVMS上運(yùn)行來(lái)自Meta的大型語(yǔ)言模型 (LLM),為什么?
Meta重磅發(fā)布Llama 3.3 70B:開(kāi)源AI模型的新里程碑

評(píng)論