99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

源2.0適配FastChat框架,企業(yè)快速本地化部署大模型對(duì)話平臺(tái)

全球TMT ? 來源:全球TMT ? 作者:全球TMT ? 2024-02-29 09:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

北京2024年2月28日/美通社/ -- 近日,浪潮信息Yuan2.0大模型與FastChat框架完成全面適配,推出"企業(yè)快速本地化部署大模型對(duì)話平臺(tái)"方案。該方案主要面向金融、法律、教育等領(lǐng)域,且有數(shù)據(jù)隱私保護(hù)需求的本地化部署場(chǎng)景。全面開放的對(duì)話模板功能,用戶可基于FastChat平臺(tái),快速對(duì)不同參數(shù)規(guī)模的Yuan2.0基礎(chǔ)模型進(jìn)行訓(xùn)練、評(píng)估和應(yīng)用,將Yuan2.0系列基礎(chǔ)大模型部署于私有環(huán)境,快速部署企業(yè)級(jí)大模型應(yīng)用。值得一提的是,F(xiàn)astChat提供標(biāo)準(zhǔn)API格式(OpenAI標(biāo)準(zhǔn))的服務(wù),因此,原本采用OpenAI API接口所構(gòu)建的系列應(yīng)用,用戶無需修改代碼,僅需更新API服務(wù)的接口地址,即可靈活、絲滑地切換為本地部署的Yuan2.0千億參數(shù)模型。

wKgZomXfNLWAOYk6AAEJDzMrT0I739.jpg


當(dāng)前,各類模型迭代更新飛快。簡(jiǎn)單且易用的對(duì)話模型框架成為了開發(fā)者解決本地化構(gòu)建對(duì)話系統(tǒng)的一大利器。標(biāo)準(zhǔn)一致的工具和環(huán)境,可有效實(shí)現(xiàn)后端模型的平滑遷移,開發(fā)者能夠在不改變?cè)写a的情況下,輕松適應(yīng)新的模型和技術(shù)要求?;诂F(xiàn)成的框架和工具,依托繁榮的社區(qū),進(jìn)而有效地解決了技術(shù)門檻高、開發(fā)流程復(fù)雜、知識(shí)共享困難、部署維護(hù)成本高以及數(shù)據(jù)安全等一系列難題,不僅可提高開發(fā)效率,也可為開發(fā)者帶來了更多的便利和可能性。

FastChat是加州大學(xué)伯克利分校LM-SYS發(fā)布的創(chuàng)新型開源項(xiàng)目,Github Star數(shù)超31k。旨在為研究和開發(fā)人員提供一個(gè)易于使用、可擴(kuò)展的平臺(tái),用于訓(xùn)練、服務(wù)和評(píng)估基于LLM的聊天機(jī)器人,大幅降低開發(fā)人員構(gòu)建問答系統(tǒng)的門檻,實(shí)現(xiàn)知識(shí)管理平臺(tái)的輕松部署與高效維護(hù)。其核心功能包括提供最先進(jìn)的模型權(quán)重、訓(xùn)練代碼和評(píng)估代碼(例如Yuan2.0、Vicuna、FastChat-T5)以及帶有Web UI和兼容OpenAI RESTful API的分布式多模型服務(wù)系統(tǒng)。Yuan2.0系列基礎(chǔ)大模型作為首個(gè)全面開源的千億參數(shù)模型,在編程、推理、邏輯等方面表現(xiàn)優(yōu)異。通過Fastchat平臺(tái),企業(yè)級(jí)用戶可一鍵啟動(dòng)標(biāo)準(zhǔn)API(OpenAI標(biāo)準(zhǔn))服務(wù),滿足企業(yè)需求的定制化應(yīng)用開發(fā),輕松對(duì)接口進(jìn)行封裝,高效且安全地開發(fā)智能對(duì)話系統(tǒng)。在保證數(shù)據(jù)私密性和安全性的同時(shí),極大地提升了模型本地化部署的效率、應(yīng)用性能及穩(wěn)定性。

基于FastChat使用Yuan2.0大模型,Step by Step實(shí)操教程!

* 如下步驟以Yuan2-2B-Janus-hf模型為例:

Step 1: 安裝FastChat

FastChat官方提供的兩種安裝方式--pip安裝與源碼安裝

pip安裝

官方提供的采用pip安裝命令為pip3,建議大家采用python3.x,避免出現(xiàn)依賴包沖突。

pip3 install "fschat[model_worker,webui]"

源碼安裝

先從github上下載源碼,在FastChat目錄下執(zhí)行如下命令:

git clonehttps://github.com/lm-sys/FastChat.git
cd FastChat
pip3 install --upgrade pip && pip3 install -e ".[model_worker,webui]"

Step 2 : 下載Yuan2.0系列基礎(chǔ)大模型

模型 序列長度 下載鏈接
Yuan2.0-102B-hf 4K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-102B-hf/summary
Yuan2.0-51B-hf 4K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-51B-hf/summary
Yuan2.0-2B-hf 8K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-2B-hf/summary
Yuan2-2B-Janus-hf 8K https://www.modelscope.cn/models/YuanLLM/Yuan2-2B-Janus-hf/summary

Step 3:?jiǎn)?dòng)FastChat推理服務(wù)

采用如下命令啟動(dòng)FastChat服務(wù):

python3-m fastchat.serve.cli --model-path /mnt/models/Yuan2-2B-Janus-hf

至此,基于Yuan2.0基礎(chǔ)大模型的FastChat推理服務(wù)就已啟動(dòng)完成了!服務(wù)啟動(dòng)后會(huì)進(jìn)入客戶端頁面??蛻舳私换?shí)例如下:

——————————————————

user: 你好。
assistant: 您好,有什么可以幫助您的嗎?
user: 介紹一下北京。
assistant: 北京是中國的首都,位于華北平原中部。它是一個(gè)歷史悠久、文化燦爛的城市,也是現(xiàn)代化與傳統(tǒng)文化相結(jié)合的代表之一。北京擁有著豐富的歷史遺產(chǎn)和文化景觀,如紫禁城、天安門廣場(chǎng)、頤和園、長城等。此外,北京還有許多現(xiàn)代建筑和創(chuàng)意藝術(shù)作品,如798藝術(shù)區(qū)、木魚巷等。
user: 給我寫一個(gè)快速排序算法
assistant: 快速排序是一種基于比較的排序算法,其時(shí)間復(fù)雜度為O(nlogn)。具體來說,快速排序通過選取一個(gè)基準(zhǔn)元素,將數(shù)組分為兩部分,使得左邊的元素都小于基準(zhǔn)元素,右邊的元素都大于基準(zhǔn)元素,然后遞歸地對(duì)左右兩部分進(jìn)行排序。
以下是一個(gè)簡(jiǎn)單的快速排序算法實(shí)現(xiàn):
```python
def quick_sort(arr):
if len(arr) <= 1:
return arr
pivot = arr[len(arr) // 2]
left = [x for x in arr if x < pivot]
middle = [x for x in arr if x == pivot]
right = [x for x in arr if x > pivot]
return quick_sort(left) + middle + quick_sort(right)
```
這個(gè)算法的優(yōu)點(diǎn)是它通常能夠很好地處理小規(guī)模數(shù)據(jù),而且它具有很好的可擴(kuò)展性,可以輕松地處理不同規(guī)模的數(shù)據(jù)。但是,它也有一些缺點(diǎn),例如它需要額外的空間來存儲(chǔ)中間結(jié)果,并且它的最壞時(shí)間復(fù)雜度為O(n^2)。因此,在實(shí)際應(yīng)用中,我們通常使用更高效的排序算法,如歸并排序、插入排序等。
user: 能提供一些測(cè)試用例嗎
assistant: 當(dāng)然可以。以下是一些常見的測(cè)試用例:
```python
def test_quick_sort():
assert quick_sort([]) == []
assert quick_sort([1]) == [1]
assert quick_sort([3, 2, 1]) == [1, 2, 3]
assert quick_sort([5, 8, 2, 1, 6, 3, 4, 7, 9]) == [1, 2, 3, 4, 5, 6, 7, 8, 9]
assert quick_sort([9, 8, 7, 6, 5, 4, 3, 2, 1]) == [1, 2, 3, 4, 5, 6, 7, 8, 9]
```
這些測(cè)試用例包括了各種不同規(guī)模和不同順序的輸入數(shù)據(jù)。
user: 很好,你知道它的時(shí)間復(fù)雜度嗎?
assistant: 是的,我知道它的時(shí)間復(fù)雜度為O(nlogn)。
user:

————————————————

同時(shí),也可選用WebUI,需要先啟動(dòng)fastchat的controller和worker,在命令行輸入如下命令即可啟動(dòng):

python3 -m fastchat.serve.controller
python3 -m fastchat.serve.model_worker --model-path /mnt/models/Yuan2-2B-Janus-hf
python3-mfastchat.serve.gradio_web_server

啟動(dòng)完成后,默認(rèn)會(huì)彈出WebUI頁面,選擇Yuan2.0模板即可與Yuan2.0大模型進(jìn)行對(duì)話。以下為使用WebUI與Yuan2.0進(jìn)行交互的示例:

代碼實(shí)現(xiàn)

wKgaomXfNLaAToybAADRl_iTOTA579.jpg


測(cè)試用例

wKgZomXfNLaAZ2hrAADTArqP9lI354.jpg


上下文測(cè)試

wKgaomXfNLeAJX7EAACc8yBAqqw049.jpg


更多更新,請(qǐng)關(guān)注Github "源"交流專區(qū),
前往GitHub搜索"IEIT-Yuan/Yuan-2.0"


審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3139

    瀏覽量

    4062
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    施耐德電氣與奇安信共建技術(shù)本地化創(chuàng)新中心

    ?在施耐德電氣技術(shù)本地化創(chuàng)新日上 ; 施耐德電氣與奇安信集團(tuán)宣布成立 施耐德電氣(中國)技術(shù)本地化創(chuàng)新中心。 該中心將提供 針對(duì)國產(chǎn)基礎(chǔ)軟硬件的深度適配服務(wù),以信息技術(shù)共創(chuàng)和生態(tài)協(xié)同為核心 ,更好
    的頭像 發(fā)表于 07-10 19:01 ?326次閱讀
    施耐德電氣與奇安信共建技術(shù)<b class='flag-5'>本地化</b>創(chuàng)新中心

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    下一步行動(dòng)。本文將一步步帶你在本地服務(wù)器上完成該模型部署,并搭建一個(gè)直觀的 Web 交互界面,親身體驗(yàn)前沿 AI 的“思考”過程。
    的頭像 發(fā)表于 07-09 10:17 ?153次閱讀

    DigiKey 應(yīng)用與技術(shù)門戶平臺(tái)已針對(duì)亞太地區(qū)進(jìn)行了本地化

    品類齊全且可立即發(fā)貨的產(chǎn)品。DigiKey 在亞太地區(qū)提供專屬應(yīng)用與技術(shù)平臺(tái)。該平臺(tái)提供本地化的在線資源,旨在助力工程師和創(chuàng)新者,提供專業(yè)技術(shù)資源、精選產(chǎn)品信息和互動(dòng)學(xué)習(xí)內(nèi)容。 DigiKey 應(yīng)用與技術(shù)
    發(fā)表于 05-23 16:37 ?1028次閱讀

    【「零基礎(chǔ)開發(fā)AI Agent」閱讀體驗(yàn)】+Agent開發(fā)平臺(tái)

    Agent開發(fā)平臺(tái)是專門用于創(chuàng)建、配置、部署、訓(xùn)練和運(yùn)行Agent的平臺(tái)。 隨著Agent開發(fā)框架的發(fā)展,很多Agent開發(fā)平臺(tái)能夠以圖形
    發(fā)表于 05-13 12:24

    博實(shí)結(jié)完成DeepSeek大模型本地化部署

    近日,公司完成DeepSeek R1 671B大模型本地化部署。通過構(gòu)建自主可控的AI基礎(chǔ)設(shè)施,公司同步實(shí)現(xiàn)研發(fā)智能升級(jí)、研發(fā)成本重構(gòu)、數(shù)據(jù)安全閉環(huán)與應(yīng)用場(chǎng)景突破,為產(chǎn)業(yè)智能賦能。
    的頭像 發(fā)表于 03-19 16:31 ?636次閱讀

    行芯完成DeepSeek-R1大模型本地化部署

    近日,行芯正式宣布完成 DeepSeek-R1 大模型本地化部署,實(shí)現(xiàn)在多場(chǎng)景、多產(chǎn)品中應(yīng)用。解鎖“芯”玩法,開啟“芯”未來!
    的頭像 發(fā)表于 02-24 15:17 ?889次閱讀

    曙光順利完成DeepSeek大模型本地化多點(diǎn)私有部署

    計(jì)算中心等政務(wù)云服務(wù)商,依托本地政務(wù)云資源池,順利完成DeepSeek大模型本地化多點(diǎn)私有部署,并打造出數(shù)字人“撫小智”。撫州市還計(jì)劃將DeepSeek大
    的頭像 發(fā)表于 02-22 14:16 ?792次閱讀

    云天天書大模型訓(xùn)推一體機(jī)成功適配DeepSeek

    近日,云天天書大模型訓(xùn)推一體機(jī)成功適配DeepSeek。該一體機(jī)由云天勵(lì)飛與華為聯(lián)合推出,可以部署在華為昇騰服務(wù)器上,支持私有部署,實(shí)現(xiàn)開
    的頭像 發(fā)表于 02-14 11:02 ?958次閱讀

    烽火通信推動(dòng)DeepSeek本地化部署,金融行業(yè)率先示范

    近日,烽火通信攜手長江計(jì)算、昇騰及華為云團(tuán)隊(duì),在金融領(lǐng)域取得了重要突破。他們成功助力某國有大型銀行,率先完成了DeepSeek-V3大模型本地化推理服務(wù)部署。 此次部署采用了長江計(jì)算
    的頭像 發(fā)表于 02-10 15:03 ?1090次閱讀

    意法半導(dǎo)體在中國的本地化戰(zhàn)略

    提前謀劃本地化供應(yīng)鏈,解決中國客戶后顧之憂,提高對(duì)汽車用MCU的重視,布局從高端到中低端的全線產(chǎn)品。ST帶著這樣的愿景開始了在中國市場(chǎng)的下一個(gè)40年!
    的頭像 發(fā)表于 01-16 12:32 ?1714次閱讀
    意法半導(dǎo)體在中國的<b class='flag-5'>本地化</b>戰(zhàn)略

    愛普生科技+本地化引領(lǐng)五大創(chuàng)新

    自八十年代進(jìn)入中國以來,愛普生已在中國市場(chǎng)上深耕近四十年。從打印機(jī)到工業(yè)機(jī)器人,愛普生業(yè)務(wù)遍布多個(gè)領(lǐng)域,始終秉承“科技+本地化”的核心理念,與中國市場(chǎng)同頻共振,不斷深化與本土合作伙伴合作,推出“中國定制”產(chǎn)品及解決方案。
    的頭像 發(fā)表于 12-12 16:31 ?756次閱讀

    自動(dòng)AI開發(fā)平臺(tái)功能介紹

    自動(dòng)AI開發(fā)平臺(tái)集成了多種算法、工具和框架,旨在幫助開發(fā)者更快速、高效地設(shè)計(jì)、訓(xùn)練、部署和管理AI模型
    的頭像 發(fā)表于 11-14 09:29 ?775次閱讀

    浪潮信息2.0模型與百度PaddleNLP全面適配

    近日,浪潮信息宣布其開源大模型2.0已全面適配百度PaddleNLP。這一舉措標(biāo)志著大模型開發(fā)生態(tài)正加速進(jìn)化,為用戶提供了更加便捷、高效的
    的頭像 發(fā)表于 10-17 18:15 ?977次閱讀

    傳音的本地化實(shí)踐:中國企業(yè)如何將“走出去”變成“融進(jìn)去”

    傳音本地化運(yùn)營的模式逐漸成熟并自成一派,即使面對(duì)全球的沖擊,傳音也能游刃有余地開拓新市場(chǎng)、發(fā)力新領(lǐng)域。比如傳音近年來致力于海外新興市場(chǎng)移動(dòng)生態(tài)的建立與持續(xù)運(yùn)營,搭建了全新的商業(yè)與技術(shù)中臺(tái):企業(yè)
    的頭像 發(fā)表于 09-02 12:30 ?487次閱讀
    傳音的<b class='flag-5'>本地化</b>實(shí)踐:中國<b class='flag-5'>企業(yè)</b>如何將“走出去”變成“融進(jìn)去”

    對(duì)話aiXcoder總裁劉德欣:智能軟件開發(fā)2.0時(shí)代,企業(yè)如何落地領(lǐng)域模型

    科技日新月異的今天,以大模型、Agent等為代表的人工智能技術(shù)正引領(lǐng)各行各業(yè)的深刻變革。軟件開發(fā)領(lǐng)域,一場(chǎng)由AI驅(qū)動(dòng)的產(chǎn)業(yè)智能升級(jí)快速演變,進(jìn)入智能軟件開發(fā)
    的頭像 發(fā)表于 08-16 09:40 ?721次閱讀