99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

了解亞馬遜云科技搭建智能搜索大語言模型增強方案的快速部署流程

科技新思路 ? 來源:科技新思路 ? 作者:科技新思路 ? 2023-11-10 11:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

背景

知識庫需求在各行各業(yè)中普遍存在,例如制造業(yè)中歷史故障知識庫、游戲社區(qū)平臺的內容知識庫、電商的商品推薦知識庫和醫(yī)療健康領域的掛號推薦知識庫系統(tǒng)等。為保證推薦系統(tǒng)的實效性和準確性,需要大量的數(shù)據/算法/軟件工程師的人力投入和包括硬件在內的物力投入。那么在自己的環(huán)境中搭建智能搜索大語言模型增強方案是必不可少的。因此,本篇內容主要為大語言模型方案的快速部署。該方案部署流程并不復雜,只需要您對于亞馬遜科技相關服務有一個基本的了解即可。

方案架構圖與功能原理

wKgZomVNnqKAM6EwAAVEXBYRdQk526.png

該方案分為以下幾個核心功能模塊:

前端訪問界面:該方案提供了基于React的前端訪問界面。用戶可以通過網頁以REST API的形式進行智能文檔搜索等功能的操作。

REST API:通過集成了相應Amazon API Gateway和Amazon Lambda函數(shù)的實現(xiàn)和后端搜索引擎,數(shù)據庫和模型推理端點交互。

企業(yè)搜索引擎:基于Amazon OpenSearch或Amazon Kendra??梢曰陔p向反饋的學習機制,自動持續(xù)迭代提高輸出匹配精準度。同時采用引導式搜索機制,提高搜索輸入描述的精準度。

數(shù)據源存儲:可選用多種存儲方式如數(shù)據庫,對象存儲等,在這里Amazon Kendra通過連接器獲取Amazon S3上的對象。

向量化數(shù)據注入:采用Amazon SageMaker的Notebook模塊或者Amazon Lambda程序將原始數(shù)據向量化后的數(shù)據注入Amazon OpenSearch。

智能搜索/引導/問答等功能模塊:采用Amazon Lambda函數(shù)實現(xiàn)和后端搜索引擎,數(shù)據庫和模型推理端點交互。

記錄數(shù)據庫:用戶反饋記錄存儲在數(shù)據庫Amazon DynamoDB。

機器學習模型:企業(yè)可以根據自身需要構建大語言模型和詞向量模型,將選取好的模型托管到Amazon SageMaker的endpoint節(jié)點。

反饋優(yōu)化:用戶在前端頁面反饋最優(yōu)搜索結果,通過手動或事件觸發(fā)器Amazon EventBridge觸發(fā)新的訓練任務并且重新部署到搜索引擎。

插件式應用:利用該方案核心能力可以與Amazon Lex集成以實現(xiàn)智能會話機器人功能,也可以與Amazon Connect集成實現(xiàn)智能語音客服功能。

實施步驟介紹

以smart-search v1版本為例,為大家講解方案的整個部署流程。

1、環(huán)境準備

首先您需要在您的開發(fā)環(huán)境中安裝好python 3、pip以及npm等通用工具,并保證您的環(huán)境中擁有16GB以上的存儲空間。根據您的使用習慣,您可以在自己的開發(fā)筆記本(Mac OS或Linux環(huán)境)上部署,也可以選擇EC2或者Cloud9進行部署。

2、CDK自動部署

2.1 獲取代碼安裝Amazon CDK包

獲取代碼后把代碼拷貝到指定目錄下。打開終端窗口,進入smart_search的軟件包,并切換到名為deployment文件夾下:

wKgaomVNnqKAU_8KAAAHUCW1kug676.png

進入到deployment目錄后,相應的CDK部署操作均在該目錄下進行。然后安裝Amazon CDK包。

2.2 安裝CDK自動化部署腳本所需的所有依賴項和環(huán)境變量

在deployment目錄下運行以下命令安裝依賴庫:

wKgZomVNnqKAR7sPAAAHNXAbATQ298.png

然后將您的12位亞馬遜云科技賬號信息、Acess Key ID、Secret Access Key、以及需要部署的Region ID導入到環(huán)境變量中:

wKgaomVNnqOAb3zKAAAW6lG4ANQ756.png

然后運行“cdk bootstrap”安裝賬戶和目標區(qū)域內的CDK工具包,例如:

wKgZomVNnqOAI0ydAAALN37u1jw400.png

2.3 在cdk.json可以進行自定義配置

該方案的默認配置文件在deployment目錄下的cdk.json文件中,如果想要自行配置需要部署哪些功能模塊,可以根據需要修改cdk.json的“context”部分。例如,如果需要修改部署哪些功能函數(shù),可以對“selection”值進行修改。

默認的參數(shù)如下所示:

wKgaomVNnqOAPGNLAAAMovFgrlA000.png

如果僅需要使用“支持knn的文檔搜索功能”,可以僅保留“knn_doc”。除此之外,還可以選擇通過修改cdk.json的其他相應參數(shù)來自定義部署方式、部署哪些插件和名稱和路徑等配置。

2.4 CDK命令自動化署

運行下面的命令將驗證環(huán)境并生成Amaon CloudFormation的json模版:

wKgZomVNnqSAfLR2AAADyPQIbvE812.png

如果沒有報錯,則運行以下命令部署全部堆棧。

wKgaomVNnqSAbCyYAAAEzRBl5KY022.png

CDK部署將提供相關Amazon CloudFormation堆棧以及相關資源,例如Amazon Lambda、Amazon API Gateway、Amazon OpenSearch實例和Amazon SageMaker的notebook實例等,預計安裝的部署時間大約為30分鐘左右。

3、利用Amazon SageMaker的Notebook實例部署模型與數(shù)據導入

3.1 部署模型

3.1.1進入Amazon SageMaker控制臺,進入NoteBook Instances,選擇SmartSearchNoteBook實例,點擊“Open Jupyter”,進入SmartSearch的代碼主目錄,點擊“isearchjupyter”目錄進入,能看到包括Embbeding Model、LLM_Model等目錄,這兩個目錄包含模型部署腳本,而Script-Doc.ipynb腳本則會用于后面的文檔上傳,目錄如下圖所示:

wKgZomVNnqSANpcMAADIeUVskK0551.png

3.1.2首先安裝Embbeding Model,進入“/isearchjupyter/Embbeding Model”目錄,能看到對應的幾個腳本。其中“EmbbedingModel_shibing624_text2vec-base-chinese.ipynb”為中文的詞向量模型,其他兩個為英文,打開相應腳本依次運行單元格,開始部署embbeding model。等待script部署完畢,成功部署后會在Amazon SageMaker的endpoint中看到名為“huggingface-inference-eb”的endpoint,狀態(tài)為“InService”。

3.1.3然后部署大語言模型,LLM_Model目錄下當前包含了中文和英文的大語言模型庫。這里先為大家介紹中文的大語言模型的部署方法,找到isearchjupyter/LLM_Model/llm_chinese/code/inference.py,該文件定義了大語言模型的統(tǒng)一部署方法。大語言模型可以通過唯一的名稱進行部署,把該唯一名稱聲明為“LLM_NAME”的參數(shù)值,作為參數(shù)傳遞給部署腳本。可以根據大語言模型的文檔來確定“LLM_NAME”的值。打開網址后對照該文檔找到該模型部署的唯一名稱,然后粘貼到為“LLM_NAME”賦值的位置即可,可以參照該方法舉一反三,指定項目中需要使用的大語言模型。修改inference.py文件后進入“isearchjupyter/LLM_Model/llm_chinese/“目錄,運行該目錄的script。等待script 部署完畢,成功部署后會在Amazon SageMaker的endpoint中看到名為“pytorch-inference-llm-v1”的endpoint。

如果選擇部署英文大語言模型,部署方式類似,需要將英文大語言模型的參數(shù)填入LLM_Model/llm_english/code/inference.py文件的“LLM_NAME”參數(shù)中。找到該大語言模型項目名稱,則然后復制該名稱再粘貼到為“LLM_NAME”賦值的位置,可以用該方法進行舉一反三,指定任意一個滿足業(yè)務需求的大語言模型。進入“isearchjupyter/LLM_Model/llm_english/”的目錄下,依次運行該目錄下英文大語言模型的腳本的部署單元格。如下圖所示:

wKgaomVNnqWAe0jgAAMfUcMqzx8249.png

3.1.4安裝完成后,看到兩個endpoint已經在”InService”狀態(tài),如下圖:

wKgZomVNnqaAL9GDAAFsWk3P7BA671.png

3.2 知識庫數(shù)據上傳

3.2.1數(shù)據準備。進入jupyter的目錄“/isearchjupyter”,在“docs”目錄,將上傳所需要的word、excel或pdf等格式的文檔進行上傳,該文件夾下已經提供了用于測試的樣例文件“sample.docx”。

3.2.2 進入Script-Doc.ipynb,修改單元格“Hyperparameter”的如下參數(shù),folder_path為指定的docs目錄,index_name為Amazon OpenSearch的index名稱,如下圖:

wKgaomVNnqaAK04yAAJBu9Xds2o376.png

然后從頭運行這個script,完成數(shù)據導入。

4、配置Web UI

4.1 進入smart_search/ search-web-knn目錄,該目錄包含基于React的前端界面代碼。然后對/src/pages/common/constants.js文件進行編輯,如下圖所示:

wKgZomVNnqiAUeY7AAGhAHeBXBA827.png

Mainapi常變量指定了前端調用的API入口。該值可以從網頁端進入API Gateway中獲取,進入“smartsearch-api”的Stages側邊欄,將prod stage的involke URL賦值給constants.js的mainapi常變量。

4.2 檢查主頁面參數(shù)配置。smart_search/search-web-knn/src/pages/MainSearchDoc.jsx為功能展示頁面,在該文件的last_index參數(shù)設置了頁面自動填充的默認index值,將上文Notebook實例部署的index name填入,如“docs”。

4.3 運行前端界面。進入目錄 search-web-knn,執(zhí)行如下兩條命令:

wKgaomVNnqiAXZ4CAAAD1u0XlR8234.png

然后運行以下命令啟動前端界面:

wKgZomVNnqiAL6xWAAADmwpxB6g782.png

一切順利的話,將得到一個網頁版界面。在本地開發(fā)筆記本部署的默認訪問地址和端口號是localhost:3000,如果是EC2部署,需要啟用對應端口訪問的安全組策略,通過EC2的公網地址加端口號進行訪問。該前端頁面的使用方法為:將問題輸入搜索欄,配置index名稱和k-NN選項,點擊“Search”按鈕后您可以得到一個基于企業(yè)知識庫的大語言模型匯總回答。如下圖所示:

wKgaomVNnqmAcdgAAARyP4EmVQQ146.png

5、安裝擴展插件

5.1 與Amazon Lex集成實現(xiàn)智能聊天機器人

本方案已經集成了Amazon Lex的會話機器人功能,Amazon Lex當前在海外區(qū)可用。在cdk.json文件中,將“bot”加入extension鍵值處。

cdk部署成功后進入管理界面可以看到名為“l(fā)lmbot”的對話機器人,如下圖:

wKgZomVNnqqABmczAAE2WV-iqK4858.png

該機器人可以方便地進行前端頁面的集成。

5.2 與Amazon Connect集成實現(xiàn)智能語音客服

Amazon Connect為亞馬遜云科技的云呼叫中心服務,該服務當前在海外區(qū)可用。該方案可以通過Amazon Lex機器人將大語言模型能力集成到Amazon Connect云呼叫中心中,通過以下幾個步驟可以使您獲得一個支持語音呼叫功能的智能客服機器人。

5.2.1 將上一步生成的llmbot機器人集成到現(xiàn)有Amazon Connect實例中。

wKgaomVNnqqAe0gnAAFH2fb4i0A454.png

5.2.2 然后進入Amazon Connect實例中,將smart-search/extension/connect里面的文件導入到Contact Flow中,并保存和發(fā)布。

5.2.3 最后在Amazon Connect中將呼入號碼與上一步配置的Contact Flow進行關聯(lián)。則所有呼入該號碼的語音通話將會連接到智能客服的呼叫服務流程。

正常情況下,智能客服將會識別呼入人的語音輸入,隨后集成到Amazon Connect的智能客服機器人會基于企業(yè)知識庫信息和大語言模型的能力進行以接近人類的邏輯方式進行語音回答。

6、資源清理

想要將資源進行清理時,請使用以下命令將所有堆棧進行刪除:

wKgZomVNnquAdFpbAAAE_YXVcKs829.png

注意:通過Amazon SageMaker的Notebook實例創(chuàng)建的推理模型資源需要進行手動刪除,在Amazon SageMaker的“inference”邊欄進入“endpoint”,點擊“delete”,將所有endpoint進行刪除。

當堆棧創(chuàng)建的Amazon S3桶中已經有了數(shù)據或者存在其他手動創(chuàng)建或修改的資源時,則也需要手動刪除。

總結

通過此次部署,已經成功掌握了該方案的部署方法,也對該方案有了更深的了解。亞馬遜云科技將會對該方案進行持續(xù)的迭代與優(yōu)化以支持更多的數(shù)據類型、模型庫與擴展功能,進而將方案的能力延伸到更多的業(yè)務場景中去。該方案可以解決許多行業(yè)和領域的專業(yè)或通用場景,通過使用該方案可以使用人工智能的最新進展和亞馬遜云科技的產品來為行業(yè)發(fā)展注入新的活力。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語言模型
    +關注

    關注

    0

    文章

    561

    瀏覽量

    10795
  • 亞馬遜
    +關注

    關注

    8

    文章

    2696

    瀏覽量

    84683
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何使用Docker部署模型

    隨著深度學習和大模型快速發(fā)展,如何高效地部署這些模型成為了一個重要的挑戰(zhàn)。Docker 作為一種輕量級的容器化技術,能夠將模型及其依賴環(huán)境
    的頭像 發(fā)表于 05-24 16:39 ?346次閱讀

    HarmonyOS5服務技術分享--Serverless抽獎模板部署

    手把手教你部署HarmonyOS Serverless抽獎活動模板(附貼心提醒) 嘿,小伙伴們!今天給大家分享一個超實用的教程——如何用華為HarmonyOS的Serverless模板快速搭建抽獎
    發(fā)表于 05-22 20:25

    K230D部署模型失敗的原因?

    MicroPython部署的無法正常運行,采用C++版本的無法實現(xiàn)部署 嘗試解決過程 1.考慮到可能是固件不匹配的問題,重新燒錄了流程(生成模型后給的readme)中要求的固件,依舊無
    發(fā)表于 03-11 06:19

    RK3588開發(fā)板上部署DeepSeek-R1大模型的完整指南

    安裝交叉編譯工具鏈,以編譯RKLLM Runtime可執(zhí)行文件,該程序包含模型初始化、模型推理、回調函數(shù)處理輸出和模型資源釋放等全部流程。 (5)
    發(fā)表于 02-27 16:45

    科技獲亞馬遜科技生成式AI能力認證

    的應用上展現(xiàn)出了卓越的能力。 聚科技通過整合亞馬遜科技的先進技術,從應用范圍確定、模型選擇、數(shù)據處理、模型調優(yōu)到應用集成與
    的頭像 發(fā)表于 02-19 10:33 ?496次閱讀

    科技榮獲亞馬遜科技生成式AI能力認證

    Bedrock等技術,從應用范圍、模型選擇、數(shù)據處理、模型調優(yōu)到應用集成與部署等方面,助力企業(yè)加速生成式AI應用落地。此外,聚科技還基于亞馬遜
    的頭像 發(fā)表于 02-14 16:07 ?401次閱讀

    亞馬遜科技發(fā)布Amazon Trainium2實例

    的發(fā)布,標志著亞馬遜科技在人工智能訓練和部署領域邁出了重要一步。 為了滿足用戶對高性能和高性價比的雙重需求,亞馬遜
    的頭像 發(fā)表于 12-27 14:57 ?622次閱讀

    亞馬遜科技與SAP推出GROW with SAP解決方案

    近日,亞馬遜科技與SAP攜手宣布了一項重要合作——在亞馬遜科技平臺上提供GROW with SAP解決方案。這一舉措旨在幫助各種規(guī)模的企
    的頭像 發(fā)表于 12-24 16:44 ?743次閱讀

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    以及邊緣計算能力的增強,越來越多的目標檢測應用開始直接在靠近數(shù)據源的邊緣設備上運行。這不僅減少了數(shù)據傳輸延遲,保護了用戶隱私,同時也減輕了云端服務器的壓力。然而,在邊緣端部署高效且準確的目標檢測模型
    發(fā)表于 12-19 14:33

    基于亞馬遜科技的GROW with SAP解決方案 助力企業(yè)簡化云端ERP部署

    GROW with SAP解決方案將上架亞馬遜科技Marketplace,助力企業(yè)快速應用ERP軟件,并利用前沿生成式AI解決
    的頭像 發(fā)表于 12-09 15:11 ?580次閱讀

    飛利浦與亞馬遜科技擴展戰(zhàn)略合作,增強HealthSuite服務能力并賦能生成式AI工作流

    ,全球健康科技領導者荷蘭皇家飛利浦與亞馬遜科技擴展戰(zhàn)略合作,提供基于云端的飛利浦醫(yī)療信息化解決方案,覆蓋放射學、數(shù)字病理學、心臟病學1和人工智能高級可視化1等多個領域。此次合作旨在統(tǒng)
    發(fā)表于 12-04 15:04 ?471次閱讀
    飛利浦與<b class='flag-5'>亞馬遜</b><b class='flag-5'>云</b>科技擴展戰(zhàn)略合作,<b class='flag-5'>增強</b>HealthSuite<b class='flag-5'>云</b>服務能力并賦能生成式AI工作流

    搭建開源大語言模型服務的方法

    本文我們將總結5種搭建開源大語言模型服務的方法,每種都附帶詳細的操作步驟,以及各自的優(yōu)缺點。
    的頭像 發(fā)表于 10-29 09:17 ?696次閱讀

    亞馬遜科技上線Meta Llama 3.2模型

    亞馬遜科技近日宣布,Meta公司的新一代模型Llama 3.2已在其平臺上正式上線。該模型包括Meta首款多模態(tài)模型,現(xiàn)已在Amazon
    的頭像 發(fā)表于 10-11 18:08 ?748次閱讀

    亞馬遜科技正式上線Meta Llama 3.2模型

    亞馬遜科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMaker中正式可用。
    的頭像 發(fā)表于 10-11 09:20 ?876次閱讀

    GE醫(yī)療與亞馬遜科技達成戰(zhàn)略合作,通過生成式AI加速醫(yī)療健康領域轉型

    GE醫(yī)療已選擇亞馬遜科技作為其戰(zhàn)略服務合作伙伴,致力于推出全新的定制化基礎模型,加速創(chuàng)新醫(yī)療應用快速開發(fā)。 ? GE醫(yī)療將利用
    發(fā)表于 08-29 16:38 ?420次閱讀