完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>
標(biāo)簽 > llm
在人工智能領(lǐng)域,LLM代表“大型語言模型”。在人工智能(AI)領(lǐng)域自然語言處理(NLP)是一個(gè)快速進(jìn)展的領(lǐng)域。NLP中最重要是大語言模型(LLM)。大語言模型(英文:Large Language Model,縮寫LLM),也稱大型語言模型,是一種基于機(jī)器學(xué)習(xí)和自然語言處理技術(shù)的模型。
文章:323個(gè) 瀏覽:850次 帖子:3個(gè)
探索LangChain:構(gòu)建專屬LLM應(yīng)用的基石
LangChain通過Loader加載外部的文檔,轉(zhuǎn)化為標(biāo)準(zhǔn)的Document類型。Document類型主要包含兩個(gè)屬性:page_content 包含...
用PaddleNLP在4060單卡上實(shí)踐大模型預(yù)訓(xùn)練技術(shù)
作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 之前我們分享了《從零開始訓(xùn)練一個(gè)大語言模型需要投資多少錢》,其中高昂的預(yù)訓(xùn)練費(fèi)用讓許多對(duì)大模型預(yù)訓(xùn)練技術(shù)感興趣...
2025-02-19 標(biāo)簽:數(shù)據(jù)集大模型LLM 1007 0
Allen AI推出集成主流大語言模型的LLM-BLENDER框架
在推理階段,計(jì)算一個(gè)矩陣,該矩陣包含表示成對(duì)比較結(jié)果的logits。給定該矩陣,可以推斷給定輸入x的N個(gè)輸出的排序。隨后,可以使用來自PAIRRANKE...
加利福尼亞州圣克拉拉——Nvidia通過一個(gè)名為TensorRT LLM的新開源軟件庫,將其H100、A100和L4 GPU的大型語言模型(LLM)推理...
當(dāng)前,業(yè)界在將傳統(tǒng)優(yōu)化技術(shù)引入 LLM 推理的同時(shí),同時(shí)也在探索從大模型自回歸解碼特點(diǎn)出發(fā),通過調(diào)整推理過程和引入新的模型結(jié)構(gòu)來進(jìn)一步提升推理性能。
面對(duì)推測(cè)性解碼的復(fù)雜性,研究人員推出了Medusa技術(shù),這個(gè)框架回歸了Transformer模型的本質(zhì),減少了復(fù)雜度,增強(qiáng)了效率,讓每個(gè)生成階段都能快速...
2023-09-20 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)語言模型LLM 979 0
我們能否擴(kuò)展現(xiàn)有的預(yù)訓(xùn)練 LLM 的上下文窗口
? ? 在大家不斷升級(jí)迭代自家大模型的時(shí)候,LLM(大語言模型)對(duì)上下文窗口的處理能力,也成為一個(gè)重要評(píng)估指標(biāo)。 ? 比如 OpenAI 的 gpt-3...
OpenVINO 2024.4持續(xù)提升GPU上LLM性能
本次新版本在整個(gè) OpenVINO 產(chǎn)品系列中引入了重要的功能和性能變化,使大語言模型 (LLM) 的優(yōu)化和部署在所有支持的場(chǎng)景中更容易、性能更高,包括...
為了改進(jìn)LLM的推理能力,University of California聯(lián)合Meta AI實(shí)驗(yàn)室提出將Contrastive Decoding應(yīng)用于多...
2023-09-21 標(biāo)簽:解碼AI深度學(xué)習(xí) 933 0
使用ReMEmbR實(shí)現(xiàn)機(jī)器人推理與行動(dòng)能力
視覺語言模型(VLM)通過將文本和圖像投射到同一個(gè)嵌入空間,將基礎(chǔ)大語言模型(LLM)強(qiáng)大的語言理解能力與視覺 transformer(ViT)的視覺能...
Zero-shot Setting:在 O-Cue 中,由于單步指令較復(fù)雜(不要要進(jìn)行推理還要進(jìn)行回復(fù)生成,以及生成的格式要求),單步生成內(nèi)容過多,導(dǎo)致...
2023-12-01 標(biāo)簽:數(shù)據(jù)集大模型LLM 924 0
從Sora技術(shù)報(bào)告來看,時(shí)空patches或借鑒谷歌ViViT操作。ViViT借鑒ViT在圖片分割上的思路,把輸入的視頻劃分成若干個(gè)tuplet,每個(gè)t...
英特爾軟硬件構(gòu)建模塊如何幫助優(yōu)化RAG應(yīng)用
深入研究檢索增強(qiáng)生成 (Retrieval Augmented Generation, RAG),該創(chuàng)新方法定義了企業(yè)和機(jī)構(gòu)如何利用大語言模型(LLM)...
NVIDIA TensorRT-LLM 是一個(gè)專為優(yōu)化大語言模型 (LLM) 推理而設(shè)計(jì)的庫。它提供了多種先進(jìn)的優(yōu)化技術(shù),包括自定義 Attention...
文本摘要,作為自然語言生成(NLG)中的一項(xiàng)任務(wù),主要用來將一大段長(zhǎng)文本壓縮為簡(jiǎn)短的摘要,例如新聞文章、源代碼和跨語言文本等多種內(nèi)容都能用到。
VILA與其他模型在提供邊緣AI 2.0方面的表現(xiàn)
VILA 是 NVIDIA 研究部門與麻省理工學(xué)院共同開發(fā)的高性能視覺語言模型系列。最大的模型約有 400 億參數(shù),最小的模型約有 30 億參數(shù),并且完...
通過線性插值RoPE擴(kuò)張LLAMA context長(zhǎng)度最早其實(shí)是在llamacpp項(xiàng)目中被人發(fā)現(xiàn),有人在推理的時(shí)候直接通過線性插值將LLAMA由2k拓展...
編輯推薦廠商產(chǎn)品技術(shù)軟件/工具OS/語言教程專題
電機(jī)控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動(dòng)駕駛 | TI | 瑞薩電子 |
BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
無刷電機(jī) | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
直流電機(jī) | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
步進(jìn)電機(jī) | SPWM | 充電樁 | IPM | 機(jī)器視覺 | 無人機(jī) | 三菱電機(jī) | ST |
伺服電機(jī) | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國民技術(shù) | Microchip |
Arduino | BeagleBone | 樹莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
DuerOS | Brillo | Windows11 | HarmonyOS |