OpenAI新模型o1號稱編程能力8倍殺GPT-4o,MMLU媲美人類專家,MMLU是什么?評估大模型的標準是什么?
相信大家在閱讀大模型相關文檔的時候經(jīng)常會看到MMLU,BBH,GSM8K,MATH,HumanEval,MBPP,C-Eval,CMMLU等等這些都是什么?大模型訓練完成后,如何客觀地評估其效果呢?
當然我們不能依靠主觀判斷,于是研究者們制定了一系列標準,用于測評大模型在不同數(shù)據(jù)集上的表現(xiàn)。而這些數(shù)據(jù)集( MMLU、C-Eval、GSM8K、MATH、HumanEval、MBPP、BBH 和 CMMLU),正是用于評估大模型性能的重要依據(jù)。

當然,它們也也可用于模型訓練。
MMLU這個基準包含STEM(科學、技術(shù)、工程、數(shù)學)、人文學科、社會學科等57個學科領域,難度從初級到高級不等。

C-Eval 是一個全面的中文基礎模型評估套件,它包含了13948個多項選擇題,涵蓋了52個不同的學科和四個難度級別。

GSM8K(Grade School Math)是一個由OpenAI發(fā)布的數(shù)據(jù)集,有8.5K個高質(zhì)量語言多樣的小學數(shù)學問題組成。這些問題需要 2 到 8 個步驟來解決,解決方法主要是使用基本的算術(shù)運算(+ - / *)進行一連串的基本計算,以得出最終答案。

雖然看起來很簡單,但很多大模型的表現(xiàn)都不太好。
MATH是一個包含 12500 個數(shù)學競賽問題的數(shù)據(jù)集,其中的每個問題都有一個完整的推導過程。

HumanEval是由 164 個簡單編程問題組成,主要用來評估語言理解、算法和簡單的數(shù)學。

MBPP(Mostly Basic Python Programming)由大約 1000 個Python 編程問題組成,每個問題由任務描述、代碼解決方案和 3 個自動化測試用例組成。

BBH的全稱是BIG-Bench Hard,它是BIG-Bench數(shù)據(jù)集的一個子集,它專注于23個具有挑戰(zhàn)性的任務,這些任務超出了當前語言模型的能力范圍,BBH中的任務需要進行多步驟推理。

CMMLU,一個全面的中文大模型評估數(shù)據(jù)集。它涵蓋了67個主題,涉及自然科學、社會科學、工程、人文、以及常識等,就是中文版的MMLU。

通過這些評測數(shù)據(jù)集和評估標準,我們可以從不同角度系統(tǒng)地評估大模型的性能、泛化能力和魯棒性,為大模型的進一步研究和應用提供科學依據(jù)。
AI體系化學習路線

學習資料免費領
? AI全體系學習路線超詳版
? AI體驗卡(AI實驗平臺體驗權(quán)限)
? 100余講AI視頻課程
? 項目源碼《從零開始訓練與部署YOLOV8》
? 170余篇AI經(jīng)典論文
全體系課程詳情介紹

-
AI
+關注
關注
88文章
35164瀏覽量
280020 -
人工智能
+關注
關注
1807文章
49029瀏覽量
249584 -
大模型
+關注
關注
2文章
3146瀏覽量
4075
發(fā)布評論請先 登錄
迅為RK3588開發(fā)板Linux安卓麒麟瑞芯微國產(chǎn)工業(yè)AI人工智能
最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)
生成式人工智能模型的安全可信評測

【每天學點AI】實戰(zhàn)圖像增強技術(shù)在人工智能圖像處理中的應用

評論