谷歌發(fā)布了用于輔助編程的代碼大模型CodeGemma。CodeGemma 基于谷歌今年 2 月發(fā)布的輕量級開源大模型 Gemma,針對 Gemma 的兩個不同參數(shù)規(guī)模的版本 Gemma 2B 和 Gemma 7B 發(fā)布了 CodeGemma 2B 和 CodeGemma 7B(有預(yù)訓(xùn)練和指令微調(diào)兩種)。
因此 CodeGemma 有 3 個模型變體:
7B 預(yù)訓(xùn)練變體,專門用于補(bǔ)全代碼以及利用代碼前綴和 / 或后綴生成代碼
70 億指令微調(diào)變體,用于自然語言到代碼的聊天和指令遵循
先進(jìn)的 2B 預(yù)訓(xùn)練變體,代碼補(bǔ)全速度快至 2 倍
CodeGemma 可以執(zhí)行各種編碼任務(wù),例如填充中間代碼補(bǔ)全、代碼生成、自然語言理解、數(shù)學(xué)推理和指令遵循。
CodeGemma 具有多項(xiàng)優(yōu)勢:
智能代碼補(bǔ)全和生成:無論您是在本地工作,還是使用 Google Cloud 資源,都可以填寫整行、函數(shù),甚至生成整塊代碼塊。
準(zhǔn)確性更高:CodeGemma 模型基于 Web 文檔、數(shù)學(xué)和代碼中的 5000 億個詞元(主要是英語)數(shù)據(jù)訓(xùn)練而成,生成的代碼不僅語法正確,而且語義上也更有意義,從而減少錯誤并縮短調(diào)試時間。
多語言水平:支持 Python、JavaScript、Java、Kotlin、C++、C#、Rust、Go 和其他語言。
簡化工作流:將 CodeGemma 模型集成到開發(fā)環(huán)境中,可以減少編寫樣板代碼的工作量,更快地專注于有趣且與眾不同的代碼。
審核編輯:劉清
-
谷歌
+關(guān)注
關(guān)注
27文章
6231瀏覽量
108158 -
大模型
+關(guān)注
關(guān)注
2文章
3146瀏覽量
4076
原文標(biāo)題:谷歌發(fā)布代碼大模型 CodeGemma
文章出處:【微信號:TheBigData1024,微信公眾號:人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
IT崗位天塌了!Claude 4震撼發(fā)布:AI編程大模型再進(jìn)化

HarmonyOS AI輔助編程工具(CodeGenie)代碼續(xù)寫
鴻蒙CodeGenie AI輔助編程工具詳解

DevEco CodeGenie 鴻蒙AI 輔助編程初次使用
代碼革命的先鋒:aiXcoder-7B模型介紹

DevEco Studio AI輔助開發(fā)工具兩大升級功能 鴻蒙應(yīng)用開發(fā)效率再提升
使用 QWQ:32B 模型搭配 VSCode 的 Cline 插件實(shí)現(xiàn)自動化代碼編程!

谷歌 Gemini 2.0 Flash 系列 AI 模型上新
谷歌發(fā)布Gemini 2.0 AI模型
飛龍入海:ANSYS官方的大模型應(yīng)用

評論