4 月 10 日消息,谷歌公司近日發(fā)布了 CodeGemma 先進(jìn)大語(yǔ)言模型(LLMs),專門用于生成代碼、理解和追蹤指令等,開(kāi)發(fā)目的是讓全球開(kāi)發(fā)人員更容易獲得高質(zhì)量的代碼輔助工具。
CodeGemma 作為 Gemma 模型的開(kāi)放訪問(wèn)系列推出,針對(duì)代碼開(kāi)發(fā)場(chǎng)景進(jìn)行優(yōu)化、微調(diào)(fine-tuned)。該套件包括三種不同的模型:
20 億參數(shù)的基礎(chǔ)模型:優(yōu)化補(bǔ)全和生成代碼,在注重延遲和隱私的情況下主要為代碼提供快速高效的解決方案。
70 億參數(shù)基礎(chǔ)模型:整合代碼補(bǔ)全和自然語(yǔ)言處理,增強(qiáng)了其在完成代碼和理解語(yǔ)言生成任務(wù)時(shí)的實(shí)用性。
用于指導(dǎo)追蹤的 70 億參數(shù)模型:用戶參與有關(guān)代碼、編程和數(shù)學(xué)推理的對(duì)話,是開(kāi)發(fā)人員尋求指導(dǎo)或注釋的寶貴資源。
CodeGemma 的上述 3 個(gè)模型利用了預(yù)先訓(xùn)練的 Gemma 檢查點(diǎn),此外還訓(xùn)練了英語(yǔ)、數(shù)學(xué)和各種編碼語(yǔ)言的另外 5000 億個(gè)詞塊,在邏輯和數(shù)學(xué)推理方面的超凡能力,為代碼生成和完成樹(shù)立了新的標(biāo)桿。
70 億參數(shù)模型在 Python、Java、JavaScript 和 C++ 等各種編程語(yǔ)言中均表現(xiàn)出色。在 HumanEval 和 MultiPL-E 基準(zhǔn)測(cè)試中取得的優(yōu)異成績(jī)充分證明了這一能力。此外,該模型在 GSM8K 評(píng)估中名列前茅,也證明了它的多功能性和有效性。
附上參考地址
Google AI Unveils CodeGemma: A Set of Open Code Models Built on Top of Gemma, Capable of a Variety of Code and Natural Language Generation Tasks
CodeGemma - an official Google release for code LLMs
本文鏈接:http://www.www897cc.com/showinfo-45-3967-0.html目標(biāo)打造最強(qiáng)代碼輔助工具,谷歌發(fā)布 CodeGemma AI 模型
聲明:本網(wǎng)頁(yè)內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問(wèn)題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com
上一篇: 騰訊音樂(lè)與長(zhǎng)城汽車開(kāi)啟戰(zhàn)略合作,聚焦智能座艙 AI 音頻技術(shù)