4 月 30 日消息,在首屆 LlamaCon 大會(huì)上,Meta 公司在推出獨(dú)立 AI 應(yīng)用之外,還發(fā)布了 Llama API,目前以免費(fèi)預(yù)覽形式向開(kāi)發(fā)者開(kāi)放。
援引博文,Llama API 支持開(kāi)發(fā)者測(cè)試包括 Llama 4 Scout 和 Llama 4 Maverick 在內(nèi)的最新模型,提供一鍵 API 密鑰創(chuàng)建以及輕量級(jí)的 TypeScript 和 Python SDK。
開(kāi)發(fā)者可通過(guò)一鍵創(chuàng)建 API 密鑰,快速上手使用,同時(shí) API 還提供輕量級(jí)的 TypeScript 和 Python SDK。為了方便開(kāi)發(fā)者從 OpenAI 平臺(tái)遷移應(yīng)用,Llama API 完全兼容 OpenAI SDK。
Meta 還聯(lián)手 Cerebras 和 Groq,進(jìn)一步優(yōu)化 Llama API 的性能。Cerebras 宣稱,其 Llama 4 Cerebras 模型的 tokens 生成速度高達(dá) 2600 tokens / s,比 NVIDIA 等傳統(tǒng) GPU 解決方案快 18 倍。
根據(jù) Artificial Analysis 基準(zhǔn)測(cè)試數(shù)據(jù),這一速度遠(yuǎn)超 ChatGPT 的 130 tokens / s 和 DeepSeek 的 25 tokens / s。
Cerebras CEO 兼聯(lián)合創(chuàng)始人 Andrew Feldman 表示:“我們很自豪能讓 Llama API 成為全球最快的推理 API。開(kāi)發(fā)者在構(gòu)建實(shí)時(shí)應(yīng)用時(shí)需要極致速度,Cerebras 的加入讓 AI 系統(tǒng)性能達(dá)到 GPU 云無(wú)法企及的高度。”
此外,Groq 提供的 Llama 4 Scout 模型速度為 460 tokens / s,雖不及 Cerebras,但仍比其他 GPU 方案快 4 倍。在Groq上,Llama 4 Scout 每百萬(wàn) tokens 輸入費(fèi)用為 0.11 美元,每百萬(wàn) tokens 輸出費(fèi)用為 0.34 美元;Llama 4 Maverick 每百萬(wàn) tokens 輸入費(fèi)用為 0.50 美元,每百萬(wàn) tokens 輸出費(fèi)用為 0.77 美元。
本文鏈接:http://www.www897cc.com/showinfo-45-12691-0.html2600 tokens s:Meta 發(fā)布 Llama API,攜手 Cerebras 打造最快 AI 推理解決方案
聲明:本網(wǎng)頁(yè)內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問(wèn)題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com
上一篇: Meta Llama AI 模型下載量突破 12 億,開(kāi)發(fā)者貢獻(xiàn)數(shù)萬(wàn)個(gè)衍生模型
下一篇: 微軟發(fā)布 Phi-4 系列小語(yǔ)言 AI 推理模型,AIME 2025 跑分超滿血版 Deepseek R1