在人工智能領域,盡管現有的頂尖大語言模型(SOTA)展現了卓越智能,部分任務表現甚至超越人類,但其龐大的參數規模——動輒數千億乃至萬億級別,導致了高昂的訓練、部署及推理成本。對于企業及開發者而言,在處理相對簡單卻需大規模、高并發處理的任務時,這些頂尖模型并非性價比最優的選擇。
針對這一痛點,新興初創公司Fastino應運而生。該公司利用低端游戲GPU,以平均不足10萬美元的成本,成功訓練出一系列名為“任務特定語言模型”(TLMs)的小型模型。這些模型在特定任務上的性能可媲美大型語言模型,且推理速度快了99倍。
近期,Fastino宣布獲得由Khosla Ventures領投的1750萬美元種子輪融資,Insight Partners、Valor Equity Partners及知名天使投資人Scott Johnston(前Docker首席執行官)和Lukas Biewald(Weights & Biases首席執行官)參與跟投。加上2024年11月由M12(微軟旗下)和Insight Partners領投的700萬美元前種子輪融資,Fastino累計融資額已近2500萬美元。
Fastino由連續創業者Ash Lewis(首席執行官)和George Hurn-Maloney(首席運營官)共同創立。Ash Lewis此前還參與創立了DevGPT、Ashtv AI等多家AI原生公司。他們組建了一支技術團隊,成員來自谷歌DeepMind、斯坦福大學、卡內基梅隆大學及蘋果等頂尖機構,能夠從底層技術革新,訓練出“任務特定語言模型”。
Fastino的TLM模型在成本效益和性能上表現突出。隨著AI模型規模的不斷擴大,雖然數千億至上萬億參數的SOTA模型在智能上持續提升,甚至在某些初級任務上替代人力,但高昂的訓練、部署及推理成本使得它們在經濟性上并不總是最優選擇。即便是擁有近10億周活用戶的OpenAI,也面臨著用戶增長帶來的成本飆升壓力。
Ash Lewis談及創業初衷時表示:“我們上一家創業公司在走紅后,基礎設施成本急劇上升。有一段時間,語言模型的開支甚至超過了整個團隊的費用,這促使我們創立了這家公司。”
除了高昂的運行成本,大尺寸模型的通用性與專用性之間的矛盾也是一大問題。雖然大尺寸模型帶來了強大的智力和通用性,但在特定專用任務上性能可能并不突出,且需為通用性支付額外成本。大尺寸模型運行速度慢,影響了用戶體驗。當前的AI工作負載更看重精準度、速度和可擴展性,而非泛化的推理能力。
George Hurn-Maloney指出:“AI開發者不需要在無數無關數據點上訓練的大語言模型,他們需要適合其任務的正確模型。因此,我們推出了高精度、輕量化的模型,讓開發者能夠無縫集成。”
Fastino的TLMs專為需要低延遲、高精度AI的開發者和企業設計,不針對消費級用戶,無需通用性。這些模型結合了基于Transformer的注意力機制,并在架構、預訓練和后訓練階段引入任務專精。它們優先考慮緊湊性和硬件適應性,同時不犧牲任務準確性。這種架構和技術創新使得TLM模型能夠在低端硬件上高效運行,同時提升任務準確性。
相比OpenAI GPT-4o的4000ms延遲,Fastino的TLM模型延遲低至100ms,快了99倍。在性能方面,Fastino對比了TLM模型在意圖檢測、垃圾信息過濾、情感傾向分析、有害言論過濾、主題分類和大型語言模型防護等基準上的表現,結果顯示其F1分數比GPT-4o高出17%。
Fastino的TLM模型并非單一模型,而是針對每個特定用例訓練的一組模型。首批模型能夠應對一些需求最明確且廣泛的企業和開發者核心任務,如文本摘要、函數調用、文本轉JSON、個人身份信息屏蔽、文本分類、臟話過濾和信息提取等。
在收費模式上,Fastino采用了訂閱制,對初級開發者和中小企業較為友好。個人開發者每月有1萬次免費請求,Pro用戶每月10萬次請求僅需45美元,團隊用戶300萬次請求每月1275美元。Pro用戶和團隊用戶還享有更快模型速度、更安全模型訪問及更大上下文窗口等額外優勢。
Fastino的TLM模型能夠針對開發者和小企業用戶提供服務,得益于其極低的模型運行成本。對于企業客戶,TLM可部署在客戶的虛擬私有云、本地數據中心或邊緣設備上,使企業能夠在保留敏感信息控制權的同時,利用先進的人工智能能力。
目前,Fastino的TLM已在多個行業產生影響,從金融和醫療領域的文檔解析到電子商務中的實時搜索查詢智能,財富500強企業正利用這些模型優化運營、提升效率。
在模型規模不斷擴大的趨勢下,小模型在企業應用中展現出獨特優勢。低成本、低延遲以及在特定任務上不弱于大尺寸通用模型的優點,使得小模型受到企業和開發者的青睞。這一趨勢不僅適用于Fastino,其他模型廠商如Cohere和Mistral也提供強大的小尺寸模型。國內大廠如阿里云的Qwen3也推出了4B、1.7B甚至0.6B的模型。小尺寸模型在成本效益、推理時延和能力匹配上的優勢,為它們在AI領域贏得了生存空間。
本文鏈接:http://www.www897cc.com/showinfo-45-12867-0.html小成本大作為!Fastino任務特定語言模型超越GPT-4o,延遲狂降99倍
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com