大語言模型 (LLM) 已經在多個領域展示出了卓越的性能和巨大的潛力,然而,要想真正發揮出這些模型的強大能力,需要強大的算力基礎設施,而芯片是關鍵。
千呼萬喚始出來,第五代英特爾 ??至強 ??可擴展處理器,它來了!
若是用一句話來概括它的特點,那就是 ——AI 味道越發得濃厚。
以訓練、推理大模型為例:
?與第四代相比,訓練性能提升多達 29%, 推理性能提升高達 42%;
?與第三代相比,AI 訓練和推理性能提升高達 14 倍。
什么概念?
現在若是將不超過 200 億參數的模型“投喂”給第五代至強 ??可擴展處理器,那么時延將低到不超過 100 毫秒!
也就是說,現在在 CPU 上跑大模型,著實是更香了。
而這也僅是英特爾在此次發布中的一隅,還包括打破自家“祖制”、被稱為四十年來最重大架構轉變的酷睿??Ultra。
此舉亦是將 AI 的 power 注入到消費級 PC 中,用于加速本地的 AI 推理。
除此之外,具體到英特爾長期在各行各業扎根的 AI 實戰應用,包括數據庫、科學計算、生成式 AI、機器學習、云服務等等,也隨著第五代至強 ??可擴展處理器的到來,在其內置的如英特爾 ??AMX、英特爾 ??SGX / TDX 等其他內置加速器的幫助下,得到了更大的降本增效。
總而言之,縱觀英特爾此次整場的發布,AI 可謂貫穿始終。
##最新英特爾處理器,AI 更 Power 了
我們先來繼續深入了解一下第五代至強 ??可擴展處理器披露的更多細節。
例如在性能優化方面,英特爾將各種參數做了以下提升:
?CPU 核心數量增加到 64 個,單核性能更高,每個內核都具備 AI 加速功能
?采用全新 I / O 技術 (CXL、PCIe5),UPI 速度提升
?內存帶寬從 4800 MT/s提高至 5600 MT/s
我們再來縱向,與英特爾前兩代產品做個比較,那么性能提升的結果是這樣的:
?與上一代產品相比,相同熱設計功耗下平均性能提升 21%; 與第三代產品比,平均性能提升 87%。
?與上一代產品相比,內存帶寬提升高達 16%, 三級緩存容量提升至近 3 倍之多。
不難看出,第五代至強 ??可擴展處理器與“前任們”相比,在規格與性能上著實是有了不小的提升。
但英特爾可不僅僅是披露,而是已經將第五代至強 ??可擴展處理器用起來,并把實打實的使用效果展示了出來。
例如在大模型的推理方面,京東云便在現場展示了搭載第五代至強 ??可擴展處理器的新一代自研服務器所呈現的能力 ——
全部以超過 20% 的性能提升“姿勢”亮相!
具體而言,京東云與上一代自研服務器有了如下的性能提升:
?整機性能提升達 123%;
?AI 計算機視覺推理性能提升至 138%;
?Llama 2 推理性能提升至 151%。
這也再一次證明了在五代至強 ??上搞大模型,是越發得吃香了。
而除了大模型之外,像涉及 AI 的各種細分領域,如整機算力、內存寬帶、視頻處理等等,也有同樣的實測結果。
這份結果則是來自采用了第五代英特爾 ? 至強 ? 可擴展處理器的火山引擎 ——
其全新升級的第三代彈性計算實例,整機算力提升 39%; 應用性能最高提升 43%。
而且在性能提升的基礎上,據火山引擎透露,通過其獨有的潮汐資源并池能力,構建了百萬核彈性資源池,能夠用近似包月的成本提供按量使用體驗,上云成本更低了!
這是由于使用內置于第五代至強 ??可擴展處理器中的加速器時,可將每瓦性能平均提升 10 倍;在能耗低至 105W 的同時,也有已針對工作負載優化的高能效 SKU。
可以說是實打實的降本增效了。
在云計算和安全性方面,亮出實測體驗的同樣是來自國內的大廠 —— 阿里云。
在搭載第五代英特爾 ? 至強 ? 可擴展處理器及其內置的英特爾 ?AMX、英特爾 ?TDX 加速引擎后,阿里云打造了“生成式 AI 模型及數據保護“的創新實踐,使第 8 代 ECS 實例在安全性和 AI 性能上都獲得了顯著提升,且保持實例價格不變,普惠客戶。
包括推理性能提高 25%、QAT 加解密性能提升 20%、數據庫性能提升 25%, 以及音視頻性能提升 15%。
值得一提的是,內置的英特爾 ??SGX / TDX 還可以為企業分別提供更強也更易用的應用隔離能力和虛擬機 (VM) 層面的隔離和保密性,為現有應用提供了一條更簡便的向可信執行環境遷移的路徑。
以及第五代英特爾 ? 至強 ? 可擴展處理器在軟件和引腳上是與上一代兼容的,還可以大大減少測試和驗證工作。
總的來說,第五代至強 ? 可擴展處理器可謂“誠意滿滿”、表現非常亮眼,而它背后所透露出來的,正是英特爾在 AI 領域一直都非常重視落地的態度。
##背后是一部 AI 落地史
事實上,作為服務器 / 工作端芯片,英特爾 ? 至強 ? 可擴展處理器從 2017 年第一代產品開始就利用英特爾 ??AVX-512 技術的矢量運算能力對 AI 進行加速上的嘗試;而 2018 年在第二代至強 ??可擴展處理器中導入深度學習加速技術 (DL Boost) 更是讓至強成為“CPU 跑 AI”的代名詞;在之后第三代到第五代至強 ??可擴展處理器的演進中,從 BF16 的增添再到英特爾 ??AMX 的入駐,可以說英特爾一直在充分利用 CPU 資源的道路上深耕,以求每一代處理器 CPU 都能支持各行各業推進 AI 實戰。
起先是在傳統行業。
例如第二代至強 ??就發力智能制造,幫助企業解決海量實時數據處理挑戰,提升生產線系統效率,完成“肉眼可見”的產能擴展。
隨后,至強 ? 可擴展處理器開始在大模型界大展身手。
在 AlphaFold2 掀起的蛋白質折疊預測熱潮之中,第三代和第四代至強 ? 可擴展處理器連續接力,不斷優化端到端通量能力。實現比 GPU 更具性價比的加速方案,直接拉低 AI for Science 的入場門檻。
這其中就有從第四代開始內置于 CPU 中,面向深度學習應用推出的創新 AI 加速引擎 —— 英特爾 ?AMX 的功勞。作為矩陣相關的加速器,它能顯著加速基于 CPU 平臺的深度學習推理和訓練,提升 AI 整體性能,對 INT8、BF16 等低精度數據類型都有著良好的支持。
與此同時,在大模型時代的 OCR 技術應用,也被第四代至強 ? 可擴展處理器賦予了新的“靈魂”,準確率飆升、響應延遲更低。
同樣,就在不久之前,借助第四代至強 ??可擴展處理器在 NLP 上的優化,專攻醫療行業的大語言模型也成功以較低成本在醫療機構部署落地。
在 AI 技術越來越深入各行各業的大趨勢之下,至強 ? 可擴展處理器讓我們看到,它所代表的 CPU 解法完全能夠有所作為、能夠讓不少 AI 應用在部署更為廣泛、獲取更加容易、應用門檻也更低的 CPU 平臺上獲得實實在在的落地開花。
第五代至強 ? 可擴展處理器的發布,則讓這個進程更進一步。
當然 ——
這一成績的背后,確實是因為大家對“在 CPU 上跑 AI”這件事上有需求,以及它本身也有極其深厚的價值和優勢。
先說需求,無論是傳統企業推進智能化改造,還是 AI for Science、生成式 AI 等新興技術的蓬勃發展,都需要強大的算力來驅動。
但大家面臨的局勢卻是: 專門的加速芯片供不應求,采購難不說,成本也十分高昂,因此還遠遠不夠普及。
于是一部分人自然將目光投向 CPU:
這個現實中最為“觸手可及”的硬件,如果直接加以利用,豈不是事半功倍?
這就引出 CPU 的價值和優勢。
就拿當下熱門話題生成式 AI 來說,如果想在生產環境中普及這一能力,就得盡可能地控制成本。
相比訓練來說,AI 的推理對算力資源需求沒有那么夸張,交給 CPU 完全能夠勝任 —— 不僅延遲更低,能效也更高。
像一些行業和業務,推理任務沒有那么繁重,選擇 CPU 無疑更具性價比。
此外,利用 CPU 直接進行部署還能讓企業充分利用既有 IT 基礎設施,避免異構平臺的部署難題。
以上,我們也就能夠理解: 在傳統架構中引入 AI 加速,就是 CPU 在這個時代的新宿命。
而英特爾做的,就是竭盡全力幫大家挖掘、釋放其中的價值。
##駕馭整個 AI 管線,且不止 CPU
最后,我們再回到今天的主角: 第五代英特爾 ? 至強 ? 可擴展處理器。
實話說,如果和專門的 GPU 或 AI 加速芯片相比,它可能確實還不夠炫,但主打親民、易用 (開箱即用,配套的軟件和生態越發完善)。
更值得我們注意的是,就算在有專用加速器的場合,CPU 無論是從數據預處理,還是模型開發和優化,再到部署和使用,也可以成為 AI pipeline 的一部分。
其中尤其在數據預處理階段,它已可以稱得上是主角的存在。
無論是以 GB 還是 TB 計,甚至更大的數據集,基于至強 ? 可擴展處理器所打造的服務器,都能通過支持更大內存、減少 I / O 操作等優勢,提供高效的處理和分析,節省 AI 開發中這一最瑣碎耗時任務的時間。
基于以上,我們也不得不感嘆,如今英特爾在談 AI 時,話題更多樣化了。
再加上它在 GPU 和專門的 AI 加速芯片上也有布局,“武器庫”里的選擇也更多了,火力覆蓋的能力也更全面了。
毫無疑問,這一切,都指向英特爾全面加速 AI 的決心。
即用一系列具有性價比的產品組合來快速滿足不同行業的 AI 落地需求。
AI 落地時代開始了,英特爾的機會也來了?
本文鏈接:http://www.www897cc.com/showinfo-26-52926-0.htmlCPU 也可以完美運行大模型 英特爾第五代至強重磅發布
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com