日韩成人免费在线_国产成人一二_精品国产免费人成电影在线观..._日本一区二区三区久久久久久久久不

當前位置:首頁 > 科技  > 數碼

快20倍 還便宜!NVIDIA GPU的“掘墓人”出現了?

來源: 責編: 時間:2024-06-27 17:10:58 160觀看
導讀 芯片初創公司Etched近日宣布推出了一款針對 Transformer架構專用的AISC芯片 “Sohu”,并聲稱其在AI大語言模型(LLM)推理性能方面擊敗了NVIDIA新的B200 GPU,AI性能達到了H100的20倍。這也意味著Sohu芯

芯片初創公司Etched近日宣布推出了一款針對 Transformer架構專用的AISC芯片 “Sohu”,并聲稱其在AI大語言模型(LLM)推理性能方面擊敗了NVIDIA新的B200 GPU,AI性能達到了H100的20倍。nyU28資訊網——每日最新資訊28at.com

這也意味著Sohu芯片將可以大幅降低現有AI數據中心的采購成本和安裝成本。nyU28資訊網——每日最新資訊28at.com

目前,Etched公司已就其Sohu芯片的生產與臺積電4nm工藝展開直接合作,并且已從頂級供應商處獲得足夠的 HBM 和服務器供應,以快速提高第一年的生產能力。nyU28資訊網——每日最新資訊28at.com

一些早期客戶已經向Etched公司預訂了數千萬美元的硬件。nyU28資訊網——每日最新資訊28at.com

快20倍 還便宜!NVIDIA GPU的“掘墓人”出現了?nyU28資訊網——每日最新資訊28at.com

一、AI性能超過NVIDIA H100的20倍,是如何做到的?nyU28資訊網——每日最新資訊28at.com

據Etched公司介紹,Sohu是世界上第一個基于Transformer架構的ASIC。nyU28資訊網——每日最新資訊28at.com

根據Etched公司披露的數據顯示,一臺配備了8顆Sohu芯片的服務器每秒可以處理超過 500,000 個 Llama 70B Token,達到了同樣配備8張NVIDIA H100 GPU加速卡的服務器的20倍。nyU28資訊網——每日最新資訊28at.com

同樣,也遠遠超過了配備8張NVIDIA新的B200 GPU加速卡的服務器約10倍。nyU28資訊網——每日最新資訊28at.com

快20倍 還便宜!NVIDIA GPU的“掘墓人”出現了?nyU28資訊網——每日最新資訊28at.com

△基準測試針對的是 FP8 精度的 Llama-3 70B:無稀疏性、8x 模型并行、2048 輸入/128 輸出長度。使用 TensorRT-LLM 0.10.08(新版本)計算的 8xH100,8xGB200 的數字是估算的。nyU28資訊網——每日最新資訊28at.com

Etched公司表示,Sohu速度比NVIDIA的新一代Blackwell架構的B200 GPU還要快一個數量級,而且價格更便宜。可以幫助客戶構建 GPU 無法實現的產品。nyU28資訊網——每日最新資訊28at.com

不過,這里還是要強調以下,雖然Sohu的AI性能要比NVIDIAGPU更好,但這是有一個前提的,因為Sohu是專為基于Transformer架構的大模型定制的,所以其也僅支持基于Transformer架構的大模型加速。nyU28資訊網——每日最新資訊28at.com

“通過將Transformer架構集成到我們的芯片中,雖然無法運行大多數傳統的 AI 模型,比如為 Instagram 廣告提供支持的 DLRM、像 AlphaFold 2 這樣的蛋白質折疊模型、像 Stable Diffusion 2 這樣的舊的圖像模型,以及CNN、RNN 或 LSTM等模型,但是針對基于Transformer架構的大模型,Sohu將是有史以來快的AI芯片,沒有哪個芯片能夠與之匹敵。”Etched公司說道。nyU28資訊網——每日最新資訊28at.com

1、更高的計算利用率nyU28資訊網——每日最新資訊28at.com

由于Sohu只運行Transformer這一種類型的算法,因此可以刪除絕大多數控制流邏輯,從而擁有更多數學計算邏輯。因此,Sohu的 FLOPS 利用率超過 90%(而使用 TRT-LLM 的GPU上 FLOPS 利用率約為 30%)。nyU28資訊網——每日最新資訊28at.com

雖然NVIDIA H200 擁有 989 TFLOPS 的 FP16/BF16 計算能力(無稀疏性),這無疑是非常強大的,甚至比谷歌的新 Trillium 芯片還要好。nyU28資訊網——每日最新資訊28at.com

但NVIDIA已經發布的B200的計算能力僅高出25%(每個芯片 1,250 TFLOPS)。這是由于 GPU 的絕大部分區域都用于可編程性,因此專注于 Transformer 可以讓芯片進行更多的計算。nyU28資訊網——每日最新資訊28at.com

比如,構建單個 FP16/BF16/FP8 乘加電路需要 10,000 個晶體管,這是所有矩陣數學的基石。NVIDIA H100 SXM 有 528 個張量核心,每個都有4 x 8 × 16FMA 電路。nyU28資訊網——每日最新資訊28at.com

因此,NVIDIA H100 有 27 億個專用于張量核心的晶體管。但是 H100 擁有 800 億個晶體管!這意味著 H100 GPU 上只有 3.3% 的晶體管用于矩陣乘法!nyU28資訊網——每日最新資訊28at.com

這是NVIDIA和其他靈活的 AI 芯片經過深思熟慮的設計決定的。如果想要支持所有類型的模型(比如CNN、LSTM、SSM 等),那么沒有比這更好的設計了。nyU28資訊網——每日最新資訊28at.com

而Etched公司的Sohu芯片僅支持運行Transformer架構的AI大模型,這使得其可以在芯片上安裝更多的 FLOPS,且無需降低精度或稀疏性。nyU28資訊網——每日最新資訊28at.com

2、提升內存帶寬利用率nyU28資訊網——每日最新資訊28at.com

通常來說,AI推理會受到內存帶寬的限制,計算的限制相對較小。但是事實上,對于像Llama-3這樣的現代模型來說,需要更高的計算力來提升帶寬的利用率。nyU28資訊網——每日最新資訊28at.com

如果使用NVIDIA和 AMD 的標準基準:2048 個輸入標記和 128 個輸出標記。大多數 AI 產品的提示比完成時間長得多(即使是新的 Claude 聊天應用在系統提示中也有 1,000 多個標記)。nyU28資訊網——每日最新資訊28at.com

在 GPU 和Sohu上,推理是分批運行的。每個批次加載一次所有模型權重,并在批次中的每個標記中重復使用它們。nyU28資訊網——每日最新資訊28at.com

通常,大語言模型輸入是計算密集型的,而輸出是內存密集型的。當我們將輸入和輸出標記與連續批處理相結合時,工作負載變得非常計算密集型。nyU28資訊網——每日最新資訊28at.com

以下是大語言模型連續批處理的示例。這里我們運行具有四個輸入標記和四個輸出標記的序列;每種顏色都是不同的序列。nyU28資訊網——每日最新資訊28at.com

快20倍 還便宜!NVIDIA GPU的“掘墓人”出現了?nyU28資訊網——每日最新資訊28at.com

我們可以擴展同樣的技巧來運行具有 2048 個輸入標記和 128 個輸出標記的 Llama-3-70B。讓每個批次包含一個序列的 2048 個輸入標記和 127 個不同序列的 127 個輸出標記。nyU28資訊網——每日最新資訊28at.com

如果我們這樣做,每個批次將需要大約(2048 + 127) × 70B params × 2 bytes per param = 304 TFLOPs,而只需要加載70B params × 2 bytes per param = 140 GB模型權重和大約127 × 64 × 8 × 128 × (2048 + 127) × 2 × 2 = 72GBKV緩存權重。這比內存帶寬要多得多。nyU28資訊網——每日最新資訊28at.com

NVIDIA H200需要6.8 PFLOPS的計算才能大限度地利用其內存帶寬。這是在100%的利用率下——如果利用率為30%,將需要3倍的計算量。nyU28資訊網——每日最新資訊28at.com

由于Sohu擁有如此之多的計算能力且利用率極高,因此可以運行巨大的吞吐量而不會出現內存帶寬瓶頸。nyU28資訊網——每日最新資訊28at.com

3、軟件問題不再是一場噩夢nyU28資訊網——每日最新資訊28at.com

在 GPU 和 TPU 上,通常軟件開發是一場噩夢。處理任意 CUDA 和 PyTorch 代碼需要極其復雜的編譯器。第三方 AI 芯片(AMD、英特爾、AWS 等)在軟件上總共花費了數十億美元,但收效甚微。nyU28資訊網——每日最新資訊28at.com

但由于Etched公司的Sohu只運行Transformers,因此開發人員只需要為 Transformer 編寫軟件!nyU28資訊網——每日最新資訊28at.com

大多數運行開源或內部模型的公司都使用特定于 Transformer 的推理庫,如 TensorRT-LLM、vLLM 或 HuggingFace 的 TGI。nyU28資訊網——每日最新資訊28at.com

這些框架非常僵化 ——雖然你可以調整模型超參數,但實際上不支持更改底層模型代碼。但這沒關系,因為所有 Transformer 模型都非常相似(甚至是文本/圖像/視頻模型),調整超參數就是你真正需要的。nyU28資訊網——每日最新資訊28at.com

雖然這支持了 95% 的 AI 公司,但大的 AI 實驗室還是采用定制化。他們有工程師團隊手動調整 GPU 內核以擠出更多的利用率,逆向工程哪些寄存器對每個張量核心的延遲低。nyU28資訊網——每日最新資訊28at.com

Etched公司表示,“有了Sohu,您不再需要進行逆向工程。因為我們的軟件(從驅動程序到內核再到服務堆棧)都將是開源的。如果您想實現自定義轉換器層,您的內核向導可以自由地這樣做。”nyU28資訊網——每日最新資訊28at.com

4、成本優勢nyU28資訊網——每日最新資訊28at.com

對于目前的AI基礎市場運營商來說,NVIDIA的AI GPU是為高昂的一項投資,其H100 80G版本的價格高達3萬美元,即便是便宜的英特爾Gaudi 3 的價格也要15,650美元左右。nyU28資訊網——每日最新資訊28at.com

現在一座大型的AI數據中心的建設已經達到了數百億美元,甚至傳聞微軟和OpenAI正計劃推出被稱為“星際之門”(Stargate)的AI超級計算機,用來為OpenAI提供更強的算力支持,該項目的總成本或將超過1150億美元。顯然,這當中NVIDIAAI GPU將會占據相當大的一部分成本。nyU28資訊網——每日最新資訊28at.com

并且這些高能耗的GPU還將會帶來龐大的能源供應支出(按照現有的發展速度,很多地區的能源供應已經不足以支撐大型AI數據中心的建設)互聯支出和散熱支出。nyU28資訊網——每日最新資訊28at.com

如果一顆Etched的Sohu芯片就能夠代替20顆NVIDIA H100芯片,那么這無疑將會帶來巨大的采購及建設成本和運營成本的降低。nyU28資訊網——每日最新資訊28at.com

二、專用芯片替代GPU已不可避免nyU28資訊網——每日最新資訊28at.com

在Etched看來,近年來雖然GPU性能得到了增長,但是實際上并沒有變得更好,因為主要是通過更先進的制程工藝以及更大的芯片面積來實現的。nyU28資訊網——每日最新資訊28at.com

近四年來,GPU芯片單位面積的計算能力 (TFLOPS) 幾乎保持不變。比如NVIDIA的GB200、AMD的MI300、英特爾的Gaudi 3 和亞馬遜的Trainium2 幾乎都將兩塊芯片算作稱一張加速卡,以實現“雙倍”性能。nyU28資訊網——每日最新資訊28at.com

快20倍 還便宜!NVIDIA GPU的“掘墓人”出現了?nyU28資訊網——每日最新資訊28at.com

面對越來越龐大的大語言模型對于AI算力需求的快速增長,GPU芯片在摩爾定律放緩以及單位面積AI算力提升放緩的背景之下,已經難以滿足需求,因此提高性能的唯一方法就是采用專用芯片。nyU28資訊網——每日最新資訊28at.com

Etched公司指出,在Transformer架構的模型統治世界之前,許多公司都構建了靈活的 AI 芯片和 GPU 來處理數百種不同的算法模型。nyU28資訊網——每日最新資訊28at.com

比如:NVIDIA的GPU、谷歌的TPU、亞馬遜的 Trainium、AMD的MI系列加速器、英特爾的Gaudi加速器、Graphcore 的 IPU、SambaNova SN 系列芯片、Cerebras的CS系列晶圓級AI芯片、Groq的GroqNode、Tenstorrent 的 Grayskull、D-Matrix 的 Corsair、寒武紀的思源等。nyU28資訊網——每日最新資訊28at.com

但是幾乎沒有廠商制造過專門針對Transformer架構算法的專用 AI 芯片 (ASIC)。因為一個芯片項目至少將花費 5000 萬到 1 億美元,需要數年時間才能投入生產。nyU28資訊網——每日最新資訊28at.com

如果真的一個特定算法模型推出專用的AI芯片,很可能在這期間由于新的更優秀算法架構出現,而使得原來的專用的AI芯片不再有效,這將會沒有市場。nyU28資訊網——每日最新資訊28at.com

但是現在情況變了,Transformer 架構的算法模型市場規模正在迅速增長。在 ChatGPT 出現之前,Transformer 推理的市場規模約為 5000 萬美元,而現在已達到數十億美元。nyU28資訊網——每日最新資訊28at.com

所有大型科技公司都使用 Transformer 架構的模型,比如OpenAI、谷歌、亞馬遜、微軟、Meta 等。nyU28資訊網——每日最新資訊28at.com

另外,AI算法經過多年的發展,已經開始出現架構上的融合趨勢。AI模型過去發展很快,因此可能每個幾個月就會有新的AI模型出來。nyU28資訊網——每日最新資訊28at.com

但是自GPT-2以來,先進的模型架構幾乎保持不變,不論是OpenAI 的 GPT 系列、Google 的 PaLM、Facebook 的 LLaMa,甚至 Tesla FSD 都是基于Transformer架構。nyU28資訊網——每日最新資訊28at.com

快20倍 還便宜!NVIDIA GPU的“掘墓人”出現了?nyU28資訊網——每日最新資訊28at.com

△基于Transformer架構的模型驚人地相似。諸如 SwiGLU 激活和 RoPE 編碼之類的調整被廣泛應用于LLM、嵌入模型、圖像修復和視頻生成。nyU28資訊網——每日最新資訊28at.com

快20倍 還便宜!NVIDIA GPU的“掘墓人”出現了?nyU28資訊網——每日最新資訊28at.com

△雖然 GPT-2 和 Llama-3 是相隔五年的先進的 (SoTA) 模型,但它們的架構幾乎相同,唯一的主要區別是規模。nyU28資訊網——每日最新資訊28at.com

在此背景之下,如果算法模型架構開始趨于穩定,那么想要進一步提升算力,專擁的ASIC芯片將會是很好的選擇。nyU28資訊網——每日最新資訊28at.com

特別是在目前基于GPU的AI訓練和推理基礎設施成本超過100億美元時,這樣高昂的成本的壓力之下,專用的AISC是不可避免的,因為1%的改進就足以覆蓋專用AISC的成本。nyU28資訊網——每日最新資訊28at.com

事實上,在特定算法模型上,ASIC 的速度可能會比 GPU 快幾個數量級。比如,當針對比特幣礦機的AISC芯片于 2014 年進入市場時,傳統的利用GPU 來“挖礦”的做法很快被拋棄,因為使用AISC比使用GPU來挖掘比特幣更便宜。nyU28資訊網——每日最新資訊28at.com

顯然,在AI算法模型基礎架構開始趨于穩定,GPU算力提升遭遇瓶頸以及成本越來越高的情況下,人工智能領域可能也將會發生同樣的事情。這也正是Etched公司下重注推出基于Transformer架構專用的AISC芯片 “Sohu”的原因。nyU28資訊網——每日最新資訊28at.com

三、對于未來的一場豪賭nyU28資訊網——每日最新資訊28at.com

與NVIDIA等頭部的AI公司一樣,Etched公司也預測,在五年內,AI模型在大多數標準化測試中將變得比人類更聰明。nyU28資訊網——每日最新資訊28at.com

Etched公司進一步指出, Meta訓練的 Llama 400B(2024 SoTA,比大多數人類都聰明)所用的計算量,比 OpenAI 在 GPT-2(2019 SoTA)上所用的計算量要高出 50,000 倍。通過為人工智能模型提供更多計算力和更好的數據,它們會變得更聰明。nyU28資訊網——每日最新資訊28at.com

規模化將是未來幾十年來唯一持續有效的秘訣,每家大型人工智能公司(谷歌、OpenAI / 微軟、Anthropic / 亞馬遜等)都將在未來幾年投入超過 1000億美元來保持規模的增長。我們正處于有史以來大規模的基礎設施建設中。nyU28資訊網——每日最新資訊28at.com

快20倍 還便宜!NVIDIA GPU的“掘墓人”出現了?nyU28資訊網——每日最新資訊28at.com

OpenAI 首席執行官Sam Altman此前就曾表示:“規模化確實是一件好事。當我們在太陽周圍建造出戴森球時,我們就可以討論是否應該停止規模化,但在此之前不能停止。”nyU28資訊網——每日最新資訊28at.com

Anthropic 首席執行官 Dario Amodei也表示:“我認為 (我們)的規模可以擴大到 1000 億美元,我們將在幾年內實現這一目標。”nyU28資訊網——每日最新資訊28at.com

不過,如果按照現在的AI數據中心算力,再擴大 1,000 倍,將會面臨非常昂貴的成本。下一代數據中心的成本將超過一個小國一年的GDP。按照目前的速度,現有的硬件、電網和資金投入都跟不上需求。nyU28資訊網——每日最新資訊28at.com

Etched公司表示:“我們并不擔心數據耗盡。無論是通過合成數據、注釋管道還是新的 AI 標記數據源,我們都認為數據問題實際上是推理計算問題。Meta CEO Mark Zuckerberg、Anthropic CEO Dario Amodei、 Google DeepMind CEO Demis Hassabis 似乎都同意這一觀點。”nyU28資訊網——每日最新資訊28at.com

基于這樣的發展趨勢,Etched公司認為,未來能夠獲勝的大模型一定會是那些能夠在硬件上運行速度快、成本低的模型。nyU28資訊網——每日最新資訊28at.com

Transformer 功能強大、實用且利潤豐厚,足以在替代方案出現之前主宰每個主要的 AI 計算市場。nyU28資訊網——每日最新資訊28at.com

目前,Transformer 正在為每款大型 AI 產品提供動力:從代理到搜索再到聊天。很多AI 實驗室已投入數億美元進行研發,以優化 GPU 以支持 Transformer。nyU28資訊網——每日最新資訊28at.com

并且當前的和下一代先進的大模型也都是 Transformer架構的。nyU28資訊網——每日最新資訊28at.com

隨著這些大模型的規模在未來幾年內所需要的硬件資源從 10 億美元擴大到 100 億美元,再到 1000 億美元,測試新架構的風險也隨之飆升。nyU28資訊網——每日最新資訊28at.com

與其重新測試縮放定律和性能,不如花時間在 Transformer 之上構建功能,例如多標記預測等。nyU28資訊網——每日最新資訊28at.com

當今的很多軟件堆棧也針對 Transformer 進行了優化。每個流行的庫(TensorRT-LLM、vLLM、Huggingface TGI 等)都有用于在 GPU 上運行 Transformer 架構模型的特殊內核。nyU28資訊網——每日最新資訊28at.com

許多基于Transformer 構建的功能在替代方案中不易獲得支持(例如推測解碼、樹搜索)。nyU28資訊網——每日最新資訊28at.com

所以,未來的硬件堆棧也將持續針對 Transformer 進行優化。比如,NVIDIA的 GB200 特別支持 Transformer(TransformerEngine)。nyU28資訊網——每日最新資訊28at.com

在Etched公司看來,Transformer架構就是未來,“如果我們猜對了,Soho將改變世界。這就是我們下注的原因。”Etched公司在網站上寫道。nyU28資訊網——每日最新資訊28at.com

在2022年的時候,Etched公司就已經開始下注,開始研發基于Transformer架構的Sohu芯片,當時ChatGPT還沒有推出,圖像和視頻生成模型是 U-Nets,自動駕駛汽車由 CNN 驅動,而 Transformer 架構并未無處不在。顯然這是一場豪賭。nyU28資訊網——每日最新資訊28at.com

雖然現在看來,Sohu可以支持所有的Transformer架構的AI大模型,比如OpenAI的GPT、Sora,谷歌的Gemini、Stability AI公司的Stable Diffusion 3 等,但是在兩年前,這些模型都還沒有出現。nyU28資訊網——每日最新資訊28at.com

如果,Transformer架構的AI大模型沒有成為主流,再加上無法支持CNN、RNN 、LSTM等傳統模型以及SSM、RWKV 或其他的全新架構的AI大模型,那么Sohu將會毫無用處。nyU28資訊網——每日最新資訊28at.com

幸運的是,從目前來看,形勢已經對Etched公司有利。從語言到視覺,每個領域的頂級模型現在都是基于Transformer架構的。nyU28資訊網——每日最新資訊28at.com

這種融合不僅驗證了Etched公司下對了賭注,也有望使Sohu成為十年來重要的硬件項目。nyU28資訊網——每日最新資訊28at.com

“像 Sohu 這樣的 ASIC 芯片進入市場,標志著進入一條不歸路。其他Transformer “殺手”要想成功,需要在 GPU 上的運行速度需要比 Transformer 在 Sohu 芯片上的運行速度更快。nyU28資訊網——每日最新資訊28at.com

如果發生這種情況,我們也會為此構重新建一個 ASIC!”Etched公司非常堅定的說道。nyU28資訊網——每日最新資訊28at.com

后說一句,Etched公司的看法與芯智訊在多年前所寫的《NVIDIA的AI盛世危機!》所表達的核心觀點類似,即GPU并是不專為處理特定AI算法所設計的,其優勢在于比其他AI芯片更通用,可以適應各種AI算法,但是當未來AI算法的演進開始趨于穩定時,那么屆時專用的面向特定算法的更高效的ASIC芯片無疑將會更具優勢。nyU28資訊網——每日最新資訊28at.com

現在越來越多的云服務廠商都有推出自研的云端AI芯片也正是順應這一趨勢。nyU28資訊網——每日最新資訊28at.com


文章出處:芯智訊

本文鏈接:http://www.www897cc.com/showinfo-24-96902-0.html快20倍 還便宜!NVIDIA GPU的“掘墓人”出現了?

聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com

上一篇: 你覺得貴嗎!華為坤靈M.2固態硬盤上線 512GB版本售價608元

下一篇: AMD重啟多顯卡支持!多四塊、192GB顯存

標簽:
  • 熱門焦點
  • 影音體驗是真的強 簡單聊聊iQOO Pad

    大公司的好處就是產品線豐富,非常細分化的東西也能給你做出來,例如早先我們看到了新的vivo Pad2,之后我們又在iQOO Neo8 Pro的發布會上看到了iQOO的首款平板產品iQOO Pad。雖
  • 5月iOS設備性能榜:M1 M2依舊是榜單前五

    和上個月一樣,沒有新品發布的iOS設備性能榜的上榜設備并沒有什么更替,僅僅只有跑分變化而產生的排名變動,剛剛開始的蘋果WWDC2023,推出的產品也依舊是新款Mac Pro、新款Mac Stu
  • 量化指標是與非:挽救被量化指標扼殺的技術團隊

    作者 | 劉新翠整理 | 徐杰承本文整理自快狗打車技術總監劉新翠在WOT2023大會上的主題分享,更多精彩內容及現場PPT,請關注51CTO技術棧公眾號,發消息【WOT2023PPT】即可直接領取
  • 一文搞定Java NIO,以及各種奇葩流

    大家好,我是哪吒。很多朋友問我,如何才能學好IO流,對各種流的概念,云里霧里的,不求甚解。用到的時候,現百度,功能雖然實現了,但是為什么用這個?不知道。更別說效率問題了~下次再遇到,
  • JVM優化:實戰OutOfMemoryError異常

    一、Java堆溢出堆內存中主要存放對象、數組等,只要不斷地創建這些對象,并且保證 GC Roots 到對象之間有可達路徑來避免垃 圾收集回收機制清除這些對象,當這些對象所占空間超過
  • 猿輔導與新東方的兩種“歸途”

    作者|卓心月 出品|零態LT(ID:LingTai_LT)如何成為一家偉大企業?答案一定是對“勢”的把握,這其中最關鍵的當屬對企業戰略的制定,且能夠站在未來看現在,即使這其中的
  • iQOO Neo8系列今日官宣:首發天璣9200+ 全球安卓最強芯!

    在昨日舉行的的聯發科新一代旗艦芯片天璣9200+的發布會上,iQOO官方也正式宣布,全新的iQOO Neo8系列新品將全球首發搭載這款當前性能最強大的移動平臺
  • OPPO Reno10 Pro英雄聯盟定制禮盒公布:薩勒芬妮同款配色夢幻十足

    5月24日,OPPO推出了全新的OPPO Reno 10系列,包含OPPO Reno10、OPPO Reno10 Pro和OPPO Reno10 Pro+三款新機,全系標配了超光影長焦鏡頭,是迄今為止拍照
  • 榮耀Magic4 至臻版 首創智慧隱私通話 強勁影音系統

    2022年第一季度臨近尾聲,在該季度內,許多品牌陸續發布自己的最新產品,讓大家從全新的角度來了解當今的手機技術。手機是電子設備中,更新迭代十分迅速的一款產品,基
Top 主站蜘蛛池模板: 利川市| 贡觉县| 潮安县| 晋州市| 特克斯县| 天台县| 象州县| 湘西| 庄浪县| 湘乡市| 日照市| 抚松县| 灵丘县| 陆川县| 灵石县| 九江县| 河池市| 淮阳县| 离岛区| 阿合奇县| 河间市| 克山县| 故城县| 偃师市| 广水市| 林甸县| 新民市| 玛沁县| 浑源县| 黄平县| 濮阳市| 张家口市| 洞口县| 山东| 柳江县| 忻州市| 靖宇县| 宁乡县| 永顺县| 新源县| 杭锦旗|