中國 AI 新星「深度求索」(DeepSeek)傳出將於 5 月推出升級版大模型「DeepSeek R2」,並將全面採用華為昇騰 910B 晶片集群,擺脫對 NVIDIA 晶片的依賴。
綜合各媒體報導DeepSeek R2 將採用更先進的混合專家模型(MoE),總參數量預計達到 1.2 萬億,較前代 R1 的 6710 億幾乎翻倍。相較 OpenAI 的 GPT-4,其單位推理成本大幅降低達 97.4%,輸入每百萬字元僅需 0.07 美元,輸出則為 0.27 美元。
R2 訓練全程未使用任何 NVIDIA GPU,而是完全建構於華為昇騰 910B 晶片平台,在 FP16 精度下的集群計算性能達 512 PetaFLOPS,晶片利用率高達 82%,整體性能約等於 NVIDIA 上一代 A100 集群的 91%。
華為也同步推進昇騰 910C 晶片的量產進程,以進一步強化中國本土 AI 晶片供應能力。若 R2 如預期般性能強悍且成本低廉,將可能引發業界對 AI 基礎設施需求的重新評估。
記者:Cecila
閱讀更多: