英偉達在NVIDIA GTC 2025大會上宣布,其最新推出的NVIDIA Blackwell DGX系統(tǒng)在DeepSeek-R1大模型推理性能上創(chuàng)造了世界紀錄。這一突破性進展標志著英偉達在人工智能推理技術上的又一次飛躍。
據(jù)悉,在單個搭載八塊Blackwell GPU的DGX系統(tǒng)上,DeepSeek-R1模型以6710億參數(shù)的滿血狀態(tài)運行,實現(xiàn)了每用戶每秒超過250 token的響應速度,系統(tǒng)整體吞吐量更是突破了每秒3萬token的大關。這一數(shù)據(jù)不僅彰顯了Blackwell GPU的強大性能,也展示了英偉達在優(yōu)化大型語言模型推理方面的深厚實力。
英偉達強調,隨著Blackwell Ultra GPU和Blackwell GPU的不斷升級,NVIDIA平臺將繼續(xù)在推理性能上實現(xiàn)新的突破。這一承諾不僅體現(xiàn)在硬件上,還體現(xiàn)在軟件優(yōu)化上。英偉達通過結合硬件和軟件的力量,自2025年1月以來,成功將DeepSeek-R1 671B模型的吞吐量提高了約36倍。
在會上,英偉達還展示了不同配置下的DGX系統(tǒng)性能。包括DGX B200(8塊GPU)和DGX H200(8塊GPU)在內的單節(jié)點配置,在采用TensorRT-LLM軟件的最新內部版本進行測試時,展現(xiàn)了出色的推理性能。測試參數(shù)包括輸入1024 token和輸出2048 token,并發(fā)性達到最大。在計算精度上,B200采用了FP4精度,而H200則采用了FP8精度。
英偉達還對比了Blackwell架構與Hopper架構在推理性能上的差異。結果顯示,Blackwell架構與TensorRT軟件相結合,可以顯著提升推理性能。在DeepSeek-R1、Llama 3.1 405B和Llama 3.3 70B等模型上,使用FP4精度的DGX B200平臺和DGX H200平臺相比,推理吞吐量提高了3倍以上。
英偉達還展示了不同數(shù)據(jù)集上DeepSeek-R1模型的精度表現(xiàn)。在FP4和FP8精度下,DeepSeek-R1模型在MMLUG、SM8K、AIME 2024、GPQA和DiamondMATH-500等數(shù)據(jù)集上的表現(xiàn)均十分出色。值得注意的是,在使用TensorRT Model Optimizer的FP4訓練后量化(PTQ)技術時,DeepSeek-R1模型在不同數(shù)據(jù)集上的精度損失微乎其微,這進一步證明了英偉達在量化技術上的領先地位。
英偉達表示,在對模型進行量化以利用低精度計算優(yōu)勢時,確保精度損失最小化是生產(chǎn)部署的關鍵。通過不斷的技術創(chuàng)新和優(yōu)化,英偉達將繼續(xù)為客戶提供更高效、更準確的AI推理解決方案。
本文鏈接:http://www.tebozhan.com/showinfo-45-11608-0.html英偉達Blackwell DGX系統(tǒng)刷新DeepSeek推理性能世界紀錄
聲明:本網(wǎng)頁內容旨在傳播知識,若有侵權等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com