在 DeepSeek App 上線一個月之際,聯(lián)想正式宣布,旗下大模型訓推一體 AI 算力平臺聯(lián)想問天 WA7780 G3、大模型推理 AI 算力平臺聯(lián)想問天 WA7785a G3 全新升級,單機即可部署 DeepSeek-R1 滿血版大模型(具備 671B 參數(shù))。此次升級將大幅降低客戶部署難度和成本,同時提升模型訓練和推理性能,為 DeepSeek 等最新 AI 應用的落地和規(guī)?;l(fā)展提供強有力的支持。
據(jù)悉,聯(lián)想正與 DeepSeek 在個人智能與企業(yè)智能兩大領(lǐng)域,開展更全面、深入的合作。其中,聚焦企業(yè)智能,聯(lián)想中國基礎(chǔ)設(shè)施業(yè)務(wù)與 DeepSeek 的深度融合,正快速實現(xiàn)從訓練到推理的全鏈條產(chǎn)品適配。
據(jù)了解,DeepSeek 大模型憑借高性能、低成本和開源三大特點,助力各行業(yè)加速應用大模型技術(shù)推動業(yè)務(wù)升級轉(zhuǎn)型。DeepSeek-R1 滿血版大模型基于 6710 億參數(shù),具備卓越的復雜推理和深度交互能力,眾多企業(yè)積極探索并部署 DeepSeek-R1 滿血版大模型以期提升業(yè)務(wù)效能與競爭力。然而,在實際應用中,用戶在本地接入時不可避免遇到算力基礎(chǔ)設(shè)施匱乏、訓練推理服務(wù)性能難以達標等一系列難題。
面對用戶實際應用問題,聯(lián)想問天 WA7780 G3、聯(lián)想問天 WA7785a G3 與 DeepSeek-R1 滿血版大模型特點進行了深度適配調(diào)優(yōu),單機即可部署 DeepSeek-R1 滿血版大模型,助力企業(yè)高效完成本地化部署,一站式構(gòu)建 AI 生產(chǎn)力,加速智能化升級。
值得一提的是,聯(lián)想問天 WA7780 G3 大模型訓推一體服務(wù)器是為打破 AI 算力供給困境而來,能夠為訓練推理提供強勁的算力支撐。
?作為領(lǐng)先的 AI 算力平臺,這款服務(wù)器內(nèi)嵌 Transfomer Engine, 支持 FP8 優(yōu)化,可以幫助 DeepSeek-R1 滿血版大模型獲得更好的模型訓練和推理性能。
?在顯存方面,提供超 1T HBM3e,充分滿足 DeepSeek-R1 滿血版大模型 FP8 精度下不低于 800GB 顯存容量的需求。顯存帶寬高達 4.9TB/s,可以在推理解碼階段實現(xiàn)極致加速。
?在高速互聯(lián)方面,GPU P2P 通信帶寬達 900GB/s,同時單機提供 3.2TB/s 的高帶寬低延遲網(wǎng)絡(luò)擴展,能夠為 DeepSeek-R1 滿血版大模型提供極低的通信延遲。
聯(lián)想問天 WA7785a G3 服務(wù)器則聚焦于 AI 算力優(yōu)化,該大模型推理 AI 算力平臺原生支持 FP8,提供超 1.5T HBM3e,為 DeepSeek-R1 滿血版大模型插上性能騰飛的翅膀。
此外,顯存帶寬達 5.3TB/s 的高速顯存可以減少數(shù)據(jù)傳輸?shù)钠款i,從而加速訓練過程,提高模型訓練效率。GPU 聚合帶寬達 896GB/s,同時單機提供 3.2TB/s 的高帶寬低延遲網(wǎng)絡(luò)擴展,充分滿足了 DeepSeek-R1 滿血版大模型并行計算時跨節(jié)點的通信需求,使其成為用戶首選大模型推理服務(wù)器。
此外,聯(lián)想正在加速推進 DeepSeek 671B-R1 和 V3 模型及一系列蒸餾模型與其 AI 服務(wù)器的適配。未來,聯(lián)想將持續(xù)創(chuàng)新為企業(yè)提供全面、高效、可靠的 IT 基礎(chǔ)設(shè)施,加速推動 AI 創(chuàng)新與應用落地,為千行萬業(yè)積極擁抱 AI 注入強大動力。
本文鏈接:http://www.tebozhan.com/showinfo-26-133077-0.htmlDeepSeek App 滿月聯(lián)想 AI 服務(wù)器單機可部署滿血大模型
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com