2 月 3 日消息,Gitee AI 昨日宣布上線 DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Qwen-32B 四個(gè)較小尺寸的 DeepSeek 模型。更值得關(guān)注的是,本次上線的四個(gè)模型均部署在國產(chǎn)沐曦曦云 GPU 上。
與全尺寸 DeepSeek 模型相比,較小尺寸的 DeepSeek 蒸餾版本模型更適合企業(yè)內(nèi)部實(shí)施部署,可以降低落地成本。
同時(shí),這次Deepseek R1 模型 + 沐曦曦云 GPU + Gitee AI 平臺(tái),更是實(shí)現(xiàn)了從芯片到平臺(tái),從算力到模型全國產(chǎn)研發(fā)。
注:DeepSeek R1 是一款大型混合專家(MoE)模型,擁有 6710 億個(gè)參數(shù),支持 128000 個(gè) Token 的大輸入上下文長度。
本次部署在沐曦曦云 GPU 上的是四個(gè) DeepSeek R1 蒸餾模型,號(hào)稱以更小參數(shù)量的資源占用,實(shí)現(xiàn)了性能與大參數(shù)模型“旗鼓相當(dāng)”。
目前 Gitee AI 上的 DeepSeek-R1-Distill 系列模型現(xiàn)已面向全體開發(fā)者免費(fèi)使用。
本文鏈接:http://www.tebozhan.com/showinfo-45-10448-0.htmlGitee AI 聯(lián)合沐曦首發(fā)全套 DeepSeek R1 千問蒸餾模型,全免費(fèi)體驗(yàn)
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com