今天,我們介紹了DeepSeek-V2,這是一個強大的專家混合(MoE)語言模型,其特點是訓練經濟且推理高效。它總共包含236B個參數,每個token激活21B個。與DeepSeek 67B相比,DeepSeek-V2實現了更強的性能,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,并將最大生成吞吐量提高了5.76倍。
圖片
圖片
我們在包含8.1萬億token的多樣化和高質量語料庫上預訓練了DeepSeek-V2。隨后,我們通過監督式微調(SFT)和強化學習(RL)的過程來充分釋放模型的潛力。評估結果驗證了我們方法的有效性,因為DeepSeek-V2在標準基準測試和開放式生成評估上都取得了顯著的性能。
由于HuggingFace的限制,當前開源代碼在GPU上運行時的性能比我們內部代碼庫慢。為了促進我們模型的有效執行,我們提供了一個專門的vllm解決方案,該解決方案優化了我們模型的運行性能。
Model | Context Length | Download |
DeepSeek-V2 | 128k |
本文鏈接:http://www.tebozhan.com/showinfo-26-86986-0.html幻方發布全球最強MOE大模型! DeepSeek-V2 聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
標簽:
最新推薦猜你喜歡熱門推薦 |