9 月 6 日消息,DeepSeek Coder V2 和 DeepSeek V2 Chat 兩個(gè)模型已經(jīng)合并升級(jí),升級(jí)后的新模型為 DeepSeek V2.5。
DeepSeek 官方昨日(9 月 5 日)更新 API 支持文檔,宣布合并 DeepSeek Coder V2 和 DeepSeek V2 Chat 兩個(gè)模型,升級(jí)推出全新的 DeepSeek V2.5 新模型。
官方表示為向前兼容,API 用戶通過 deepseek-coder 或 deepseek-chat 均可以訪問新的模型。
新模型在通用能力、代碼能力上,都顯著超過了舊版本的兩個(gè)模型。
新模型更好地對(duì)齊了人類的偏好,在寫作任務(wù)、指令跟隨等多方面進(jìn)行了優(yōu)化:
ArenaHard winrate 從 68.3% 提升至 76.3%
AlpacaEval 2.0 LC winrate 從 46.61% 提升至 50.52%
MT-Bench 分?jǐn)?shù)從 8.84 提升至 9.02
AlignBench 分?jǐn)?shù)從 7.88 提升至 8.04
新模型在原 Coder 模型的基礎(chǔ)上進(jìn)一步提升了代碼生成能力,對(duì)常見編程應(yīng)用場(chǎng)景進(jìn)行了優(yōu)化,并在標(biāo)準(zhǔn)測(cè)試集上取得了以下成績(jī):
HumanEval: 89%
LiveCodeBench (1-9 月): 41%
注:Deepseek AI 模型由杭州深度求索人工智能推出,該公司成立于 2023 年。
官方介紹如下:
專注于研究世界領(lǐng)先的通用人工智能底層模型與技術(shù),挑戰(zhàn)人工智能前沿性難題。基于自研訓(xùn)練框架、自建智算集群和萬卡算力等資源,DeepSeek(深度求索)團(tuán)隊(duì)僅用半年時(shí)間便已發(fā)布并開源多個(gè)百億級(jí)參數(shù)大模型,如 DeepSeek-LLM 通用大語言模型、DeepSeek-Coder 代碼大模型,并且在 2024 年 1 月率先開源國(guó)內(nèi)首個(gè) MoE 大模型(DeepSeek-MoE),各大模型在公開評(píng)測(cè)榜單及真實(shí)樣本外的泛化效果均有超越同級(jí)別模型的出色表現(xiàn)。
本文鏈接:http://www.tebozhan.com/showinfo-45-6868-0.htmlDeepseek AI 模型升級(jí)推出 2.5 版:合并 Coder 和 Chat,對(duì)齊人類偏好、優(yōu)化寫作任務(wù)和指令跟隨等
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com
上一篇: 榮耀Magic7驚艷亮相!AI旗艦震撼來襲,你準(zhǔn)備好迎接未來了嗎?
下一篇: 谷歌 AlphaProteo AI 模型登場(chǎng):突破蛋白質(zhì)結(jié)合劑設(shè)計(jì)挑戰(zhàn),獻(xiàn)給人類的厚禮