1 月 27 日消息,據(jù) Information 網(wǎng)站,F(xiàn)acebook 母公司 Meta 成立了四個專門研究小組來研究量化巨頭幻方量化旗下的國產(chǎn)大模型 DeepSeek 的工作原理,并基于此來改進旗下大模型 Llama。
其中兩個小組正在試圖了解幻方量化如何降低訓(xùn)練和運行 DeepSeek 的成本;第三個研究小組則正在研究幻方量化可能使用了哪些數(shù)據(jù)來訓(xùn)練其模型;第四個小組正在考慮基于 DeepSeek 模型屬性重構(gòu) Meta 模型的新技術(shù)。
1 月 20 日,DeepSeek-R1 推理大模型正式發(fā)布。據(jù)官方介紹,DeepSeek-R1 在后訓(xùn)練階段大規(guī)模使用了強化學(xué)習(xí)技術(shù),在僅有極少標注數(shù)據(jù)的情況下,極大提升了模型推理能力。在數(shù)學(xué)、代碼、自然語言推理等任務(wù)上,性能比肩 OpenAI o1 正式版。
注意到,今日 Deepseek 應(yīng)用已登頂蘋果中國地區(qū)和美國地區(qū)應(yīng)用商店免費 App 下載排行榜,在美區(qū)下載榜上超越了 ChatGPT。
本文鏈接:http://www.tebozhan.com/showinfo-45-10248-0.html消息稱 Meta 成立 4 個小組研究 DeepSeek,基于此來改進自家 Llama
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com