1 月 28 日消息,就在北京時間今日凌晨,DeepSeek 宣布開源全新的視覺多模態模型 Janus-Pro-7B,其在 GenEval 和 DPG-Bench 基準測試中擊敗了 Stable Diffusion 和 OpenAI 的 DALL-E 3。
附地址:
GitHub:點此前往
HuggingFace:點此前往
官方對該模型的介紹大意如下:
Janus-Pro 是一種創新的自回歸框架,實現多模態信息的統一理解與生成。與以往的方法不同,Janus-Pro 通過將視覺編碼過程拆分為多個獨立的路徑,解決了以往框架中的一些局限性,同時仍采用單一的統一變換器架構進行處理。
這一解耦方式不僅有效緩解了視覺編碼器在理解和生成過程中可能出現的沖突,還提升了框架的靈活性。
Janus 的表現超越了傳統的統一模型,并且在與任務特定模型的比較中也同樣表現出色。憑借其簡潔、高靈活性和高效性的特點,Janus-Pro 成為下一代統一多模態模型的有力競爭者。
摘要的大意如下:
Janus-Pro 是一個統一的多模態大語言模型(MLLM),通過將視覺編碼過程從多模態理解和生成中解耦來實現更高效的處理。Janus-Pro 是基于 DeepSeek-LLM-1.5b-base/DeepSeek-LLM-7b-base 模型構建的。
在多模態理解任務中,Janus-Pro 采用 SigLIP-L 作為視覺編碼器,支持 384 x 384 像素的圖像輸入。而在圖像生成任務中,Janus-Pro 使用一個來自特定來源的分詞器,降采樣率為 16。
Janus-Pro 是先前工作 Janus 的進階版本。具體來說,Janus-Pro 整合了優化的訓練策略、擴展的訓練數據,以及更大模型規模的擴展。通過這些改進,Janus-Pro 在多模態理解和文本到圖像指令遵循能力方面取得了顯著進展,同時還增強了文本到圖像生成的穩定性。
據官方介紹,JanusFlow 引入了一種極簡架構,它將自回歸語言模型與校正流(一種最先進的生成模型方法)相集成。研究發現,校正流可以直接在大型語言模型框架內進行訓練,無需復雜的架構調整。大量實驗表明,JanusFlow 在各自領域內取得了與專用模型相當甚至更好的性能,同時在標準基準測試中顯著優于現有的統一方法。這項工作代表著朝著更高效、更通用的視覺語言模型邁進了一步。
本文鏈接:http://www.tebozhan.com/showinfo-45-10326-0.htmlDeepSeek 深夜再放大招:7B 參數人人可用的視覺多模態模型 Janus-Pro-7B 開源
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com