5 月 21 日消息,面壁智能昨晚推出并開源 MiniCPM 系列最新的端側多模態模型 MiniCPM-Llama3-V 2.5,支持 30+ 種語言,宣稱可實現:
最強端側多模態綜合性能:超越 Gemini Pro 、GPT-4V
OCR 能力 SOTA(注:State-of-the-Art):9 倍像素更清晰,難圖長圖長文本精準識別
圖像編碼快 150 倍:首次端側系統級多模態加速
MiniCPM-Llama3-V 2.5 總參數量為 8B,多模態綜合性能超越 GPT-4V-1106、Gemini Pro、Claude 3、Qwen-VL-Max 等商用閉源模型,OCR 能力及指令跟隨能力得到進一步提升,可精準識別難圖、長圖、長文本,并支持超過 30 種語言的多模態交互。
在 OpenCompass 測試中,MiniCPM-Llama3-V 2.5綜合性能超越多模態“巨無霸”GPT-4V 和 Gemini Pro;在 OCRBench 上,超越了 GPT-4o、GPT-4V、Claude 3V Opus、Gemini Pro 等標桿模型。
此外,在圖像編碼方面,MiniCPM-Llama3-V 2.5 首次整合 NPU 和 CPU 加速框架,并結合顯存管理、編譯優化技術,實現了 150 倍加速提升。
在語言模型推理方面,經過 CPU、編譯優化、顯存管理等優化方式,MiniCPM-Llama3-V 2.5 在手機端的語言解碼速度由 Llama 3 的 0.5 token / s 上下提升到 3-4 token / s,并可支持 30 多種語言,包括德語、法語、西班牙語、意大利語、俄語等主流語言,基本覆蓋一帶一路國家。
OCR 技術方面,MiniCPM-Llama3-V 2.5 實現高效編碼及無損識別 180 萬高清像素圖片,并且支持任意長寬比、甚至 1:9 極限比例圖像。
本文鏈接:http://www.tebozhan.com/showinfo-45-4381-0.html面壁智能推出 MiniCPM-Llama3-V 2.5 開源端側多模態模型:8B 參數、高效部署手機
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 谷歌 DeepMind 推出 AI 安全框架 Frontier Safety Framework,可檢測優化降低大模型風險性