6 月 7 日消息,騰訊混元團隊聯合中山大學、香港科技大學聯合推出全新圖生視頻模型“Follow-Your-Pose-v2”,相關成果已經發表在 arxiv 上(附 DOI:10.48550/arXiv.2406.03035)。
據介紹,“Follow-Your-Pose-v2”只需要輸入一張人物圖片和一段動作視頻,就可以讓圖片上的人跟隨視頻上的動作動起來,生成視頻長度可達 10 秒。
與此前推出的模型相比,“Follow-Your-Pose-v2”可以在推理耗時更少的情況下,支持多人視頻動作生成。
此外,該模型具備較強的泛化能力,無論輸入人物是什么年齡、服裝,背景如何雜亂,動作視頻的動作如何復雜,都能生成出高質量的視頻。
正如前一天的報道,騰訊已經公布了針對騰訊混元文生圖開源大模型(混元 DiT)的加速庫,號稱大幅提升推理效率,生圖時間縮短 75%。
官方表示,混元 DiT 模型的使用門檻也大幅降低,用戶可以基于 ComfyUI 的圖形化界面使用騰訊混元文生圖模型能力。
相關閱讀:
《騰訊混元文生圖開源大模型加速庫發布:生圖時間縮短 75%》
本文鏈接:http://www.tebozhan.com/showinfo-45-4571-0.html騰訊聯合中山大學、港科大推出圖生視頻模型“Follow-Your-Pose-v2”
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com