讓AI視頻中任意主體保持一致!就在剛剛,人人都可輕松做到了。
而且只需一張圖片,就能實現。
——上面的每一個馬斯克視頻,都來自同一張照片。
想玩的話,只需要用上清華系AI視頻玩家生數科技旗下Vidu的新功能,主體參照(Subject Consistency)。
該功能能夠實現對任意主體的一致性生成,讓視頻生成更加穩定,也更加可控。
“現在生成AI視頻內容,想要做到‘言出法隨’其實還很難,不確定性讓視頻內容對運鏡、光效等的精細控制還是得不斷抽卡。”生數科技CEO唐家渝表示,“角色一致性只能讓人臉保持一致,而主體參照讓主體整體造型都能保持一致,給了更大的創作空間。”
這是繼今年7月,生數Vidu面向全球用戶上線文生視頻與圖生視頻能力(單視頻長生成8s)后的再次更新。
這次功能上新依然非常友好:
面向用戶免費開放,注冊即可體驗。
僅需一張圖片實現主體可控
先來看看Vidu是怎么定義這個新功能的。
主體參照:允許用戶上傳任意主體的一張圖片,然后由Vidu夠鎖定該主體形象,通過描述詞任意切換場景,輸出主體一致的視頻。
劃重點:任意主體。
也就是說,無論是人還是動物,無論是真人還是動漫形象or虛構主體,無論是家具還是商品,都能通過這個功能在視頻生成中實現一致性和可控性。
目前,所有的視頻大模型中,僅有Vidu率先支持這種玩法。
不必光說不練,我們來看看真實效果。
人物主體
首先來看看以人物為主體。
上傳一張87版《紅樓夢》林妹妹的定妝照:
以畫面中林妹妹為主體,利用主體參照功能,生成兩條視頻。
突然,林妹妹上臺演講了:
又一眨眼,妹妹已經坐在星爸爸喝咖啡了:
當然啦,真人可以作為生成視頻的主體參照,虛擬角色/動漫人物同樣可以。
比如輸入一張漫畫女孩:
生成視頻效果是醬紫的:
這里附上一些官方給的小tips:
如需重點保持主體面容一致,需僅截取單一主體的清晰面容圖
如需重點保持主體半身一致(面容+上半身服飾),僅需截取單一主體的清晰半身圖
如需重點保持主體全身一致(全身特征),僅需截取單一主體的清晰全身圖
動物主體
誰能不愛可愛狗狗!
把這張照片丟給Vidu,就能實現狗狗走草地上,一步一步靠近你。
鏡頭后拉和主體運動幅度表現都還不錯。
商品主體
當把商品作為需要參照的主體時,在生成的視頻中,商品外觀和細節能在不同于圖片的場景中保持一致。
就像下面這樣:
沙發所在的場景,說變就變。
上面還能睡一個蓋了毯子的小女孩,遮擋住沙發原有部分。
需要注意的是,當前版本僅支持單一主體的可控。
如果上傳的圖片有多個人物/物體,需要框選出單一主體進行生成。
Be Like:
不再“兩步走”了
無論是制作短視頻、動畫作品還是廣告片,“主體一致、場景一致、風格一致”都是共同的追求。
因此,AI視頻生成內容想要有敘事效果,就需要不斷往三個一致方面盡力靠攏。
尤其是就現實情況而言,實際的視頻創作,內容往往圍繞特定的對象展開——這往往也是視頻生成內容容易變形、崩壞的一點,尤其在涉及復雜動作和交互的情況下。
撓頭,腦闊痛。
業界首先想到的辦法是先AI生圖、再圖生視頻。
說人話,就是用Midjourney、SD什么的,生成分鏡鏡頭畫面,讓每張圖里的主體保持一致,然后再進行圖生視頻,后把每個視頻片段拼接剪輯。
但一聽就發現了,這樣搞,無論是保持AI畫圖的一致性,還是后期拼拼剪剪,工作量都很大。
生數Vidu“主體參照”跟這個思路的不一樣之處,就是不再兩步走了。
而是通過“上傳主體圖+輸入場景描述詞”的方式,直接生成視頻素材。
后,我們來厘清以及區分三個概念:
圖生視頻(Image to Video)
角色一致性(Character to Video)
主體參照(Subject Consistency)
圖生視頻基本是現在AI視頻生成的基操了。
它把輸入的圖片作為視頻首幀,然后基于首幀畫面的連續生成。
Bug是無法直接輸出目標場景,限制了視頻內容的多樣性和場景的自由度。
角色一致性,主要集中在人物形象上起效果。
它能保證人物面部特征在動態視頻中保持一致,但一般來說“一致性”只顧臉,不顧整體形象。
主體參照,面向任意主體。
同時在面向人物主體時,既可選擇保持面部一致,也可選擇保持人物整體形象的高度一致。
后附上生數科技視頻試玩鏈接,感興趣的朋友可趁排隊人不多,趕緊沖一波!
畢竟,免費的就是香,對吧(doge)。
體驗直通車:www.vidu.studio
本文鏈接:http://www.tebozhan.com/showinfo-17-113728-0.html給我一張臉、視頻背景隨你換:林黛玉都被清華理工男玩廢了!
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 張朝陽建議游泳館應免費:游泳緩解頸椎壓力 還能求生
下一篇: 魏哲家內部信流出:臺積電是世界的臺積電!