11月15日,字節(jié)跳動(dòng)視頻生成模型 PixelDance和Seaweed在即夢(mèng)AI正式上線,面向公眾免費(fèi)開放使用。用戶進(jìn)入即夢(mèng)AI的“視頻生成”界面,在視頻模型里選擇“視頻P2.0 Pro”或“視頻S2.0 Pro”,即可分別體驗(yàn)這兩款模型,目前網(wǎng)頁版和手機(jī)端APP均已支持。
圖說:即夢(mèng)AI網(wǎng)頁版模型使用界面
字節(jié)跳動(dòng)兩款視頻生成模型于9月底首次發(fā)布,并通過即夢(mèng)AI、火山引擎分別面向創(chuàng)作者和企業(yè)客戶小范圍邀測(cè)。
據(jù)內(nèi)測(cè)創(chuàng)作者介紹,當(dāng)PixelDance生成10秒視頻時(shí),切換鏡頭3-5次的效果最佳,場景和角色能保持很好的一致性。通過小幅度、漸進(jìn)式的提示詞描述,PixelDance能生成魔術(shù)般的特效。此外,用戶還可使用時(shí)序提示詞、長鏡頭等技巧,增強(qiáng)視頻的復(fù)雜度和表現(xiàn)力,對(duì)劇情創(chuàng)作非常友好。
Seaweed模型則在圖生視頻場景體現(xiàn)出較好的首幀一致性,可以保持與用戶輸入圖的一致性、色彩等細(xì)節(jié)還原,實(shí)現(xiàn)大幅度運(yùn)動(dòng)畫面流暢自然,具有視覺美感和真實(shí)感。
經(jīng)過剪映、即夢(mèng)AI等業(yè)務(wù)場景打磨和持續(xù)迭代,兩款模型可以更好地服務(wù)于專業(yè)創(chuàng)作者和藝術(shù)家們,應(yīng)用于設(shè)計(jì)、影視、動(dòng)畫等內(nèi)容場景,助力想象力的實(shí)現(xiàn)和故事創(chuàng)作。目前,即夢(mèng)AI為用戶提供每日積分贈(zèng)送,用戶可憑積分免費(fèi)體驗(yàn)兩款模型。
即夢(mèng)AI是字節(jié)跳動(dòng)旗下的AI內(nèi)容平臺(tái),支持通過自然語言及圖片輸入,生成高質(zhì)量的圖像及視頻。平臺(tái)提供智能畫布、故事創(chuàng)作模式,以及首尾幀、對(duì)口型、運(yùn)鏡控制、速度控制等AI編輯能力,并有海量影像靈感及興趣社區(qū),一站式提供用戶創(chuàng)意靈感、流暢工作流、社區(qū)交互等資源,為用戶的創(chuàng)作提效。
(責(zé)任編輯:馬先震)