【jinnianhui科技消息】近日,字節(jié)跳動推出的AI視頻生成模型Seedance2.0引發(fā)海內(nèi)外廣泛關(guān)注。這款模型憑借“雙分支擴散變換器架構(gòu)”實現(xiàn)視頻與音頻同步生成,用戶僅需輸入文本或上傳圖片,即可在60秒內(nèi)獲得帶有原生音頻的多鏡頭序列視頻,其多鏡頭敘事功能更被業(yè)界視為突破性創(chuàng)新。

據(jù)官方介紹,Seedance2.0的核心優(yōu)勢在于“單提示生成連貫多場景”能力。AI可自動拆解文本或圖像中的敘事邏輯,生成多個關(guān)聯(lián)場景,并在角色一致性、視覺風格統(tǒng)一性及氛圍銜接上實現(xiàn)“零手動編輯”。例如,用戶輸入“雨夜追兇”的提示詞,模型可自動生成從案發(fā)現(xiàn)場到嫌疑人逃亡、警方追捕的全流程視頻,且鏡頭切換、光影變化均保持高度連貫。這一特性被開源證券評價為“導演級控制精度”,或成為AI影視創(chuàng)作的“奇點”。
博主“影視颶風”的測試顯示,Seedance2.0在分鏡設計上展現(xiàn)出“類真人導演”的運鏡思維,能通過角度切換、鏡頭推拉等手法增強敘事張力;音畫匹配方面,模型可依據(jù)視頻內(nèi)容自動生成環(huán)境音效與背景音樂,甚至能模擬雨聲、腳步聲等細節(jié)。開源證券研報指出,該模型在自運鏡、分運鏡及全方位多模態(tài)思考能力上實現(xiàn)突破,2K視頻生成速度較快手可靈等競品快30%。

此外,影視颶風Tim在評測字節(jié)跳動AI視頻模型Seedance2.0時,因兩項突破性能力直言其“恐怖”——僅憑一張人臉照片即可生成對應人物的真實聲音與語氣,并能“腦補”未上傳的物體背面細節(jié)。
版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載
-金年會體育