ByteDance 的下一代 AI 模型可根據文字、圖片、音訊與影片生成片段
核心功能與技術細節
ByteDance 推出的 Seedance 2.0 模型,能夠根據文字、圖片、音訊與影片輸入,生成最多 15 秒的影片片段。
該模型能同時處理最多九張圖片、三段影片、三段音訊,並結合自然語言指令進行內容生成。
生成品質與應用場景
Seedance 2.0 在視覺效果、動態變化、攝影機移動與動態效果方面有顯著進步,能更精確地模擬真實影片的流暢性與情境。
此技術可應用於內容創作、社交媒體行銷與個人影片製作,讓使用者透過多模態輸入快速產出高品質影片。
市場反應與影響
該 AI 模型已受到全球關注,包括 Elon Musk 也在社交平臺表示讚賞,並在中國地區迅速走紅,被視為類似 DeepSeek 的關鍵時刻。
相關技術也引發產業討論,尤其在 AI 創作工具的發展與應用層面。
