ByteDance 的下一代 AI 模型可根據文字、圖片、音訊與影片生成片段

ByteDance 的下一代 AI 模型可根據文字、圖片、音訊與影片生成片段

核心功能與技術細節

ByteDance 推出的 Seedance 2.0 模型,能夠根據文字、圖片、音訊與影片輸入,生成最多 15 秒的影片片段。

該模型能同時處理最多九張圖片、三段影片、三段音訊,並結合自然語言指令進行內容生成。

生成品質與應用場景

Seedance 2.0 在視覺效果、動態變化、攝影機移動與動態效果方面有顯著進步,能更精確地模擬真實影片的流暢性與情境。

此技術可應用於內容創作、社交媒體行銷與個人影片製作,讓使用者透過多模態輸入快速產出高品質影片。

市場反應與影響

該 AI 模型已受到全球關注,包括 Elon Musk 也在社交平臺表示讚賞,並在中國地區迅速走紅,被視為類似 DeepSeek 的關鍵時刻。

相關技術也引發產業討論,尤其在 AI 創作工具的發展與應用層面。

來源:https://www.theverge.com/ai-artificial-intelligence/877931/bytedance-seedance-2-video-generator-ai-launch

返回頂端