静止画に命を吹き込み、ダイナミックな動画を生成します。
テキストプロンプトだけで、シーン理解を備えた動画を直接生成します。
対応モデルは音声を自動生成 — ポストプロダクション不要でそのまま使用可能。
Seedance 2.0 と Kling O3 は、画像・動画クリップ・音声を組み合わせた参照から、視覚とモーションをより細かく制御した新しい動画を生成できます。
5つの最先端モデルがあらゆる用途に対応 — 高速SNSクリップから4Kシネマティック制作まで。
快手(Kuaishou)のフラッグシップ動画モデル。豊富なアスペクト比、滑らかなモーション、オプションのオーディオ生成に対応。汎用動画制作に最適。
Kling V3 参考素材の制限
Google DeepMindのプレミア動画モデル。ネイティブオーディオ生成、最大4K解像度、優れたプロンプト追従性を誇り、ハイエンド映像制作に最適。
Veo 3.1の速度最適化版。4K対応・ネイティブオーディオはそのまま、生成速度を大幅短縮。時間を重視する制作に最適。
ByteDanceの最新世代モデル。ネイティブなマルチショットキャラクター一貫性、ネイティブオーディオ、最大15秒の時間 — ナラティブ短編動画に特化して設計。
実写風人物の参照生成に対応しており、AI生成の人物画像も参照画像として利用できます。
Seedance 参考素材の制限
tools_marketing.video_gen.models.m5_desc
tools_marketing.video_gen.models.m6_desc
参照用の画像をアップロードするか、テキストプロンプトを入力します。
モデル、時間、解像度、オーディオオプションを選択します。
動画を作成し、結果をダウンロードします。
Seedance 2はByteDanceの次世代AI動画モデルです。強力なプロンプト追従性、ネイティブなマルチショットの一貫性、そして最大1080pの高速動画生成を、テキストから動画、画像から動画といったクリエイターファーストなワークフローで提供します。
Seedance 2はネイティブのオーディオ生成、強力なマルチショットのキャラクター一貫性、高画質な1080p出力を備えており、ナラティブ短編動画や広告コンテンツの制作に最適です。
クリエイティブを完全にコントロールしてシーンをゼロから構築したい場合は、テキストから動画への変換を使用してください。すでに参照となるフレームやキャラクターシートがあり、そのビジュアルに動きをアンカーさせたい場合は、画像から動画を使用してください。
はい。5〜12秒の出力範囲は、広告やソーシャルのほとんどの場面に一致しており、ネイティブなオーディオが付いているため、追加のサウンドデザイン作業なしにすぐにテスト可能です。
主題とアクションから始め、環境や雰囲気を追加してください。たとえば、「若い女性が夜のネオンに照らされた東京の路地を駆け抜ける、雨に濡れ、映画のようなスローモーションで。」具体的に表現しつつ、モデルが雰囲気を解釈できる余地も残してください。
ソーシャルや広告コンテンツの場合、5〜8秒が最適です。明確なビートがあり、かつ注意を逸らさない短さです。完全な三幕構成のショートストーリーが必要な場合は、10〜12秒を使用してください。
各キャラクターや場所に対し、同じコアプロンプトとアンカーとなるフレーズを再利用し、アスペクト比と解像度を固定してください。被写体の描写が同一である限り、アクションやカメラの方向にわずかなバリエーションがあっても、まとまりのあるものに感じられます。
1つのプロンプトに無関係な被写体や相反するスタイルを詰め込みすぎることは避けてください。「壮大」や「美しい」のような曖昧な言葉を使っても効果は低いです。代わりに、照明、カメラの角度、動きのスタイルなどの具体的な視覚的な合図に置き換えてください。
特に短いクリップにおいて、編集の手間を大幅に削減します。ただし、複数のクリップを繋ぎ合わせてより長いカットにしたり、タイトルを追加したり、カスタムオーディオを同期させる場合は、生成後の独立した編集ステップが依然として有益です。
最初の生成はドラフト(下書き)として扱ってください。まず明確なストーリービートときれいなモーションを目指し、次に公開可能なクリップになるまで一つずつ詳細を微調整していきます。毎回プロンプト全体を書き直すよりも、焦点を絞った編集を加える方が圧倒的に早く改善されます。