Saya sudah pakai Seedance 2.0 selama 20 hari - simpan formula prompt ini pasti berguna
Saya sudah mengikuti bidang generasi video AI hampir 3 tahun, mulai dari Runway Gen-2 sampai Sora, Kling, dan Veo. Hampir semua tools populer di pasar sudah saya coba. Selama bertahun-tahun ini saya sudah dengar terlalu banyak janji “revolusioner”, tapi kebanyakan demo saja yang kelihatan hebat, pas dipakai sendiri justru mengecewakan.
Makanya pas Seedance 2.0 rilis, saya tidak langsung tulis review, tapi pakai secara intensif selama 2 minggu, bikin lebih dari 50 video. Banyak kendala saya alami, dan hari ini saya bagikan pengalaman praktis yang bener-bener berguna.
Pertama kesimpulannya: Tools ini beneran bagus, tapi cuma kalau Anda tahu cara nulis prompt yang benar.

1. Pertama pahami dulu apa yang bikin Seedance 2.0 benar-benar hebat
Selain semua fitur lainnya, ada dua poin yang paling berguna buat kreator biasa:
Pertama, dia mendukung empat jenis input: gambar, video, audio, dan teks. Anda bisa mereferensikan semua materi yang diunggah dengan bahasa alami - aksi, efek, gerakan kamera, karakter, adegan bahkan suara.
Sederhananya: Dulu, kalo ada gambar di kepala, Anda harus terjemahkan ke “mantra” yang bisa dimengerti model. Sekarang, Anda tinggal unggah materi saja dan bilang “Referensikan gerakan kamera dari video ini dan karakter dari gambar ini”, dia langsung ngerti persis yang Anda mau.
Batasan resminya maksimal 9 gambar, 3 video (total durasi tidak lebih dari 15 detik), dan 3 file audio, total tidak lebih dari 12 materi. Buat kebanyakan skenario, 3-5 gambar + 1 video referensi sudah cukup banget. Kalo kebanyakan materi malah bikin konflik sinyal.
Ada poin lagi yang saya tidak sadari awalnya, tapi ternyata sangat berguna setelah dipakai: Tools generasi video dulu bikin gambar dulu baru nambah suara belakangan. Seedance 2.0 generate suara dan video secara bersamaan berkat arsitektur dual-branch diffusion transformer.
Artinya apa? Kalo Anda nulis “Wanita tersenyum di kafe sambil bilang ‘Hari ini cuaca beneran bagus ya’”, Anda dapat videonya dengan gerakan bibir yang cocok, suara lingkungan (mesin kopi, obrolan pelan di belakang) semuanya ada, bahkan musik latarnya juga sudah cocok. Dulu proses ini perlu edit di software editing setengah jam, sekarang cukup satu kali generate langsung jadi.
Dengan menguasai teknik-teknik ini, Anda bisa menghindari 80% kesalahan umum, dan kualitas video yang Anda buat akan meningkat secara signifikan. Kalo Anda sebelumnya pernah pakai tools generasi video AI lain, Anda bakal merasakan peningkatan efisiensi yang jauh lebih besar pakai Seedance 2.0.