Tôi đã dùng Seedance 2.0 được 20 ngày - khuyên bạn nên lưu công thức prompt này
Tôi đã theo dõi lĩnh vực tạo video bằng AI được gần 3 năm, từ Runway Gen-2 đến Sora, Kling và Veo. Đã thử gần như tất cả các công cụ phổ biến trên thị trường. Trong những năm qua, đã nghe quá nhiều lời hứa về “cuộc cách mạng”, nhưng hầu hết các bản demo chỉ trông ấn tượng thôi, còn khi dùng thực tế lại rất thất vọng.
Vì vậy khi Seedance 2.0 ra mắt, tôi đã không viết đánh giá ngay lập tức, mà sử dụng liên tục trong 2 tuần, tạo hơn 50 video. Gặp rất nhiều khó khăn, và hôm nay sẽ chia sẻ những kinh nghiệm thực tế hữu ích nhất.
Trước hết kết luận luôn: Công cụ này thực sự rất tốt, nhưng chỉ khi bạn biết cách viết prompt đúng chuẩn thôi.

1. Trước tiên hãy hiểu điều gì làm cho Seedance 2.0 thực sự mạnh mẽ
Bỏ qua tất cả các tính năng khác đi, có hai điểm là hữu ích nhất cho những người sáng tạo nội dung thông thường:
Điểm thứ nhất, nó hỗ trợ 4 loại đầu vào: hình ảnh, video, âm thanh và văn bản. Bạn có thể tham chiếu đến tất cả các tài liệu đã tải lên bằng ngôn ngữ tự nhiên – hành động, hiệu ứng, chuyển động camera, nhân vật, cảnh thậm chí cả âm thanh.
Nói một cách đơn giản: Trước đây, nếu bạn có một hình ảnh trong đầu, phải dịch thành “bùa chú” mà mô hình có thể hiểu được. Nhưng bây giờ, bạn chỉ cần tải lên các tài liệu cần thiết và nói “Tham chiếu chuyển động camera từ video này và nhân vật từ hình ảnh này”, nó sẽ hiểu ngay lập tức bạn muốn gì.
Giới hạn chính thức là tối đa 9 hình ảnh, 3 video (tổng thời gian không quá 15 giây) và 3 tệp âm thanh, tổng cộng không quá 12 tài liệu. Đối với hầu hết các tình huống, 3-5 hình ảnh + 1 video tham khảo là đủ rồi. Nếu tải lên quá nhiều tài liệu sẽ gây xung đột tín hiệu thay vì tốt hơn.
Có một điểm nữa tôi không để ý lúc đầu, nhưng sau khi dùng thấy rất tiện lợi: Các công cụ tạo video cũ sẽ tạo hình ảnh trước rồi mới thêm âm thanh sau. Nhưng Seedance 2.0 tạo âm thanh và video đồng thời nhờ kiến trúc Bộ chuyển đổi khuếch tán hai nhánh (Dual-branch Diffusion Transformer).
Điều này có nghĩa là gì? Nếu bạn viết “Cô gái mỉm cười trong quán cà phê nói ‘Thời tiết hôm nay đẹp quá nhỉ’”, bạn sẽ nhận được video mà cử động môi khớp với lời nói, có đầy đủ âm thanh xung quanh (tiếng máy pha cà phê, tiếng nói chuyện nhỏ ở hậu cảnh), và thậm chí cả nhạc nền cũng phù hợp luôn. Trước đây quá trình này cần phải chỉnh sửa trong phần mềm cắt ghép mất nửa tiếng, nhưng bây giờ chỉ cần tạo một lần là xong ngay.
Sau khi thành thạo các kỹ thuật này, bạn có thể tránh được 80% lỗi thường gặp, và chất lượng video bạn tạo ra cũng sẽ cải thiện rõ rệt. Nếu bạn đã từng sử dụng các công cụ tạo video AI khác trước đây, bạn sẽ cảm nhận được hiệu quả làm việc tăng lên đáng kể khi dùng Seedance 2.0.