Seedance 2.0 to model sztucznej inteligencji stworzony przez ByteDance, firmę stojącą za TikTokiem. Premiera odbyła się 12 lutego 2026 roku i w ciągu kilku dni model porównywano do „drugiego momentu DeepSeek” w branży AI. Czy jest się czym podniecać? Zobaczmy!

Kto stoi za tym projektem?

Za modelem stoi zespół ByteDance Seed, wydzielona jednostka badawcza licząca około 1 500 osób. Na jej czele stoi Wu Yonghui, były wiceprezes Google DeepMind z ponad 15-letnim doświadczeniem w sztucznej inteligencji. Za sam Seedance odpowiada Zhou Chang, wcześniej związany z Alibabą. Celem zespołu jest zbudowanie światowej klasy laboratorium badawczego, a Seedance 2.0 to ich pierwszy naprawdę przełomowy produkt na rynku generatywnego wideo.

Jak widzimy – jest to mocny team. Sława Seedance nie wzięła się z przysłowiowego garażu.

Co potrafi ten model?

Największą innowacją jest jednoczesna generacja obrazu i dźwięku w jednym przebiegu. Wcześniejsze modele tworzyły wideo bez audio, dźwięk trzeba było dodawać osobno. Seedance 2.0 rozwiązuje ten problem dzięki architekturze Dual-Branch Diffusion Transformer, gdzie dwie gałęzie transformera pracują synchronicznie. Efekt jest imponujący, dźwięk kroków pada dokładnie w momencie dotknięcia stopy podłoża, a lip-sync działa na poziomie fonemów w ośmiu językach. Model akceptuje jednocześnie tekst, obrazy (do dziewięciu), klipy wideo (do trzech) i pliki audio (do trzech). Każdemu plikowi można przypisać konkretną rolę.

Do najważniejszych funkcji należą:

  • automatyczne rozkładanie promptu na sekwencję spójnych ujęć z zachowaniem ciągłości postaci,
  • tryb reżyserski z kontrolą trajektorii kamery, oświetlenia i renderowaniem do 4K
  • natywny lip-sync w ośmiu językach, w tym angielskim, chińskim i japońskim
  • edycja istniejących filmów – przedłużanie, łączenie klipów i zamiana elementów
  • generacja klipów do 15 sekund w rozdzielczości 1080p w czasie poniżej dwóch minut

Gdzie można to przetestować?

Dostęp do modelu wciąż jest ograniczony, szczególnie poza Chinami. Oficjalną platformą jest Jimeng (Dreamina), wymaga chińskiego numeru telefonu, a subskrypcja zaczyna się od około 69 RMB miesięcznie, czyli niecałe 10 dolarów.

Dla użytkowników międzynarodowych dostępna jest wersja na dreamina.capcut.com z darmowym planem oferującym ponad 60 dziennych kredytów.

Alternatywą jest aplikacja Little Skylark, która daje trzy darmowe generacje plus 120 kredytów dziennie. Developerzy mogą testować model w VolcEngine Experience Center, wybierając wariant doubao-seedance-2.0.

Warto wiedzieć, że globalna premiera API, planowana na 24 lutego, została przesunięta na nieokreślony termin z powodu kontrowersji prawnych. Jak tylko się pojawi, będziemy tutaj aktualizować informacje!

Kontrowersje wstrzymujące globalną premierę

Seedance 2.0 szybko znalazł się w centrum kilku poważnych skandali. ByteDance musiało zawiesić funkcję klonowania głosu z samego zdjęcia twarzy, model generował realistyczny głos osoby bez jakichkolwiek próbek audio i bez jej zgody. Społeczność technologiczna określiła to jako przerażające. Hollywood zareagował równie ostro. Viralne wideo z walką Toma Cruise’a i Brada Pitta wywołało falę pozwów. Disney zażądał zaprzestania generowania chronionych postaci, a Netflix, Paramount i MPAA dołączyły z własnymi roszczeniami. To deepfake’i celebrytów i kwestie praw autorskich są głównym powodem opóźnienia globalnej premiery.

Jakie są ograniczenia?

Mimo wrażenia model nie jest pozbawiony wad. Maksymalna długość klipu to 15 sekund, ręce i typografia wciąż sprawiają trudności, a złożone sceny ze szkłem potrafią wyglądać nierealistycznie. Model ma też tendencję do generowania postaci przypominających znanych aktorów, nawet gdy prompt tego nie sugeruje.

Seedance 2.0 wyznacza nowy standard w generatywnym wideo AI. Jednoczesna generacja audio i obrazu, wielomodalne wejście oraz automatyczne planowanie narracji to funkcje, których żaden konkurent nie oferuje w jednym pakiecie. Przy cenie około 0,05 dolara za 10-sekundowy klip w 1080p jest też znacząco tańszy od konkurencji.