ByteDance hat den internationalen Start seines neuen KI-Videogenerators „Seedance 2.0” vorerst auf Eis gelegt. Auslöser hierfür sind Berichte über Urheberrechtsstreitigkeiten mit großen Hollywood-Studios und Streaming-Anbietern. Besonders brisant: Das Modell hatte kurz nach seinem Start mit täuschend echten KI-Videos für viel Aufmerksamkeit gesorgt - und genau das hat nun offenbar rechtliche Fragen verschärft.
ByteDance hat Seedance 2.0 im Februar 2026 vorgestellt. Das System ist technisch besonders interessant, da es neben Texteingaben auch Bilder, Audio und Videos als Input verarbeiten kann. ByteDance bewirbt das Modell als Werkzeug für professionelle Anwendungen in den Bereichen Film, Werbung und E-Commerce. Auf der offiziellen Produktseite hebt das Unternehmen vor allem die multimodale Architektur, die realistische Audio-Video-Generierung und die präzisere kreative Steuerung hervor.
Seedance 2.0 wurde offenbar vor allem durch Inhalte, die stark an bekannte Schauspieler, Filmfiguren und große Franchises erinnerten, zum Problem. Wie The information berichtet, haben Hollywood-Studios ByteDance wegen möglicher Copyright-Verstöße unter Druck gesetzt. Disney soll dem Unternehmen bereits im Februar eine Unterlassungsaufforderung geschickt haben. Dabei ging es unter anderem um den Vorwurf, Seedance 2.0 sei mit urheberrechtlich geschütztem Material trainiert worden und habe bekannte Figuren aus Franchises wie „Star Wars” oder „Marvel” praktisch wie frei nutzbare Cliparts behandelt.
Für zusätzliche Aufmerksamkeit sorgten virale KI-Clips wie ein Video, das Tom Cruise und Brad Pitt in einer fiktiven Prügelszene zeigte. Genau solche realistisch wirkenden Inhalte haben die Debatte um Persönlichkeitsrechte, geistiges Eigentum und die Grenzen generativer KI erneut angeheizt.
Eigentlich wollte ByteDance die neue Version von Seedance 2.0 Mitte März weltweit verfügbar machen. Diese Pläne wurden jedoch gestoppt. Derzeit arbeiten Juristen und Entwickler dem Bericht zufolge daran, mögliche rechtliche Risiken zu entschärfen und zusätzliche Schutzmaßnahmen einzubauen, um zu verhindern, dass das Modell weitere Inhalte erzeugt, die neue IP-Verstöße auslösen könnten.
