Ein britisches Gericht hat in einem viel beachteten Verfahren die Weichen für den Umgang mit KI-Modellen neu gestellt: Im Streit zwischen Getty Images und Stability AI entschied der High Court in London, dass das Bildmodell Stable Diffusion rechtlich nicht als Kopie urheberrechtlich geschützter Werke zu behandeln ist. Das Urteil schafft Orientierung für Entwickler, Rechteinhaber und die wachsende KI-Industrie – und verschiebt den Fokus der Debatte weg vom Modell selbst hin zu konkreten Nutzungshandlungen.
Stable Diffusion ist als trainiertes Modell keine rechtsverletzende Kopie der Trainingsbilder.
Was das Gericht entschieden hat
Kernpunkt: Modell ≠ Kopie
Der High Court stellt klar: Die Gewichte und Parameter eines KI-Modells sind nicht einfach eine Vervielfältigung der Trainingsdaten. Weder die Existenz des Modells noch sein Vertrieb begründen für sich genommen eine Urheberrechtsverletzung. Damit wird die oft zitierte Gleichsetzung von „Modell gleich Datenkopie“ rechtlich verworfen.
- Modellrepräsentation: Mathematische Repräsentationen (Gewichte) gelten nicht als speicherte Kopien der ursprünglichen Werke.
- Erzeugte Bilder: Ob ein einzelnes generiertes Bild Rechte verletzt, bleibt eine Einzelfallfrage und hängt von konkreten Ähnlichkeiten und Nutzungskontext ab.
Sekundäre Urheberrechtsverletzung präzisiert
Besonders relevant ist die klare Linie zur sekundären Urheberrechtsverletzung (secondary infringement): Wer ein Modell bereitstellt oder nutzt, begeht nicht automatisch eine Rechtsverletzung, solange keine konkrete Weiterverwertung rechtswidriger Kopien nachgewiesen ist.
- Kein Automatismus: Der bloße Betrieb oder die Bereitstellung von Stable Diffusion ist nicht per se rechtswidrig.
- Beweislast: Rechteinhaber müssen konkret darlegen, wo eine unzulässige Nutzung geschützter Inhalte stattfindet.
Was das Urteil nicht entscheidet
Das Verfahren dreht sich um zentrale urheberrechtliche Grundsatzfragen, doch nicht alle Streitpunkte sind damit erledigt. Offen bleiben insbesondere:
- Training und Datennutzung: Ob und in welchem Umfang das Kopieren von Bildern für das Training zulässig war, kann gesondert zu prüfen sein – etwa unter Ausnahmen, Lizenzen oder anderen Rechtsgrundlagen.
- Einzelfälle bei Output: Konkrete Ausgaben, die nahe an bestimmten Werken liegen, können weiterhin Angriffsfläche bieten.
- Rechtsmittel: Gegen das Urteil können weitere Rechtszüge angestrengt werden.
Bedeutung für die KI-Branche und Kreative
Die Entscheidung liefert Praktikern Leitplanken – ohne Kreativschaffenden wirksame Schutzinstrumente zu nehmen.
- Für Entwickler: Mehr Rechtssicherheit beim Modellbetrieb; Compliance rückt vom Modellkern zu Datenherkunft, Nutzungsregeln und Output-Kontrollen.
- Für Rechteinhaber: Der Fokus verschiebt sich auf Trainingstransparenz, Lizenzmodelle und die Überwachung konkreter Verletzungsfälle.
- Für Plattformen: Policies zu Upload-Filtern, Herkunftsnachweisen und opt-out-Mechanismen gewinnen an Bedeutung.
Einordnung und Kontext
Das Londoner Urteil wirkt über Großbritannien hinaus, da es eine juristische Linie markiert, die auch in anderen Rechtsordnungen diskutiert wird: Der Unterschied zwischen Datenkopie und Modellrepräsentation. Parallel laufende Verfahren – etwa in den USA – verfolgen eigene Maßstäbe und können zu abweichenden Ergebnissen kommen. Unternehmen sollten grenzüberschreitend weiterhin auf klare Lizenzen, Dokumentation der Datenquellen und Mechanismen zur Rechtewahrung setzen.
Was jetzt wichtig ist
- Transparenz bei Trainingsdaten und Modellnutzung erhöhen.
- Auditierbare Prozesse für Datenimporte, Löschanfragen und opt-outs etablieren.
- Risikomanagement für Output-Ähnlichkeiten und Marken- bzw. Persönlichkeitsrechte stärken.
Unterm Strich liefert die Entscheidung ein klares Signal: Die rechtliche Bewertung moderner KI hängt weniger von der Technologie an sich ab als von ihrer konkreten Nutzung – beim Training, beim Prompting und beim Umgang mit Ergebnissen.