„Atemlos“ im neuronalen Netz: Der Fall GEMA vs. OpenAI und das Memorisierungs-Dilemma von ChatGPT & Co.
13.11.2025
Das Landgericht München I hat ein bemerkenswertes Urteil vom 11. November 2025 (Aktenzeichen: 42 O 14139/24) gegen OpenAI gefällt, das die Debatte um KI-Training und Urheberrecht auf eine neue Ebene hebt. Die Entscheidung betrifft nicht nur die Frage, ob urheberrechtlich geschützte Werke für das Training von KI-Modellen verwendet werden dürfen, sondern auch die Architektur der Modelle selbst und die von ihnen generierten Inhalte.
Die Entscheidung im Überblick: GEMA vs. OpenAI
Die GEMA klagte gegen OpenAI wegen der unbefugten Nutzung von neun deutschen Liedtexten bekannter Künstler, darunter "Atemlos" von Kristina Bach und "Wie schön, dass du geboren bist" von Rolf Zuckowski. Der Vorwurf: ChatGPT gibt diese Liedtexte auf einfache Prompts hin weitgehend originalgetreu wieder.
Das Gericht gab der GEMA auf zwei Ebenen Recht:
- Erstens – Vervielfältigung durch Memorisierung: Die Liedtexte seien nach Auffassung des Gerichts reproduzierbar in den Sprachmodellen von OpenAI – konkret ging es um die Modelle GPT-4 und GPT-4o – festgelegt. Das Gericht spricht von „Memorisierung“ in den Modellparametern und wertet dies als urheberrechtlich relevante Vervielfältigung im Sinne von Art. 2 InfoSoc-Richtlinie und § 16 UrhG.
- Zweitens – OpenAI trägt die Verantwortung: Auch die Wiedergabe der Liedtexte durch den Chatbot verletze Urheberrechte. Entscheidend ist: Das Gericht sieht nicht die Nutzer, sondern OpenAI als verantwortlich, da Modellarchitektur, Trainingsdatenauswahl und Memorisierung die Outputs maßgeblich beeinflussen.
Lediglich die seitens der GEMA geltend gemachten Ansprüche wegen Verletzung des allgemeinen Persönlichkeitsrechts (fehlerhafte Zuschreibung veränderter Texte) wurden abgewiesen. Die Ansprüche auf Unterlassung, Auskunft und Schadensersatz hatten hingegen im Wesentlichen Erfolg.
Memorisierung: Kein Speichern im klassischen Sinne
Hier wird es technisch interessant: Liedtexte sind in ChatGPT nicht wie Dateien auf einer Festplatte „gespeichert“. Large Language Models wie ChatGPT bestehen aus Milliarden von Parametern (Gewichtungen in einem neuronalen Netzwerk). Während des Trainings werden diese Parameter so optimiert, dass das Modell statistische Muster über Sprache lernt. Die ursprünglichen Trainingsdaten existieren nach dem Training nicht mehr im Modell.
Das Phänomen der Memorisierungist dennoch real: Die ML-Forschung zeigt, dass KI-Modelle ganze Textbestandteile nahezu wortgetreu reproduzieren können, insbesondere wenn diese in den Trainingsdatensätzen häufig vorkommen, charakteristische Muster aufweisen oder prägnant sind (Liedtexte, Gedichte, Zitate). Die Parameter haben die statistischen Muster so stark gelernt, dass sie bei bestimmten Prompts diese Sequenzen mit sehr hoher Wahrscheinlichkeit rekonstruieren. Das geschieht durch „next-token prediction“ – das Modell berechnet für jedes Wort, welches am wahrscheinlichsten folgt. Es handelt sich um Rekonstruktion basierend auf gelernten Mustern, nicht um Abruf gespeicherter Daten.
Der funktionale Ansatz des Gerichts
Das Landgericht erkennt die technische Realität durchaus an und spricht in seiner Pressemitteilung explizit von „Wahrscheinlichkeitswerten“ und „spezifizierten Parametern“. Die entscheidende Weichenstellung liegt in der rechtlichen Bewertung:
Die Festlegung in bloßen Wahrscheinlichkeitswerten sei hierbei unerheblich.
Der funktionale Ansatz: Wenn ein Werk reproduzierbar aus dem Modell extrahiert werden könne, sei es dort urheberrechtlich relevant „verkörpert“ – unabhängig von dem zugrundeliegenden technischen Mechanismus. Damit sei eine Verkörperung als Voraussetzung der urheberrechtlichen Vervielfältigung auch im Falle einer bloßen „Memorisierung“ gegeben. Denn nach der Rechtsprechung des EuGH genüge für eine Vervielfältigung eine mittelbare Wahrnehmbarkeit – das Werk muss nicht direkt lesbar sein, es genügt, wenn es unter Einsatz technischer Hilfsmittel (hier: Prompting) wahrgenommen werden kann.
Das Gericht sah es dabei als erwiesen an, dass ChatGPT die Liedtexte auf einfache Anfrage eines Nutzers in weiten Teilen originalgetreu ausgebe:
Angesichts der Komplexität und Länge der Liedtexte sei der Zufall als Ursache für die Wiedergabe der Liedtexte ausgeschlossen.
Text und Data Mining-Schranke: Warum sie hier nicht greift
OpenAIs zentrale Verteidigung war der Verweis auf § 44b UrhG – die Text und Data Mining-Schranke (TDM-Schranke). Diese erlaubt grundsätzlich die Vervielfältigung rechtmäßig zugänglicher Werke zum Zweck des Text und Data Mining – also der automatisierten Analyse großer Datenmengen zur Gewinnung von Informationen über Muster, Trends und Korrelationen.
Typische Anwendungsfälle umfassen: Automatische Rechtschreib- und Grammatikprüfung, Mustererkennungsverfahren, Spam-Erkennung, Internetsuchmaschinen, automatisierte Literaturanalyse oder empirische Forschung (etwa wenn10.000 Fachartikel analysiert werden, um Forschungstrends zu identifizieren). Auch das Training von Machine-Learning-Modellen wird grundsätzlich als Text und Data Mining angesehen, da dabei statistische Zusammenhänge und Muster aus Trainingsdaten in Modellparameter übersetzt werden – eine Form der Informationsgewinnung.
Die Prämisse des Gesetzgebers: Bei Text und Data Mining werden nur Informationen, Fakten und Muster extrahiert, nicht aber die Werke selbst vervielfältigt. Da nur Informationen extrahiert werden und das Werk selbst nicht verwertet wird, besteht keine Gefahr für die wirtschaftlichen Interessen der Urheber. Deshalb besteht in diesem Fall keine Vergütungspflicht.
Das Landgericht München macht eine entscheidende Unterscheidung: Das Gericht erkennt zwar an, dass Sprachmodelle grundsätzlich dem Anwendungsbereich der TDM-Schranke unterfielen. Es macht jedoch eine entscheidende Unterscheidung:
- Erlaubt – reine Informationsextraktion: Technisch notwendige Vervielfältigungen zur Informationsextraktion (z.B. Format-Konvertierung, RAM-Speicherung beim KI-Training) seien erlaubt. Die Werke werden nicht dauerhaft vervielfältigt.
- Nicht erlaubt - Memorisierungvollständiger Werke in Modellparametern: Hier greift die Prämisse nicht mehr – es werden nicht nur Informationen entnommen, sondern reproduzierbare Werke geschaffen. Die wirtschaftlichen Verwertungsinteressen der Urheber sind betroffen.
Eine extensive Auslegung verbiete sich angesichts des klaren Wortlauts. Selbst eine Analogie scheide aus: Bei echter Informationsextraktion sind Urheber nicht gefährdet. Bei Memorisierung würden sie „schutzlos gestellt“, wenn keine Vergütung gezahlt werden müsste. Das Risiko der Memorisierung stamme allein aus der Sphäre von OpenAI und dürfe nicht auf die Urheber abgewälzt werden.
Das technische Dilemma: „Löschen“ ist unmöglich
Die Entscheidung offenbart ein fundamentales Problem: Einzelne Liedtexte können nicht einfach aus einem trainierten Modell „entfernt“ werden.
Warum nicht?
- Verteilte „Speicherung“: Die Information ist über Millionen Parameter verteilt, die gleichzeitig für unzählige andere Muster relevant sind. Es ist nicht möglich, die Parameter zu „Atemlos“ gezielt zu löschen.
- Probabilistische Natur: Modelle arbeiten mit Wahrscheinlichkeiten. Derselbe Prompt kann zu leicht unterschiedlichen Ergebnissen führen. Reproduktion ist keine bewusste Speicherung, sondern emergente Eigenschaft des Gesamtsystems.
- Unbeabsichtigte Emergenz: Memorisierung ist typischerweise keine Designentscheidung, sondern Nebenwirkung des Trainings. Entwickler können nicht vorhersehen, welche Inhalte memoriert werden. Es ist weder exakt bestimmbar noch steuerbar, welche Informationen in welchem Umfang in die Parameter eingehen – dies folgt ausschließlich statistischen Zusammenhängen in den Trainingsdaten und Zufallsprozessen beim Training (Blackbox-Phänomen).
Mögliche Lösungen – alle mit Nachteilen:
- Komplettes Neutraining: Von Grund auf neu trainieren, ohne „problematische“ Werke oder mit Techniken gegen Memorisierung (Differential Privacy, bessere Deduplizierung). Das ist extrem aufwendig und kostspielig – GPT-4-Training dauerte Monate und kostete dreistellige Millionenbeträge.
- Technische Guardrails: Filter und Content Policies gegen bestimmte Outputs. Diese können aber durch geschickte Prompts ("Jailbreaks") umgangen werden. Es ist praktisch unmöglich, alle problematischen Outputs präventiv zu identifizieren und damit zumindest kein rechtssicherer Weg.
- Lizenzierung: Nachträgliche Vereinbarungen mit Rechteinhabern. Diese würden rechtliche, aber nicht die technischen Probleme lösen – zumal angesichts der Vielzahl urheberrechtlich geschützter Werke in Trainingsdatensätzen mit erheblichen Lizenzforderungen zu rechnen wäre, die die Wirtschaftlichkeit von KI-Modellen grundlegend in Frage stellen könnten.
Der transatlantische Gegensatz: Das Fair Use-Prinzip in den USA
Das Münchner Urteil steht in starkem Kontrast zur US-Rechtsprechung, wo mehrere Gerichte deutlich KI-freundlicher urteilten.
Das Fair Use-Prinzip in den USA
Im US-amerikanischen Urheberrecht erlaubt die Fair Use-Doktrin die Nutzung urheberrechtlich geschützter Werke ohne Zustimmung des Rechteinhabers unter bestimmten Umständen – etwa für Bildung, Forschung, Kritik oder transformative neue Zwecke. Entscheidend ist eine Abwägung nach vier Faktoren:
- Zweck und Charakter der Nutzung, einschließlich der Frage, ob eine solche Nutzung zu kommerziellen oder gemeinnützigen Zwecken erfolgt oder „transformativer Natur“ ist (d.h. gibt die neue Nutzung dem Werk eine neue Bedeutung, einen neuen Zweck oder eine neue Botschaft, was für Fair Use sprechen würde, oder ersetzt sie lediglich das Original)
- Natur des urheberrechtlich geschützten Werkes (d.h. handelt es sich um reine Fakten oder einen kreativen Schöpfungsprozess)
- Umfang und die Wesentlichkeit der Nutzung einzelner Bestandteile im Verhältnis zum Gesamtwerk;
- Auswirkung der Nutzung auf den potenziellen Markt oder Wert des Originalwerkes.
Anders als die deutschen Schrankenbestimmungen ist Fair Use flexibel und offen formuliert, was Gerichten erheblichen Beurteilungsspielraum gibt. Der Campbell-Standard des Supreme Court betont: Selbst umfangreiches Kopieren kann Fair Use sein, wenn der Zweck ausreichend transformativ ist.
KI-Training als Transformation: Die KI-Industrie argumentiert, dass das Training von Sprachmodellen hochgradig transformativ sei, weil die Werke nicht wie beabsichtigt genutzt (gelesen oder abgespielt), sondern aus ihnen lediglich statistische Muster extrahiert werden, um neue Inhalte zu generieren – vergleichbar mit Google Books, das als transformativ galt, weil es Suche statt Lesen ermöglichte und nur Ausschnitte aus den Werken wiedergab.
US-Rechtsprechung: Training als transformative Fair Use
In der US-amerikanischen Rechtsprechung zeichnet sich aktuell eine Tendenz ab, das Training von KI-Modellen auf urheberrechtlich geschützten Werken als transformative Fair Use anzuerkennen.
Diese Linie wurde im jüngsten Fall Bartz v. Anthropic (N.D. California, Juni 2025) bestätigt: Drei Autoren erhoben im Rahmen einer Sammelklage aus 2024 den Vorwurf gegen Anthropic, dass Millionen urheberrechtlich geschützte Bücher zum Training des Large Language Models „Claude" ohne Genehmigung oder Kompensation verwendet worden seien. Das Gericht differenzierte: Training auf legal erworbenen Werken sei „exceedingly transformative“ und damit Fair Use – die Extraktion statistischer Muster füge einen völlig neuen Zweck hinzu. Problematisch sei jedoch die nachweisliche Nutzung von über 7 Millionen Raubkopien von illegalen Websites wie Library Genesis und Pirate Library Mirror. Dieser Teil sollte vor Gericht verhandelt werden. Vor dem Prozess einigte sich Anthropic auf einen Vergleich über 1,5 Milliarden Dollar – etwa 3.100 Dollar pro Werk (größter Copyright-Vergleich der US-Geschichte).
Andererseits argumentierte ein New Yorker Gericht im Fall In re OpenAI Copyright Litigation (S.D. New York, Oktober 2025), dass – selbst bei zulässigem Training – zu ähnliche Outputs eigenständige Verletzungen darstellen könnten – etwa wenn eine ChatGPT-Zusammenfassung von „A Game of Thrones“ den „Gesamtton“ des Originals „nachahmt“, was potenziell als „Market Substitute“ wirken könnte.
Zahlreiche weitere Verfahren sind aktuell noch anhängig, so dass die Entwicklungen weiterverfolgt werden müssen. Generell zeigt sich jedoch, dass das US-Urheberrecht zwar die Kreativität schützt, aber gleichzeitig neuen Technologien erlaubt zu gedeihen – eine Balance, die sich auch in der KI-Rechtsprechung widerspiegelt.
Praktische Bedeutung und Ausblick
Das Urteil ist nicht rechtskräftig. OpenAI wird vermutlich Berufung einlegen. Die Frage, ob Reproduzierbarkeit unabhängig von der technischen Implementierung als Vervielfältigung zählt, wird höhere Instanzen beschäftigen. Eine Vorlage an den EuGH zur Auslegung von Art. 2 InfoSoc-RL und der DSM-Richtlinien-Regelungen erscheint möglich – mit potentiell europaweiter Bedeutung.
Schon jetzt sind folgende Überlegungen für die Praxis angebracht:
- Für Rechteinhaber: Die Entscheidung des Landgerichts München I stärkt Urheber und Verwertungsgesellschaften erheblich. Sie können gegen unbefugte Nutzung im Training und gegen Wiedergabe in Outputs vorgehen – direkt gegen KI-Betreiber, nicht nur Nutzer.
- Für KI-Entwickler: Für diese schafft das Urteil erhebliche Rechtsunsicherheit in Europa. „Memorisierung“ lässt sich nicht einfach abstellen ohne komplettes Neutraining. Auch die Text und Data Mining-Schranke wurden gerichtlich restriktiv ausgelegt. Künftig wird daher ein stärkerer Fokus auf Lizenzierung und technische Schutzmaßnahmen liegen.
- Fragmentierter globaler Rechtsrahmen: Was in den USA als transformative Innovation gilt, kann in Europa als Verletzung qualifiziert werden. Unternehmen mit globaler Reichweite benötigen möglicherweise unterschiedliche Modelle oder Modellversionen für verschiedene Märkte.