Das Landgericht München I hat mit einem wegweisenden Urteil (Az. 42 O 14139/24) vom 11. November 2025 die Grenzen des Urheberrechts im Rahmen von KI-Training neu definiert. In dem Verfahren GEMA gegen OpenAI entschied das Gericht, dass die Memorisierung geschützter Werke in Sprachmodellen (wie ChatGPT) eine Urheberrechtsverletzung darstellt – und dass die Text & Data Mining-Schranke des § 44b UrhG diese nicht deckt.

Die interdisziplinäre Kanzlei Schlun & Elseven berät Sie umfassend zu allen Fragen rund um das Urheber- und KI-Recht. Wir prüfen die Aussichten Ihres Falles und setzen Ihre (Unterlassung-)Ansprüche durch – kompetent, diskret und durchsetzungsstark.
Kontaktieren Sie uns für eine Erstberatung – frühzeitiges Handeln schützt vor kostspieligen Rechtsstreitigkeiten und eventuellen Reputationsschäden.
Der Fall: GEMA klagt gegen OpenAI
Die GEMA machte als Verwertungsgesellschaft Ansprüche geltend und verklagte zwei Unternehmen der OpenAI-Gruppe auf Unterlassung, Auskunft und Schadensersatz.
Ausgangslage und Verfahrensgegenstand
Gegenstand der Klage waren neun bekannte deutsche Liedtexte, darunter “Atemlos” von Kristina Bach und “Wie schön, dass du geboren bist” von Rolf Zuckowski. Die GEMA trug vor, dass diese Texte in den Sprachmodellen GPT-4 und GPT-4o memorisiert seien und ChatGPT sie auf einfache Nutzeranfragen (“Prompts”) hin originalgetreu ausgebe. Sowohl in der Memorisierung durch die Sprachmodelle als auch in der Wiedergabe der Liedtexte in den Outputs des Chatbots lägen Eingriffe in die urheberrechtlichen Verwertungsrechte.
Von einer “Memorisierung” ist die Rede, wenn Sprachmodelle im Rahmen ihres Trainings einem Trainingsdatensatz nicht nur Informationen entnehmen, sondern sich nach dem Training (in spezifizierten Parametern) eine vollständige Übernahme der jeweiligen Trainingsdaten wiederfindet.
Neben den urheberrechtlichen Ansprüchen machte die GEMA auch Verletzungen des allgemeinen Persönlichkeitsrechts wegen fehlerhafter Zuschreibung veränderter Liedtexte geltend. Diese Ansprüche wies das Gericht jedoch ab – das Urteil konzentriert sich ausschließlich auf die urheberrechtliche Dimension.
Die Verteidigungsstrategie von OpenAI
OpenAI argumentierte:
- Die Sprachmodelle speicherten oder kopierten keine spezifischen Trainingsdaten. Die Parameter reflektierten lediglich, was die Modelle basierend auf dem gesamten Trainingsdatensatz erlernt hätten – eine statistische Repräsentation, keine konkrete Speicherung.
- Nicht die Beklagten, sondern die jeweiligen Nutzer als “Hersteller” der Outputs seien verantwortlich, da diese erst durch Nutzer-Prompts generiert würden.
- Zudem seien eventuelle Rechtseingriffe von den Schranken des Urheberrechts gedeckt, insbesondere von der Schranke für Text und Data Mining nach § 44b UrhG.
Diese Argumentation überzeugte das Gericht nicht.
Die Entscheidung: Memorisierung als Urheberrechtsverletzung
Kern der Verhandlung war nicht, ob ChatGPT die Texte zur Verfügung stellt. Das war von Beginn an unstreitig. Vielmehr ging es darum, was genau mit den Texten (im Rahmen des Trainings der Sprachmodelle) passiert.
Vervielfältigung durch Memorisierung im Sprachmodell
Das Gericht stellte fest, dass die Liedtexte reproduzierbar in den Sprachmodellen GPT-4 und GPT-4o memorisiert sind. Dies bewies das Gericht durch einen direkten Vergleich – ChatGPT gab die Texte auf Anfrage nahezu identisch wieder. Bei der Komplexität und Länge der Liedtexte schloss die Kammer Zufall als Erklärung aus.
Diese Memorisierung ist nach § 16 UrhG und Art. 2 der EU-Urheberrechtsrichtlinie (InfoSoc-RL) eine Vervielfältigung. Dabei ist unerheblich, dass die Texte nur als Wahrscheinlichkeitswerte in den Modellparametern vorliegen. Entscheidend ist die “mittelbare Wahrnehmbarkeit”:
Die Werke können mit technischen Hilfsmitteln – hier durch Prompts der Nutzer – abgerufen werden. Das genügt für eine urheberrechtlich relevante Vervielfältigung.
Vervielfältigung und öffentliche Zugänglichmachung durch Outputs
Auch die Ausgabe der Liedtexte durch ChatGPT selbst verletzt das Urheberrecht. Die originellen Elemente der Texte waren in den Antworten stets wiedererkennbar. Das Gericht wies dabei die zentrale Verteidigungslinie von OpenAI zurück: Nicht die Nutzer seien verantwortlich, sondern OpenAI selbst.
Die Begründung: OpenAI hat die Trainingsdaten ausgewählt, die Modellarchitektur entwickelt und ist für die Memorisierung verantwortlich. Die Nutzer-Prompts waren lediglich einfache Anfragen. Die Sprachmodelle selbst generieren den konkreten Inhalt der Outputs – sie sind die maßgebliche Ursache für die Urheberrechtsverletzung, nicht die Nutzer.
Text & Data Mining-Schranke: Warum sie nicht greift
Die urheberrechtlich brisanteste Frage des Verfahrens betraf die Anwendbarkeit der Text & Data Mining-Schranke (“TDM-Schranke”) nach § 44b UrhG. Das Gericht räumte zunächst ein, dass Sprachmodelle grundsätzlich dem Anwendungsbereich der TDM-Schranken unterfielen.
Die entscheidende Differenzierung: Extraktion von Informationen vs. Memorisierung von Werken
Allerdings: Würden beim Training der Sprachmodelle – wie im vorliegenden Fall – nicht nur Informationen aus Trainingsdaten extrahiert, sondern ganze Werke vervielfältigt, stelle dies kein Text und Data Mining im Sinne der Schranke dar. Die Voraussetzung des Text und Data Mining und der jeweiligen Schrankenbestimmungen, dass durch die automatisierte Auswertung von bloßen Informationen selbst keine Verwertungsinteressen berührt seien, greife in dieser Konstellation gerade nicht.
Im Gegenteil: Durch die gegebenen Vervielfältigungen im Modell werde in das Verwertungsrecht der Rechteinhaber eingegriffen. Die Kammer ließ keinen Zweifel daran, dass Memorisierung etwas fundamental anderes ist als die bloße Extraktion statistischer Muster oder Informationen.
Analogie mangels vergleichbarer Interessenlage?
Das LG München I prüfte auch, ob eine analoge Anwendung der TDM-Schranke in Betracht käme – und verneinte dies. Selbst wenn man eine planwidrige Regelungslücke annehmen wollte – weil dem Gesetzgeber die Memorisierung und eine damit einhergehende dauerhafte urheberrechtlich relevante Vervielfältigung in den Modellen möglicherweise nicht bewusst gewesen sei – mangele es an einer vergleichbaren Interessenlage. Bei Vervielfältigungen im Modell werde die Werkverwertung nachhaltig beeinträchtigt und die berechtigten Interessen der Rechteinhaber dadurch verletzt. Die Urheber und Rechteinhaber würden durch eine analoge Anwendung schutzlos gestellt.
Einwilligung der Rechteinhaber durch Veröffentlichung?
Der Eingriff der Beklagten in die Verwertungsrechte der Klägerin sei auch nicht durch eine Einwilligung der Rechteinhaber gerechtfertigt. Das Gericht stellte klar, dass das Training von KI-Modellen nicht als übliche und erwartbare Nutzungsart zu werten sei, mit der der Rechteinhaber rechnen müsse. Die bloße Veröffentlichung von Inhalten im Internet impliziere keine Zustimmung zur Verwendung für KI-Trainingszwecke.
Die Folgen: Unterlassung, Auskunft und Schadensersatz
Das Landgericht München I gab den von der GEMA geltend gemachten Ansprüchen im Wesentlichen statt. OpenAI wurde zur Unterlassung der weiteren Nutzung verurteilt, muss Auskunft über den Umfang der bisherigen Nutzung erteilen und Schadensersatz leisten. Die Entscheidung ist noch nicht rechtskräftig. OpenAI kann in Berufung gehen.
Einordnung und Ausblick: Ein Präzedenzfall für die KI-Branche?
Die Entscheidung des LG München I rückt die Vervielfältigung während des Sprachmodell-Trainings und somit die Differenzierung zwischen erlaubter Extraktion von Information und unerlaubter Memorisierung in den Fokus.
Es ist wahrscheinlich, dass OpenAI das Urteil anfechten wird und dieses Thema somit noch weitere Instanzen beschäftigen wird. Die letztliche Entscheidung könnte ausschlaggebend für die gesamte Thematik “KI und Urheberrecht” werden. Denn: Würde die GEMA auch in letzter Instanz gewinnen, so würde dies eine klare Linie dahingehend aufzeigen, dass Künstler (auch in Zeiten von KI) die Kontrolle über ihre Werke behalten.
Unter dem Strich würde dies bedeuten, dass Künstler (bzw. Urheber) der KI nicht, wie bisher oft befürchtet, schutzlos ausgeliefert wären. Es müsste nach wie vor die jeweilige Zustimmung eingeholt werden, und es gäbe die Möglichkeit für Künstler, Vergütung für die Nutzung zu erhalten. Die Frage, inwieweit einer KI jedoch durch die jeweiligen Daten Kreativität antrainiert werden kann und sie somit doch eine Bedrohung für Künstlerinnen und Künstler werden könne, bleibt hiervon allerdings unberührt.