Urheberrechtliche Folgerungen aus der zunehmenden Verbreitung von Künstlicher Intelligenz (Az. 3600-II.76)
Berlin, 27. Februar 2026
Sehr geehrter Thomas Baiz, sehr geehrte Mitglieder der Bund-Länder-Arbeitsgruppe KI und Urheberrecht:
Das Netzwerk Autorenrechte, der Zusammenschluss von derzeit 15 deutschsprachigen Schriftsteller- und Übersetzerorganisationen aus Deutschland, Österreich und der Schweiz, bedankt sich für die Einladung der Bund-Länder-Arbeitsgruppe, den Fragenkatalog und dem Themenfeld gesetzlicher Regulierungsmaßnahmen und urheberrechtlichen Folgerungen zu sog. „KI“ zu kommentieren.
Präambel
Die derzeitig behandelten Herausforderungen, denen sich der Fragebogen widmet, sind lang verschleppte Wanderbaustellen. Die NAR-Arbeitsgruppe zu rechtlichen, wirtschaftlichen und kulturellen Auswirkungen digitaler Prozesse und fortgeschrittener Technologien (AG KI) ist seit 2019 aktiv, und wurde mit der ad-hoc Einführung durch den Mitgliedsstaat der Niederlande und auf Drängen der Microsoft-Allianz während des Trilogverfahrens der Ausnahme Art 4(3) der EU-Direktive 2019/790 zu Text- and Data Mining gegründet. Bereits in den Implementationsphasen der Richtlinie warnten wir davor, dass die „TDM-Ausnahme“ für kommerzielle Nutzung, umgesetzt in UrhG 44b, dazu führen kann, dass sich außereuropäische Unternehmen auf unsere Kosten Werke aneignen, die technische und rechtlichen Prozesse von TDM in ihrem Sinne überinterpretieren, um unsere Arbeit als kostenfreie Grundlage für die Herstellung konkurrierender Produkte zu verwenden.
Unglücklicherweise waren wir mit dieser klaren Vision der Technologiefolgeabschätzung dem Wissensstand der Ansprechpartner in Bundestag und den Häusern voraus, die zu dem Zeitpunkt unisono und mit den deutschen MdEP wie etwa Axel Voss oder Timo Woelken der Auffassung waren, dass es solche Technologien nicht gäbe, und zudem diese Ausnahme nicht so gemeint sein dürfe.
Ende 2023, ein Jahr nach der Einführung der datenbasierten Statistik, heute als „generative KI“ bezeichnete Anwendung ChatGPT bekannt, und auf Anfrage verschiedener Mitglieder des damaligen Bundestags sowie der zuständigen Häuser hat das Netzwerk Autorenrechte eine rechtliche, technische und marktwirtschaftliche Analyse zu den Auswirkungen von sog. „KI“ veröffentlicht[1].
Wir möchten Sie ermuntern, diese Analyse, gleichwohl sie bald drei Jahre jung wird, in Ihre weiteren Beurteilungen miteinzubeziehen, da sie auch die heutigen Herausforderungen luzide beschreibt.
Mittlerweile haben sich unsere Folgeabschätzungen mehr als bestätigt: Sie haben sich in einen dantesken Limbo skaliert, der uns als Quellen der gesamten Buchwertschöpfungskette massiv bei der normalen Verwertung unserer Werke schadet, als auch als ungefragte, unvergütete Organspender sog. generativer Technologien missbraucht, deren Anwendungen Produkte erschaffen, die Kulturwerke – tröstlicherweise von weiterhin mangelnder Qualität – simulieren, die ungebremst und ungekennzeichnet in unsere Märkte eindringen, sich urheberrechtliche Vergütungen und Privilegien von Kulturgütern erschleichen, und in Bereichen wie Übersetzung, Illustration oder vertonten Sprachwerken die Auftragslage professionell Schaffender radikal reduzieren. Ein System des maschinenlesbaren Rechtevorbehalts ist seit fünf Jahren dysfunktional, ist durch keinen originären Rechteinhaber im Buchsektor– den Urheber – auf seine Werke eigenständig applizierbar; und wo er durch Verlage im Auftrag des Urhebers in Metadaten, per TDM Rep, oder ISCC vermittelt wird, gibt es keinen harmonisierten Standard der Bestätigung durch einen „KI“-Entwickler. Die Weigerung der KI-Aufsichtsbehörde bei der Union („AI Office“), eine titelbasierte Auskunft zur Nutzung obligatorisch für KI-Entwickler zu verlangen, trägt dazu bei, dass wir unsere Rechte weder prüfen noch durchsetzen können. Man fragt sich, was die Gesetzgeberin antreibt, es einer eh verletzlichen Berufsgruppe, ohne die gleichzeitig keine Wertschöpfung möglich ist, doch gleich noch mal etwas schwieriger zu machen.
Generative, analytische und assistierende Informatik, Teilbereiche sogenannter „künstlicher Intelligenz“, attackiert heute noch mehr als 2023 Arbeitsplätze und Einsatzgebiete in der Buchbranche und wird Metiers und Berufsfelder mittelfristig (und nicht zum Besseren) ersetzen; sei es in den Bereichen Text, Lektorat, Korrektorat, Herstellung, Umschlaggestaltung, Illustration, Übersetzung, Auswahl und Bearbeitung von Original- und übersetzten Manuskripten, Hörbuchproduktion, Bewerbung und Vertrieb von Büchern. Bereits jetzt haben sich zahlreiche kriminelle „Geschäftsmodelle“ im Buchsektor entwickelt – mit Fake-Autoren, Fake-Büchern und auch Fake-Lesern. Es wurde nachgewiesen, dass die Grundlagen für große Sprachmodelle wie GPT, Meta, StableLM, BERT aus Buchwerken erzeugt wurden, deren Quellen Schattenbibliotheken wie Library Genesis (LibGen), Z-Library (Bok), Sci-Hub und Bibliotik sind – Piraterieseiten; die Klagen gegen Meta, Antrophic oder Open-AI haben bestätigt, dass sich Entwickler für ihre Large Language Models munter von widerrechtlich kopierten Werken bedient haben. Polemisch bezeichnen wir das als Schwarzmarktware – und sie steckt überall drin, selbst in behördlich verwendeten Modellen.
Wir stehen vor der Verwüstung der ehemals florierenden Kultur- und Kreativlandschaft, speziell im Buchsektor und den Autor:innen als die am häufigsten geplünderte Berufsgruppe für die weltweit über 1000 operierenden generativen Text-Anwendungen: Urheberrechtsverletzungen, Persönlichkeitsrechtsverletzungen, Datenschutzverletzungen, Klimaschädigung, Diskriminierung, Informations- und Kommunikations-Verfälschung, Identitätsdiebstahl, Reputationsschädigung, Blacklisting, Honorar-Betrug und Vergütungsbetrug bei Verwertungsgesellschaften, Missbrauch von staatlichen Zuwendungen und Schädigung von Sozialsystemen wie der KSK, Vertrauensverlust in Medien, Presse und Kulturwerken, Bildungskrisen, Verantwortungsdiffusion. Die gute Nachricht:
Mit dem Einsatz der Bund-Ländergruppe wurde all dies verantwortungsvoll erfasst. Es kann folglich nur besser werden.
Vor diesem Hintergrund übersenden wir unsere Antworten wie folgt (zum Download des gesamten Dokuments):
-
Wie bewerten Sie den Rahmen des geltenden EU-Urheberrechts für die kommerzielle Nutzung von urheberrechtlich geschützten Werken für generative KI-Anwendungen (insb. Art. 2 f. InfoSoc-RL, Art. 4, 15 DSM-RL) mit Blick auf folgende Ziele:
a. Durchsetzung und Verwertung von Urheber- und Verlagsrechten,
b. Rechtssicherheit,
c. Ermöglichung von Innovation und Wissensvermittlung,
d. weitere maßgebliche Ziele?
Netzwerk Autorenrechte:
Wir weisen darauf hin, dass die Prämisse dieser Frage im Lichte der seit bald drei Jahren stattfindenden juristischen und politischen Debatten den Fakten urheberrechtlich nicht gerecht wird. Der europäische Gesetzgeber hat mit in Art. 3 und 4 der Richtlinie 2019/790 (EU) keinesfalls eine Ausnahme zugunsten von GenKI-Entwicklern geschaffen, wie es Ihre Frage suggeriert.
Ob Text- und Data-Mining (TDM) gemäß Artikel 4 der RL (2019/790 (EU)) die Verwendung von Werken zur Entwicklung generativer KI in Grundsatz überhaupt abdeckt, ist mehr als strittig. Weder sind die technischen und urheberrechtlich relevanten Schritte von Text- und Data Mining identisch mit der Entwicklung fortgeschrittener Informatik wie etwa generativer Anwendungen, noch würde selbst dann, wenn es ein- und dasselbe wäre, der revidierten Berner Übereinkunft entsprechen, dass eine genutzte Ausnahme auf diese Weise die normale Verwertung eines Werkes so behindert. Es ist davon auszugehen, dass die gesamte Einführung dieser Schranke das Welturheberrecht bricht und den Grundsatz der Exklusivität von Rechten und Rechtevergabe durch den Urheber unterläuft.
Die KI-Grundverordnung der EU 2024/1689 („AI ACT“) in der verabschiedeten Version vom 21. Mai 2024 nimmt in ihren Erwägungsgründen und Vorbemerkungen zwar Bezug auf die Richtlinie, ohne jedoch diesen technischen und urheberrechtlich relevanten Aspekt formal zu klären. Wir sehen bereits entsprechende gerichtliche Auseinandersetzungen und erwarten, auch eine durch die Deutsche Bundesregierung vorwärts gebrachte Klärung durch die Europäische Kommission im Zuge der laufenden Evaluation der CDSM-Richtlinie als unabdingbar fällig in diesem Jahr.
Wir verweisen in dem Zusammenhang auf das am 5.9.2024 publizierte Tandemgutachten „Urheberrecht und Training generativer KI-Modelle – technologische und juristische Grundlagen“ hinsichtlich der Funktionsweise des KI-Trainings aus technischer und urheberrechtlicher Sicht von Prof. Dr. Tim W. Dornis (Universität Hannover) in Zusammenarbeit mit Prof. Dr. Sebastian Stober (Universität Magdeburg)[2], sowie auf die durch den Rechtsausschuss (JURI) des Europäischen Parlaments in Auftrag gegebene Studie durch Prof. Dr. Nicola Lucchi[3]. Auch diese unterstellt die Anwendbarkeit und Gleichsetzung von TDM zu (generativer) KI nicht, sondern vermutet ebenfalls einen Bruch der Berner Übereinkunft.
Zu a) Durchsetzung und Verwertung von Urheber- und Verlagsrechten,
Die Prüfung als auch die Durchsetzbarkeit dieser Rechte wurden aktiv durch den europäischen Gesetzgeber behindert, als auch durch die Passivität der deutschen Gesetzgeberin verunmöglicht. Auf dem Papier ist unser Recht durchaus geschützt. Doch in der Praxis bleiben Rechte wie etwa Vervielfältigung, öffentliche Zugänglichmachung, aber auch Handhabung gegen Plagiat oder Urheberrechtsverletzungen durch Piraterie sowie die im Unionsrecht niedergelegten Rechte auf Auskunft, Transparenz oder angemessene (und verhältnismäßige) Vergütung bei einer gewünschten Lizenzierung ohne Instrumente und Grundlagen einer Durchsetzbarkeit gegenüber „KI“-Entwicklern.
Weder gibt es zwischen der zumeist nicht-europäischen Tech-Industrie und den europäischen und deutschen Kultur- und speziell Buchsektoren ein Einverständnis oder eingeführte Praktiken zu a. Bestätigung des angebrachten Rechtevorbehalts; b. zudem keine Lizenzierungspraxen als auch übrigens keinerlei Anfragen durch Open AI, Meta, Microsoft, Nvidia, Alphabet, Anthropic und anderen bei opt-out; c. keine verpflichtenden Auskunftsmechnismen und d. keinerlei vergütungsrelevante Beteiligungsmechansimen; noch e. die für zivilrechtliches Vorgehen nötigen Transparenzbedingungen, die uns bekanntermaßen in der Aushandlung des Praxisleitfadens als auch der Vorlage („template“) weiterhin von der europäischen Gesetzgeberin verweigert werden. Uns fehlen titelbezogene Angaben zu verwendeten Werken und Daten, die gesammelt, vervielfältigt und verwendet wurden; wir benötigen außerdem Modellversionen, ihre technischen Kapazitäten, sowie einen Zeitstempel und Provenienz eingeholter Werke.
Gerade das letztere ist relevant, da davon auszugehen ist, dass sämtliche heute in Betrieb befindlichen Basismodelle und Systeme auf geschützte Buchwerke bereits weit vor 2021 und dem Inkrafttreten der RL 2019/790 (EU) sowohl eingeholt als auch vervielfältigt, verwendet, und für die weiteren Modellzyklen die Kopien nicht gelöscht, sondern gespeichert und wiederverwendet wurden. Sprachmodelle und ihre Basisfundamente müssen bei jedem Lebenszyklus, also z.B. von GPT 1 bis 4., von Grund auf neu gebaut werden. Entsprechend ist die Vermutung hoch, dass Werke sowohl vor dem 7. Juni 2019/2021 verwendet wurden als auch mehrfach und bis heute wiederverwendet werden.
Die Provenienz der Werke und Korpora ist insofern relevant, da es bestätigte Vermutungen gibt, die häufigste Quellen seien Piraterieseiten oder auf HuggingFace veröffentlichte Korpora wie Books3; als aber auch – und dies ist eine weitere Wanderbaustelle – es sich um Werkskörper handelt, deren Einzeltitel um Angaben wie Impressum, Metadaten und Rechtspräferenzen erleichterte (Buch)Werke beinhalten, die von Universitäten und Forschungseinrichtungen zur Verfügung gestellt wurden.
Gerade für wissenschaftliche, aber auch populärmarkt-orientierte Autoren, ist entsprechend die TDM Ausnahme Art 3 der RL 2019/790 EU fatal: So stellen Universitäten und Forschungseinrichtungen im Rahmen privatwirtschaftlicher Partnerschaften Korpora geschützter Werke, die zuvor unter der nicht-kommerziellen Ausnahme gedeckt waren und keinen Rechtevorbehalt durch Urheber erlauben, kommerziell agierenden KI-Unternehmen zur Verfügung. Ab da an würden diese Werke – eigentlich – 44b und dem Recht auf den opt-out unterliegen. Weder aber wird das je mitgedacht noch den wissenschaftlichen Autoren auch nur ein einziges Instrument, außer einem teuren Klageweg, an die Hand gegeben, in solchen sich maßgeblich häufenden Fällen ihre Rechte zu prüfen und durchzusetzen.
Zu b) Rechtssicherheit,
Wie dargelegt, ist die Auslegung der TDM-Schranken eine permanente Rechtsunsicherheit, auf dessen Basis keinesfalls z.B. weder internationale noch deutsche KI-Unternehmen ihre Geschäftstätigkeit aufbauen sollten.
Aus Sicht der Autoren als genuine Rechteinhaber und gedeckt durch rechtliche und technische internationale Studien, ist die Nutzung unserer Werke für die Entwicklung generativer KI nicht als bloßes Text- und Data-Mining anzusehen, entsprechend findet z.B. 44b keine Anwendung.
Im Grundsatz ist TDM die Extraktion von Informationen und Beziehungen unter Informationen. Aus Büchern zum Beispiel die Frage, wie sich das Bild des Juristen in der Zivilgesellschaft in Romanen und Fachbuch gewandelt hat. GenKI-Entwicklung jedoch verarbeitet das Werk als Ganzes, reproduziert sprachliche Ausdrucksformen und memorisiert und gibt Inhalte wieder; er kopiert den halben Grisham und verbindet ihn mit kopierten und zitierten Elementen von Fachbüchern aus dem Beck-Verlag.
Diese Nutzungen unterliegen der Exklusivität der Autoren und müssen lizenziert werden, unter Einhaltung von Regeln wie Freiwilligkeit, zeitlicher Limitation, Nutzungsauskunft mit skalierten Auskunftsrechten und finanzieller Beteiligungsgrundsätze.
Entsprechend sehen wir die Nutzung unserer Werke für KI als auch GenKI als lizenzpflichtig an, und beurteilen die verbreitete Praxis der Nutzung ohne Beachtung des ART-Prinzips (Autorisation, Remuneration, Transparenz) als zu ahnende Rechtsverletzung.
Rechtsunsicherheit entsteht nicht nur auf der sogenannten „Input“-Seite. Auch im Output: Einer der häufigsten „Prompts“ ist: Schreib mir im Stil von … Das Ergebnis sind reproduzierte Texte, die geschützte Werke partiell erneut öffentlich zugänglich machen. Auch dies erfordert eine Lizenz. Zudem werden normale Verwertungen, wie in der RBÜ niedergelegt, durch Buch-simulierende, synthetisch hergestellte Textwerke gestört und legitime Interessen unzumutbar beeinträchtigt; eine völkerrechts- und richtlinienkonforme Auslegung muss diese Systemgrenze berücksichtigen.
Zu c) Ermöglichung von Innovation und Wissensvermittlung,
Nicht die Technologie ist innovativ oder erstellt oder vermittelt gar Wissen. Die Quelle von intellektueller Innovation und fundiertem Wissen und der Transferfähigkeit ist immer der Mensch – selbst wenn dies durch den Intermediär-Effekt einer auf statistischer Datenbank beruhenden Wahrscheinlichkeits-Informatik in schicker Desktop-Eingabemaske präsentiert wird.
Wir möchten darauf hinweisen, dass es inzwischen quantitativ mehr Studien anerkannter Forschungseinrichtungen gibt, die die Versprechungen von Innovationen und Wissenstransfer durch „KI“ widerlegen als es beweisende Studien gibt, die diese Versprechen stützen.
Zu unterscheiden sind jedoch einerseits technologische Anwendungen, die z.B. die reine Organisation stützen; wie analytische Software oder RAG-Kataloge, die zu Quellen hinleiten; diese können in Forschungseinrichtungen, obgleich immer noch hoch fehleranfällig, die Arbeit so stützen, dass der Zugang zu Wissen strukturierter erfolgen kann.
Was sowohl die Wissenserarbeitung als auch den Wissenstransfer durch vergleichbare menschliche Lehrer angeht, raten wir von allzu viel Optimismus ab.
Wir schließen uns darüber hinaus der Aussage der Initiative Urheberrecht an, die zu dem Unterpunkt kommentiert: „Eine Praxis, die faktisch auf intransparenter, ungefragter und unvergüteter Nutzung beruht, gefährdet bereits jetzt die kreative und wissensbasierte Produktionsbasis in ihren Grundfesten. Lizenzierung (individuell und ergänzend auch kollektiv) ist der Weg, der Rechtssicherheit herstellt, Investitions- und Haftungsrisiken senkt und gleichzeitig rechtssicheren Zugang zu hochwertigen Trainingsdaten sichert.“
Uns ist es wichtig zu ergänzen: freiwillige Lizenzierung. Weder sollte es eine für Urheber mandatierte Lizenzpflicht geben noch eine über Pauschalsummen zu Globallizenzen manifestierte Lösung.
Mehr als die Hälfte der Autoren der Buchsektoren, insbesondere auch der akademischen und wissenschaftlichen Autoren, wollen grundsätzlich nicht, dass ihre Arbeit, Werke und Wissen in generativen Anwendungen genutzt und entwertet werden; d.h. sie werden auch nicht einer Lizenzierung zustimmen.
Der Rest der Autoren, der neutral bis vorsichtig neugierig einer Lizenzierung zustimmt, möchte dies unter zu verhandelnden Bedingungen, wie signifikante Vergütung, zeitlich und thematisch limitiert, ggfs nicht für marktorientierte KI-Anwendungen, und unter der Einhaltung von vertragsrechtlichen und gesetzlich verpflichtenden Anforderungen wie Angemessenheit, Proportionalität, Auskunftspflicht, Rückrufrecht und der Möglichkeit, vor einer Schlichtungsstelle (verpflichtend unter Unionsrecht, nie eingerichtet durch die Bundesregierung) diese Rechte durchzusetzen.
Zu d) ggf. weitere maßgebliche Ziele?
Der Grundsatz sollte sein, die Autor:innen und die gesamte Urheberschaft der Kultur- und Kreativwirtschaft nicht auf dem Altar einer Verheißung zu opfern – und uns übrigens auch nicht, pardon für das reißerische Bild, unter den Digitalen Omnibus zu werfen, der zurzeit überhastet und über seine eigentlichen Kompetenzen hinaus die wenigen Schutzmechanismen des Unionsrecht ebenfalls überfahren will.
Wir schließen uns des Weiteren hier der Initiative Urheberrecht an, Zitat: „Neben materiellen Rechten ist effektiver Rechtsschutz ein zentrales Ziel: Transparenzpflichten, Auskunft, abgestufte Offenlegung und wirksame Rechtsbehelfe sind notwendige Bedingungen, damit die urheberrechtlichen Exklusivrechte nicht bloße „Papierposition“ sind, wie es aktuell der Fall ist. Es bedarf eindeutiger Regelungen mit überprüfbaren Sicherungen, damit Nutzungen unter den Forschungsprivilegien nicht in kommerzielle Verwertungsketten überführt werden. Es muss ein striktes Verbot geben, unter den Forschungsprivilegien entwickelte Modelle in kommerzielle Nutzung zu überführen. Rechteinhaber müssen erkennen können, ob ein Betreiber tatsächlich privilegiert ist, ob Zwecke strikt wissenschaftlich bleiben und ob Modelle/Outputs nicht in Form legalisierter „Datenwäsche“ in den Markt gelangen.“
-
Wie bewerten Sie die Regelung des Art. 53 Abs. 1 Buchst. c KI-VO und den dazu erlassenen Praxisleitfaden mit Blick auf das Ziel, die Beachtung von Nutzungsvorbehalten nach Art. 4 Abs. 3 DSM-RL durch KI-Anbieter sicherzustellen?
Der Praxisleitfaden ist weder rechtlich bindend noch in seiner Gesamtheit dazu geeignet, Entwicklern oder Anwendern eine rechtssichere allgemeine Praxis beim Umgang mit UGW zu empfehlen.
Art. 53 Abs. 1 Buchst. c KI-VO ist zwar nett gemeint, da er die Bedeutung des Urheberrechts in den KI-Rechtsrahmen einbezieht – aber im Übrigen nicht Art. 3 und 4 der RL 2019/790 oder der InfoSoc final interpretiert, wie wir zuvor in diesem Dokument bereits dargelegt haben. In seiner Ausgestaltung ist Art. 53 als auch der dazugehörige CoP völlig ungeeignet, um die Beachtung von Nutzungsvorbehalten durch Entwickler als auch „Sammler“ als Zwischenhändler für KI-Entwickler zuverlässig sicherzustellen.
Art. 53 Abs. 1 Buchst. c KI-VO schweigt sich aus, wie genau Vorbehalte technisch dokumentiert und bestätigt werden müssen, welche Mindeststandards gelten, welche Folgen Verstöße haben; auch um diese Lücke drückt sich der praxisleitfaden (CoP) herum.
Weder legen diese als komplementär gedachten Instrumente die verpflichtende Veröffentlichung der unternehmensinternen Urheberrechts-Politik fest, noch werden Bedingungen für die Lieferung von Werkskorpora oder Daten von Dritten festgelegt, und damit eine Haftungskette verunmöglicht – und der geradezu fetischisierte Fokus auf robots.txt als Quasi-Standard eines Rechtevorbehalts, der für das Gros der Sektoren völlig untauglich ist und zudem von Crawlern unbeeindruckt ignoriert wird, ließ bei uns, die wir bei der Aushandlung des CoP dabei waren, den Eindruck entstehen, wir haben es erneut mit einem Wissensstand zu tun, der sich den Fakten als auch den Technologiefolgeabschätzungen erfolgreich widersetzt.
Wir raten unseren Autoren und Autorinnen übrigens trotzdem dazu, grundsätzlich einen TDM-Rechtevorbehalt (‚Opt-out‘) sowie zusätzliche Rechtevorbehalte gegen die Nutzung für generative KI (GenKI) auszusprechen bzw., in Abwesenheit praktikabler Opt-Outs, unabhängig von Verlag oder Distributor, diese Vertragspartner entsprechend schriftlich zu bitten, dies im Namen der Urheber als genuinen Rechteinhaber zu tun; gleichzeitig betonen wir, dass aus eben der GenKI-Nutzungsart ein neues Exklusivrecht entstanden ist.
Dementsprechend bedienen wir uns des TDM-Opt-outs als Schutzschild, bis die Rechtsfrage, dass TDM die GenKI-Entwicklung nicht einschließt, formal geklärt ist, und empfehlen den TDM-Rechtevorbehalt durch zusätzliche Formulierungen auch zu KI- und GenKI-Opt-outs – das Vokabular erklärt sich daraus, dass all diese Nutzungsformen getrennte Rechte sind. Wir erkennen die Überinterpretation und Gleichsetzung von TDM und KI/GenKI-Entwicklung nicht an.
Grundsätzlich aber, neben der totalen Dysfunktionalität eines Systems, dass den Autoren als Rechteinhaber anbietet, ihren Rechtevorbehalt individuell und ohne technischen Support ihrer Vertragspartner auszusprechen, ist ohne Bestätigung bzw. Überprüfbarkeit einer Anerkennung „maschinenlesbare Rechtevorbehalt“ zu einem Risiko- und Lastenmodell für uns geworden. Solange KI-Entwickler oder „Daten-Intermediäre“ nicht rechtlich bindend zu Auskunft gezwungen sind oder wenigstens zu einer Erläuterung ihrer Urheberrechtsstrategie, auf die wir uns beziehen können, oder als Mindeststandard ebenso die Last haben, alle Werke auf jegliche Form und Formate eines Rechtevorbehaltes VOR Verwendung zu prüfen – können wir nicht tätig werden.
Als Urheber verlangen wir die Rückkehr zu dem Opt-In-Modell, wie es in Dänemark und im Vereinigten Königreich derzeit diskutiert wird und in Australien bereits Gesetz ist.
Hingegen raten wir dringend ab, sich auf das Einrichten einer „Registratur“ für Rechtepräferenzen bspw. bei der EUIPO einzusetzen. Es darf keine technische Hürde geben, um ein Werk zu schützen.
Sofern sich eine Art „Rechtekatalog“ bei der EUIPO entwickelt, sollte dieser erstens freiwillig für Urheber und ggfs. weitere Rechteinhaber sein, und verpflichtende Mechanismen für KI-Entwickler beinhalten, die Anerkennung dieser Rechte auszusprechen. Ansonsten rufen wir weiter in den digitalen Raum: Finger weg!, und werden nie erfahren, ob wir gehört werden: Das ist kein Zustand, in dem uns die Gesetzgeberin verbleiben lassen sollte.
-
Wie bewerten Sie die Regelung zur Transparenzpflicht nach Art. 53 Abs. 1 Buchst. d KIVO mit Blick auf das Ziel, Rechteinhabern die Ausübung und Durchsetzung ihrer Rechte zu erleichtern (ErwGr 107 KI-VO)?
Erwin Schrödinger wäre begeistert.
Art. 53 Abs. 1 Buchst. d KI-VO spricht von einer „hinreichend detaillierten“ Zusammenfassung genutzter Werke, mit dem Ziel der Rechteausübung und Rechtsdurchsetzung. Hier lebt Schrödingers Katze in Form der Anerkennung unserer Rechte noch. Gleichzeitig kann eine Zusammenfassung im Zivilprozess niemals ausreichen, eine Klage zu untermauen, was der Freisetzung der Radioaktivität in Schrödingers Box gleichkommt – seine Katze ist mausetot.
Die strikte, beratungsresistente Weigerung des europäischen AI Office, eine titelgenaue Vorlage zu verlangen, essenziell gerade für Buchautoren, aber auch andere Gewerke, verhindert aktiv unsere Rechtsdurchsetzung und belässt die zentrale „Black-Box“ samt vielleicht lebendiger, vielleicht toter Feline, ungelöst im Raume steht.
Titelspezifische und werkbezogene Transparenz ist übrigens weder technisch unmöglich noch wirtschaftlich eine unzumutbare Bürde. Es gehört zur täglichen Routine von KI-Laboren, mit Dateninventare anzulegen, mit Provenienz- und Qualitätsfiltern, Hashing/Signaturen und Dataset-Versionierung, um nur einige Routinen anzuführen. Es ist geradezu trivial, entsprechend werksbezogene Inhaltsangaben aufzustellen; hier verweisen wir auf die wissenschaftlichen Untersuchungen von u.a. Sebastian Stober, der nachwies, wie eine fein-granularere Dokumentation technisch und kostensparsam aufzusetzen wäre. Was die Gesetzgeberin nur tun müsste, ist, dies zu verlangen. Wir gehen davon aus, dass neben toter Katzen mehrere Millionen UGW zu finden sind, mit als auch ohne opt-out, und sehr wahrscheinlich, da generative KI strategisch seit über 20 Jahren entwickelt wird, Werken, die weit vor der TDM Ausnahme sowohl eingeholt als auch verarbeitet, und bis heute kopiert und erneut verwendet werden.
Als Alternative, um dem Schrödinger-Effekt zu entgehen, wäre, nach französischem Vorbild, die Einführung der widerlegbaren Vermutung: Kann ein KI-Entwickler nicht nachweisen, ein Werk nicht benutzt zu haben, ist davon auszugehen, er hat es benutzt.
-
Wie bewerten Sie das geltende deutsche und europäische Urheberrecht in Bezug auf die Haftung für Urheberrechtsverletzungen im Output generativer KI-Systeme, insbesondere in Bezug auf die Passivlegitimation?
Bestenfalls lückenhaft.
Die gesamte Verantwortungskette ist in den Verhandlungen auch des CoP diffundiert, ein zugegebenes Ziel von nicht-europäischen Technologieunternehmen. Zurzeit sind weder Anbieter noch Entwickler in der Verantwortung noch Downstreamer noch Deployer; auch Fine-Tuner ziehen sich aus der Verantwortung. Und wie sieht es aus mit Plattformen, die Korpora anbieten, oder Drittanbietern, die als „Datenhändler“ aktiv sind, welche Rolle spielen API-Integrator oder ist gar der Endnutzer jener, auf den sich alle stürzen (und der derzeit von Modell- und Applikationsanbietern nicht gewarnt wird, dass er sehr wahrscheinlich eine Urheberrechtsverletzung begeht, sollte er kommerziell den Maschinenoutput verwerten wollen)?
Auch hier sehen wir eine Lücke zwischen adäquaten Papiergesetzen, die Gültigkeit haben, und der Durchsetzung, in Ermangelung von Instrumenten und zusätzlichen Legislativen. Unterlassung, Auskunft, Schadensersatz sind Rechtsmittel, die anwendbar sind – doch gegen wen? Das Urteil des LG München I im Verfahren GEMA ./. OpenAI machte deutlich, dass immerhin Gerichte KI-Anbieter als passivlegitimiert ansehen, wenn das System urheberrechtsrelevante Outputs ermöglicht, die nahezu wortgetreue Wiedergaben erstellen.
Hat ein Autor keine GEMA hinter sich, die solche Klagen, die bis zwischen einer halben und einer Million Euro Minimum an Finanzierung bedürfen, steht er hilflos da. Auch, da es bis heute kein deutsches Verbandsklagerecht für Kollektivklagen gibt; nur qualifizierte Einrichtungen könnten für mehr als einen Urheber klagen. Und von diesen ist kein einziges in Deutschland laut Satzung berechtigt, bei urheberrechtsrelevanten Schäden eine Klage durchzuführen.
-
Sollte das Urheberrecht durch Zuerkennung von Rechten Anreize setzen, generative KI zu entwickeln, zu trainieren, zu vertreiben und zu verwenden sowie dessen autonom erzeugten Output zu verwerten?
Nein.
Die Begründung folgt dem harmonisierten EU-Konzept eines „Werks“: Das Urheberrecht schützt originelle geistige Eigen-Schöpfungen, die die Persönlichkeit ihres menschlichen Urhebers durch freie und kreative Entscheidungen widerspiegeln: Die “Schöpfungshöhe”, die sowohl das Werk als insbesondere die Erstellung eines Werkes und seine willentliche, eigene Entscheidung für jeden Schritt charakterisiert. Wie man auch in jüngster deutscher Rechtsprechung – das Urteil des Landesgerichtes München zur Schutzfähigkeit drei geprompteter Logos – ersieht, kommt das Erteilen von Anweisungen an eine KI eher der Beauftragung einer anderen Entität als der tatsächlichen Schaffung eines Werks durch seinen Urheber gleich.
In der gesamten EU ist das Urheberrecht ein “Authors’ Right”, also anthropozentrisch geprägt, als Anerkennung der persönlichen, moralischen und geistigen Fähigkeiten und Rechte eines Menschen; so, wie es auch die revidierte Berner Übereinkunft proklamiert.
Das französische Recht etwa schützt „geistige Werke” und seine Paternität, den menschlichen Autor. Das italienische Recht verlangt den „kreativen Charakter” des Urhebers. In Deutschland kennen wir den Begriff der Schöpfungshöhe, der impliziert, dass etwas erstens eigenständig, und zweitens in einer gewissen Originalität selbst und mit voller Urheberschaft, implizierend auch mit Pflichten der Sorgfalt und Anerkennung Rechter Dritter, geschaffen wird. Auch der Originalitätsstandard des EuGH verlangt eine menschliche geistige Schöpfung, die die Persönlichkeit des Urhebers durch „freie und kreative Entscheidungen” widerspiegelt. Sogar die USA, ansonsten nicht kleinlich mit dem Business for Anstand, haben eine ähnliche Position pro Autorenschaft eingenommen: Das Copyright Office und die Bundesgerichte vertreten die Auffassung, dass eine bloße Aufforderung (prompt) keinen Anspruch auf Urheberschaft begründen kann – KI-generierte Werke sind nicht urheberrechtlich geschützt.
Und sollten es auch nicht werden; selbst dann nicht, wenn in der Logik einer Lizenzkette entsprechend die ursprünglichen menschlichen Autoren, deren Arbeit und Werke von Technologien (vergütungsfrei, ohne Zustimmung) verwendet wurden, um synthetische Produkte zu schaffen, von den Erlösen entsprechend vergütet würden.
Eine Software schafft weder intrinsisch noch anlasslos ein schöpferisch eigenes Werk. Urheberrechte implizieren auch Urheberpflichten, wie etwa Autonomie, aber auch Verantwortung für das beispielsweise geschriebene. Entsprechend ist einer Software keinerlei Urheberrecht zuordnungsbar.
Das Bestehlen von Menschen sollte wirklich nicht auch noch belohnt werden – so pervertiert kann kein Gesetzgeber sein, die einen ohne Bezahlung auszubeuten, und den Ausbeutern und Nutzern dafür weitere Privilegien zu verschaffen.
-
Sollte der in Deutschland bestehende lückenhafte Erwerb von Leistungsschutzrechten (verwandte Schutzrechte nach §§ 70 bis 95 UrhG) an KI-Erzeugnissen beibehalten oder in die eine oder andere Richtung gesetzlich korrigiert werden (Erweiterung, Beschränkung oder Streichung)?
Die meinungstendenziöse Prämisse einer „Lückenhaftigkeit“ ist unserer Auffassung nach weder gegeben noch erfordert sie eine Schließung.
Eine Erweiterung zu einem Leistungsschutz für KI-Outputs bedeutet das Ende des zivilgemeinschaftlichen Vertrags über die Anerkennung menschlicher Leistung und schutzberechtigter Werke aus geistiger Arbeit. Es wäre das Ende der Ära der Aufklärung, in der anerkannt wurde, dass der Mensch und ausschließlich der Mensch, zu Schaffenskraft befähigt ist.
Aus rein praktischer Sicht würde darob kein Problem gelöst werden – weder die öffentliche Zugänglichmachung geschützter Werke durch Output, noch mangelnde Affirmierung der Urheber der wiedergegeben Werke, noch ein verpasster Vergütungsanspruch durch entgangene Lizenzierung etc. Instrumente wie Privatkopievergütungen kann man zu den Akten legen, das Verwertungsgesellschaftengesetz gleich dazu, und Kulturfördermaßnahmen braucht auch keiner mehr, da die Abgrenzung zwischen Menschlicher Schöpfung und Maschinenprodukt durch die Zuerkennung eines für den Menschen konzipierten Rechtes aufgehoben wird.
Wir schließen uns hier der Forderung der Initiative Urheberrecht an, Zitat: „Sinnvoll ist vielmehr eine gesetzliche Klarstellung und klare Beschränkung auf Dateneigentumsrechte, um Missbrauchs- und Umgehungsstrategien (massenhafte automatisierte Output-Erzeugung mit anschließender Rechtebehauptung) auszuschließen. Gleichzeitig müssen die bestehenden verwandten Schutzrechte dort gesichert werden, wo sie an eine menschliche Leistung anknüpfen“.
-
Wenn ja, für welche der verwandten Schutzrechte und mit welcher Begründung?
Einfach nein. Bitte.
-
Sollte ein allgemeines Leistungsschutzrecht für die Entwicklung und Ausbildung generativer KI eingeführt werden?
Mit welcher Begründung? Hier wird nichts geleistet, dass den schutzfähigen menschlichen Leistungen, Werken oder Ausübungen auch nur ansatzweise nah kommt.
-
Wenn ja, worin wird hierfür ein Bedürfnis gesehen?
Vermutlich werden jene, die sich auch bisher munter von Arbeitszeit, Investition und UWG kostenfrei bedient haben, eine gut klingende Antwort parat haben.
-
Wer soll Inhaber dieses allgemeinen Leistungsschutzrechts sein?
Vermutlich werden jene, die sich auch bisher munter von Arbeitszeit, Investition und UWG kostenfrei bedient haben, eine gut klingende Antwort parat haben.
-
Wie bewerten Sie die derzeitige Rechtslage hinsichtlich der Vergütung von Rechteinhabern bei der Nutzung geschützter Werke durch KI-Systeme?
Die derzeitige Rechtslage, vor allem dank mangelnder flankierender Instrumente zur Durchsetzung, ist nicht konstruiert, um zu verhandelbaren angemessenen, verhältnismäßigen und den Transparenzpflichten wie im UrhVR festgelegten Normbedingungen, im Bereich der Nutzung von UGW für KI und GenKI-Entwicklung beizutragen.
Das liegt aber nicht unbedingt primär an der Rechtslage, obgleich sicherlich die Ursünde vergütungsfreie Ausnahme in §44b eine Rolle spielt, inklusive der Überinterpretation einer Technik wie TDM als Begünstigung für GenKI-Entwicklung. Eine Umwandlung in eine (pauschal) vergütete Schranke hülfe dabei übrigens nicht. Zur Erläuterung: Weder haben Buchautoren bisher explizit KI- oder GenKI-Rechte an Verlage vertraglich als Nutzungsrechte übertragen, die in ihrem Namen entsprechend Lizenzverhandlungen führen könnten.
Davon ab sind auch KI-Entwickler nicht auf die Idee gekommen, Lizenzen einzuholen oder sich darum zu bemühen, bereits benutztes Repertoire im Nachgang zu lizenzieren.
Diese Unterlassung wird ihnen maßgeblich vom Unionsrecht als auch deutschem Recht erleichtert: weder müssen KI-Modellentwickler und Anbieter Auskunft über Werke geben, noch lassen sie sich dank Schrödingers Template in die KI-Kästen schauen, ebenso brauchen sie keine Bestätigungen des Opt-Outs eines Werkes angeben, und auch sonst können sie sich in Abwesenheit von Verbandsklagerecht oder überhaupt eines Verhandlungstisches über Lizenzgebühren, entspannt zurücklehnen. Verschiedene Forschungen wiesen im Übrigen nach, dass weitaus weniger an neuem Human-made-Material gebraucht werden wird; das Buffett ist ausreichend abgeräumt, Ausnahmen stellen maximal die KI-Zusammenfassungen von Presseerzeugnissen dar, die nahezu zeitgleich wie die Meldung online erscheint, sie bereits abgrasen, veröffentlichen, und die Visits auf der Zeitungsseite verhindern.
-
Sollte zur Verbesserung der rechtlichen Lage der Rechteinhaber hinsichtlich der Vergütung für die Nutzung von geschützten Werken durch KI-Systeme
a. der Fokus auf einen besseren Schutz vor der Nutzung gerichtet werden? Wenn ja, begründen Sie dies bitte.
Ein technisch motivierter „closed garden“ ist Symptomsbekämpfung, geht aber nicht auf die Ursachen ein, sondern ersetzt eine Herzoperation durch ein Bärchenpflaster.
Wir müssen an das Herz heran: An mangelnde Instrumente, um ein Papierrecht in einen Rechtsschutz umzuwandeln. Dazu gehören Schutz durch titelgenaue Transparenz, Erleichterung für Urheber und weitere Rechteinhaber der Prüfbarkeit, starke Sanktionierbereitschaft unautorisierter Nutzung auch durch die Gesetzgeberin und Gerichte, reale Beweis- und Auskunftsmechanismen; des Weiteren Instrumente zu kollektiver Verhandlung, Verbandsklagerecht, Marktzugangsbeschränkung für Systeme und Modellanbieter, die diese Bedingungen nicht erfüllen.
b. der Fokus auf die Erzielung einer angemessenen Vergütung der Rechteinhaber für die Nutzung gerichtet werden? Wenn ja, begründen Sie dies bitte.
Als ökonomisch traditionell marginalisierte Berufsgruppe, der angemessene Vergütung sehr wohl und abstrichlos wichtig ist, müssen wir dennoch feststellen, dass es mit Vergütung allein nicht getan ist.
Wir wollen aktiv Ja sagen, nicht darum ringen, dass unser Nein respektiert wird.
Kurz: wir müssen zurück zur Anerkennung des Exklusivrechtes statt missverstandener Schranke. Danach sollten wir über die Bedingungen, inklusive der Frage nach Angemessenheit, sprechen.
Erst unter der Maßgabe einer Freiwilligkeit, in der der Urheber von Fall zu Fall und ohne Druck durch Vertragspartner oder Gesetzgebung entscheiden kann, ob und was er unter welchen Bedingungen freigibt zu einer limitierten und unter vertragsrechtlichen Bedingungen beachtenden Nutzung, ist eine Debatte über Vergütung möglich. Dazu gehören Transparenzvorschriften, Rückrufrechte, Nachverhandlungen; der ganze schöne Katalog an Rechten, die wir zwar auch schon im normalen Fall schwer durchsetzen können, aber die dennoch eine klare Leitlinie und einen Schutz manifestieren. Weiteres unter Fragenkomplex Nr. 14b.
-
Wie bewerten Sie in Bezug auf vorstehende Frage die Forderung nach a. einem umfassenden „KI-Verwertungsrecht“ für Rechteinhaber?
b. einer umfassenden „KI-Schranke“ flankiert von einem gesetzlichen Anspruch auf angemessene Vergütung.
Unserer Auffassung nach haben wir ein KI-Verwertungsrecht bereits – unter der Auffassung, dass TDM nicht gleich KI-Entwicklung ist und unsererseits freiwillige Lizenzierungen mit aktiver Zustimmung und Verhandlungsspielraum die Pflicht sind, nicht die opt-out-gesteuerte Kür.
Ebenso sehen wir es so, dass zunehmende Derivate, entstanden durch „KI-features“ etwa durch Amazon, die Zusammenfassungen und KI-gesteuerte interaktive digitale Adaptionen unserer Werke erstellen, eigentlich bereits eine Nutzungsform sind, die im „normalen“ Buchsektor lizenzierungspflichtig sind, ganz und gar unabhängig von der TDM-Frage.
Eine indirekte Klärung der umstrittenen Auslegung von TDM durch ein eingeführtes „KI-Verwertungsrecht“ ist jedoch vorstellbar, sofern die verschiedenen Verwendungen in der KI-Nutzungskette (Datensammeln, Entwicklung, Vervielfältigung und Verbleib im Modell und Wiedergabe im substituierenden Output) mitgedacht werden. Sinnvoll wäre allenfalls ein zielgenaues, klar konturiertes Recht (Training/Bestandteile/Prozesse), das nicht in Konflikt mit Forschungsausnahmen gerät und nicht zu unklaren Lizenzpflichten führt.
Eine KI-Schranke ist keinesfalls eine Alternative.
Vielmehr sollten freiwillige individuelle und kollektive Lizenzen in Variationen zu verschiedenen Sektoren etabliert werden. Ein reines Schrankenmodell kann zu maximal frugalen Vergütungen führen und in Konsequenz das Kultur- und Literaturschaffen nur noch für wohlhabende Eliten ermöglichen.
-
Welche Probleme sehen Sie im Hinblick auf die jeweiligen Forderungen in Bezug auf die
a. Aufrechterhaltung/Schaffung innovativer KI-Systeme und/oder deren Einsatzmöglichkeiten in Deutschland bzw. der Union?
Wir können nicht nachvollziehen, worin genau eine technische Weiterentwicklung gehemmt wird, wenn Unternehmen die Rechte Dritter respektieren. Das würde implizieren, dass auch Arbeitsrechte oder Antidiskriminierungsrechte oder Persönlichkeitsrecht Innovationen hemmen, da auch diese einem zivilgesellschaftlichen Zueinander und Miteinander unterliegen.
Dieses Narrativ des Ausspielens von Unternehmesinteressen und legitimen Menschenrechten und anhängender Marktordnungspolitik, dürfte sich mehrfach widerlegt haben – allein schon durch die Tatsache, dass Innovationen florieren durch IP-Systeme, inklusive Marken und Patenrechte, oder eben Urheberrechte.
Es dürfte bekannt sein, dass nicht das Urheberrecht das Problem ist, sondern die Weigerung, Budgets aufzustellen und sich den Mühen der Verhandlungen auszusetzen. Gleichzeitig ist gerade der Buchsektor geschmeidig und erfahren, für alles eine Lizenz zu bauen, sei es individuell, über Verlage, oder kollektiv.
b. zu realisierende, individuelle Höhe einer Vergütung?
Sollte sich der Aspekt Angemessenheit der Vergütung unter freiwilliger, individueller Lizenzierung verdichten, so muss allerdings klar sein, dass eine Lizenz für kommerzielle z.B. Textrobotik, anderen Kalkulationen folgt wie eine Adaption eines Textwerkes in z.B. Hörbuch, Drama, Übersetzung.
Adaptionen und Weiterverwertungen haben immer einen Benefit, den sie mit sich bringen – nicht-finanzielle wie Reputation, Erschließung neuen Publikums, als aber auch finanzielle, wie Preise, Stipendien, Verkäufe, Anschlussaufträge, bezahlte Auftritte usw.
Eine Verwendung in der Textrobotik bietet diese Anreize und finanziellen Zugewinne nicht.
Sie fördert weder Namen noch Reputation, erschließt keinerlei neues Publikum oder Märkte, sie bringt effektiv rein gar nichts für den Urheber, was rechtfertigt, dass eine Lizenzsumme als Vorschuss im auskömmlichen unteren Bereich verbliebe – aber alles für den KI-Entwickler, was er benötigt. Ohne eine jegliche Investition, weder finanziell noch intellektuell noch zeitlich.
KI-Modelle nehmen das, was in einem Buch steckt, um entstanden zu sein: Arbeitszeit, Investition des Urhebers, Investitionen der Infrastrukturen wie Verlag und Handel, aber auch Staat durch Kulturfördermittel; zudem Qualität, Erfahrung und das Werk als solches.
Unter diesen Gesichtspunkten ist Angemessenheit deutlich mehr an dem Investitionsanteil eines Buches zu messen als nur am Werk.
Ein Hinweis: Das Netzwerk Autorenrechte taxiert eine angemessene Lizenzgebühr mit Wiederholungseffekt, auf 60.000 Euro pro Roman (Belletristik) als Leitpunkt – und nur für den Urheber. Zusätzlich kommen Investitionen der Verlage, des Staats und seiner Infrastruktur zur Vielfalt und Ermöglichung des Buchmarktes und seiner Autoren hinzu.
c. Durchsetzung des Vergütungsanspruchs?
Die Durchsetzung ist traditionell kein Spaziergang, bereits vor der „KI“-Ära. In allen Fällen bzgl der KI-Nutzungsrechte, sei es als kollektiver Pauschalanspruch für In- oder Output, wo es im Schnitt 9-13 Jahre dauert, bis ein identifizierter Vergütungsschuldner bereit ist zu zahlen, sei es über freiwillige, individuelle Lizenzierung, die wir bevorzugen, sei es als kollektive Lizenzierung über VG, die Zweitrechte administrieren, die bekanntlich ebenfalls eher symbolisch und eher eine Kompensation ist. In allen Fällen muss titelgenaue Transparenz und über Modellversionen, Datenlieferketten, Anwendungsfälle, Weiterlizenzierung usw. herrschen. Also genau das, was verweigert wird.
Verantwortlich für die Antworten des Fragebogens: Nina George.
[1] https://www.netzwerk-autorenrechte.de/die-als-verheissung-versprochene-zukunft-von-ki-beruht-auf-diebstahl/
[2] https://urheber.info/diskurs/ki-training-ist-urheberrechtsverletzung
[3] https://www.europarl.europa.eu/RegData/etudes/STUD/2025/774095/IUST_STU(2025)774095_EN.pdf













