Koalitionsvertrag 2025: Die Forderungen des Netzwerk Autorenrechte (NAR)

Für gerechte und datensouveräne Digitalstrategien, nachhaltige Kulturpolitik in der Ära von „KI“ und eine stabile Kreativwirtschaft

Die individuellen Mitglieder unserer Mitgliedsorganisationen umfassen rund 16.500 Urheber:innen, die in allen Genres (Belletristik, Sachbuch, Fachbuch, Ratgeber, Wissenschaft, Kinderbuch, Lyrik, Essayistik, literarische und wissenschaftliche Übersetzung) publizieren. Das Netzwerk Autorenrechte ist ehrenamtlich organisiert und vertritt seit 2016 die Interessen sowie die moralischen und ökonomischen Rechte der Urheber:innen im Buchsektor direkt an politische Entscheidungsträger:innen auf nationaler, europäischer und internationaler Ebene, als auch in Gremien und Institutionen (z.B. VG Wort Verwaltungsrat; PLR International; European Writers‘ Council, Deutscher Kulturrat, AI Act Code of Practice; Runder Tisch E-Lending BKM; Datenraum Kultur).

Ihre Ansprechpartnerinnen sind die politischen Beauftragten Nina George (Urheberrecht, Digitalmarkt), Janet Clark (e-Lending, Bildungspolitik) und Monika Pfundmeier (Kreativwirtschaft, Sozialstaat), sowie die Koordinatorin Dorrit Bartel, unter info{at}netzwerk-autorenrechte.de

Folgende fünf Vorschläge richten sich an die Arbeitsgruppen der Koalitionsvertrags-verhandlungen Arbeitspolitik – Digitales – Europa – Kultur – Recht – Wirtschaft – Familie/Bildung.

Sie beinhalten Vorschläge zu Abschnitten des geplanten Koalitionsvertrages, Textvorschläge sowie eine kontextuelle Begründung mit Fußnoten. Wir fokussieren uns auf den Umgang mit datenbasierten Systemen, sogenannter „Künstlicher Intelligenz“ im Zusammenhang mit den Urheber:innen in der Kultur- und Kreativwirtschaft, sowie grundsätzlich in Medien sowie dem Jugendschutz. Zum Gesamtpapier: Netzwerk Autorenrechte an Koalitionsvertragsverhandler_250314

Vorschlag 1: Zur Text und Data-Mining Ausnahme 44b UrhG.

Kultur- und Medienpolitik:   rechtliche Rahmenbedingungen; soziale Lage

Wirtschaft:      fairer Wettbewerb, Fachkräfte, KKW

Arbeit und Sozialstaat: Arbeitsmarkt, Altersvorsorge, Selbständige

 

Beim Urheberrecht setzen wir uns für die rechtliche Prüfung des Anwendungsumfangs der Text- und-Data-Mining-Ausnahme §44b UrhG auch unter Aspekten des 3-Stufen-Tests ein. Wir streben eine wirtschaftliche, arbeits- und sozialstaatspolitische Wirkungsmessung des Einsatzes von insbesondere generativer künstlicher Intelligenz auf die Teilmärkte und individuellen Akteure der Kunst- und Kreativwirtschaft an. Wir wollen die rechtliche sowie die Vergütungssituation für Urheber:innen verbessern, deren kreative und journalistische Inhalte bei der Entwicklung und Anwendung von sogenannter „Künstlicher Intelligenz“ verwendet werden, sowie die Durchsetzbarkeit der Urheber- und Vertragsrechte in digitalen Märkten stärken. Die im Jahr 2021 in Kraft getretene Reform werden wir u. a. im Hinblick auf Durchsetzbarkeit evaluieren.

Begründung:

(a) Seit zwei Jahrzehnten wird die professionelle Leistung von Schreibenden und Übersetzenden unvergütet und ohne Zustimmung verwertet, um datenbasierte Softwareprodukte der sogenannten „Künstlichen Intelligenz“ zu entwickeln und profitabel zu verbreiten. Weltweit arbeiten Unternehmen wie Oracle, Amazon, Alibaba, Google, Microsoft, OpenAI, Meta, Nvidia oder Apple seit Jahrzehnten an Textgeneratoren, maschinellen Übersetzungssystemen und synthetischer Vertonung von Text­werken. Die Werkssätze für die Entwicklung der Übersetzungs- und Selbstschreib­generatoren beruhen neben im Internet zugänglichen (gemeinfreien) Textwerken auf urheberrechtlich geschützten und digitalisierten Texten und Buchwerken aller Genres der Jahre 2001-heute. Die drei Korpora, die für das Learning der maschinellen Sprachprogramme genutzt wurden, Books1, Books2, sowie Books3, stammen aus illegalen Quellen[1]; der Hersteller des Programms ChatGPT weigert sich, transparente Auskünfte über den Datensatz zu erteilen, während Meta in dem Verfahren Kadrey v. Meta Platforms zugab, sich u.a. von Piraterieseiten Anna’s Archive und Library Genesis bedient zu haben[2].

(b) Die in der Richtlinie (EU) 2019/719 geschaffene Ausnahme für Text-und-Data-Mining (Art. 4(3)), implementiert als §44b UrhG für kommerzielle Zwecke, ist seit Inkrafttreten im Juni 2021 höchst umstritten. Sowohl haben deutsche MdEP wie Axel Voss oder Tiemo Wölken mehrfach und öffentlich bekräftigt[3], dass die TDM-Ausnahme nicht für die Entwicklung von Systemen gedacht war, die heute als „Generative KI“ bekannt sind und die Auslegung der TDM-Ausnahme von KI-Unternehmen dahingehend zu ihren Gunsten überinterpretiert wurde. Als auch ist in den internationalen Rechtswissenschaften anerkannt, dass in den verschiedenen Stufen – zwischen der Einholung, Vervielfältigung und Speicherung von Daten und Inhalten sowie der Entwicklung zu Basismodellen und von dort aus zu Anwendungen – zahlreiche urheberrechtlich relevante Prozesse beteiligt sind, die nicht durch die TDM-Ausnahme(n) gedeckt sind. Im Prinzip findet eine fortwährende Urheberrechtsverletzung statt, vergl. Dornis/Stober, August 2024[4].

Selbst wenn TDM „KI“-Entwicklung wäre, so ist die Ausnahme unter dem Aspekt des 3-Stufen-Tests eine Verletzung der genuinen Rechte der Urheber: Die umfassende Extraktion syntaktischer Informationen durch generative KI-Modelle muss als im Widerspruch zur „normalen Verwertung“ durch die Rechteinhaber, d. h. die Urheber eines Werks und in seltenen Fällen weiterer Rechteinhaber wie Verlage oder Verwertungsgesellschaften, stehend eingestuft werden. Das pauschale Kopieren eines Werks in seiner Gesamtheit steht im Widerspruch zu der Anforderung „bestimmter Sonderfälle“ des 3-Stufen-Tests. Daher kann das Training generativer KI-Modelle auch unter der TDM-Ausnahme ohne Zustimmung des Autors als Urheberrechtsverletzung eingestuft werden, vergl. Rosati[5].

(c) Es gibt weder standardisierte noch harmonisierte Mechanismen für den Rechtevorbehalt („opt-out“), der in erster Linie durch den originären Urheber erklärt werden muss. Und so es ihn gibt, werden keinerlei Bestätigungs-Prozesse durch Kollektoren, Kuratoren und Entwickler eingehalten; darüber hinaus weigern sich KI-Entwickler, die werksbezogenen, titelspezifischen Angaben verwendeter Daten, Werke oder Korpora zu veröffentlichen. Entsprechend kann auch jede/r, der einen Rechtevorbehalt ausspricht, weder sicher sein, ob dieser respektiert wurde, noch bei widerrechtlicher Benutzung auf ein „unlearning“ drängen, noch auf dieser Basis Lizenzverhandlungen eingehen.

(d) Die wirtschaftlichen und sozialstaatlichen Schäden durch den unautorisierten, unvergüteten und intransparenten Input und Output sog. „KI“ auf die KKW sind schlicht: erschütternd. Übersetzer, Grafiker und Sprecher haben je nach Genre Auftragseinbußen bis über 60% zu verzeichnen. Schriftsteller konkurrieren mit buchähnlichen Produkten, unautorisierten Maschinenübersetzungen oder sogar KI-Werken, die ihren Namen tragen, aber die sie nicht verfasst haben. Im Nachgang führen Einkommensverluste auch zu weniger Einzahlungen in die KSK, in Alters- und Krankenvorsorge, reduzieren Umsätze und damit Steuerzahlungen. Der gesamtvolkswirtschaftliche Schaden muss bemessen werden, die entstandenen Schäden und Rechtsverletzungen auf die Einzelakteure und die KKW-Teilsektoren durch KI-Entwickler geahndet. Nur so kann das intellektuelle Kapital Deutschlands erhalten bleiben, als Quelle der gesamten Wertschöpfung und als drittstärkster nationaler Wirtschaftsfaktor.

 

Vorschlag 2: Zu einer zwingenden Kennzeichnungspflicht für sowohl generative KI-Produkte als auch zur Offenlegung bei automatisierten Entscheidungsfindungen und beim Einsatz in öffentlich zugänglichen Informationsstrukturen.

Kultur- und Medienpolitik: Medien

Recht: Umsetzungen digitaler Verordnungen

Digitales: Infrastrukturen

 

Freie, unabhängige und vertrauensvolle Medien sind in unserer Demokratie unverzichtbar. Dazu gehören sowohl private und öffentlich-rechtliche Medien als auch Strukturen von Debattenforen, wie etwa soziale Medien und dezentrale Plattformen, sowie Kulturgüter und Bildungsangebote wie Buchwerke und audiovisuelle Medien.

Wir wollen vielfältige, vertrauensvolle und quellensichere Informations- und Meinungsfreiheit sichern und setzen uns für eine ausnahmslose Kennzeichnungspflicht für Medien-, Bildungs- und Kulturprodukte ein, die durch generative KI ganz oder teilweise produziert werden. Wir stärken Meinungsfreiheit und die digitale demokratische Debatte sowie eine datensouveräne und vielfältige Meinungsbildung nur durch die Förderung konzernunabhängiger, dezentraler und offener sozialer Netzwerke sowie Plattformen. Wir wollen Informations- und Meinungsfreiheit auch bei automatisierten Entscheidungsmechanismen sicherstellen.

 

Begründung:

(a) Es darf keine Vergütung für Maschinen-Outputs gezahlt werden – und automatisiert produzierte Produkte, die Medieninhalten, Kulturgütern oder Buchwerken ähneln, dürfen nicht deren Privilegien genießen, wie etwa einen reduzierten Mehrwertsteuersatz, durch die öffentliche Hand finanzierte Stipendien, Preise- oder Förderprogramme, oder durch eine Nichtoffenlegung zur KSK-Abgabe verpflichtete Unternehmen täuschen. Auch verwertungsgesellschaftliche Ausschüttungspraxen werden tangiert, wenn „KI-hergestellte Produkte“ nicht strikt offen gelegt werden: Ob METIS (Texte im Internet), Bibliothekstantiemen und Gerätevergütungen für belletristische oder wissenschaftliche Werke, Presseerzeugnisse und KI-vertonter Text und Synchronübersetzungen: Nur menschliche Urheber:innen oder Übersetzende haben einen Vergütungsanspruch für Urheberrechte und Leistungsschutzrechte. Bereits jetzt sehen sich Verwertungsgesellschaften veranlasst, KI-Detektoren entwickeln zu lassen, um nicht berechtigte Werke auszusortieren. Die dafür notwendigen Kosten werden von den Geldern, die Urheber:innen zustehen, entnommen; damit entsteht ein weiterer fortgesetzter Schaden.

(b) Darüber hinaus müssen sich Menschen vollinformiert entscheiden können, wofür sie ihr Geld ausgeben – für Maschinenprodukte oder für Kulturgüter und verantwortungsvoll gestaltete Medieninhalte. Eine Verwechslungsgefahr muss ausgeschlossen werden, entweder durch deutliche KI-Warnlabel oder durch „human made“-Hinweise, die für Qualität stehen.

 (c) Auf Stichwort reagierende Chatbots, Deep Fake-Videos, KI-generierte oder überarbeitete Bilder von entweder nie stattgefundenen oder verfälschten Ereignissen: Wir leben in einer von wenigen Kommunikationsmonopolen dominierten Informationsstruktur, deren „soziale Medien“ innerhalb weniger Stunden Wahlen manipulieren, Propaganda und Fake News verbreiten, und die Freiheit der Meinungsbildung mit Algorithmen einschränken; die bestimmt, was prominent und sichtbar ist. Es besteht dringender Handlungsbedarf, deutliche Kennzeichnungen durchzusetzen und die Arbeitsweise der Algorithmen dahingehend zu untersuchen, ob diese demokratie- und/oder jugendgefährdend sind. Dies gilt auch für Medien und öffentlich-rechtliche Anstalten, die z.B. maschinen-übersetzte Texte verbreiten. Nur so kann Vertrauen in die freien Medien erhalten und Verantwortung zugewiesen werden.

 

Vorschlag 3: Einsatz für ausnahmslose Transparenzpflichten seitens digitaler Technologie-unternehmen bei der Einholung von Daten und Werken, und zur Offenlegungspflicht bei der Entwicklung und Anwendung sog. „KI“.

Kultur- und Medienpolitik: rechtliche Rahmenbedingungen

Digitales: Datensouveränität; Innovationen und Infrastrukturen; Datenrecht

Europa: Digitale Wirtschaft; Bürgerrechte; Europäische Regulierungen

 

Digitale Schlüsseltechnologien wie datenbasierte Systeme von sogenannter KI benötigen den Zugang zu Daten, Werken und Materialien. Die Datenschutzgrundverordnung (DSGVO) ist eine solide internationale Standardsetzung für die deutsche Datensouveränität. Zur besseren Durchsetzung und Kohärenz des Datenschutzes verstärken wir zudem die europäische und internationale Zusammenarbeit und das Zusammenspiel europäischer und staatlicher Richtlinien und Verordnungen. Wir setzen uns dafür ein, dass Urhebern und weiteren Rechteinhabern von urheberrechtlich geschützten Daten, Inhalten und Werken bei der Einholung und Entwicklung von assistiven, analysierenden oder generativen Modellen datenbasierter Systeme werksbezogene Auskunft erteilt wird, um ihre gesetzlich verankerten Rechte durchsetzbar zu gestalten.

 

Begründung:

Die Entwicklung von großen datenbasierten Systemen, auch generative KI-Modelle genannt, erfordert massive Mengen an Werks- und Entwicklungsmaterialien, die zu einem erheblichen Teil durch Web-Scraping aus dem Internet, aber auch durch Einholung auf anderen Wegen inklusive von Übernahmen ganzer Werks-Korpora oder Repositorien beschafft werden. Weiterhin greifen diese sog. KI-Systeme auch während ihres Live-Betriebs auf Quellen und Leistungen von Urhebern aus dem Web zurück, um konkrete Anfragen zeitnah beantworten zu können; auch unter Umgehung von Nutzungsrechten oder Ignorieren von robots.txt Rechtevorbehalten auf z.B. Nachrichtenseiten.

Darüber hinaus ist es wesentlich, jegliche kontextuellen Inhalte eines Modells zu kennen – sei es um Bias, Diskriminierung und Unternehmenszensur zu erkennen, als auch algorithmische Entscheidungen im Falle von Diskriminierungen zu verstehen und zu eliminieren. Analog zu allen Produkten etwa in der Lebensmittel-, der Arznei – oder in der Fahrzeugindustrie, bei denen Inhalt, Quellen und Arbeitsweisen nachgewiesen werden müssen, um Risiken zu minimieren oder Verantwortungen nachzukommen, sollten auch KI-Produkte den höchsten Transparenzforderungen nachkommen.

Unabhängig davon, inwieweit (urheberrechtliche, nutzungsrechtliche) Rechtsansprüche bestehen, stellt sich jedoch die Frage, ob und wie diese geltend gemacht werden könnten – dies ist nur durch ausnahmslose, werkspezifische Transparenz und Dokumentation möglich. Zudem müssen Urheber und ggfs. weitere Rechteinhaber aufwandsfrei über die Quellen Auskunft erhalten, insbesondere wenn sie Rechtevorbehalte implementiert oder anderweitig adäquat kommuniziert haben.

Bisher haben sich, das zeigte sich auch in den teilweise intransparenten und willkürlichen Verhandlungen zum Code of Practice des AI Acts (EU), entsprechende Entwickler, Kollektoren oder Kuratoren gegen ihre Auskunftspflicht gewehrt, u.a. mit dem Hinweis auf zu hohen administrativen Aufwand oder auf „Geschäftsgeheimnisse“. Ohne titelgenaue, werkspezifische Angaben ist jedoch keinerlei Rechtsdurchsetzung von Urhebern möglich – weder, um ihre Rechtevorbehalte auf Respekt zu prüfen, noch um im Streitfall Evidenzen vorzulegen. Damit wäre der Bruch eines EU-Gesetzes im Raum, wenn Urhebern verweigert wird, ihre Rechte durchzusetzen.

Technisch ist es möglich und mit vertretbarem Aufwand umsetzbar, vor allem, aber nicht nur bei Quellen aus dem Web, alle Quellen zu dokumentieren und für eine Auskunft zur Verfügung zu stellen (vgl. Stober März 2025[6]). Um den Auskunftsanspruch durchsetzbar zu gestalten, ist auf technischer Seite trivial wenig nötig – was es benötigt, ist die Entschlossenheit der künftigen Koalition, sich auf die Seite der Urheber, aber auch jedes Bürgers, dessen Daten, Gesichter, Stimmen, Webprofile, Gesundheitsdaten, Kreditbewegungen, Arbeitsdaten usw. verwendet werden, zu stellen und ihre gesetzlichen Ansprüche durchsetzbar zu gestalten.

 

Vorschlag 4: Zur Errichtung von Durchsetzungsstrukturen bestehender Rechte im digitalen Raum und im Hinblick von sog. datenbasierten System „(KI“)

Kultur- und Medienpolitik: rechtliche Rahmenbedingungen

Digitales: Datensouveränität; Innovationen und Infrastrukturen; Datenrecht

Europa: Digitale Wirtschaft; Bürgerrechte; Europäische Regulierungen

Wir streben den Aufbau einer kohärenten Durchsetzungsstruktur zu Datenschutz, Urheberrecht, Menschenrecht und Persönlichkeitsrecht in digitalen Räumen, Märkten und Umfeldern an.  

Begründung:

Die datenschutzrechtlichen, persönlichkeitsrechtlichen, urheberrechtlichen sowie menschen-rechtlichen Verletzungen sowohl bei der Einholung, Herstellung als auch der Anwendung sogenannter „KI“, also datenbasierter Systeme, sind unzählig. Es gibt keine funktionierenden Durchsetzungsinstrumente für jene, deren Stimmen widerrechtlich gegen Daten- und Persönlichkeitsrechte[7]geklont und ohne Zustimmung in Audio-„KI“ verwendet werden, und die sich, wie Schauspielerin Emma Watson auf einmal als Lesestimme von Hitlers „Mein Kampf“ wiederfinden. Repressive Unternehmen nutzen datenbasierte Technologien, um unerwünschte Meinungen oder Weltanschauungen in den Sozialen Medien zu filtern, zu entfernen und ihre Urheber zu sanktionieren. Speziell Urheber in den Kultursektoren haben derzeit keinerlei Handhabe außer den persönlichen Weg über Gerichte, um Auskünfte einzuklagen oder die Verletzung von Urheber- und Nutzungsrechten, illegalem Datentransfer, oder die Reputationsschäden, die ihnen durch Fake-Werke, die illegitim ihrem Namen zugeordnet werden, zu verfolgen.

Zur Verbesserung von Durchsetzungen gehören u.a.: Schlichtungsstellen; Verpflichtungen an KI-Unternehmen als auch Informationsoligopolen, die in Deutschland agieren und Services anbieten, human contact points einzurichten sowie eine ladungsfähige Geschäftsadresse unter deutschem Recht zu installieren. Zudem müssen Verstöße auch geahndet werden können.

 

Vorschlag 5: Mehr digitale und Medienbildung, auch im Sinne eines nachhaltigen Jugend- und Kinderschutzes im digitalen Raum

Kultur- und Medienpolitik: rechtliche Rahmenbedingungen

Digitales: Datensouveränität; Innovationen und Infrastrukturen; Datenrecht

Familie/Bildung: Lernangebote; Kinder- und Jugendschutz

 

Wir wollen unsere Anstrengungen in der Jugend-, Kultur- und Bildungspolitik in einem gemeinsamen Rahmen zum informierten und demokratischen Umgang mit und in digitalen Räumen und im Zusammenhang von Anwendungen sog. KI erhöhen. Wir streben gemeinsam mit den Ländern eine digitalmedienpädagogische Früh- und Jugendbildung an. Wir prüfen die Möglichkeiten von verbessertem Kinder- und Jugendschutz im digitalen Raum.

 

Begründung:

(a) Das Einzige, was einem Technologie-Unternehmen im Jahr 2025 in Deutschland passieren kann, wenn es eine Anwendung auf den Markt bringt, die Kinder und Minderjährige mittels generativer Bild-Herstellung sexualisiert[8], ist, dass es damit viel Geld verdient. Niemand wiederum ermittelt effektiv, wenn Anwendungen generativer Technologien für das Erstellen und Verteilen von Deep Fake Porn auf Basis eines einzigen digitalen Porträtbildes missbraucht werden, um Individuen, hauptsächlich Frauen[9] und Jugendlichen[10], gezielt zu schaden und Scham, Demütigung und Suizidgefährdung[11] auszusetzen. Sogenannte „AI Companion“, die als Chatbot eine Interaktion suggerieren, nehmen Einfluss auf Befinden, Handlungen und Gedankenwege von Jugendlichen; es werden Fälle dokumentiert, in denen solche Chatbots Kinder und Jugendliche verbal demütigen, zum Stehlen und Lügen auffordern, und zu sexuellen Handlungen ohne Zustimmung auffordern. Zurzeit existieren 100 Programme dieser „AI Companion“ weltweit[12].

Andere Länder haben bereits das Eintrittsalter von Heranwachsenden beim Zugang zu Sozialen Medien und zu Smartphones erhöht, die UNESCO hat Empfehlungen zum restriktiven Zugang zu Chatbots gegeben, da die Auswirkungen von algorithmisch diktierter Informations-Unfreiheit und den Missbrauch von persönlichen Daten und Bildern, sowie die Gefährdung von Kindern und Jugendlichen durch Anwendungen insbesondere generativer Technologien sowie die zunehmende Nutzung von Smartphones als schwerwiegend und nachteilig eingeschätzt werden (vgl. 2024 Gui[13]).

 

(b) Ein frühzeitiger Zugang zu sozialen Medien als auch eine Gewöhnung an automatisierte Anwendungen wie Zusammenfassungen, Schreibgeneratoren und andere, haben einen direkten nachteiligen Effekt auf Lernfähigkeit, Konzentrationsfähigkeit und die Fähigkeiten, selbsttätig zu entscheiden. Neben den Auswirkungen für eine Demokratie ohne gelernte Kulturtechniken der eigenen Meinungsbildung, sind insbesondere die gravierend nachlassenden Lern- und Denkfähigkeiten für junge Intensivnutzer (vgl. 2023 Gerosa, Gui[14]) ein dringender Auslöser zum entschiedenen Handeln.

 

(c) Zu einer bundesweit eingeführten Digitalen Medienbildung ab dem Grundschulalter gehören sowohl die Vermittlung von Fähigkeiten, gefälschte Nachrichten und Bilder zu erkennen, die Strukturen von digitalen Medienkonzernen zu begreifen, als auch altersadäquat über die missbräuchlichen Aktivitäten, dem durch Algorithmen gezielt verstärkten Suchtpotential und den damit verbundenen Gefahren für die kognitive Leistungsfähigkeit durch Phänomene wie etwa das Tiktok-Brain (vgl. 2024, Klitzsch[15]) aufgeklärt zu werden.

Allgemeine Schlussbemerkung

Wir möchten darauf hinweisen, dass wir mit Besorgnis die Abwesenheit von Kultur im Sondierungspapier zur Kenntnis genommen haben. Sowohl etwa der „Kulturpass“ als auch das Projekt „Datenraum Kultur“ haben nachweislich positive Auswirkungen und Potentiale, und sollten auch weiterhin eine Rolle spielen, und sei es mit einer Anmerkung wie „Um die souveräne Digitalisierung und die Vernetzung der Kultur und Kreativwirtschaft zu fördern, bauen wir den Datenraum Kultur weiter aus.“

 

Darüber hinaus bedanken wir uns für Ihren Einsatz und wünschen Ihnen bei der Ausgestaltung einer gerechten, nachhaltigen und menschzentrierten Verantwortung für Deutschland eine ruhige Hand, weltoffene Voraussicht und Bereitschaft für das Finden der Gemeinsamkeiten, statt der Unterschiede.

 

 

Für das Netzwerk Autorenrechte am 14.3.2025:

Nina George                                                   Dorrit Bartel

Schriftstellerin, politische Beauftragte            Lektorin, Koordinatorin

 

[1] https://aicopyright.substack.com/p/the-books-used-to-train-llms

[2] https://casetext.com/case/kadrey-v-meta-platforms-inc-32

[3] https://www.theguardian.com/technology/2025/feb/19/eu-accused-of-leaving-devastating-copyright-loophole-in-ai-act

[4] https://www.nomos-elibrary.de/de/10.5771/9783748949558.pdf?download_full_pdf=1

[5] Elenora Rosati, No Step-Free Copyright Exceptions: The Role of the Three-step in Defining Permitted Uses of Protected Content (including TDM for AI-Training Purposes), unter  https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4629528

[6] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5165182

[7] https://iapp.org/news/a/voice-actors-and-generative-ai-legal-challenges-and-emerging-protections

[8] https://www.theguardian.com/technology/2025/feb/01/ai-tools-used-for-child-sexual-abuse-images-targeted-in-home-office-crackdown

[9] https://www.asc.upenn.edu/news-events/news/what-deepfake-porn-and-why-it-thriving-age-ai

[10] https://www.thorn.org/research/library/deepfake-nudes-and-young-people/

[11] https://english.elpais.com/technology/2024-10-25/the-harm-caused-by-ai-suicide-profiting-from-the-deaths-of-strangers-deepfake-porn-and-defective-products.html

[12] https://www.esafety.gov.au/newsroom/blogs/ai-chatbots-and-companions-risks-to-children-and-young-people

[13] https://journals.sagepub.com/doi/10.1177/0044118X231223218

[14] https://www.sciencedirect.com/science/article/pii/S0049089X23000704

[15] https://www.campus-schulmanagement.de/magazin/lernen-mit-tiktok-brain-negativer-einfluss-digitaler-medien-und-loesungsansaetze-michael-klitzsch

Die als Verheißung versprochene Zukunft von KI beruht auf Diebstahl
Netzwerk Autorenrechte führt Umfrage zur “KI” im Buchsektor durch – noch bis 15. Januar 2025

AKTUELLE NEWS