Die als Verheißung versprochene Zukunft von KI beruht auf Diebstahl

Anwendungen von fortgeschrittener Informatik („KI“) im Buchsektor

Gesetzlich nötige Weichenstellungen zum Umgang mit „KI“.

Berlin, 4. September 2023 I Generative, analytische und assistierende Informatik, Teilbereiche so genannter künstlicher „Intelligenz“, bedroht zahlreiche Arbeitsplätze und Einsatzgebiete in der Buchbranche und wird einige Berufe mittelfristig maschinell ersetzen; sei es in den Bereichen Text, Lektorat, Korrektorat, Herstellung, Umschlaggestaltung, Illustration, Übersetzung, Auswahl und Bearbeitung von Original- und übersetzten Manuskripten, Hörbuchproduktion oder bei Bewerbung und Vertrieb von Büchern.

Bereits jetzt haben sich zahlreiche kriminelle und schädigende „Geschäftsmodelle“ im Buchsektor entwickelt – mit Fake-Autoren, Fake-Büchern und auch Fake-Lesern. Es wurde nachgewiesen, dass die Grundlagen für große Sprachmodelle wie GPT, Meta, StableLM, BERT aus Buchwerken erzeugt wurden, deren Quellen Schattenbibliotheken wie Library Genesis (LibGen), Z-Library (Bok), Sci-Hub und Bibliotik sind – Piraterieseiten. Ohne gesetzliche Regelung beschleunigen und ermöglichen generative Technologien die Ausweitung von Ausbeutung, Legitimation von Urheberrechtsverletzungen, Klimaschädigung, Diskriminierung, Informations- und Kommunikations-Verfälschung, Identitätsdiebstahl, Reputationsschädigung, Blacklisting, Honorar-Betrug und Vergütungsbetrug bei Verwertungsgesellschaften. Gleichzeitig ist eine genaue Betrachtung und Einschätzung nötig, um die einzelnen Aspekte der fortgeschrittenen Informatik zu kategorisieren und zu regeln; denn nicht jede smarte Software ist „KI“, nicht jede Anwendung ist gleichermaßen risikoreich. Wir als Gesellschaft, insbesondere als Kulturschaffende, als Urheber:innen, als Künstler:innen und als Autor:innen benötigen:

  • Eine klare Rechtslage zu § 44b UrhG (Ausnahme zu Text und Data Mining, siehe Seite 10) inklusive einer Reform mit Vergütungspflicht.
  • Freiwillige Entscheidungsmöglichkeiten zur Nutzung unserer Werke als „Trainings­material“, statt Akzeptanz bisheriger illegaler Nutzung oder unvergüteter Konditionen.
  • Einen „clean slate“: Die sofortige Abschaltung jener generativer Foundation Models und der darauf entwickelten Anwendungen, die nachweislich auf Verletzungen von Urheberrechten und Persönlichkeitsrechten beruhen. 

Autor:innen: Nina George, André Hansen   I   Redaktion: Dorrit Bartel, Tamara Leonard. Anbieter-Recherche: Monika Pfundmeier  

Die als Verheißung versprochene Zukunft von KI beruht auf Diebstahl.

Die sich ausbreitende, zumeist unkritische Begeisterung für generative fortgeschrittene Informatik, wie etwa für große Sprach-, Bild- oder Audiomodelle, die auf Prompts hin kulturähnlichen Ausstoß produzieren, senkt die Wertschätzung für menschliche schöpferische Arbeit. Diese Begeisterung ist blind für die Herkunft dieser Systeme, als auch für die mittel- und langfristigen Konsequenzen – gegenüber schöpferischer Arbeit, aber insbesondere für die Gesellschaft und ihre sozialpolitischen Strukturen, inklusive des KSK-Ökosystems: Werden immer weniger Aufträge an menschliche Tätige vergeben, wird dies auch das gesamte Ökosystem der Künstlersozialkasse gefährden.

Die unsichtbaren Nebenwirkungen von fortgeschrittener Informatik.

(1) Generative „KI“ beruht auf Ausbeutung menschlicher Arbeit.

Würden alle Beteiligten angemessen vergütet, könnte sich keines der großen zwölf generativen Systeme (wie StableLM, BERT, GPT, Midjourney…) kostenrealistisch tragen. Seit Jahren und weit VOR der TDM-Ausnahme (§ 44b UrhG) werden Werke von Bürger:innen[1], Autor:innen[2],[3],[4] und Künstler:innen[5] gestohlen und zum Training der Software verwendet. Nur dadurch ist deren Existenz möglich. Um Sprache, Videos und Bilder zu kategorisieren, werden ebenso „Labeller“ ausgebeutet – oft für Stunden­löhne von weniger als zwei Euro. Acht Prozent[6] aller US-Amerikaner betreiben „Ghost Work“, jene Arbeit, um sog. KI-Systeme smart erscheinen zu lassen – data labelling, flagging, content filtering. Häufiger werden diese repetitiven Arbeiten aus Kostengründen von Silicon Valley ausgelagert[7],[8], an „crowd“ und „gig worker“ in Venezuela, Mexiko, Bulgarien, Indien, Kenia, Syrien oder die Philippinen, wo es weder Mindestlohn noch Gewerkschaften gibt.[9]

 

(2) KI schädigt menschliche Autor:innen, ihr Einkommen und ihre Reputation durch Fake-Autoren, Fake-Bücher, Fake-Leser – und Identitätsdiebstahl:

(a) Unkontrollierter KI-Output wird mit Klick-Farmen in die Bestsellerlisten gepusht: Der globale Self-Publishing-Dienstleister Amazon wird seit Monaten mit Scheinbüchern von Scheinautoren überschwemmt, deren Text und visuelle Inhalte durch generative Sprach- und Bild-Ausgabe-Software zusammengepanscht wurden. KI-Bots von Klick-Farmen „lesen“ diese Nonsens-Werke und pushen sie in die Bestsellerlisten[10]. Das führt dazu, dass die Einnahmen für menschliche Autoren rapide sinken, die sich aus Umsatzmodellen geteilter Erlöse speisen, wie z. B. Kindle KDP und seine Ausschüttung auf shared-revenue-Basis (Ein Topf der Einnahmen geteilt durch gelesene Seiten und Ausschüttungsberechtigte, ähnlich wie Spotify). In Spitzenzeiten sind 80 von 100 Kindle-KDP-Bestsellern KI-Ausgaben.

(b) Identitätsdiebstahl und Namentäuschung: Die weltweit wichtigste Rezensionsplattform Goodreads wird ebenso wie Amazon mit KI-Büchern überschwemmt, die unter den unrechtmäßig verwendeten Namen echter menschlicher Autoren (oder leicht veränderter Schreibweise realer bekannter Namen) veröffentlicht werden. Diese Bücher werden als Neuerscheinungen im Profil der Autoren gelistet und verleiten die Leser zum Kauf. Die Einnahmen daraus fließen aber an unbekannte Quellen. Menschliche Autoren, die um ihre Einnahmen betrogen werden, müssen wiederum Geld ausgeben, um sich mithilfe von Anwälten dagegen zu wehren – und zahlen damit doppelt. Bisher haben weder Goodreads noch Amazon diese Identitätsdiebstähle gestoppt, die dem Ruf der menschlichen Autoren schaden, wenn ein (qualitativ minderwertiges) KI-Buch mit ihrem Namen verbunden ist. 

(c) Unerlaubte KI-Übersetzungen erschließen fremdsprachige Märkte und leiten Umsätze an unbekannte Fremdnutzer: Es liegen uns Fälle vor, in denen Werke von englischer Original­sprache mittels Maschinenübersetzung ohne Lizenz widerrechtlich in andere Sprachen übertragen, und unter anderem Namen, meist im Amazon Selfpublishing und häufig mit einem KI-Cover ausgestattet, widerrechtlich veröffentlicht werden. Die Autorennamen wiederum ähneln dabei bewusst bekannten Namen. Die Einnahmen fließen an unbekannte Quellen.

(d) Verlegerische Leistungen nur gegen Zahlung des Autors: Verlage produzieren vermehrt auch AGI-generierte Cover. Uns liegen Fälle vor, in denen Autoren menschliche Grafikdesigner wünschten, und dann zur Kasse gebeten wurden. Diese Praxis gilt als unsittlich. Die Autoren als schwächere Vertrags­partner haben jedoch kaum Mut dies abzulehnen, aus begründeter Sorge, als „schwierig“ zu gelten oder vor verlagsseitiger Ablehnung künftiger Zusammenarbeit. Sie werden dazu gedrängt, eine Technologie zu akzeptieren, die ihrem eigenen Beruf im Kern schadet.

(e) Illegale Vergütungsansprüche an Verwertungsgesellschaften und Medienkunden: Es ist jedenfalls nicht auszuschließen, dass sowohl automatisch generierte und übersetzte Presseartikel als auch automatisiert übersetzte Bücher, oder auch automatisiert produzierte Bilder, bereits in den „Genuss“ von Privatkopievergütungen durch Verwertungsgesellschaften kommen, da es noch keine gesetzliche Kennzeichnungspflicht gibt; oder automatisierte Texte, MT-Übersetzungen und KI-generierte Bilder auf Honorarbasis in die Medien fließen.

(f) Maschinenstimmen ersetzen Menschen – und führen zum Verlust von Lizenz­vergütungen: DeepZen arbeitet seit 2013 an Klon-Stimmen und bietet sein Repertoire Verlagen zur Honorar-Ersparnis an; zahlreiche, auch renommierte Verlage griffen darauf bereits zurück. Die Verwerfung setzt sich in der Frage der Erlösverteilung fort: Wo kein Hörbuchsprecher, wohin geht sein kalkulierter Anteil? Die Auftragslage für professionelle Sprecher:innen sinkt[11]rapide. Einen Stimm-Klon (von realen Menschen) professionell zu erstellen, kostet im Profi-Studio weniger als 2000 Euro. Noch günstiger ist das mit Programmen wie Murf, Lobo, Respeacher, Voice.Ai oder Overdub. Nach wenigen Sekunden Aufnahme wird ein Stimm-Klon generiert, mit dem man „Jede:n“ „Alles“ sagen lassen kann, ganz gleich wie unmoralisch oder betrügerisch[12],[13]. Im Jahr 2022 führte Google seine Dienste für Verlage in

sechs Ländern ein,  Anfang Januar 2023[14] stellte Apple eine Reihe von KI-Stimmen mit Namen

wie Madison und Jackson vor. Auf diese sollen Autoren und Verleger zurückgreifen (und eine Geheimhaltungsklausel dazu unterzeichnen), die ihre Bücher über Apple Books verkaufen.

Die Einsatzgebiete von Klon-Stimmen oder synthetischen „Stimmen“ reichen von Synchron-Sprechen über Hörbücher bis hin zu Trick-Anrufen für Betrüger oder für deep-fake Interviews etc. In Deutschland ist das Recht auf die eigene Stimme zwar im Allgemeinen Persönlichkeits­­recht verankert. Dennoch deckt dies nicht rechtssicher den Ausschluss einer synthetischen Wiederverwendung ab. Zudem sehen sich Schauspieler:innen und Hörbuch­sprecher:innen immer häufiger damit konfrontiert, in Werks-Verträgen zu Stimm-Kloning einwilligen zu müssen, wollen sie weiter beschäftigt werden. Dies führt dazu, dass sich Sprecher:innen schrittweise selbst abschaffen. Zudem existieren vereinzelt Fälle, in denen Stimm-Klons ohne Zustimmung der menschlichen Sprecher:innen erzeugt wurden. Oder von rein synthetischen Stimmen fortgeschrittener Geräte ersetzt zu werden („Tonie Box“: hier lesen synthetische Robot-Stimmen automatisiert generierte Texte Kindern zur Gute-Nacht vor[15]).  AI-Vertonung wird auch dann relevant, wenn E-Books von Geräten und Stimmklonen vorgelesen werden, der Autor aber dabei weder Lizenz erteilt hat noch eine Vergütung erhält. 

Insgesamt führen all diese neuen „Geschäftsmodelle“ zu folgendem Paradox: Jene, die die Existenz generativer Programme erst möglich machten, werden nicht vergütet. Aber jene, die die Software nutzen, profitieren monetär. Dieser Werte-Transfer als Form der Ausbeutung kann von der Gesetzgeberin nicht gewollt sein.

 

(3) „KI“ ist ein Hochrisiko-Kommunikator und unzuverlässige Informationsquelle.

„Halluzinieren“ ist das zurzeit benutzte Vokabular, um generative Text-Systeme[16],[17] zu be­schrei­ben, die Daten, Ereignisse[18], Gerichts­entscheidungen[19] oder Biografien komplett er­fin­den oder fehlerhaft zusammenstecken, sich auf Fragen hin widersprechen, oder von Usern mit reinforcement learning from human feedback (RHLF)[20] ständig korrigiert werden müssen. Dabei bringen die Nutzer praktischerweise dem System das bei, was seine Entwickler sich sparen. Gleichzeitig erleichtert generative Text-Software es Akteuren wie Propaganda-Farmen, rapide und billig Desinformationen und Hetzrede zu verbreiten[21]; oder erstellt Fake-Autoren, die Plattformen in Sozialen Netzwerken oder Marktteilnehmer wie Amazon[22] mit künstlicher Kommunikation über­schwemmen[23]. Fehlende oder aus Kosten­ersparnis mangelhaft durch­ge­führte Sicher­heitsprüfungen[24] und ausbleibende Test- und Korrekturreihen vor den Veröffent­lichungen führen dazu, dass generative Text-Informatik als grundsätzlich nicht faktentreu zu bewerten ist. Gleichzeitig ist der „Glaube“ und der Mangel an Sensibilität gegenüber digita­len Inhalten vieler der über 100 Millionen Nutzer so hoch, dass sie diese „Halluzina­tionen“ nicht erkennen oder nicht vermuten, dass der Output falsch ist. Grundsätzlich benötigt KI ori­ginale, „frische“, menschliche Texte, um nicht verrückt zu werden, wie die Stan­ford-Universität heraus­fand: Wird synthetischer content als Training[25] verwendet, kollabiert das System.

 

 

(4) „KI“ (re)produziert Bias und verstärkt intersektionale Diskriminierung[26],[27].

Stable Diffusion, eine bildgenerierende („text to image“) Informatik, kennt keine schwarzen Bundestags­abgeordneten, keine weibliche Ärzte, und stellt sich als Reinigungskräfte

grundsätzlich asiatische Frauen vor. Text-Generatoren reproduzieren sexistische und Gender-

Klischees – da sie auf Texte zurückgreifen, die aus einem bestimmten eher westlich, männlich, weiß orientierten Kanon[28] stammen, oder sich aus den Kommentarspalten des Internets Misogynie aneigneten. Ein Bias (negatives Vorurteil) kann sich nicht nur auf Gender oder Hautfarbe beziehen; sondern auf Orte, Alter, soziale Klassen, Berufe, Krankheitsbilder, Kulturen oder die Einordnung von Fakten, von Begriffen wie „Erfolg“ oder „Glück“ oder politische Meinung. Effekt: Benutzer einer generativen KI übernehmen den Bias[29] und verstärken ihn. Menschen werden dadurch noch schneller, vor allem: unhinterfragt in eine Schublade gezwängt, was Auswirkung auf gesellschaftliche und berufliche Zugänge, Bildung, Wohnungssuche, Gesundheitsversorgung, Bonität haben kann.

 

(5) „KI“-Unternehmen fürchten den „Brüssel“-Effekt[30] des AI Acts – mit Grund.  

Die Universität Stanford untersuchte zwölf KI-Unternehmen[31] auf 22 Anforderungen des geplanten AI Acts. Ergebnisse: Nur wenige Unternehmen geben Informationen über den Urheberrechtsstatus der Trainingsdaten bekannt; kaum eines machte Angaben zum Energie­verbrauch und zu Emissions-Verringerung; KEINES war im Stande, über Sicherheitsprüfungen und Vermeidungs-Strategien für strukturelle oder systemische Risiken zu berichten. Microsoft und Open AI lobbyieren[32] seit Monaten gegen die geplante KI-Verordnung; sie sehen ihre Geschäftsmodelle und bisherigen Milliarden-Profite in Gefahr, die auf Ausbeutung, Diebstahl von geistigem Eigentum, Intransparenz und Risiko-Ignoranz beruhen. Umso wichtiger ist es, eine klare Haltung zu vertreten, und unmiss­verständlich auf Transparenz, Autorisierung und Vergütung in allen Regularien zu bestehen.

 

(6) Unklarheit, ob die gesetzliche Erlaubnis für TDM (§ 44b UrhG) die Nutzung von urheberrechtlich geschützten Werken als „Trainingsdaten“ erlauben. Falls ja, ist die dort vorgesehene Opt-out-Möglichkeit keine Option.

 

  • Unklare Rechtslage: Es ist zumindest unsicher, ob gesetzliche Erlaubnisse für TDM (§ 44b UrhG) die Nutzung von urheberrechtlich geschützten Werken als „Trainingsdaten“ erlauben (vgl. dazu unten, bei Vokabeln „TDM“). In jedem Fall ist aber der im Gesetz vorgesehene Opt-out in keiner Weise praktikabel. Und dies liegt nicht nur an den überall fehlenden vertraglichen Routinen, in denen die Urheber:innen bereits bei Nutzungsrechte­übertragung den Opt-out erklären könnten:
  • Keine Industrienorm: Es gibt keine Standardisierung, um ein Opt-out innerhalb von Werken, die „online verfügbar“ sind, maschinenlesbar zu machen; auch nach Verträgen fragte bisher keines der KI-Entwicklerunternehmen, um ganz sicher zu gehen. Unklar ist auch, was „online verfügbar“ bedeutet, und wo die Grenzen zu ziehen ist.
  • Keine technische Anwendung für Opt-out in Sicht: Auch wenn die W3C-Gruppe an der Entwicklung von Lösungen arbeitet (siehe Bericht Juli 2023[33]), derzeit nur für URL und Metadaten von EPub3, bleiben Urheber bis auf unbestimmte Zeit ungeschützt. Inzwischen stellen W3C-Entwickler und ihre Community die Auslegung der TDM-Ausnahme in Frage. Daneben ist eine neue ISO-Norm in Zulassungs-Prüfung (bisherige Normen im Buchsektor sind z.B. ISBN, ISSN, ISNI, ISTC, DOI); Opt-out-Erklärungen mit diesem neuen Identifier könnten durch Spezialsoftware maschinell ausgelesen werden – sofern sich KI-Entwickler für die Rechteklärung interessierten …
  • Völlig unklar ist, wie ein Opt-out bei analogen Werken erklärt werden kann.
  • Offen ist auch, ob ein Opt-out auch für Werke wirkt, die bereits in der Vergangenheit für TDM genutzt worden sind. Ebenso offen ist der Umgang mit vergriffenen Werken.
  • Widerrechtliches Scrapen: Darüber hinaus gibt es zahlreiche Belege dafür, dass auch maschinenlesbare robots.txt-Opt-out-Erklärungen auf html-Websites von Scrapern oder unüberwachten Crawlern mit maschinellem Lernen schlicht ignoriert werden.
  • Keine Chance, sein Recht auszuüben: Tatsächlich ist es in der Praxis als Urheber:in unmöglich, die Opt-out-Option auszuüben.
  • KI-Unternehmen zogen darüber hinaus seit 2013 urheberrechtlich geschützte Buchwerke von Bit-Torrent-Piraterie-Seiten[34],[35]. Nachgewiesen wurde der Korpus Book3 und The Pile mit 174.000 Titeln,; in der Investigation von freiwilligen Rechercheteams sind 1,2 Mio. weitere urheberrechtlich geschützte Titel.

(7) Generative Informatik („KI“) ist ein Klima-Killer[36]

Einer Studie[37] der Riverside Universität zufolge verbrauchte das Training von GPT-3 durch die Nutzung von Rechen­zentren in den USA 3,5 Mio. Liter Wasser, in den Rechenzentren von Microsoft in Asien 5 Mio. Liter. ChatGPT(3) verbraucht auf 20 Fragen 500 ml Wasser. Die von der Universität Berkeley durchgeführte Karbon-Emission Analyse[38]kommt zu dem Ergebnis, dass das Training von GPT-3 1.287 MWh verbrauchte und zu Emissionen von über 550 Tonnen Kohlendioxid­äquivalent führte. Der Energieverbrauch von sog. KI wird bis 2025 höher sein als der aller menschlichen Arbeitskräfte; bis 2030 wird das Training und die Daten­speicherung für maschinelles Lernen 3,5 % des weltweiten Stromverbrauchs ausmachen.

Fazit Sowohl die Gleichgültigkeit gegenüber Diebstahl von geistigem Eigentum als auch der Habitus, dass digital verfügbare Werke gratis oder absurd billig zu haben sein sollen, sind Symptome der Negation menschlicher Urheberschaft hinter jedem Werk. Verstörend ist, dass nun große Unternehmen aus Dieb­stahl milliarden­schwere Profite schöpfen und dies nur wenige Entscheidungs­träger:innen zu empören scheint. Wenn die Zukunft fort­ge­schrit­tener Techno­logie nachhaltig, innovativ und gerecht gestaltet werden soll, dann müssen schadens­ver­ursachende Systeme abgeschaltet werden und für die Entwicklung künftiger künstlicher Kommunikation Regularien greifen, die auf Autorisierung, Vergütung und Trans­parenz beruhen[39]. Geschieht dies nicht, ist die Zukunft von KI auf Nötigung und Plünderung gebaut.

Gesamten Text downloaden: 23 09 04 NAR_Anwendung von KI im Buchsektor Einleitung und Vokabeln-final

Positionspapier des Netzwerk Autorenrechte: NAR_KI HINTERGRUNDPAPIER FINAL

Quellennachweise:

[1] https://www.faz.net/aktuell/feuilleton/medien/open-ai-soll-fuer-chatgpt-300-millionen-woerter-aus-dem-internet-gestohlen-haben-19007444.html

[2] https://psmedia.asia/publishers-has-your-book-been-used-to-train-chat-gpt-without-your-permission/

[3] https://aicopyright.substack.com/p/the-books-used-to-train-llms

[4] https://arxiv.org/pdf/2305.00118.pdf

[5] https://urheber.info/media/pages/diskurs/ruf-nach-schutz-vor-generativer-ki/03e4ed0ae5-1681902659/finale-fassung_de_urheber-und-kunslter-fordern-schutz-vor-gki_final_19.4.2023_12-50.pdf

[6] https://marylgray.org/bio/on-demand/

[7] https://www.noemamag.com/the-exploited-labor-behind-artificial-intelligence/

[8] https://arxiv.org/pdf/2102.01265.pdf

[9] https://onezero.medium.com/the-a-i-industry-is-exploiting-gig-workers-around-the-world-sometimes-for-just-8-a-day-288dcce9c047

[10] https://www.vice.com/en/article/v7b774/ai-generated-books-of-nonsense-are-all-over-amazons-bestseller-lists

[11] https://www.voanews.com/a/7092661.html

[12] https://www.podcast.de/episode/609495902/deepfake-bei-anruf-klon

[13] https://www.deutschlandfunkkultur.de/audio-deepfakes-was-wenn-wir-unseren-ohren-nicht-mehr-100.html

[14] https://www.theguardian.com/technology/2023/jan/04/apple-artificial-intelligence-ai-audiobooks

[15] https://rp-online.de/nrw/staedte/duesseldorf/duesseldorf-tonies-testet-geschichten-mit-kuenstlicher-intelligenz_aid-90005417

[16] https://www.beamex.com/resources/for-a-safer-and-less-uncertain-world/generative-ai/

[17] https://urheber.info/media/pages/diskurs/ruf-nach-schutz-vor-generativer-ki/1dec542220-1682002102/de_urheber-und-kunstler-fordern-schutz-vor-gki_final_20.4.2023.pdf

[18] https://www.nytimes.com/2023/05/01/business/ai-chatbots-hallucination.html

[19] https://www.morningbrew.com/daily/stories/2023/05/29/chatgpt-not-lawyer?mbcid=31642653.1628960&mblid=407edcf12ec0&mid=964088404848b7c2f4a8ea179e251bd1&utm_campaign=mb&utm_medium=newsletter&utm_source=morning_brew

[20] https://www.telusinternational.com/insights/ai-data/article/rlhf-advancing-large-language-models

[21] https://urheber.info/media/pages/diskurs/ruf-nach-schutz-vor-generativer-ki/1dec542220-1682002102/de_urheber-und-kunstler-fordern-schutz-vor-gki_final_20.4.2023.pdf

[22] https://www.vice.com/en/article/v7b774/ai-generated-books-of-nonsense-are-all-over-amazons-bestseller-lists

[23] https://www.independent.co.uk/tech/ai-author-books-amazon-chatgpt-b2287111.html

[24] https://www.nytimes.com/2023/04/07/technology/ai-chatbots-google-microsoft.html

[25] https://futurism.com/ai-trained-ai-generated-data

[26] https://fra.europa.eu/sites/default/files/fra_uploads/fra-2022-bias-in-algorithms_en.pdf

[27] https://www.bloomberg.com/graphics/2023-generative-ai-bias/

[28] https://crfm.stanford.edu/2023/06/15/eu-ai-act.html

[29] https://www.nyu.edu/about/news-publications/news/2022/july/gender-bias-in-search-algorithms-has-effect-on-users–new-study-.html

[30] https://uploads-ssl.webflow.com/614b70a71b9f71c9c240c7a7/630534b77182a3513398500f_Brussels_Effect_GovAI.pdf

[31] https://crfm.stanford.edu/2023/06/15/eu-ai-act.html?fbclid=IwAR2pW8d96Fwjor9LIeFXUJjei4l2hBs6LbjHJikO65VZHHnDavZvIMSxuR8

[32] https://time.com/6273694/ai-regulation-europe/

[33] [33] https://www.w3.org/community/tdmrep/ and https://www.w3.org/2022/tdmrep/

[34] https://www.washingtonpost.com/technology/interactive/2023/ai-chatbot-learning/?itid=lk_inline_manual_54

[35] https://www.theatlantic.com/technology/archive/2023/08/books3-ai-meta-llama-pirated-books/675063/

[36] https://www.theguardian.com/technology/2023/aug/01/techscape-environment-cost-ai-artificial-intelligence

[37] https://arxiv.org/pdf/2304.03271.pdf

[38] https://arxiv.org/ftp/arxiv/papers/2104/2104.10350.pdf

[39] https://urheber.info/diskurs/ruf-nach-schutz-vor-generativer-ki

Europas Kultur- und Kreativbranche fordert: Europäische Werte und Werke vor KI schützen
Koalitionsvertrag 2025: Die Forderungen des Netzwerk Autorenrechte (NAR)

AKTUELLE NEWS