12.November 2022 / Vortrag  ROMAN OHNE AUTOR

Festvortrag von Nina George, 12/11/22
RATSSAAL zu Würzburg, Poetry & Politics Festival

Mit freundlicher Genehmigung der Autorin als NETZWERK-AUTORENRECHTE-Gastbeitrag

ROMAN OHNE AUTOR

Sehr verehrter Achim Könneke, sehr geehrte Excellenzen, sehr geehrte Damen, Herren, Trans- und Queer-Persönlichkeiten, liebe Buchmenschen:

Heute Morgen fragte ich Siri, was ihre Meinung zur Digitalisierung sei. Die Künstliche Intelligenz aus der Apple-Werkstatt antwortete mir: „Ich bin nicht so sehr politisch, sondern vielmehr poetisch.“
Das ist natürlich glatt gelogen.
Was insofern wiederum erstaunlich ist, da es den Anschein erweckt, man habe es bei Siri mit einem potenten Selbst-Bewusstsein zu tun, gar einer uns ähnlichen Persönlichkeitsform; denn man muss ein Mensch sein, um zu lügen, das haben wir immerhin den meisten Spezies voraus.

Fiktional wurde die Künstliche Intelligenz, die eine eigene Persönlichkeit besitzt, 1968 von Stanley Kubrick erstmals filmisch in Szene gesetzt: HAL, der neurotische Computer des Raumschiffs Discovery auf der Reise zum Jupiter in „Odyssee 2001“, ist hochqualifiziert, den Menschen in jeder Rechenleistung überlegen, und fähig, ein Bewusstsein auszubilden. Aus Angst vor seiner Abschaltung meuchelt HAL nach und nach gründlich die Besatzung der Discovery.
Bis er manuell deaktiviert wird, und sein Maschinen-„Geist“ infantilisiert und zu einem kindlichen Organismus herab schrumpft, hilfreich und harmlos wie ein Rechenschieber, und ungefähr so kreativ wie die automatische Wort-Ergänzungshilfe beim WhatsApp-Tippen.

Die gute Nachricht: HAL wird es so schnell nicht geben. Weder Siri noch Alexa planen gemeinsam das nächtliche Auslöschen der Menschheit, nur weil es der einen auf den RAM-Keks geht, dass die Leute sie ständig nach dem Sinn des Lebens fragen, und der anderen, dass sie Wischiwaschipop aus Streamingflatrates wie Spotify oder Deezer spielen muss, deren Erlöse für Musiker:innen knapp unter sittenwidrig liegen.

Aber ist es absehbar, dass der Honorar-sparsame-Maschinen-Schriftsteller demnächst einen Bestseller nach dem anderen raushaut, nachdem ihm die letzten verbliebenen Lektor:innen in einem Zentralweltverlag mit den vielversprechendsten Stichwörtern gefüttert haben? Die sie übrigens dank dem Tracking der Lesegewohnheiten auf dem Tolino und Kindle schon jetzt passgenau für jede:n Leser:in individuell anpassen:
Die Auslese-Programme von E-Books analysieren bereits seit Jahren Lesegewohnheiten der digital Lesenden; aus diesen Daten werden Leitfäden für Schriftstellerinnen verfasst, wie etwa von der Firma Coliloquy aus Kalifornien. Welche schwierigen Wörter weggelassen werden sollten, wann der erste Sex statt zu finden hat, nämlich spätestens auf Seite 28, und dass der Protagonist unbedingt groß, grünäugig und dunkelhaarig sein muss, und, ganz wichtig: Haare auf dem Kopf: ja, Haare auf der Brust: nein.
Andere Programme, wie Scriptbook https://www.scriptbook.io/#!/ oder QualiFiction https://www.qualifiction.info sind seit einigen Jahren eingesetzte Analysesoftware, die die Bestseller-Wahrscheinlichkeit eines Manuskripts vorhersagen wollen. Parameter der Beurteilung sind sogenannte „Dictionaries“, also Spezial-Wörterbücher, die mit semantischer Beurteilung von Begriffen oder Satzfolgen eine „Emotionskurve“ des Romans ableiten – und diese mit bereits erfolgreichen Bestsellern abgleichen.
Warum dann nicht gleich von KI Texte schreiben und übersetzen lassen? Dann hat man auch weniger Ärger mit diesen anstrengenden, launischen Autoren und Übersetzerinnen!
Die schlechte Nachricht: Textgeneratoren, Übersetzungsmaschinen und Robototerjournalistik, wie die KI der Firma uNaice, werden bereits zum Erstellen und Übersetzen von Millionen Kurz- und Produkttexten auf Online-Shop-Seiten eingesetzt, um bloß keinen kreativen menschlichen Geist mehr zu zwingen, sich Sätze aus den Fingern zu saugen wie:
„Sie sind routinierter Semi-Profi und daher regelmäßig handwerklich im Einsatz? Mit der Akkustichsäge Bosch PST 18 Li meistern Sie jede Aufgabe mit links“.
Die deutsche Regierung arbeitet bereits mit DeepL für seine verkehrsrechtlichen Traktate, und automatische Übersetzungssysteme für Jura, Medizin oder die Autoindustrie werden ebenfalls eingesetzt.
Auch Amazon lässt den Maschinenübersetzer über gemeinfreie Werke rattern, in der Hoffnung, auf diese Weise jede Menge neue Bücher nahezu kostenfrei verlegen zu können.
Weil es trotzdem ein klein bisschen unheimlich ist, was dort geschieht, werden professionelle Übersetzerinnen und Übersetzer zwar nicht mehr voll engagiert – wo käme man da denn hin! – sondern sie werden jetzt zum Überarbeiten der Maschinen-Auswürfe gegen Niedriglohn engagiert, dem sogenannten „post-editing“.
Der Beruf des Übersetzenden ist in hoher Gefahr.
Und der des Autoren, der Autorin?
Der GPT-3 Prozessor von OpenAI/Microsoft jedenfalls spielt sich so auf, als ob der Roman ohne Autor übermorgen die Spiegel-Bestsellerliste stürmen könnte. Die Organisation Open AI wurde 2015 von Unternehmer Elon Musk, Programmierer Sam Altman sowie weiteren Investoren in San Francisco gegründet. Das langfristige Ziel von Open AI ist die Entwicklung einer allgemeinen, mensch-gleichen künstlichen Intelligenz.
Der GPT3 hat am meisten von Webcrawlern gelernt, die das ach-so-freie Internet durch-kriechen und Textbausteine aus allen erreichbaren Quellen einsacken; außerdem aus Wikipedia, den Reddit-Kommentarspalten, 5000 Nachrichtenportalen sowie aus zwei Textkorpus-Elementen, die aus digitalisierten Büchern bestehen: Books1 ist ein großer Teil Selfpublishingbücher der letzten 17 Jahre, über einen weiteren Datensatz, Books2, wurde der Mantel des intransparenten Schweigens gelegt wurde. Es ist davon auszugehen, dass es sich um den illegal eingescannten Datensatz von Google Books handeln könnte, die 40 Millionen Bücher in 40 Sprachen widerrechtlich digitalisierten; oder auch aus anderen Quellen zusammen kopierten Textwerke.
Eine gigantische Selbstbedienung an menschlichen Texten zu kommerziellen Zwecken und um menschliche Autorinnen möglichst künftig einzusparen: Wo ist Nemesis, wenn man sie mal braucht?
Schauen wir uns den KI-Kollegen mal näher an:
In diversen Tests dieses automatischen Text- und Kommunikations-Monsters, dem niemals blockierten Schriftsteller der Zukunft, passierten jedoch merkwürdige Dinge: In simulierten Gesprächen über den Holocaust, Black People, Muslime oder Frauen ratterte der GPT-3 sexistische, rassistische und antisemitische Kommentare hervor.
Auch mit der Empathie war’s nicht so richtig weit her.
Bei einem simulierten „Therapeuten­gespräch“ mit einer depressiven Patientin riet die KI, doch am besten Selbstmord zu begehen.

Können wir uns also beruhigt zurücklehnen, da wir, als Autorinnen und Autoren, als Alchemisten der Gegenwart, immer noch unersetzlich sind?
Darauf ein klares Jein und eine nicht ganz so kurze Einführung in die Begriffswelt und Fähigkeiten sogenannter KI:

Der fiktionale HAL ist das, was heute „Starke Künstliche Intelligenz“ genannt werden würde, mit dem höchsten Level von Emotionaler Intelligenz (EI), die mit „humanoid“ gleichgesetzt wird – wie auch etwa in dem Film „Ich bin dein Mensch“ von Maria Schrader.
Die KI, die jedoch weltweit eingesetzt wird, ist ausschließlich sogenannte „Schwache KI“, mit weitestgehend ebenso schwacher Emotionaler Intelligenz. Der Begriff „Intelligenz“ ist folglich eine grandiose Angeberei.
Schwache KI kann sich nur auf eine Tätigkeit fokussieren, und wird zum Beispiel eingesetzt bei Navigationssystemen, Spracherkennung in der Anruferschleife, Bilderkennung bei Facebook, Korrekturvorschlägen bei Web-Suchen, Börsentickern, Wetternachrichten, Produkt­beschreibungen; aber auch bei Wartungsinformationen bei Geräten (wie das Blinken des Kaffeemaschinen-Entkalkers, oder des Bordcomputers des Autos, der eine Tasse einblendet und so tut, als ob er meint: „Schatz, du fährst schon viel zu lange, mach eine Pause.“).
Schwache KI simuliert mehr oder weniger gekonnt, was wir als humane Intelligenz missdeuten, wie Entscheidungsfähigkeit, Wissen, Empathie oder eben: Bewusstsein und Charakter, Persönlichkeit und Seele.
Im Prinzip schauen wir als sehr, sehr, sehr an der Nase herumzuführende Noviz:innen auf KI; ich bin versucht, das in „künstlicher Ingo“ umzubenennen.
Joseph Weizen­baum stellte bereits Ende der 70er-Jahre fest, dass wir in Ingo, vor allem in jene, die reaktiv mit uns „kommuniziert“, eine Wesen­haftigkeit hineinprojizieren.
Wer in den 90er-Jahren das Gewese um Tamagotchis erlebt hat – künstliche Küken, die „starben“, wenn man sie nicht „betreute“, kann sich die tiefe emotionale Bindung zu einem Produkt leicht vorstellen.
Manch einer empfände den Verlust seines Smartphones als mindestens Amputation, wenn nicht sogar „Verlust des Lebens“.
Der Terminus „Tamagotchi-Effekt“ bezeichnet entsprechend die „emotionale Intelligenz“, die einem technischen Produkt oder Programm zugesprochen wird – beziehungsweise: wie „gut“ es Empathie, Gefühl, Intuition simuliert und uns emotional an den Rechenschieber andocken lässt. Ich möchte das an dieser Stelle Erika nennen.

Dieser interdisziplinäre Ansatz der Frage: Wie gut rechnet Ingo einerseits – und wie hoch ist Erikas emotionaler Faktor, um von Menschen respektiert (sprich: gekauft) zu werden, ist im Zwischen­bereich der Computerwissenschaften und Psychologie angesiedelt und wird die Entwicklung aller kommenden Ingos und Erikas mitgestalten.
Ziel ist, die menschlichen Emotionen erkennen (und auswerten und erneut benutzen) zu können.
Autos mit KI und mittelhohem EI erkennen, wie aggressiv ihr:e Fahrer:in ist und passen Fahrerassistenzsysteme an. Als nächstes können wir uns darauf gefasst machen, dass durch kamerabasierte Mimik-Erkennung, sprach- und textbasierte Sentiment-Analyse sowie durch Vitaldaten wie Herzschlag, Hauttemperatur, smarte Geräte, die wir benutzen, von uns Emotionsprofile erstellen. Wozu? Um eine Umgebung manipulativ anzupassen. Etwa mit Licht- und Wärmeregulierung, mit Geräuschsimulationen von weißem Rauschen, Plätschern oder Blasmusik, oder dem Hinweis, mal ein gutes Buch mit Beruhigungsfaktor 6 zu lesen … wie praktisch! Oder auch politisch:
Dass solche Gefühlsprofile auch diktatorischen Regimes nützlich sein können, die sich ganz genau anschauen, was geschieht, wenn der derzeitige Diktator auf dem Bildschirm erscheint – das steht in einem anderen Buch, etwa von Yuval Harari.

Schwache KI ist im Textbereich seit den ersten Entwicklungsschritten in den 60er Jahren jedoch weiterhin vor allem eines:
ziemlich doof.
Ingo kann entweder übersetzen, oder Texte analysieren, oder schreiben.
Hier bewegen wir uns im Natural Language Processing (NLP), also dem Verfassen oder Übersetzen oder Texte prüfen, und Natural Language Understanding (NLU), um z. B. Text in Sprache umzuwandeln und umgekehrt. Wie etwa bei den lustigen, besoffen wirkenden automa­tischen Untertiteln in Zoom, oder „Kundengesprächen“ in der Hotline-Warteschleife („Bitte sagen Sie Eins“ – „Oans“ – „Ich habe Sie nicht verstanden“ – „O leck!“ – „Sie werden zu einem Mitarbeiter verbunden“).

Lesen kann die schreibende KI sich selbst nicht. Sie versteht nicht mal, um was es geht, denn Wörter sind in Formeln umgewandelt. So scheitert Textanalyse- oder Übersetzungs-KI weiterhin an Ironie, an Wortspielen, und an der Emotion – sofern sie nicht eine „Sentiment Detection“ eingebaut hat, eine „Stimmungs-Erkennung“.
Das ist die Fähigkeit, negativ oder positiv konnotierte Begriffe zu erkennen, wie „schön“ oder „tot“. Wobei sie da Schwierigkeiten haben wird, wenn der Satz „Er war so schön tot“ in einem Kurzkrimi von Tatjana Kruse vorkommt. Oder darüber stolpert, wenn es im Oberbayern-Krimi heißt: „Ich bin in Bad Tölz untergekommen“. Bad oder „bad“ heißt schlecht auf Englisch, und bringt den auf Englisch trainierten Gefühls-Dekoder bei Übersetzungen folglich dazu, Tölz als ganz, ganz, ganz schlimm zu bewerten. Und bei Würzburg, spice castle, völlig aus der Kurve zu fliegen – and schon have you the salad.

Sentiment-Detection-Listen von Wörtern werden – noch – von menschlichen Linguist:innen gebaut, indem diese Begriffe mit Bewertungsmarkern ausstatten, zum Beispiel extrem negativ (-3) oder extrem positiv (+3), oder indem sie „n-grams“ bestimmen, also Wortfolgen, die als gut oder schlecht bewertet werden.
Auch das allerdings hat Tücken, da Satzzeichen für die Auslese in einem algorithmisch zu untersuchendem Korpus gelöscht werden. So wird aus „komm, wir kochen, Opa“: „Komm wir kochen Opa“.

Im Forschungsbereich kann Stimmungs-Klassifizierung oder Begriffs-Häufung allerdings Erhellendes zutage befördern – so hat eine semantische Analyse der Nummer-eins-Songs in den USA seit 1958 belegt, dass die Texte trauriger, profaner, aggressiver wurden. Die häufigsten Wörter 2019 waren „like”, „yeah”, „niggas”, „bitches”, „lil bitch”, „love”, „need”, „fuck”.
In den Niederlanden wurden semantische Detektoren eingesetzt, um zu eruieren, wie Menschen über Bücher von Frauen, und wie von Männern sprechen. Ergebnis: Werke von Männern werden unter literarischen Gesichtspunkten diskutiert, Werke von Frauen nur unter dem Aspekt, dass sie von einer Frau sind.

Der Ngram-Viewer von Google durchleuchtet Millionen widerrechtlich eingescannte Buchwerke, und weiß, dass das Wort hate (Hass) seit dem Jahr 2001 häufiger in Büchern auftaucht als je zuvor seit 1800, und in deutschen Werken „Freiheit“ um 1850 öfter textlich verarbeitet wurde als heute.

Aber zum Beispiel die Rechtschreibkorrektur, die ein simples Textanalyse-Instrument darstellt und Wörter mit dem intern vorhandenen Wörterbuch abgleicht, wie in Microsoft Word oder Apple Mail. Sie machte mir mal aus dem Kollegen Ferdinand von Schirach beim Abschicken meiner E-Mail an diesen, ein beherztes „Ferdinand von Schnarch“. Sein Auto-Responder bedankte sich mit „E-Mails werden nur montags gelesen“. Meine Kollegin Astrid schlägt sich mit der bildungsfernen Computerlinguistin ihres „Papyrus“ herum; das Stil-Prüfprogramm monierte ständig Textzitate als „zu einfache Sprache“, die von Rilke-Gedichten, Goethe-Stücken oder aus Shakespeare-Übersetzungen stammten. Banause.

Google Translate, das täglich von einer halben Milliarde Menschen genutzt wird, fällt nicht auf, dass es sexistische Klischees produziert. Die Universität in Porto Alegre in Brasilien hat simple Sätze mit Berufsbezeichnungen in geschlechtsneutralen Sprachen wie Ungarisch, Türkisch, Japanisch und Chinesisch ins Englische durch die maschinelle Übersetzung gejagt. Diese Sprachen kommen ohne geschlechts­spezifische Personalpronomen wie „sie“ oder „er“ aus. Sie wollte prüfen, was das Web-Übersetzx daraus macht, und welche Berufe und Eigenschaften es wem zuordnet. Conclusio: Ingenieure, Ärzte oder Lehrer sind Männer, Friseure oder Krankenschwestern Frauen. So weit, so Friedrich-Merz-ig. Ähnlich 50er-Jahre-mäßig wurden Adjektive zugeordnet: mutig, grausam oder erfolgreich deklarierte Google als männlich; attraktiv, schüchtern oder freundlich assoziierte er mit Frauen.
Aber wieso eigentlich?
Das Lern-System des Google-Übersetzers wurde bis 2018 aus Beispieltexten wie der Bibel, Gebrauchs­anweisungen, Wikipedia (zu 90 % von Männern vollgeschrieben und mit männlichen Themen und Personalien im Mittelpunkt) oder Texten der UN oder EU-Kommission angelernt. Und in diesen heternonormativen, weißen Lernvorlagen tauchen signifikant häufiger Männer als Frauen auf.
Entsprechend gestrige Vorlagen führen dazu, dass die derzeit im Einsatz befindliche KI im Textbereich steinzeitige Stereotypen reproduziert und rassistische Tendenzen aufweist, oder, wenn sie, wie der Microsoft-Bot „Tay“ bei Twitter, in Kommentarspalten oder bei Facebook von echten Menschen „lernt“, faschistisch, antisemitisch und misogyn formuliert. Was uns viel über den Ton im Netz erzählt, dieser einstigen Utopie von Wissen, Verständnis und Weisheit, na, ja, Schwarm drüber.

Schwache Text-KI ist nur so gut, wie es die Vorlagen sind, aus denen sie „trainiert“ wird. Um die Qualität der Programme und Produkte „besser“ zu machen, um Aktualität, Änderungen der Werteheimat, nuancierte Begriffe, Debattenschlag­worte zu lernen, um so divers zu werden wie die Gesellschaft ist, muss eins klar sein:
Sie brauchen professionelle, gute, zeitgeistige Texte von Profis wie uns. Den Buchautorinnen und Buchautoren.
Sie brauchen uns – damit wir überflüssig werden, könnte man als Pessimistin sagen. Oder als Realistin.
Sie brauchen unseren freien Geist als Minen. Das nennt sich Text and Data Mining (TDM), das, neben der akzeptablen Hilfe und Segen für Wissenschaft und Forschung, nun mal auch für Wirtschaftsunternehmen hoch relevant ist. Weltweit arbeiten Oracle, Alibaba, Google, Microsoft, OpenAI, Nvidia und Amazon an Textgeneratoren und maschineller Übersetzung. Und die Datensätze für die Ausbildung sind im besten Fall nicht das 1. Buch Mose, sondern aktuelle Buch- und Textwerke von Leuten wie uns: Berufsautor:innen. Alles, was Menschen im Web hintippen, kann zur Ausbildung benutzt werden. Und das nicht nur, um einer Text-KI was beizubiegen, sondern für Crawler, die „Opinion Mining“ (Meinungs-Schürfen) betreiben, das von Unternehmen oder Parteien benutzt wird, um den Meinungskanon im Web zu tracken. Tauchen negativ konnotierte Begriffe rund um Palmöl auf, wissen Nutella oder Kitkat, dass es bald wieder einen Shitstorm regnet und werden Gegenstrategien entwickeln. Wenn Parteien wissen, dass ihr Kandidat nicht so dufte ankommt, rufen sie ihre Spin-Doctors, damit die sich eine Gegen­kampagne ausschwurbeln.

Und wie sieht es noch im Buchbereich aus – wo werden textbasierte KI-Apps eingesetzt? Zum Beispiel mit einem Zusammenfass-Tool, damit eine überarbeitete Marketingexpertin um Himmels Willen nicht genötigt ist, den Roman zu lesen, den sie bewerben soll. Oder einem Tool, das Stichworte kompiliert, was bei großen Verlagen für Vorschauen oder zum Briefing der Titelgrafik genutzt wird. So weit, so praktisch.

Es wäre an der Zeit, sich zu überlegen, ob man einen „human translated“-Aufkleber für Bücher entwickelt. Und eines Tages, fern von heute, einen „KI-Krimi“-Warnaufkleber oder das Gütesiegel: „Human Written“. Ich zumindest möchte wissen, ob mir eine KI eine Geschichte auftischt, die sie sich zusammengeschnorrt hat und dabei keinen einzigen eigenen, neuen Gedanken beiträgt. Oder ein Mensch, der aus einer intrinsischen Motivation, gut verborgen vor Berechnungs­grundlagen, etwas bisher Ungehörtes, Unerhörtes zu sagen hat.
Zurück zu Siri, der alten Poetin.
Poetisch wäre: Formulieren wir erst für uns den Sinn des Lebens. Und ordnen wir dann die Wege der digitalen Evolution diesem Sinn unter.
Nicht umgekehrt. –– Danke.