1. Nur Form, kein Inhalt
Natürlich, Computer denken in Nullen und Einsen. Was bedeutet das aber für generative Sprachmodelle? Japp – sie müssen Text in Zahlen umwandeln. Vektorrepräsentation nennt sich der Trick, eigentlich ein Umweg. Ein neuronales Netz (genauer: ein Encoder) analysiert einen bestimmten Datensatz von Texten auf die räumliche Beziehung seiner Bestandteile zueinander und drückt diese Wahrscheinlichkeit der Korrelation als Zahlenkombination aus. Die Wörter „Hund“ und „bellen“ sind häufigere Nachbarn als „Hund“ und „habilitieren“. Diese komplexen Gefüge einer Sprache werden durch die Vektorrepräsentation in Zahlen eingefangen und dann von einem zweiten neuronalen Netz für die Textproduktion (einem Decoder) in neuer, ggf. anderssprachiger Wortkombination ausgegeben – nach statistischer Wahrscheinlichkeit ihrer Anordnung. (Eine kompetente Erläuterung findet sich hier.) Mein Aha-Erlebnis dabei: Dieser Trick führt zu sehr beeindruckenden, mehrdimensionalen Matrizen voller Zahlen – mehr aber eben nicht. Die Maschine „kennt“ den ungefähren Einsatzort von Wörtern. Was diese Wörter allerdings bedeuten, wofür sie außerhalb des Trainingslabors stehen, welche Gerüche, Empfindungen, Erinnerungen mit ihnen verknüpft sein können, davon „weiß“ die Maschine nichts. Die Zahlen spiegeln gezwungenermaßen nur die formale Seite der Sprache wider, nicht die inhaltliche. Egal zu welchem Umfang Sprachmodelle noch anwachsen – dieser Malus wird bleiben.
2. Es steckt noch jede Menge Mensch darin
Ein zweites Aha-Erlebnis erfuhr ich, als mir bewusst wurde, wie viel unsichtbare Arbeit in jedem Sprachmodell steckt – bei großen Large Language Models wie GPT-4 (ChatGPT), PaLM (Google Bard) etc. natürlich umso mehr. Klar, die Trainingsdaten in Form von gelungenen Übersetzungen, witzigen Formulierungen, informativen Artikeln haben jahrhundertelang andere im Schweiße ihres Angesichts erarbeitet und liefern nun die unentgoltene Grundlage für kommerzielle Massenprodukte, und dieser Fakt an sich ist eine kritische Diskussion wert. Doch darüber hinaus: Im Schatten der großen Tech-Firmen schuften im Niedriglohnsektor Tausende von Menschen, von denen wir nichts wissen (wollen), um im Akkord Hassbotschaften zu klassifizieren oder KI-Output zu labeln, halten die Trainingsdaten sauber und finetunen das Modell zum Chatbot. In der öffentlichen Darstellung jedoch wird es gern so hingedreht, als hätte der Fortschritt uns komplett selbstlernende Maschinen beschert, die ohne menschliches Zutun auskommen. Das ist nicht nur faktische, sondern auch moralische Blendung.
3. Alles geregelt?
Apropos Wertschätzung. In ihrer Rechenkapazität, ihrer Eloquenz und ihrem Unterhaltungswert sind generative Systeme wie ChatGPT neu, doch neuronale Übersetzungsmaschinen kamen bereits in den 2010er Jahren auf und waren bisher vor allem fürs Fachübersetzen interessant. Daher hätte es mich nicht überraschen sollen (tja, hat es aber), dass es für die Nachbearbeitung maschinell übersetzter Texte, das sogenannte Post-Editing, inzwischen tatsächlich eine regulierende Industrienorm gibt: Die DIN ISO 18587:2017 hält erstaunlich detailliert fest, wie ein seriöser Post-Editing-Prozess auszusehen hat. Interessanterweise soll beispielsweise jeder einzelne Text genau geprüft werden, ob er überhaupt für maschinelle Übersetzung infrage kommt. Im Umkehrschluss: Längst nicht jeder Text ist für dieses Vorgehen geeignet, beim Fachübersetzen und allemal beim Literaturübersetzen. Es folgt eine ausführliche Liste der sprachlichen, kulturellen und sachlichen Kompetenzen, die eine Post-Editorin mitbringen solle – kurzum, mal schnell die Volontärin dransetzen wird der Sache nicht gerecht (auch wenn vereinzelte Fachverlage, hört man, bereits so vorgehen). Also alles geregelt – oder wie? Natürlich nicht. Denn die Literaturbranche richtet sich selten nach ISO-Normen, und viele andere Aspekte in Bezug auf den Umgang mit KI-generierten Texten sind immer noch völlig unklar. Dennoch ist das Post-Editing eine anspruchsvolle Aufgabe, die viel Konzentration und Übersetzungserfahrung erfordert und wirklich nicht unterschätzt werden sollte – und vor allem nicht schlechter bezahlt werden darf als eigenhändige Übersetzungsarbeit!
4. Die Wissenschaft sieht’s gelassen
Noch mehr schiere Unwissenheit meinerseits kam ans Tageslicht, als ich merkte, wie fleißig in der Translatologie schon seit Längerem zu maschineller Übersetzung geforscht wird – auch in Hinblick auf ihre Brauchbarkeit für literarische Texte. Bekannt war mir Hans-Christian Oesers Duel with DeepL, das Dorothy Kenny und Marion Winters allerdings anschließend mit seiner ursprünglichen Übersetzung verglichen und auf seinen persönlichen Stil analysierten, der in seinem Post-Editing weniger stark durchschien [1]. Waltraud Kolb experimentierte mit dem Post-Editing einer Hemingway-Kurzgeschichte und kam u. a. zu dem Schluss, dass der „Faktor Mensch“ eine Vergleichbarkeit des Prozesses verunmöglicht – damit werden auch alle Hoffnungen auf eventuelle zeitliche (und daher auch ökonomische?) Einsparungen hinfällig [2]. Damien Hansen trainierte gar eine „eigene“, spezifische Übersetzungsmaschine – immerhin mit sechs Bänden aus der Feder desselben Autors und derselben Übersetzerin! – und schlussfolgerte, dass diese Datengrundlage für Literaturübersetzung zwar bessere Ergebnisse als eine generische Maschine (wie Google Translate oder DeepL) liefert, aber noch weit hinter Humanübersetzungen zurückliegt [3]. Sich mal eben für einen Auftrag die passende Engine zu finetunen rechnet sich also längst nicht. Insgesamt herrscht in der Wissenschaft bezüglich der Qualität von Maschinenübersetzung ein sehr viel gelassenerer Ton als in den Medien.
5. Übersetzungsmaschine? Frustmaschine!
Auch bei unserem eigenen Forschungsprojekt wurden meine Erwartungen in mehreren Punkten über- oder unterboten. Unsere Teilnehmerinnen hatten schlappe drei Seiten Text zu übersetzen, über einen großzügigen Zeitraum von knapp zwei Monaten. Und sie wurden anständig dafür vergütet; günstige Arbeitsumstände also, sollte man meinen. Dennoch ist den Erfahrungsberichten der schiere Missmut anzumerken, den die Auseinandersetzung mit DeepL schon nach kürzester Zeit auslöste. Da ist von Bevormundung durch hartnäckige Übersetzungsvorschläge die Rede, von Störgeräuschen durch falsche Tonalität, von korsettartiger Kreativitätshemmung. Nur drei Seiten Post-Editing, egal ob in der sprunghaften DeepL-App oder herauskopiert zu formstabilerem Word-Text, sorgen offenbar schon für schlechte Laune. Da ein durchschnittliches Buch das Hundertfache an Seiten aufweist, in der Fantasy auch gern mal das Zweihundertfache, kann man sich ausmalen, wie witzig ein kompletter Roman-Auftrag werden könnte. Zumal durchaus simple Dinge wie die Umrechnung von Maßeinheiten schon nicht zuverlässig klappen (und da wirbt DeepL breitbeinig mit dem Claim: „Der präziseste Übersetzer der Welt“, eieiei) – wenn man sich mit solchen Korrekturen herumschlagen muss, bleibt für kreative Höhenflüge keine Kapazität mehr.
Bonus-Aha: … aber ChatGPT??
Das sachliche DeepL wurde (vermutlich) unter anderem mit mehrsprachigen Europarl- und Wikipedia-Texten trainiert; ChatGPT „kennt“ viel mehr Prosamaterial und wurde auf menschlich wirkenden Dialog getrimmt. Dann nehmen wir doch einfach kein dröges Übersetzungstool, sondern den Chatbot zum Literaturübersetzen? Aber auch hier konfrontiert uns die KI mit demselben problematischen Prinzip: Wahrscheinlichkeitsrechnung statt Lösungssuche, was in völliger Unzuverlässigkeit endet. Im Brustton der Überzeugung wird mir zwar ein meist eloquenter Text ausgespuckt, doch schlussendlich muss mir selbst auffallen, dass die “arms” einer Brille nicht die „Bügel“ sind, sondern diese kleinen Nasenstützen, über die niemand je redet. Oder dass “cut him up in little stars” auf Romeo und Julia anspielt (und selbst wenn ich um die klassische Schlegel-Übersetzung des Originals bitte, die ja online verfügbar ist, liefern mir weder ChatGPT noch die mit Internet-Suche kombinierten Bard oder Bing das korrekte Zitat, nämlich „zerteilt in kleine Sterne ihn“, sondern bloß ein naheliegendes „schneide ihn in kleine Sterne“ – wohlgemerkt mit der Behauptung, dies sei Schlegels Version, und Bings Quellenangabe dafür besteht in einer Website mit den Lyrics von Nightwish). Dieses bekannte Phänomen der Halluzination gehört zu den technisch bedingten Problemen großer Sprachmodelle. Chatbots mögen mit ausgefeilten Prompts für einzelne Textstellen oder für die Synonymsuche hilfreich sein, erfordern bei komplexeren Zusammenhängen jedoch viel zu viel Nachrecherche und ständiges Misstrauen, um wirklich Zeit zu sparen.
Mein großes Fazit aus dem Ganzen: Die Maschine nimmt uns das Denken nicht ab. Selbst nach Unterstützung durch KI muss – auch bei „Unterhaltungsliteratur“ – immer noch ein kompetenter, gut ausgebildeter, feinfühliger Mensch den Originaltext mit all seinen Tiefen und Tücken genau kennen, muss jede Zeile, jedes Wort des Outputs hinterfragen und beurteilen und letztendlich das Gesamtmaterial zu einem korrekten, geschmeidigen, kreativen Zieltext zusammenführen. Die eigentliche Übersetzungsarbeit wird uns durch die KI nicht weggenommen bzw. erspart, je nach Arbeitsethos. Auch wenn sich einzelne Kolleginnen textstellenweise – und legitimerweise, wie ich finde – von Übersetzungsmaschinen inspirieren lassen. Voreiligen Phantasien vom aussterbenden Beruf oder auch nur von billigeren, weil angeblich schnelleren Übersetzungen muss man daher nach derzeitigem Stand der Technik eine entschiedene Absage erteilen.
Die realistische Übersetzerin der Zukunft sehen wir also gar nicht in C-3PO, sondern vielmehr in Dr. Louise Banks aus Arrival. Mit der Frau kann ich mich identifizieren: Unter Lebensgefahr (na ja) knobelt auch sie und strengt ihren eigenen Grips an, um die fremdsprachige Botschaft der Aliens zu entschlüsseln. Erfahrung, Empathie, Deutungswille – das sind neben reinem Sprach- und Faktenwissen die Grundbedingungen von Literaturübersetzung, und die lassen sich weder errechnen noch ersetzen.
[1] Kenny, Dorothy und Marion Winters, “Machine Translation, Ethics and the Literary Translator’s Voice”. In: Translation Spaces, 9/1 (August 2020), 123-149.
[2] Kolb, Waltraud: “‘I am a bit surprised’: Literary translation and post-editing processes compared.” In: Rothwell, A., Way, A., & Youdale, R. (Hrsg.): Computer-Assisted Literary Translation. Routledge 2023.
[3] Hansen, Damien und Dorothy Kenny: “Neural Machine Translation, Large Language Models and Literary Translation: The Story So Far”. Vortrag am Trinity Centre for Literary and Cultural Translation, 8.5.2023.