Typische Fehler bei maschinellen Übersetzungen / Schwachpunkte von generischen Engines


Sogenannte (neuronale) generische Engines sind Übersetzungstools, die mit großen Datenmengen der unterschiedlichsten Branchen und Fachgebiete trainiert werden. Viele von ihnen sind öffentlich online zugänglich und so von jedermann nutzbar.

Beispiele für solche Systeme sind DeepL, Google Translate, Yandex und Co. Die beiden erstgenannten zählen wohl zu den mittlerweile bekanntesten und gängigsten Tools. Aktuell gibt es aber schon mehr als 25 solcher Dienstleister, und die Übersetzungsergebnisse dieser Maschinen haben sich in den letzten Jahren kontinuierlich verbessert, vor allem auch im Hinblick auf grammatikalisch weit voneinander entfernte Sprachen, wie zum Beispiel Englisch und Russisch.

Alles in allem ist die sprachliche Flüssigkeit hier ein Riesenvorteil und eine der größten Errungenschaften dieser Technologie. Durch die Art und Weise, wie neuronale Engines funktionieren, sind sie auch viel besser auf die Beachtung des Kontexts abgestimmt als ältere Technologien aus diesem Bereich, wie beispielsweise die statistische maschinelle Übersetzung. Die Ergebnisse zeigen gute syntaktische Strukturen, besonders bei langen und komplizierteren Sätzen. Die Grammatik ist häufig korrekt und die Ergebnisse sind logisch und kohärent.

Aber reicht die Qualität der Rohübersetzung von generischen Übersetzungssystemen aus bzw. bleibt der Aufwand für ein Post-Editing in einem Rahmen, in dem die gewünschte Kosten- und Zeitersparnis, welche eine maschinelle Übersetzung verspricht, erzielt wird?

Auch wenn diese Systeme stetig besser werden und je nach Komplexität und Fachlichkeit des jeweiligen Texts wirklich gute bis sehr gute Ergebnisse liefern, gibt es doch noch immer „klassische“ Schwachstellen bei den generischen Engines, die sich, mehr oder weniger stark, auf die Qualität des Zieltexts auswirken und ein umfassenderes Post-Editing erforderlich machen.

Hauptgrund hierfür ist vor allem, dass generische bzw. generell neuronale Tools zwar dem menschlichen Gehirn nachempfunden und ansatzweise mit ihm vergleichbar sind, sie jedoch keine komplexen Zusammenhänge herstellen können, was der menschliche Verstand ganz automatisch leistet. Sie betrachten nicht den vollständigen Text und seinen gesamten Kontext, sondern übersetzen ihn Satz für Satz und können so keine Abhängigkeiten zwischen den Segmenten erkennen und berücksichtigen.

Für die Arbeit mit maschineller Übersetzung (MÜ) ist es essenziell, dass Übersetzer:innen das Verhalten und die Muster von neuronalen Engines verstehen, damit sie das volle Potenzial dieser vielversprechenden Technologie ausschöpfen können. Ihr größter Vorteil ist, wie bereits erwähnt, die sprachliche Flüssigkeit der Übersetzungen. Gleichzeitig kann genau dieser Sprachfluss aber auch eine der größten Herausforderungen bei den neuronalen Engines sein, denn sehr flüssige Ergebnisse können auch trügerisch bzw. irreführend sein. Übersetzer:innen müssen sich der Möglichkeit bewusst sein, dass der maschinell erstellte Zieltext evtl. kein korrektes Abbild des Quelltexts darstellt. Sie müssen sicherstellen, dass die Bedeutung des Originals vollständig und korrekt auf den Zieltext übertragen wird. Dies geschieht während des Post-Editings, was diesen Prozessschritt auch zu einer essenziellen Aufgabe im gesamten MT-Übersetzungsprozess (MTPE) macht.

Schwachpunkte und erwartetes (Fehl-)Verhalten von (neuronalen) generischen Engines:

Schwachstelle / Problematik

Erklärung / Folge

Sprachfluss kann irreführend sein

Die Übersetzungsergebnisse wirken auf den ersten Blick stimmig, der Zieltext gibt aber u.U. nicht den korrekten Inhalt des Ausgangstexts wieder.

Falsche Interpretation des Ausgangstextes

führt zu Fehlübersetzungen, z.B. im Bezug auf idiomatische Ausdrücke, Neologismen, etc.

Formale oder umgangssprachliche Form

Die Maschine kann nicht erkennen, welche Form zu wählen ist.

Texte werden teilweise wörtlich übersetzt

Der Sinn des Textes geht verloren.

Terminologie

Termini werden falsch und inkonsistent eingesetzt; firmeneigene Terminologie kann nicht beachtet werden.

Kontextfehler

führen zu fehlerhaften Bezügen zwischen Satzteilen oder aufeinanderfolgenden Sätzen. Eine Engine kann z.B. auch nicht zwischen Handlungsaufforderung, Überschrift und Bildunterschrift unterscheiden.

Auslassungen

Schlechte oder missverständliche Ausgangstexte, wie zum Beispiel falscher Satzbau, Rechtschreibfehler oder unbekannte Wörter führen zu Auslassungen, das heißt zu Stellen, an denen einfach der Ausgangstext im Zieltext übernommen wird. Konzeptuelle Einheiten, z.B. Nebensätze oder Nominalphrasen, können im Zieltext gänzlich fehlen.

Wiederholungen
(„neural babble“)

Der Zieltext enthält z.B. den ausgangssprachlichen Ausdruck UND eine (inkorrekte) Übersetzung, doppelte Wörter o.ä.

Semantik

Die Maschine macht semantische Fehler, die zu Sinn- bzw. Logikfehlern führen.

Der Ausdruck ist zwar syntaktisch (nach allen Regeln der Grammatik) korrekt, missachtet aber gegebene semantische Regeln.

Inkonsistenzen

Bei generischen Engines kommt es zu inkonsistenten Übersetzungen auf der Begriffs-, Satzbaustein- und Satzebene.

Dasselbe gilt für die Anwendung von Groß- und Kleinschreibung.

Syntax und Zeichensetzung

Die Engine begeht klare Verstöße gegen die Satzbau- und Zeichensetzungsregeln.

Welche Fehler MÜ-Ergebnisse im Detail aufweisen kann sich aber je nach Projekt, Sprachkombination und Art der MÜ-Technologie unterscheiden.

Generische Engines eignen sich in der Regel für Unternehmen, die über keine fachspezifische Terminologie verfügen. Wenn es sich jedoch um rechtliche oder sicherheitsrelevante Texte handelt, ist der Arbeitsaufwand, der aus einer nachträglichen manuellen Korrektur resultiert, meistens einfach zu hoch.

Unabhängig vom inhaltlichen Aspekt spielt hier auch wieder der fehlende Datenschutz eine Rolle, den gibt es bei öffentlichen Tools wie DeepL nämlich nicht - was dort eingegeben wird, speichert das System auf seinen Servern. Bei sensiblen Texten und Daten ist hier also höchste Vorsicht geboten.

Im Dienstleistungsbereich werden individualisierte Systeme mit kundenspezifischen Daten trainiert, um sowohl die Terminologie als auch den firmeneigenen Sprachstil in den Übersetzungen zu berücksichtigen. Das Resultat sind hier Engines, deren Rohübersetzungen qualitativ wesentlich hochwertiger sind und die einen sehr viel geringeren Aufwand für das Post-Editing erfordern.

Trainingsmaterial und Terminologie müssen hierfür allerdings eine sehr hohe Qualität haben, denn schließlich lernen die neuronalen Netzwerke aus diesen Datensätzen. Sind sie fehlerhaft, wird die Engine automatisch auch Fehler produzieren.