Übersetzungswissenschaft
Refine
Document Type
- Part of a Book (8)
Language
- German (8)
Has Fulltext
- yes (8)
Keywords
- Übersetzung (6)
- Deutsch (4)
- Empirische Linguistik (2)
- Korpus <Linguistik> (2)
- Rechtssprache (2)
- Englisch (1)
- Europäische Kommission (1)
- Europäische Union (1)
- Fachsprache (1)
- Grammatik (1)
Publicationstate
Reviewstate
Publisher
- de Gruyter (8) (remove)
Mögliche Erklärungshorizonte für grammatische Variation in Übersetzungen können durch kontrastive Unterschiede sowie Textsortenkonventionen für die involvierten Sprachen hergeleitet werden. Weiterhin ausschlaggebend sind die vom Übersetzer verwendeten Übersetzungsstrategien, wie Simplifizierung und Explizierung, die mit Methoden der Korpuslinguistik und der Translationsprozessforschung untersucht werden können. Letztere betreffend liefert das Eyetracking Hinweise auf Problemstellen im Ausgangstext; das Keylogging lässt Rückschlüsse auf die Problemlösestrategien im Zieltext zu. Durch die Triangulation der gewonnenen Produkt- und Prozessdaten kann einerseits der ganzheitliche Übersetzungsprozess und andererseits die Produktion der grammatischen Variation empirisch aufgearbeitet werden.
Die Sprachverarbeitung beim Übersetzen unterliegt zwei gegenläufigen Forderungen: der ausgangstextbasierten Äquivalenzforderung und der funktionalistischen Zielpublikumsorientierung. So können Übersetzungen mehr oder weniger wie eine Kopie des Ausgangstextes in einer anderen Sprache wirken, je nachdem wie wörtlich oder frei übersetzt wurde. Dieses Entscheidungskontinuum lässt sich mit dem Entropiebegriff operationalisieren. Je höher die Entropie, desto mehr Übersetzungsvarianten gibt es fur einen ausgangssprachlichen Ausdruck. Welche Rolle hierbei das mentale Lexikon spielt und inwiefern die Entropie die kognitiven Prozesse beim Übersetzen beeinflusst, kann durch experimentelle Forschung untersucht werden. In einer ersten Studie haben wir den Einfluss des mentalen Lexikons auf die Übersetzungsentropie und dessen Entwicklungspotenzial bei Studierenden am Beispiel von Kognaten untersucht. Die zweite Studie belegt den Zusammenhang zwischen Entropie und der kognitiven Belastung am Beispiel verschiedener Wortarten. Durch die Datentriangulation von produkt- und prozessbasierten Ergebnissen lassen sich spezifische Verwendungsmuster ableiten.
In dieser Studie wird die Übersetzung von Kollokationen untersucht, die das Lemma AUGE und verschiedene Verben des Öffnens und des Schließens verbinden. Als Datenquelle für die Studie dient GEPCOLT German-English Parallel Corpus of Literary Texts). Die Relevanz dieser Untersuchung für die Übersetzungswissenschaft und das Übersetzen selbst wird im zweiten Teil diskutiert. Es wird herausgestellt, wie Standardübersetzungen Fälle von Delexikalisierung in der Ausgangssprache veranschaulichen können, und gezeigt, dass verschiedene formale Realisierungen derselben semantischen Kollokation mehr oder weniger stabile Übersetzungen produzieren können. Zum Schluß wird dargelegt, wie nützlich diese Art der Analyse für Stilstudien sein kann, insofern als die konsequente Verwendung eines bevorzugten Wortes ein Element des individuellen Stils einer Übersetzerin/eines
Übersetzers ist.
Statistische Methoden finden derzeit in der Sprachtechnologie vielfache Verwendung. Ein Grundgedanke dabei ist das Trainieren von Programmen auf große Mengen von Daten. Für das Trainieren von statistischen Sprachmodellen gilt zur Zeit das Motto „Je mehr Daten desto besser“. In unserem System zur maschinellen Übersetzung sehen wir eine fast konstante qualitative Verbesserung (gemessen als BLEU-Score) mit jeder Verdoppelung der monolingualen Trainingsdatenmenge. Selbst bei Mengen von ca. 20 Milliarden Wörtern aus Nachrichtentexten und ca. 200 Milliarden Wörtern aus Webseiten ist kein Abflachen der Lernkurve in Sicht.
Dieser Artikel gibt kurze Einführungen in statistische maschinelle Übersetzung, die Evaluation von Übersetzungen mit dem BLEU-Score, und in statistische Sprachmodelle. Wir zeigen, welch starken Einfluß die Größe der Trainingsdaten des Sprachmodells auf die Übersetzungsqualität hat. Danach wird die Speicherung großer Datenmengen, das Trainieren in einer parallelen Architektur und die effiziente Verwendung der bis zu 1 Terabyte großen Modelle in der maschinellen Übersetzung beschrieben.