Refine
Year of publication
- 2011 (29) (remove)
Document Type
- Part of a Book (25)
- Article (3)
- Book (1)
Has Fulltext
- yes (29)
Is part of the Bibliography
- no (29)
Keywords
- Deutsch (21)
- Konstruktionsgrammatik (8)
- Konstruktion <Linguistik> (5)
- Grammatik (4)
- Kollokation (3)
- Rezension (3)
- Englisch (2)
- Frame-Theorie (2)
- Korpus <Linguistik> (2)
- Phraseologie (2)
Publicationstate
Reviewstate
- (Verlags)-Lektorat (20)
- Verlags-Lektorat (4)
- (Verlags-)Lektorat (2)
Publisher
- de Gruyter (29) (remove)
Kollokationen stellen einen noch zu wenig beachteten Teilbereich der Phraseologie dar. Sie sind bisher in den Wörterbüchern unzureichend erfasst und werden auch nicht systematisch gelehrt und gelernt. Es lassen sich zwei Typen von Kollokationen unterscheiden, die sowohl eine strukturelle als auch eine statistische Herleitung nutzen und beide für die unauffällige und kompetente Sprachproduktion im Alltag von Bedeutung sind. Angesichts der großen Zahl der auffindbaren Kollokationen ist zu differenzieren und zu gewichten: a) Es steht lexikografisch zunächst die Unterstützung bei der Sprachproduktion im Vordergrund sowie b) der Grundwortschatz bzw. Basiswortschatz und es sind c) die Unterscheidung von typischen Wortverbindungen und gebräuchlichen Wortverbindungen ('den Hund loslassen' vs. 'den Hund anleinen/an die Leine nehmen') vorzunehmen.
Phänomene im Bereich von Valenz, Argumentstruktur, Diathesen, Kollokationen und Phrasemen dienen von jeher zur Bestimmung der Schnittstelle zwischen Lexikon und Grammatik. Mittlerweile sind allerdings grundsätzliche Zweifel an der Berechtigung der sprachtheoretischen Zweiteilung in Lexikon und Grammatik aufgekommen, auch weil die Entwicklungen im Bereich empirischer Methodik einen zunehmend besseren Einblick in die differenzierte Natur sprachlichen Wissens ermöglichen und uns mit semiproduktiven Prozessen, graduellen Kategoriezuordnungen, instabilen sprachlichen Mustern und frequenzgesteuerten Usualisierungen eigentlich regelhafter Strukturen konfrontieren. Die strikte Grenze zwischen der Grammatik als dem Ort des syntaktisch-semantisch Regelhaften und dem Lexikon als dem Repositorium des syntaktisch-semantisch Idiosynkratischen ist damit in Frage gestellt. Die Beiträge des Bandes betrachten den Bereich, wo Regelhaftes und Idiosynkratisches miteinander verwoben sind, sie führen Kontroversen zum Status von Konstruktionen und dem Verhältnis zwischen Lexikon und Grammatik, und sie zeigen, wie empirische Methoden der Korpuslinguistik, Psycho- und Neurolinguistik und Spracherwerbsforschung zur Klärung dieser Kontroversen beitragen.
Der Beitrag bietet einen Analysevorschlag für ereignisbezogene adverbiale Modifikatoren beim Zustandspassiv, der ihr Auftreten in verbaler Umgebung mit der adjektivischen Natur des Zustandspassivs in Einklang bringt. Grundlage hierfür ist eine empirisch breit abgesicherte Argumentation für das Vorliegen einer besonderen strukturellen Nähe zwischen Modifikator und Partizip, die gleichsam eine kompakte Einheit in der Übergangszone zwischen Wort und Phrase bilden. Diese Sicht macht den Weg frei für eine strikt kompositionale Semantik des Zustandspassivs samt adverbialen Modifikatoren.
Linguistische Ausdrücke, die offensichtlich aus kleineren Teilen zusammengesetzt sind, deren formale oder funktionale Eigenschaften jedoch nicht auf der Basis dieser kleineren Teile bestimmt werden können, kann man als Konstruktionen bezeichnen. Eine Standardannahme in regelbasierten Grammatikmodellen ist, dass komplexe linguistische Ausdrücke ins Lexikon gehören, wenn sie Konstruktionen sind, und in einem regelbasierten Bereich der Grammatik erfasst werden, wenn sie keine Konstruktionen sind. Dies führt zu einer inhomogenen und konzeptuell daher wenig attraktiven Theorie, die zwei mögliche Quellen für komplexe linguistische Ausdrücke vorsieht: Lexikon und Grammatik. Grundsätzlich gibt es zwei Auswege aus diesem Dilemma: Zum einen kann man die Rolle von Konstruktionen stärken, so dass Konstruktionen viel oder sogar alles von dem abdecken, was traditionell von grammatischen Regeln behandelt wird. Zum anderen kann man aber auch versuchen, die Rolle von Regeln zu stärken, so dass Regeln viel oder sogar alles von dem abdecken, wofür man typischerweise Konstruktionen bemüht. In diesem Aufsatz möchte ich anhand von zwei Phänomenen in der Grammatik des Deutschen, die auf den ersten Blick wie Musterexemplare für Konstruktionen aussehen, argumentieren, dass ein ausschließlich regelbasierter Ansatz nicht nur deskriptiv konkurrenzfähig ist, sondern darüber hinaus auch explanativ überlegen. Die untersuchten Phänomene sind verblose Direktive (wie in „Her mit dem Geld!“) einerseits und sequentielle Nominalreduplikation (wie in „Jahr für Jahr“) andererseits. Die allgemeine Konklusion ist, dass es vermutlich (außer, trivialerweise, Morphemen) gar keine Konstruktionen gibt.
Der kindliche Spracherwerb zeichnet sich sowohl durch seine Robustheit als auch durch eine spezifische Dynamik aus. Im Mittelpunkt des Beitrags stehen frühe Phasen des Erwerbs des Deutschen, in denen Konstruktionen unterschiedlicher Analysetiefe koexistieren, die im Laufe der Zeit immer wieder reanalysiert werden und schließlich auf einen einzigen abstrakten Bauplan hin konvergieren. Anhand von Daten aus diversen Fallstudien wird gezeigt, dass die Entwicklung der so genannten „Satzklammer“ des Deutschen als Konvergenzprozess verstanden werden kann, bei dem Lerner bewährte Teilsysteme, darunter anfängliche teilproduktive Formeln, dekonstruieren und auf abstrakterer Ebene rekonstruieren. Untersucht werden typische Übergangsphänomene, u.a. die Verwendung von Platzhaltern und Doppelbesetzungen, die diese Konstruktionsleistung erkennen lassen. Argumentiert wird, dass sich generative und dynamische, konstruktivistische Ansätze bei dem Bemühen um eine Erklärung dieses Erwerbsprozesses sinnvoll ergänzen.
Es ist unbestritten, dass in allen natürlichen Sprachen nicht-kompositionelle Form-Bedeutungspaare verschiedener Komplexitäts- und Abstraktionsgrade existieren. Uneinigkeit besteht dagegen bezüglich der Frage, ob diese Form-Bedeutungspaare als Teil der Grammatik oder gar, wie in der Konstruktionsgrammatik postuliert, als grundsätzliches grammatisches Organisationsprinzip zu verstehen sind. In meinem Beitrag argumentiere ich für eine zentrale Rolle von Konstruktionen bei der Repräsentation sprachlichen Wissens: Da Menschen offensichtlich in der Lage sind, Konstruktionen (im oben genannten Sinne) zu erwerben und zu verarbeiten, muss ein entsprechendes, konstruktionsverarbeitendes System existieren. Dieses kann auch nicht-idiomatische (regelhafte) Strukturen verarbeiten. Umgekehrt kann aber ein regelverarbeitendes System nicht ohne Weiteres idiomatische Strukturen verarbeiten. Das Sparsamkeitsprinzip sagt uns, dass eine Grammatik mit nur einem System einer mit zwei Systemen vorzuziehen ist, wenn es keine zwingenden Gründe für die Annahme eines zweiten Systems gibt. Neben diesem logisch-ökonomischen Argument diskutiere ich abschließend die Möglichkeit, anhand der systematischen Verletzung scheinbar allgemeingültiger grammatischer Regeln die Plausibilität eines konstruktionsverarbeitenden Systems empirisch zu untermauern.
Kombinationen aus Präposition und artikelloser Nominalprojektion, deren syntaktischer Kopf ein zählbares Substantiv im Singular ist, fristeten lange Zeit ein Schattendasein in der Grammatikschreibung. Sie wurden ignoriert oder als Ausnahmen beschrieben, obwohl sie offenkundig regelhaft gebildet werden. Im vorliegenden Aufsatz verwenden wir computerlinguistische Verfahren, insbesondere „Annotation Mining“ und logistische Regression, um die syntaktische Distribution dieser Kombinationen zu charakterisieren und anhand zweier Präpositionen (‚ohne‘ und ‚unter‘) detailliert die Realisationsbedingungen zu bestimmen.
Im letzten halben Jahrhundert hat in der formalen Grammatikforschung eine intensive Diskussion über die Natur syntaktischer und lexikalischer Information statt-gefunden. Während die frühe Generative Grammatik der traditionellen Grammatik folgte und konstruktionsspezifische Regeln anerkannte, gibt es seit den achtziger Jahren extreme Formen des Lexikalismus, die die Existenz von Konstruktionen bestreiten. Als Reaktion auf diese Entwicklungen leitete die „Berkeley Construction Grammar“ eine Renaissance der grammatischen Konstruktion ein. Der vorliegende Aufsatz untersucht anhand deutscher Relativsatztypen, ob diese besser rein lexikalisch oder mit Hilfe von Konstruktionen zu analysieren sind. Der Befund ist eindeutig: Die empirischen Daten treiben die rein lexikalische Theorie vor sich her und erweisen sie als unmotiviert und unüberzeugend. Im Gegensatz dazu kann die konstruktionale Theorie mit „intelligenten“ Werkzeugen wie Typen, Untertypen und Vererbung Generalisierungen über deutsche Relativsätze auf allen Ebenen elegant und effizient erfassen. Der Vorschlag Chomskys, Konstruktionen aus der Grammatik zu verbannen, erweist sich somit konzeptuell und empirisch als wissenschaftliche Fehlentscheidung.
Dieser Beitrag thematisiert semantische Bedingungen des unpersönlichen Passivs im Deutschen und in anderen Sprachen. Traditionellerweise nimmt man an, dass nur atelische und agentivische Verben im unpersönlichen Passiv akzeptabel sind. Ich werde die empirischen Hypothesen der bisherigen Forschung auf der Grundlage von Akzeptabilitätsstudien und einer breiteren korpusbasierten Datenmenge revidieren. Die hier behandelten semantischen Aspekte wurden in einflussreichen Arbeiten als Evidenz für die Überlegenheit einer konstruktionsgrammatischen Herangehensweise gewertet. Ich werde diese Evidenz in Frage stellen und beschränkungsbasierte Alternativen präsentieren.
Wie versteht ein Hörer oder Leser die von einem Sprecher oder Schreiber beabsichtigte Bedeutung? Syntaktische Strukturen sind zu allgemein, um feine Bedeutungsunterscheidungen auszudrücken. Wörter sind oft sehr mehrdeutig, und aufgrund dessen unzuverlässig als „Bedeutungsleitfaden“. Im Gegensatz dazu zeigt die Korpusmusteranalyse, dass die meisten Äußerungen aus Mustern von vergleichsweise geringer Mehrdeutigkeit aufgebaut sind. Daher stellt sich die Frage: Was ist ein Muster? Muster sind häufig verwendete Sprachbausteine, die aus zwei Elementen bestehen: Valenzen und Kollokationen. Während Valenzen relativ stabil sind, sind Kollokationen extrem variabel. In der Korpusmusteranalyse wird eine große Anzahl von Gebrauchsbelegen jedes Wortes studiert, und seine Kollokationen werden, ihren semantischen Typen entsprechend, lexikalischen Sets zugeordnet.
Jedes Wort einer Sprache ist Bestandteil von mindestens einem Muster. Wenn es Teil von mehr als einem Muster ist, können die Bedeutungen seiner Muster meist durch unterschiedliche Kollokations-Präferenzen unterschieden werden.
Kreative Benutzungen sind Abweichungen von normalen Nutzmustern, aber Abweichungen sind selbst regelgeleitet. Daher benötigt man eine Theorie von Normen und Abweichungen. Da die zwei Regelsysteme interagieren, können wir die Theorie als eine „Doppelhelix“ beschreiben.