Refine
Year of publication
- 2011 (28) (remove)
Document Type
- Part of a Book (24)
- Article (3)
- Book (1)
Language
- German (28) (remove)
Has Fulltext
- yes (28)
Is part of the Bibliography
- no (28)
Keywords
- Deutsch (21)
- Konstruktionsgrammatik (8)
- Konstruktion <Linguistik> (5)
- Grammatik (4)
- Kollokation (3)
- Rezension (3)
- Englisch (2)
- Frame-Theorie (2)
- Korpus <Linguistik> (2)
- Phraseologie (2)
Publicationstate
Reviewstate
- (Verlags)-Lektorat (19)
- Verlags-Lektorat (4)
- (Verlags-)Lektorat (2)
Publisher
- de Gruyter (28) (remove)
Im letzten halben Jahrhundert hat in der formalen Grammatikforschung eine intensive Diskussion über die Natur syntaktischer und lexikalischer Information statt-gefunden. Während die frühe Generative Grammatik der traditionellen Grammatik folgte und konstruktionsspezifische Regeln anerkannte, gibt es seit den achtziger Jahren extreme Formen des Lexikalismus, die die Existenz von Konstruktionen bestreiten. Als Reaktion auf diese Entwicklungen leitete die „Berkeley Construction Grammar“ eine Renaissance der grammatischen Konstruktion ein. Der vorliegende Aufsatz untersucht anhand deutscher Relativsatztypen, ob diese besser rein lexikalisch oder mit Hilfe von Konstruktionen zu analysieren sind. Der Befund ist eindeutig: Die empirischen Daten treiben die rein lexikalische Theorie vor sich her und erweisen sie als unmotiviert und unüberzeugend. Im Gegensatz dazu kann die konstruktionale Theorie mit „intelligenten“ Werkzeugen wie Typen, Untertypen und Vererbung Generalisierungen über deutsche Relativsätze auf allen Ebenen elegant und effizient erfassen. Der Vorschlag Chomskys, Konstruktionen aus der Grammatik zu verbannen, erweist sich somit konzeptuell und empirisch als wissenschaftliche Fehlentscheidung.
Der kindliche Spracherwerb zeichnet sich sowohl durch seine Robustheit als auch durch eine spezifische Dynamik aus. Im Mittelpunkt des Beitrags stehen frühe Phasen des Erwerbs des Deutschen, in denen Konstruktionen unterschiedlicher Analysetiefe koexistieren, die im Laufe der Zeit immer wieder reanalysiert werden und schließlich auf einen einzigen abstrakten Bauplan hin konvergieren. Anhand von Daten aus diversen Fallstudien wird gezeigt, dass die Entwicklung der so genannten „Satzklammer“ des Deutschen als Konvergenzprozess verstanden werden kann, bei dem Lerner bewährte Teilsysteme, darunter anfängliche teilproduktive Formeln, dekonstruieren und auf abstrakterer Ebene rekonstruieren. Untersucht werden typische Übergangsphänomene, u.a. die Verwendung von Platzhaltern und Doppelbesetzungen, die diese Konstruktionsleistung erkennen lassen. Argumentiert wird, dass sich generative und dynamische, konstruktivistische Ansätze bei dem Bemühen um eine Erklärung dieses Erwerbsprozesses sinnvoll ergänzen.
Es ist unbestritten, dass in allen natürlichen Sprachen nicht-kompositionelle Form-Bedeutungspaare verschiedener Komplexitäts- und Abstraktionsgrade existieren. Uneinigkeit besteht dagegen bezüglich der Frage, ob diese Form-Bedeutungspaare als Teil der Grammatik oder gar, wie in der Konstruktionsgrammatik postuliert, als grundsätzliches grammatisches Organisationsprinzip zu verstehen sind. In meinem Beitrag argumentiere ich für eine zentrale Rolle von Konstruktionen bei der Repräsentation sprachlichen Wissens: Da Menschen offensichtlich in der Lage sind, Konstruktionen (im oben genannten Sinne) zu erwerben und zu verarbeiten, muss ein entsprechendes, konstruktionsverarbeitendes System existieren. Dieses kann auch nicht-idiomatische (regelhafte) Strukturen verarbeiten. Umgekehrt kann aber ein regelverarbeitendes System nicht ohne Weiteres idiomatische Strukturen verarbeiten. Das Sparsamkeitsprinzip sagt uns, dass eine Grammatik mit nur einem System einer mit zwei Systemen vorzuziehen ist, wenn es keine zwingenden Gründe für die Annahme eines zweiten Systems gibt. Neben diesem logisch-ökonomischen Argument diskutiere ich abschließend die Möglichkeit, anhand der systematischen Verletzung scheinbar allgemeingültiger grammatischer Regeln die Plausibilität eines konstruktionsverarbeitenden Systems empirisch zu untermauern.
Dieser Beitrag thematisiert semantische Bedingungen des unpersönlichen Passivs im Deutschen und in anderen Sprachen. Traditionellerweise nimmt man an, dass nur atelische und agentivische Verben im unpersönlichen Passiv akzeptabel sind. Ich werde die empirischen Hypothesen der bisherigen Forschung auf der Grundlage von Akzeptabilitätsstudien und einer breiteren korpusbasierten Datenmenge revidieren. Die hier behandelten semantischen Aspekte wurden in einflussreichen Arbeiten als Evidenz für die Überlegenheit einer konstruktionsgrammatischen Herangehensweise gewertet. Ich werde diese Evidenz in Frage stellen und beschränkungsbasierte Alternativen präsentieren.
Der Artikel stellt die Projekte vor, die sich im Rahmen der Projektmesse zur „Elektronischen Lexikografie“ präsentiert haben. Diese Messe wurde begleitend zur 46. Jahrestagung des Instituts für Deutsche Sprache veranstaltet. Es wird in diesem Beitrag auf der Basis der Messepräsentationen dargelegt, inwiefern Entwicklungen der Korpuslexikografie und der Internetlexikografie die lexikografische Erfassung syntagmatischer Aspekte des deutschen Wortschatzes befördern und welche lexikografischen Internetressourcen dazu verfügbar sind.
Linguistische Ausdrücke, die offensichtlich aus kleineren Teilen zusammengesetzt sind, deren formale oder funktionale Eigenschaften jedoch nicht auf der Basis dieser kleineren Teile bestimmt werden können, kann man als Konstruktionen bezeichnen. Eine Standardannahme in regelbasierten Grammatikmodellen ist, dass komplexe linguistische Ausdrücke ins Lexikon gehören, wenn sie Konstruktionen sind, und in einem regelbasierten Bereich der Grammatik erfasst werden, wenn sie keine Konstruktionen sind. Dies führt zu einer inhomogenen und konzeptuell daher wenig attraktiven Theorie, die zwei mögliche Quellen für komplexe linguistische Ausdrücke vorsieht: Lexikon und Grammatik. Grundsätzlich gibt es zwei Auswege aus diesem Dilemma: Zum einen kann man die Rolle von Konstruktionen stärken, so dass Konstruktionen viel oder sogar alles von dem abdecken, was traditionell von grammatischen Regeln behandelt wird. Zum anderen kann man aber auch versuchen, die Rolle von Regeln zu stärken, so dass Regeln viel oder sogar alles von dem abdecken, wofür man typischerweise Konstruktionen bemüht. In diesem Aufsatz möchte ich anhand von zwei Phänomenen in der Grammatik des Deutschen, die auf den ersten Blick wie Musterexemplare für Konstruktionen aussehen, argumentieren, dass ein ausschließlich regelbasierter Ansatz nicht nur deskriptiv konkurrenzfähig ist, sondern darüber hinaus auch explanativ überlegen. Die untersuchten Phänomene sind verblose Direktive (wie in „Her mit dem Geld!“) einerseits und sequentielle Nominalreduplikation (wie in „Jahr für Jahr“) andererseits. Die allgemeine Konklusion ist, dass es vermutlich (außer, trivialerweise, Morphemen) gar keine Konstruktionen gibt.
Der Beitrag bietet einen Analysevorschlag für ereignisbezogene adverbiale Modifikatoren beim Zustandspassiv, der ihr Auftreten in verbaler Umgebung mit der adjektivischen Natur des Zustandspassivs in Einklang bringt. Grundlage hierfür ist eine empirisch breit abgesicherte Argumentation für das Vorliegen einer besonderen strukturellen Nähe zwischen Modifikator und Partizip, die gleichsam eine kompakte Einheit in der Übergangszone zwischen Wort und Phrase bilden. Diese Sicht macht den Weg frei für eine strikt kompositionale Semantik des Zustandspassivs samt adverbialen Modifikatoren.
Der Band versammelt 18 Beiträge zur verbalen Wortbildung des Deutschen, die auf Vorträge bei einem internationalen Kolloquium in Nancy im Dezember 2006 zurückgehen. Die Herausgeber stellen in ihrem Vorwort (S. VII-X) die einzelnen Beiträge vor, sagen aber nichts dazu, warum das Thema „Verbale Wortbildung“ für das jährliche Kolloquium der französischen Germalinguisten ausgewählt wurde. Dem Rückseitentext ist dagegen zu entnehmen, warum die Untersuchungen veröffentlicht wurden: Es mangelt zwar nicht an Publikationen über die Wortbildung des Deutschen, aber die verbale Wortbildung ist bis jetzt eher stiefmütterlich behandelt worden, was vielleicht an der außerordentlichen Komplexität dieser Frage liegt. Der vorliegende Band möchte deshalb den zahlreichen noch offenen Fragen in diesem Bereich gerecht werden und die wichtigsten typologischen, semantischen, orthografischen und syntaktischen Probleme der verbalen Wortbildung erörtern.
Kombinationen aus Präposition und artikelloser Nominalprojektion, deren syntaktischer Kopf ein zählbares Substantiv im Singular ist, fristeten lange Zeit ein Schattendasein in der Grammatikschreibung. Sie wurden ignoriert oder als Ausnahmen beschrieben, obwohl sie offenkundig regelhaft gebildet werden. Im vorliegenden Aufsatz verwenden wir computerlinguistische Verfahren, insbesondere „Annotation Mining“ und logistische Regression, um die syntaktische Distribution dieser Kombinationen zu charakterisieren und anhand zweier Präpositionen (‚ohne‘ und ‚unter‘) detailliert die Realisationsbedingungen zu bestimmen.
Grammatik ohne Wörter?
(2011)
Am Beispiel des Deutschen wird gezeigt, dass verschiedene Strategien, die traditionelle Unterscheidung zwischen Wörtern und Syntagmen so zu modifizieren, dass sie die sehr differenzierten Daten vollständig, detailliert und widerspruchsfrei erfasst, zur inhaltlichen Entleerung dieser Unterscheidung führen und sie damit letztlich überflüssig machen. Das gilt sowohl für die populäre Aufspaltung von Wort vs. Syntagma in mehrere spezifischere Kategorienpaare (phonologisches Wort vs. phonologisches Syntagma, graphematisches Wort vs. graphematisches Syntagma usw.) als auch für ihre Umdeutung als Prototypen- oder Default-Kategorien. Allerdings kann man an der Unterscheidung zwischen Wörtern und Syntagmen festhalten, wenn man Einschränkungen der Vollständigkeit, Detailtreue oder Widerspruchsfreiheit in Kauf nimmt (wie in der linguistischen Praxis oft unumgänglich). Diese Überlegungen übertragen sich auf die auf Wort vs. Syntagma beruhenden Abgrenzungen linguistischer Teilgebiete, wie Syntax vs. Morphologie vs. Phraseologie, z.T. auch Grammatik vs. Lexikon.
In der letzten Zeit wurde aus verschiedenen linguistischen Teildisziplinen heraus versucht, die Anwendbarkeit der Construction Grammar in Bereichen wie beispielsweise der Gesprächsforschung zu überprüfen. Für die Gesprächsforschung bzw. Interaktionale Linguistik bietet die Construction Grammar einen viel versprechenden theoretischen Rahmen, da sich viele der Grundannahmen von Construction Grammar und Interaktionaler Linguistik/Gesprächsanalyse decken. Trotz dieser positiven Übereinstimmungen führt das zeichenbasierte Konzept der Konstruktionsgrammatik zu Problemen bei der Analyse gesprochener Sprache. Häufig können bestimmte Phrasen, Satzmuster oder Wörter nicht bestimmten Konstruktionen eindeutig zugeordnet werden, da zu ihrem Verständnis Kontextinformationen nötig sind oder da sie die Merkmale mehrerer Konstruktionen teilen. Anhand dreier problematischer Fälle aus dem gesprochenen Deutsch, bei denen das Konzept, Konstruktionen als Zeichen zu betrachten, zu Problemen führt, werden die Grenzen des konstruktionsgrammatischen Modells aufgezeigt. In einem zweiten Schritt wird als Lösungsvorschlag die Theorie der Granularität nach Bittner/Smith (2001a und b, 2003) vorgestellt, die dazu entwickelt wurde, „to map vague concepts onto crisp portions of reality“ (Bittner/Smith 2011a, S 1). Zuletzt wird eine granulare Re-Analyse der eingangs vorgestellten Problemfälle vorgenommen.
Kollokationen stellen einen noch zu wenig beachteten Teilbereich der Phraseologie dar. Sie sind bisher in den Wörterbüchern unzureichend erfasst und werden auch nicht systematisch gelehrt und gelernt. Es lassen sich zwei Typen von Kollokationen unterscheiden, die sowohl eine strukturelle als auch eine statistische Herleitung nutzen und beide für die unauffällige und kompetente Sprachproduktion im Alltag von Bedeutung sind. Angesichts der großen Zahl der auffindbaren Kollokationen ist zu differenzieren und zu gewichten: a) Es steht lexikografisch zunächst die Unterstützung bei der Sprachproduktion im Vordergrund sowie b) der Grundwortschatz bzw. Basiswortschatz und es sind c) die Unterscheidung von typischen Wortverbindungen und gebräuchlichen Wortverbindungen ('den Hund loslassen' vs. 'den Hund anleinen/an die Leine nehmen') vorzunehmen.
Kollokationen sind nach unserem Verständnis phraseologische Kombinationen aus zwei Lexemen, die in einer Sprachgemeinschaft konventionalisiert und deren Elemente semantisch ungleichgewichtig sind: Eines wird in derselben Weise verwendet wie in kompositionellen Wortkombinationen (Basis), das andere (Kollokator) erhält seine spezifische Bedeutung nur innerhalb der Kollokation.
Der Artikel diskutiert Möglichkeiten, Kollokationen in Texten zu identifizieren, die für die deutschen Nationalvarietäten aus Deutschland, Österreich, der Schweiz und Südtirol typisch sind. Der Schwerpunkt liegt dabei auf methodischen Fragen: Lassen sich mit einfachen, im Wesentlichen frequenzbasierten Werkzeugen Kollokationsunterschiede zwischen Österreich und Deutschland, der Schweiz und Deutschland, usw. aufweisen? Wie können die Spezifika der Kollokationswahl in den einzelnen Nationalvarietäten anhand von Korpora genauer dokumentiert werden? Sind Varietäten nur in Bezug auf die Kollokatorenwahl spezifisch, oder auch bezüglich morphosyntaktischer Präferenzen (z.B. Artikelgebrauch etc.)?
Wie versteht ein Hörer oder Leser die von einem Sprecher oder Schreiber beabsichtigte Bedeutung? Syntaktische Strukturen sind zu allgemein, um feine Bedeutungsunterscheidungen auszudrücken. Wörter sind oft sehr mehrdeutig, und aufgrund dessen unzuverlässig als „Bedeutungsleitfaden“. Im Gegensatz dazu zeigt die Korpusmusteranalyse, dass die meisten Äußerungen aus Mustern von vergleichsweise geringer Mehrdeutigkeit aufgebaut sind. Daher stellt sich die Frage: Was ist ein Muster? Muster sind häufig verwendete Sprachbausteine, die aus zwei Elementen bestehen: Valenzen und Kollokationen. Während Valenzen relativ stabil sind, sind Kollokationen extrem variabel. In der Korpusmusteranalyse wird eine große Anzahl von Gebrauchsbelegen jedes Wortes studiert, und seine Kollokationen werden, ihren semantischen Typen entsprechend, lexikalischen Sets zugeordnet.
Jedes Wort einer Sprache ist Bestandteil von mindestens einem Muster. Wenn es Teil von mehr als einem Muster ist, können die Bedeutungen seiner Muster meist durch unterschiedliche Kollokations-Präferenzen unterschieden werden.
Kreative Benutzungen sind Abweichungen von normalen Nutzmustern, aber Abweichungen sind selbst regelgeleitet. Daher benötigt man eine Theorie von Normen und Abweichungen. Da die zwei Regelsysteme interagieren, können wir die Theorie als eine „Doppelhelix“ beschreiben.
WordNet und FrameNet sind zwei umfangreiche lexikalische Ressourcen. Obwohl sie auf unterschiedlichen Theorien der lexikalischen Organisation basieren und die semantischen und syntaktischen Eigenschaften von Verben in beiden Ressourcen unterschiedlich dargestellt werden, wird mit beiden das Ziel verfolgt, die Regelmäßigkeit des Lexikons hervorzuheben. Seit Levin (1993) ist bekannt, dass die Selektion und Projektion von Argumenten eng mit den semantischen Eigenschaften von Verben zusammenhängt, und dass eine syntaktisch basierte Klassifikation des Verblexikons semantisch homogene Klassen ergibt. In diesem Beitrag werden die unterschiedlichen Ansätze von WordNet und FrameNet, das Verblexikon einheitlich zu klassifizieren, bewertet. Es wird ein laufender Versuch beschrieben, beide Ressourcen teilweise miteinander abzugleichen, indem ausgewählte Verben in einem großen Korpus zunächst manuell mit Bezug auf Einträge in WordNet und FrameNet annotiert werden. Anschließend werden verschiedene Ansätze zur automatischen Abgleichung, wie z.B. der des deutschen SALSA-Projekts, im Überblick dargestellt.
Aus den Argumentstrukturen von Verben lassen sich vielfach eigenständige Argumentstrukturmuster mit idiosynkratischen formalen oder inhaltlichen Eigenschaften abstrahieren. Der Artikel zeigt, dass sich Ähnlichkeiten zwischen solchen Mustern nicht, wie von Goldberg (1995) vorgeschlagen, über das Konzept polysemer Argumentstrukturkonstruktionen erfassen lassen, sondern adäquater über ein Netz von Familienähnlichkeiten modelliert werden können. Die einzelnen Argumentstrukturmuster zeigen dabei eine Vielzahl von idiosynkratischen lexikalischen Kookkurrenzen, die spezifisch für die je einzelnen Argumentstrukturmuster sind und in einer implikativen Beziehung zu diesen stehen. Überlegungen zur angemessenen sprachtheoretischen Modellierung der Daten zeigen dabei sowohl Schwächen valenzbasierter Theorien als auch Mängel konstruktionsbasierter Ansätze auf.
Zwischenräume – Phänomene, Methoden und Modellierung im Bereich zwischen Lexikon und Grammatik
(2011)
Der Beitrag führt in den Sammelband „Sprachliches Wissen zwischen Lexikon und Grammatik“ ein und diskutiert zunächst den Zusammenhang zwischen den drei Dichotomien Lexikon versus Grammatik, Wort versus Phrase und Idiosynkrasie versus Regel. Im Folgenden werden Varianten des Konstruktionsbegriffs dargestellt und hinsichtlich verschiedener Dimensionen analysiert. Einer Darstellung der im Zusammenhang mit der Lexikon-Grammatik-Abgrenzung diskutierten Phänomene und angewandten empirischen Methoden schließt sich eine Übersicht über die Aufsätze des Sammelbandes an.
Einführung
(2011)
Der vorliegende Aufsatz beschäftigt sich mit der Frage, wie Argumente während des Sprachverstehens erkannt werden, welche Eigenschaften einem Argument in Abwesenheit des Verbs zugeschrieben werden und welche Art von Vorhersagen mit der Argumentinterpretation verbunden sind. Ausgehend von der Annahme, dass beim Sprachverstehen in Echtzeit jedes Wort so maximal wie möglich interpretiert wird, werden wir argumentieren, dass die zugrunde liegenden, sprachübergreifend zu findenden Mechanismen durch die Interaktion von typologisch motivierten Prominenzskalen (z.B. Belebtheitshierarchie) beschrieben werden sollten. Diese gestatten nicht nur eine Erklärung bestehender Befunde, sondern besitzen das Potenzial, zentrale Aspekte der Sprachverstehensarchitektur modelltheoretisch abzuleiten. Experimentell liegt der Fokus des Aufsatzes auf der Erfassung elektrophysiologischer-neuronaler Aktivierungsmuster, da diese uns im Gegensatz zu Urteilen oder Korpusverteilungen einen unmittelbaren Einblick in die Verarbeitung im Echtzeitbereich gestatten.
Das in diesem Beitrag vorgeschlagene Netzwerk aus Resultativkonstruktionen unterschiedlichen Abstraktionsgrades vereinigt die Vorteile von Goldbergs (1995, 2006) und Boas' (2003a, 2005a) Analysen. So können sowohl die beim Dekodieren relevanten abstrakt-schematischen Konstruktionsinformationen als auch die beim Kodieren wichtigen lexikalisch-spezifizierten Konstruktionsinformationen über semantische, pragmatische, und syntaktische Restriktionen auf der Ebene von Ereignis-Frames in einem einheitlichen Netzwerk erfasst und analysiert werden. Diese einheitliche Analyse bietet zwei entscheidende Vorteile. Erstens vereinfacht die Beschreibung der Distribution von Konstruktionen auf primär semantisch-pragmatischer Ebene die kontrastive Analyse von gleichartigen Konstruktionen in unterschiedlichen Sprachen. Zweitens erfüllt die hier vorgeschlagene Methode auch die in neueren Veröffentlichungen zu Parallelen der Valenzgrammatik und Konstruktionsgrammatik gemachten Vorschläge, unterschiedliche Abstraktionsgrade von Konstruktionen zu berücksichtigen. Ich danke Hans Ulrich Boas, Marc Pierce, Guido Halder, Martin Hilpert, Wolfgang Imo, Klaus Welke, Gert Webelhuth, Alexander Ziem und den Herausgebern für ihre Kommentare und Anregungen.
Der Konstruktionsbegriff hielt seinen Einzug in die Spracherwerbsforschung durch gebrauchsbasierte Lerntheorien, nach denen sprachliche Strukturen als Form-Funktionseinheiten aus dem Input abgeleitet werden, Sprache somit ein emergentes System ist (Tomasello 1998a und b; Behrens 2009a und b). Die Abstraktionseinheit für das Kind ist dabei die Äußerung in ihrer situativen Gebundenheit und ihrer Diskursfunktion, mithin die Konstruktion. Die Konstruktion wird gefasst als schematische Einheit mit mehr oder weniger offenen Slots: Teile der Konstruktion können lexikalisch fixiert oder aber produktiv und durch andere Ausdrücke ersetzbar sein. Der Kontrast zum Valenzbegriff bzw. dem der Argumentstruktur in seiner formaleren Definition liegt darin, dass die lexikalischen Eigenschaften der Wörter die Syntax nicht projizieren, sondern dass sowohl die Eigenschaften der Lemmas als auch die der Morphosyntax aus ihrem Vorkommen in konkreten Sätzen abgeleitet werden.
Empirisch konzentriert sich die Forschung auf die Ermittlung der Generalisierungsprozesse und auf deren Basis im Input, dem Sprachangebot. Erwerbsrelevant ist insbesondere der Input in seinen usualisierten Mustern in typischen Interaktionssituationen. Eher wird vor allem der Grad der Produktivität kindlicher Äußerungen analysiert. Bislang weniger untersucht, aber zunehmend im Fokus sind die Generalisierungsprozesse selbst und damit die generative Kraft des Konstruktionsbegriffs. Sobald Aspekte einer Konstruktion abstrahiert worden (= produktiv) sind, sollten sie auf neue Situationen übertragen werden können, und gilt es zu ermitteln, welche formalen, funktionalen und distributionellen Faktoren die Abstraktion sprachlichen Wissens fördern.
In dem Paradigma der gebrauchsbasierten Konstruktionsgrammatik wird die modulare Trennung zwischen Wörtern und Regeln aufgehoben. Somit kann innerhalb eines einheitlichen theoretischen Rahmens sowohl der Erwerb regelhafter als auch der stärker idiosynkratischer Strukturen erklärt werden.
Phänomene im Bereich von Valenz, Argumentstruktur, Diathesen, Kollokationen und Phrasemen dienen von jeher zur Bestimmung der Schnittstelle zwischen Lexikon und Grammatik. Mittlerweile sind allerdings grundsätzliche Zweifel an der Berechtigung der sprachtheoretischen Zweiteilung in Lexikon und Grammatik aufgekommen, auch weil die Entwicklungen im Bereich empirischer Methodik einen zunehmend besseren Einblick in die differenzierte Natur sprachlichen Wissens ermöglichen und uns mit semiproduktiven Prozessen, graduellen Kategoriezuordnungen, instabilen sprachlichen Mustern und frequenzgesteuerten Usualisierungen eigentlich regelhafter Strukturen konfrontieren. Die strikte Grenze zwischen der Grammatik als dem Ort des syntaktisch-semantisch Regelhaften und dem Lexikon als dem Repositorium des syntaktisch-semantisch Idiosynkratischen ist damit in Frage gestellt. Die Beiträge des Bandes betrachten den Bereich, wo Regelhaftes und Idiosynkratisches miteinander verwoben sind, sie führen Kontroversen zum Status von Konstruktionen und dem Verhältnis zwischen Lexikon und Grammatik, und sie zeigen, wie empirische Methoden der Korpuslinguistik, Psycho- und Neurolinguistik und Spracherwerbsforschung zur Klärung dieser Kontroversen beitragen.