430 Deutsch
Refine
Year of publication
- 2011 (132) (remove)
Document Type
- Part of a Book (68)
- Article (31)
- Book (17)
- Conference Proceeding (5)
- Part of Periodical (5)
- Other (3)
- Bachelor Thesis (1)
- Doctoral Thesis (1)
- Review (1)
Keywords
- Deutsch (96)
- Wörterbuch (11)
- Interaktionsanalyse (10)
- Korpus <Linguistik> (10)
- Computerunterstützte Lexikographie (9)
- Konstruktionsgrammatik (9)
- Online-Wörterbuch (9)
- Internet (8)
- Grammatik (7)
- Rezension (7)
Publicationstate
- Veröffentlichungsversion (42)
- Zweitveröffentlichung (13)
- Postprint (4)
Reviewstate
Publisher
- Institut für Deutsche Sprache (33)
- de Gruyter (24)
- Narr (16)
- Lang (4)
- Verlag für Gesprächsforschung (4)
- Groos (3)
- Winter (3)
- Carocci (2)
- De Gruyter (2)
- Frank & Timme (2)
Das Thema "Konnektoren" stößt in letzter Zeit sowohl in funktionalen als auch in formalen Arbeiten auf großes Interesse. Das Hauptanliegen des vorliegenden Bandes besteht aus dem Bemühen, einen weiten Blickwinkel anzubieten - sowohl hinsichtlich des theoretischen Rahmens, in dem die einzelnen Beiträge entstanden sind, als auch der Auswahl der Schwerpunkte: Er vereint breit angelegte theoretische Beiträge mit solchen, die sich vorwiegend mit einer semantischen Gruppe von Konnektoren auseinandersetzen. Den Schwerpunkt bilden hierbei Kausalkonnektoren. Darüber hinaus widmen sich einzelne Beiträge den Temporalkonnektoren und Adverbkonnektoren aus verschiedenen Perspektiven oder untersuchen Konnektoren sprachvergleichend in unterschiedlichen Kontexten.
Dabei zielen alle Beiträge trotz verschiedenartiger Theorieansätze darauf ab, verschiedene Klassen von Konnektoren in einer Weise zu analysieren, die in einer operationalisierbaren Methode etwa im DaF-Bereich angewendet werden.
Das Werk versteht sich als eine Darstellung der wichtigsten syntaktischen, prosodischen, semantischen und pragmatischen Eigenschaften kausaler und konditionaler Konnektoren des gesprochenen Deutsch.
Die Untersuchung formuliert notwendige theoretische Grundlagen und zeigt die komplexe Interaktion mehrerer Faktoren, die sich auf die Interpretation einer Äußerung auswirken. Empirische Daten belegen, dass die kontextuelle und pragmatische Interpretation der untersuchten Relationen stark mit ihren syntaktischen und prosodischen Mustern korreliert. Jedoch handelt es sich nicht um eine Eins-zu-eins-Beziehung, denn gleiche Lesarten können von kausalen und konditionalen Relationen unterschiedlich markiert sein. Anhand der Ergebnisse wird das Verhältnis zwischen Konditionalität und Kausalität diskutiert.
This paper is concerned with relative constructions in non-standard varieties of European languages, which will be analyzed on the basis of three typological parameters (word order, relative element, syntactic role of the relativized item). The validity of claims raised in studies on the areal distribution of relative constructions in Europe will be checked against the results of the analysis, so as to ascertain whether they still hold when non-standard varieties are examined.
Kollokationen stellen einen noch zu wenig beachteten Teilbereich der Phraseologie dar. Sie sind bisher in den Wörterbüchern unzureichend erfasst und werden auch nicht systematisch gelehrt und gelernt. Es lassen sich zwei Typen von Kollokationen unterscheiden, die sowohl eine strukturelle als auch eine statistische Herleitung nutzen und beide für die unauffällige und kompetente Sprachproduktion im Alltag von Bedeutung sind. Angesichts der großen Zahl der auffindbaren Kollokationen ist zu differenzieren und zu gewichten: a) Es steht lexikografisch zunächst die Unterstützung bei der Sprachproduktion im Vordergrund sowie b) der Grundwortschatz bzw. Basiswortschatz und es sind c) die Unterscheidung von typischen Wortverbindungen und gebräuchlichen Wortverbindungen ('den Hund loslassen' vs. 'den Hund anleinen/an die Leine nehmen') vorzunehmen.
Solo di recente le tipologie testuali turistiche, generi di testo che svolgono un ruolo molto importante nella comunicazione specialistica, sono diventate oggetto di interesse per gli studi linguistici. L’articolo presenta gli esiti di un’analisi contrastiva (tedesco-italiano) di cataloghi turistici dal punto di vista microstrutturale, con particolare attenzione per la sintassi, il lessico e i mezzi stilistici più frequentemente utilizzati. L’indagine palesa come i cataloghi siano una tipologia testuale che si presta a molteplici applicazioni sia in didattica che in lessicografia.
DIL ist ein deutsch-italienisches Online-Fachwörterbuch der Linguistik. Es ist ein offenes Wörterbuch und mit diesem Beitrag wird für eine mögliche Zusammenarbeit, Kollaboration plädiert. DIL ist noch im Aufbau begriffen; zur Zeit ist nur die Sektion DaF komplett veröffentlicht, auch wenn andere Sektionen in Bearbeitung sind. Die Sektion LEX (Lexikographie), die zur Veröffentlichung ansteht, wird zusammen mit den wichtigsten Eigenschaften des Wörterbuches präsentiert.
The study empirically examines the interpretation of focus accents in German. To this end, a methodology is developed, and it is discussed how experimental investigation can proceed at the current state of the focus theory. Methodologically, experiments directly measuring interpretation provide an alternative to the widespread practice of using only empirical preference and production data to investigate the interpretation of stimuli, and it is shown why such an alternative is necessary.
The empirical results show that one must extend and restrict theories assuming an association of free focus and scalar implicature (exhaustivity) or question–answer congruence as follows: On the one hand, situational factors in the interpretation must be taken into account to a greater extent than until now, especially their interaction with ‘physical’ properties of the speech signal (focus marking). On the other hand, a prototypical definition of Focus is called for which connects the major concepts of focus on the phonetic-phonological, semantic and information-structural levels and takes their prototypical coincidence to be the basis of focus interpretation and corresponding intuitions.
Phänomene im Bereich von Valenz, Argumentstruktur, Diathesen, Kollokationen und Phrasemen dienen von jeher zur Bestimmung der Schnittstelle zwischen Lexikon und Grammatik. Mittlerweile sind allerdings grundsätzliche Zweifel an der Berechtigung der sprachtheoretischen Zweiteilung in Lexikon und Grammatik aufgekommen, auch weil die Entwicklungen im Bereich empirischer Methodik einen zunehmend besseren Einblick in die differenzierte Natur sprachlichen Wissens ermöglichen und uns mit semiproduktiven Prozessen, graduellen Kategoriezuordnungen, instabilen sprachlichen Mustern und frequenzgesteuerten Usualisierungen eigentlich regelhafter Strukturen konfrontieren. Die strikte Grenze zwischen der Grammatik als dem Ort des syntaktisch-semantisch Regelhaften und dem Lexikon als dem Repositorium des syntaktisch-semantisch Idiosynkratischen ist damit in Frage gestellt. Die Beiträge des Bandes betrachten den Bereich, wo Regelhaftes und Idiosynkratisches miteinander verwoben sind, sie führen Kontroversen zum Status von Konstruktionen und dem Verhältnis zwischen Lexikon und Grammatik, und sie zeigen, wie empirische Methoden der Korpuslinguistik, Psycho- und Neurolinguistik und Spracherwerbsforschung zur Klärung dieser Kontroversen beitragen.
Wörter und Unwörter
(2011)
„Keine Angst vor Anglizismen“ sagt Gerhard Stickel und zeigt, dass und wie der Wortschatz der deutschen Sprache sich ständig erneuert, nicht nur durch die Entlehnung von Wörtern aus anderen Sprachen, sondern mehr noch durch die Bildung neuer Wörter aus vorhandenen eigenen Wörtern und Wortteilen. So wie die alte Vorliebe für Wörter aus dem Französischen sich überlebt hat, sind auch viele Anglizismen schon wieder untergegangen, und ihr übermäßiger Gebrauch sagt weniger über die Sprache als über ihre Sprecher – ganz abgesehen davon, dass das Deutsche nicht nur Wörter aus anderen Sprachen aufnimmt, sondern auch seinerseits Wörter an andere Sprachen abgibt. Die deutsche Sprache wird zum Faszinosum in diesem Vortrag des ehemaligen Direktors des Instituts für Deutsche Sprache.
Der Beitrag bietet einen Analysevorschlag für ereignisbezogene adverbiale Modifikatoren beim Zustandspassiv, der ihr Auftreten in verbaler Umgebung mit der adjektivischen Natur des Zustandspassivs in Einklang bringt. Grundlage hierfür ist eine empirisch breit abgesicherte Argumentation für das Vorliegen einer besonderen strukturellen Nähe zwischen Modifikator und Partizip, die gleichsam eine kompakte Einheit in der Übergangszone zwischen Wort und Phrase bilden. Diese Sicht macht den Weg frei für eine strikt kompositionale Semantik des Zustandspassivs samt adverbialen Modifikatoren.
Nach Aufrufen der Zarin Katharina II und ihrer Nachfolger haben sich viele Menschen „aus deutschen Landen“ – aus Hessen und Baden, aus der Pfalz und Württemberg, aus Bayern, aus Mittel- und Norddeutschland – im 18. und später im 19. Jahrhundert auf den Weg nach Russland gemacht. Mitnehmen konnten sie nicht viel – außer ihren Heimatmundarten. Diese haben sie nicht nur in den ersten Jahrzehnten bewahrt, sondern für viele Generationen und Jahrhunderte danach.
Vom Zarenreich bis Putin folgt die Autorin dem Schicksal der russlanddeutschen Dialekte. Sie reist in die entlegensten Winkel der ehemaligen Sowjetunion, in die kleinen und großen Sprachinseln, besucht Wolhyniendeutsche und Mennoniten im Norden, Schwaben in Kasachstan, Bayern und Pfälzer im Altai-Gebiet und entdeckt überall quicklebendige Mundarten, eine reiche, vielfältige, für die Außenwelt noch weitgehend verschlossene Dialektlandschaft, deren besonderer Reiz das Neben- und Miteinander des Ursprünglichen, Mitgebrachten und des in den russischen Weiten Neuentwickelten und Hinzugekommenen ausmacht. Einen allgemeinen und gleichzeitig detaillierten Einblick in die heute weitgehend verschwundenen deutschen Sprachinselgebiete Russlands und deren Mundarten gibt das gut illustrierte Buch von Nina Berend.
Linguistische Ausdrücke, die offensichtlich aus kleineren Teilen zusammengesetzt sind, deren formale oder funktionale Eigenschaften jedoch nicht auf der Basis dieser kleineren Teile bestimmt werden können, kann man als Konstruktionen bezeichnen. Eine Standardannahme in regelbasierten Grammatikmodellen ist, dass komplexe linguistische Ausdrücke ins Lexikon gehören, wenn sie Konstruktionen sind, und in einem regelbasierten Bereich der Grammatik erfasst werden, wenn sie keine Konstruktionen sind. Dies führt zu einer inhomogenen und konzeptuell daher wenig attraktiven Theorie, die zwei mögliche Quellen für komplexe linguistische Ausdrücke vorsieht: Lexikon und Grammatik. Grundsätzlich gibt es zwei Auswege aus diesem Dilemma: Zum einen kann man die Rolle von Konstruktionen stärken, so dass Konstruktionen viel oder sogar alles von dem abdecken, was traditionell von grammatischen Regeln behandelt wird. Zum anderen kann man aber auch versuchen, die Rolle von Regeln zu stärken, so dass Regeln viel oder sogar alles von dem abdecken, wofür man typischerweise Konstruktionen bemüht. In diesem Aufsatz möchte ich anhand von zwei Phänomenen in der Grammatik des Deutschen, die auf den ersten Blick wie Musterexemplare für Konstruktionen aussehen, argumentieren, dass ein ausschließlich regelbasierter Ansatz nicht nur deskriptiv konkurrenzfähig ist, sondern darüber hinaus auch explanativ überlegen. Die untersuchten Phänomene sind verblose Direktive (wie in „Her mit dem Geld!“) einerseits und sequentielle Nominalreduplikation (wie in „Jahr für Jahr“) andererseits. Die allgemeine Konklusion ist, dass es vermutlich (außer, trivialerweise, Morphemen) gar keine Konstruktionen gibt.
Der kindliche Spracherwerb zeichnet sich sowohl durch seine Robustheit als auch durch eine spezifische Dynamik aus. Im Mittelpunkt des Beitrags stehen frühe Phasen des Erwerbs des Deutschen, in denen Konstruktionen unterschiedlicher Analysetiefe koexistieren, die im Laufe der Zeit immer wieder reanalysiert werden und schließlich auf einen einzigen abstrakten Bauplan hin konvergieren. Anhand von Daten aus diversen Fallstudien wird gezeigt, dass die Entwicklung der so genannten „Satzklammer“ des Deutschen als Konvergenzprozess verstanden werden kann, bei dem Lerner bewährte Teilsysteme, darunter anfängliche teilproduktive Formeln, dekonstruieren und auf abstrakterer Ebene rekonstruieren. Untersucht werden typische Übergangsphänomene, u.a. die Verwendung von Platzhaltern und Doppelbesetzungen, die diese Konstruktionsleistung erkennen lassen. Argumentiert wird, dass sich generative und dynamische, konstruktivistische Ansätze bei dem Bemühen um eine Erklärung dieses Erwerbsprozesses sinnvoll ergänzen.
Es ist unbestritten, dass in allen natürlichen Sprachen nicht-kompositionelle Form-Bedeutungspaare verschiedener Komplexitäts- und Abstraktionsgrade existieren. Uneinigkeit besteht dagegen bezüglich der Frage, ob diese Form-Bedeutungspaare als Teil der Grammatik oder gar, wie in der Konstruktionsgrammatik postuliert, als grundsätzliches grammatisches Organisationsprinzip zu verstehen sind. In meinem Beitrag argumentiere ich für eine zentrale Rolle von Konstruktionen bei der Repräsentation sprachlichen Wissens: Da Menschen offensichtlich in der Lage sind, Konstruktionen (im oben genannten Sinne) zu erwerben und zu verarbeiten, muss ein entsprechendes, konstruktionsverarbeitendes System existieren. Dieses kann auch nicht-idiomatische (regelhafte) Strukturen verarbeiten. Umgekehrt kann aber ein regelverarbeitendes System nicht ohne Weiteres idiomatische Strukturen verarbeiten. Das Sparsamkeitsprinzip sagt uns, dass eine Grammatik mit nur einem System einer mit zwei Systemen vorzuziehen ist, wenn es keine zwingenden Gründe für die Annahme eines zweiten Systems gibt. Neben diesem logisch-ökonomischen Argument diskutiere ich abschließend die Möglichkeit, anhand der systematischen Verletzung scheinbar allgemeingültiger grammatischer Regeln die Plausibilität eines konstruktionsverarbeitenden Systems empirisch zu untermauern.
Kombinationen aus Präposition und artikelloser Nominalprojektion, deren syntaktischer Kopf ein zählbares Substantiv im Singular ist, fristeten lange Zeit ein Schattendasein in der Grammatikschreibung. Sie wurden ignoriert oder als Ausnahmen beschrieben, obwohl sie offenkundig regelhaft gebildet werden. Im vorliegenden Aufsatz verwenden wir computerlinguistische Verfahren, insbesondere „Annotation Mining“ und logistische Regression, um die syntaktische Distribution dieser Kombinationen zu charakterisieren und anhand zweier Präpositionen (‚ohne‘ und ‚unter‘) detailliert die Realisationsbedingungen zu bestimmen.
Im letzten halben Jahrhundert hat in der formalen Grammatikforschung eine intensive Diskussion über die Natur syntaktischer und lexikalischer Information statt-gefunden. Während die frühe Generative Grammatik der traditionellen Grammatik folgte und konstruktionsspezifische Regeln anerkannte, gibt es seit den achtziger Jahren extreme Formen des Lexikalismus, die die Existenz von Konstruktionen bestreiten. Als Reaktion auf diese Entwicklungen leitete die „Berkeley Construction Grammar“ eine Renaissance der grammatischen Konstruktion ein. Der vorliegende Aufsatz untersucht anhand deutscher Relativsatztypen, ob diese besser rein lexikalisch oder mit Hilfe von Konstruktionen zu analysieren sind. Der Befund ist eindeutig: Die empirischen Daten treiben die rein lexikalische Theorie vor sich her und erweisen sie als unmotiviert und unüberzeugend. Im Gegensatz dazu kann die konstruktionale Theorie mit „intelligenten“ Werkzeugen wie Typen, Untertypen und Vererbung Generalisierungen über deutsche Relativsätze auf allen Ebenen elegant und effizient erfassen. Der Vorschlag Chomskys, Konstruktionen aus der Grammatik zu verbannen, erweist sich somit konzeptuell und empirisch als wissenschaftliche Fehlentscheidung.
Dieser Beitrag thematisiert semantische Bedingungen des unpersönlichen Passivs im Deutschen und in anderen Sprachen. Traditionellerweise nimmt man an, dass nur atelische und agentivische Verben im unpersönlichen Passiv akzeptabel sind. Ich werde die empirischen Hypothesen der bisherigen Forschung auf der Grundlage von Akzeptabilitätsstudien und einer breiteren korpusbasierten Datenmenge revidieren. Die hier behandelten semantischen Aspekte wurden in einflussreichen Arbeiten als Evidenz für die Überlegenheit einer konstruktionsgrammatischen Herangehensweise gewertet. Ich werde diese Evidenz in Frage stellen und beschränkungsbasierte Alternativen präsentieren.
Wie versteht ein Hörer oder Leser die von einem Sprecher oder Schreiber beabsichtigte Bedeutung? Syntaktische Strukturen sind zu allgemein, um feine Bedeutungsunterscheidungen auszudrücken. Wörter sind oft sehr mehrdeutig, und aufgrund dessen unzuverlässig als „Bedeutungsleitfaden“. Im Gegensatz dazu zeigt die Korpusmusteranalyse, dass die meisten Äußerungen aus Mustern von vergleichsweise geringer Mehrdeutigkeit aufgebaut sind. Daher stellt sich die Frage: Was ist ein Muster? Muster sind häufig verwendete Sprachbausteine, die aus zwei Elementen bestehen: Valenzen und Kollokationen. Während Valenzen relativ stabil sind, sind Kollokationen extrem variabel. In der Korpusmusteranalyse wird eine große Anzahl von Gebrauchsbelegen jedes Wortes studiert, und seine Kollokationen werden, ihren semantischen Typen entsprechend, lexikalischen Sets zugeordnet.
Jedes Wort einer Sprache ist Bestandteil von mindestens einem Muster. Wenn es Teil von mehr als einem Muster ist, können die Bedeutungen seiner Muster meist durch unterschiedliche Kollokations-Präferenzen unterschieden werden.
Kreative Benutzungen sind Abweichungen von normalen Nutzmustern, aber Abweichungen sind selbst regelgeleitet. Daher benötigt man eine Theorie von Normen und Abweichungen. Da die zwei Regelsysteme interagieren, können wir die Theorie als eine „Doppelhelix“ beschreiben.
WordNet und FrameNet sind zwei umfangreiche lexikalische Ressourcen. Obwohl sie auf unterschiedlichen Theorien der lexikalischen Organisation basieren und die semantischen und syntaktischen Eigenschaften von Verben in beiden Ressourcen unterschiedlich dargestellt werden, wird mit beiden das Ziel verfolgt, die Regelmäßigkeit des Lexikons hervorzuheben. Seit Levin (1993) ist bekannt, dass die Selektion und Projektion von Argumenten eng mit den semantischen Eigenschaften von Verben zusammenhängt, und dass eine syntaktisch basierte Klassifikation des Verblexikons semantisch homogene Klassen ergibt. In diesem Beitrag werden die unterschiedlichen Ansätze von WordNet und FrameNet, das Verblexikon einheitlich zu klassifizieren, bewertet. Es wird ein laufender Versuch beschrieben, beide Ressourcen teilweise miteinander abzugleichen, indem ausgewählte Verben in einem großen Korpus zunächst manuell mit Bezug auf Einträge in WordNet und FrameNet annotiert werden. Anschließend werden verschiedene Ansätze zur automatischen Abgleichung, wie z.B. der des deutschen SALSA-Projekts, im Überblick dargestellt.
Der vorliegende Aufsatz beschäftigt sich mit der Frage, wie Argumente während des Sprachverstehens erkannt werden, welche Eigenschaften einem Argument in Abwesenheit des Verbs zugeschrieben werden und welche Art von Vorhersagen mit der Argumentinterpretation verbunden sind. Ausgehend von der Annahme, dass beim Sprachverstehen in Echtzeit jedes Wort so maximal wie möglich interpretiert wird, werden wir argumentieren, dass die zugrunde liegenden, sprachübergreifend zu findenden Mechanismen durch die Interaktion von typologisch motivierten Prominenzskalen (z.B. Belebtheitshierarchie) beschrieben werden sollten. Diese gestatten nicht nur eine Erklärung bestehender Befunde, sondern besitzen das Potenzial, zentrale Aspekte der Sprachverstehensarchitektur modelltheoretisch abzuleiten. Experimentell liegt der Fokus des Aufsatzes auf der Erfassung elektrophysiologischer-neuronaler Aktivierungsmuster, da diese uns im Gegensatz zu Urteilen oder Korpusverteilungen einen unmittelbaren Einblick in die Verarbeitung im Echtzeitbereich gestatten.
Der Konstruktionsbegriff hielt seinen Einzug in die Spracherwerbsforschung durch gebrauchsbasierte Lerntheorien, nach denen sprachliche Strukturen als Form-Funktionseinheiten aus dem Input abgeleitet werden, Sprache somit ein emergentes System ist (Tomasello 1998a und b; Behrens 2009a und b). Die Abstraktionseinheit für das Kind ist dabei die Äußerung in ihrer situativen Gebundenheit und ihrer Diskursfunktion, mithin die Konstruktion. Die Konstruktion wird gefasst als schematische Einheit mit mehr oder weniger offenen Slots: Teile der Konstruktion können lexikalisch fixiert oder aber produktiv und durch andere Ausdrücke ersetzbar sein. Der Kontrast zum Valenzbegriff bzw. dem der Argumentstruktur in seiner formaleren Definition liegt darin, dass die lexikalischen Eigenschaften der Wörter die Syntax nicht projizieren, sondern dass sowohl die Eigenschaften der Lemmas als auch die der Morphosyntax aus ihrem Vorkommen in konkreten Sätzen abgeleitet werden.
Empirisch konzentriert sich die Forschung auf die Ermittlung der Generalisierungsprozesse und auf deren Basis im Input, dem Sprachangebot. Erwerbsrelevant ist insbesondere der Input in seinen usualisierten Mustern in typischen Interaktionssituationen. Eher wird vor allem der Grad der Produktivität kindlicher Äußerungen analysiert. Bislang weniger untersucht, aber zunehmend im Fokus sind die Generalisierungsprozesse selbst und damit die generative Kraft des Konstruktionsbegriffs. Sobald Aspekte einer Konstruktion abstrahiert worden (= produktiv) sind, sollten sie auf neue Situationen übertragen werden können, und gilt es zu ermitteln, welche formalen, funktionalen und distributionellen Faktoren die Abstraktion sprachlichen Wissens fördern.
In dem Paradigma der gebrauchsbasierten Konstruktionsgrammatik wird die modulare Trennung zwischen Wörtern und Regeln aufgehoben. Somit kann innerhalb eines einheitlichen theoretischen Rahmens sowohl der Erwerb regelhafter als auch der stärker idiosynkratischer Strukturen erklärt werden.
Das in diesem Beitrag vorgeschlagene Netzwerk aus Resultativkonstruktionen unterschiedlichen Abstraktionsgrades vereinigt die Vorteile von Goldbergs (1995, 2006) und Boas' (2003a, 2005a) Analysen. So können sowohl die beim Dekodieren relevanten abstrakt-schematischen Konstruktionsinformationen als auch die beim Kodieren wichtigen lexikalisch-spezifizierten Konstruktionsinformationen über semantische, pragmatische, und syntaktische Restriktionen auf der Ebene von Ereignis-Frames in einem einheitlichen Netzwerk erfasst und analysiert werden. Diese einheitliche Analyse bietet zwei entscheidende Vorteile. Erstens vereinfacht die Beschreibung der Distribution von Konstruktionen auf primär semantisch-pragmatischer Ebene die kontrastive Analyse von gleichartigen Konstruktionen in unterschiedlichen Sprachen. Zweitens erfüllt die hier vorgeschlagene Methode auch die in neueren Veröffentlichungen zu Parallelen der Valenzgrammatik und Konstruktionsgrammatik gemachten Vorschläge, unterschiedliche Abstraktionsgrade von Konstruktionen zu berücksichtigen. Ich danke Hans Ulrich Boas, Marc Pierce, Guido Halder, Martin Hilpert, Wolfgang Imo, Klaus Welke, Gert Webelhuth, Alexander Ziem und den Herausgebern für ihre Kommentare und Anregungen.
Kollokationen sind nach unserem Verständnis phraseologische Kombinationen aus zwei Lexemen, die in einer Sprachgemeinschaft konventionalisiert und deren Elemente semantisch ungleichgewichtig sind: Eines wird in derselben Weise verwendet wie in kompositionellen Wortkombinationen (Basis), das andere (Kollokator) erhält seine spezifische Bedeutung nur innerhalb der Kollokation.
Der Artikel diskutiert Möglichkeiten, Kollokationen in Texten zu identifizieren, die für die deutschen Nationalvarietäten aus Deutschland, Österreich, der Schweiz und Südtirol typisch sind. Der Schwerpunkt liegt dabei auf methodischen Fragen: Lassen sich mit einfachen, im Wesentlichen frequenzbasierten Werkzeugen Kollokationsunterschiede zwischen Österreich und Deutschland, der Schweiz und Deutschland, usw. aufweisen? Wie können die Spezifika der Kollokationswahl in den einzelnen Nationalvarietäten anhand von Korpora genauer dokumentiert werden? Sind Varietäten nur in Bezug auf die Kollokatorenwahl spezifisch, oder auch bezüglich morphosyntaktischer Präferenzen (z.B. Artikelgebrauch etc.)?
In der letzten Zeit wurde aus verschiedenen linguistischen Teildisziplinen heraus versucht, die Anwendbarkeit der Construction Grammar in Bereichen wie beispielsweise der Gesprächsforschung zu überprüfen. Für die Gesprächsforschung bzw. Interaktionale Linguistik bietet die Construction Grammar einen viel versprechenden theoretischen Rahmen, da sich viele der Grundannahmen von Construction Grammar und Interaktionaler Linguistik/Gesprächsanalyse decken. Trotz dieser positiven Übereinstimmungen führt das zeichenbasierte Konzept der Konstruktionsgrammatik zu Problemen bei der Analyse gesprochener Sprache. Häufig können bestimmte Phrasen, Satzmuster oder Wörter nicht bestimmten Konstruktionen eindeutig zugeordnet werden, da zu ihrem Verständnis Kontextinformationen nötig sind oder da sie die Merkmale mehrerer Konstruktionen teilen. Anhand dreier problematischer Fälle aus dem gesprochenen Deutsch, bei denen das Konzept, Konstruktionen als Zeichen zu betrachten, zu Problemen führt, werden die Grenzen des konstruktionsgrammatischen Modells aufgezeigt. In einem zweiten Schritt wird als Lösungsvorschlag die Theorie der Granularität nach Bittner/Smith (2001a und b, 2003) vorgestellt, die dazu entwickelt wurde, „to map vague concepts onto crisp portions of reality“ (Bittner/Smith 2011a, S 1). Zuletzt wird eine granulare Re-Analyse der eingangs vorgestellten Problemfälle vorgenommen.
Grammatik ohne Wörter?
(2011)
Am Beispiel des Deutschen wird gezeigt, dass verschiedene Strategien, die traditionelle Unterscheidung zwischen Wörtern und Syntagmen so zu modifizieren, dass sie die sehr differenzierten Daten vollständig, detailliert und widerspruchsfrei erfasst, zur inhaltlichen Entleerung dieser Unterscheidung führen und sie damit letztlich überflüssig machen. Das gilt sowohl für die populäre Aufspaltung von Wort vs. Syntagma in mehrere spezifischere Kategorienpaare (phonologisches Wort vs. phonologisches Syntagma, graphematisches Wort vs. graphematisches Syntagma usw.) als auch für ihre Umdeutung als Prototypen- oder Default-Kategorien. Allerdings kann man an der Unterscheidung zwischen Wörtern und Syntagmen festhalten, wenn man Einschränkungen der Vollständigkeit, Detailtreue oder Widerspruchsfreiheit in Kauf nimmt (wie in der linguistischen Praxis oft unumgänglich). Diese Überlegungen übertragen sich auf die auf Wort vs. Syntagma beruhenden Abgrenzungen linguistischer Teilgebiete, wie Syntax vs. Morphologie vs. Phraseologie, z.T. auch Grammatik vs. Lexikon.
Schlussworte
(2011)
Von Grammatikern erwartet man Auskunft darüber, wie man zu reden und zu schreiben hat, eine Erwartung, die sich auf die Annahme stutzt, es stehe grundsätzlich immer schon fest, was in Sprachen wie etwa dem Deutschen als korrekt gelten kann. Tatsächlich kann jedoch nicht einmal davon ausgegangen werden, dass es so etwas wie das Deutsche als eindeutig bestimmten Gegenstand gibt. Alles, was als Deutsch zu fassen ist, sind ungezählte schriftliche und - sofern aufgezeichnet - mündliche Äußerungen. Bis vor wenigen Jahren waren diese Daten praktisch nur unzureichend zu nutzen, weshalb Grammatikern wenig anderes übrig blieb, als auf der schmalen Basis durch Introspektion gewonnener Daten Simulationen eines allgemeinen Sprachgebrauchs zu entwickeln. Mit der Verfügung über riesige Korpora maschinenlesbarer Texte haben sich die Voraussetzungen für die Untersuchung grammatischer Strukturen entscheidend verändert. Für die Grammatikforschung ergaben sich damit neue Perspektiven: zum einen ein radikaler Bruch mit der Tradition grammatischer Analysen, der weitgehend auf eine statistische Auswertung von Kookkurrenzen setzt, zum andern - weniger radikal, mehr traditionsverbunden - die Möglichkeit, konventionell kompetenzgestutzt erarbeitete Regelhypothesen anhand von Daten zu validieren, wie sie in sehr großen Textkorpora vorliegen und dem, was als Deutsch gelten kann, so nah kommen, wie dies irgend erreichbar ist, da sie durchweg in dem Bemühen zustande kamen, sich korrekt auszudrucken.
In der Arbeit wird die Analyse agonaler Zentren, die Felder (2012) vorgelegt hat, überprüft und um korpuslinguistische Herangehensweisen erweitert. Es wird überprüft, inwiefern bestimmte Wortarten in der Lage sind, die Analyse agonaler Zentren unabhängig vom Thema des Diskurses zu unterstützen. Dazu wird die computergestützte Korpusanalyse mit Hilfe von Konnektoren, Präpositionen, Partikeln, Substantiven, Adjektiven und Verben zunächst an einem bereits von Felder (2012) analysierten Korpus getestet und dann an einem weiteren, im Hinblick auf Thema und Textsorten völlig anderen Korpus überprüft. Insbesondere die Konnektoren stellen sich dabei als für die themenunabhängige, computergestützte Korpusanalyse als leistungsstark heraus.
Der Definitionswortschatz im einsprachigen Lernerwörterbuch des Deutschen. Anspruch und Wirklichkeit
(2011)
Der vorliegende Band beschäftigt sich im theoretisch orientierten ersten Teil mit der Geschichte des Ansatzes, in Lernerwörterbüchern einen kontrollierten Definitionswortschatz zu verwenden. Zudem wird die kontroverse Diskussion um den kontrollierten Definitionswortschatz in der Metalexikografie wiedergegeben. Den Hauptteil der Arbeit bildet die korpusbasierte Analyse des Definitionswortschatzes des Langenscheidt Taschenwörterbuchs Deutsch als Fremdsprache und des Duden/Hueber Wörterbuchs Deutsch als Fremdsprache. Zum einen werden sowohl quantitative als auch qualitative Merkmale des verwendeten Definitionswortschatzes untersucht, zum anderen geht es um die Frage, inwieweit die beiden Wörterbücher ihren Eigenanspruch eines computerkontrollierten Definitionswortschatzes einhalten. Die Untersuchung schließt damit einerseits eine metalexikografische Forschungslücke, andererseits enthält sie Empfehlungen an die praktische Lexikografie.
Die Frage, wie unter den Bedingungen sich ändernder demographischer Verhältnisse einerseits europäische Mehrsprachigkeit, andererseits Zuwanderung und Integration - individuell und kollektiv - erfolgreich organisiert werden können, ist eine der europäischen Schlüsselfragen. Sprache ermöglicht im Integrationskontext nicht nur den entscheidenden Zugang, sie ist auch einer der wichtigsten Identitätsträger: Will man etwas wissen über die Bedingungen und Möglichkeiten von Integration, dann ist das Wissen um die primären sprachlich-identitären Verortungen der Menschen dafür die Basis. Von Interesse sind dabei nicht nur die Zielsprache der Mehrheitsgesellschaft, sondern auch die jeweiligen Erstsprachen. Die spezifischen sprachlichen Kompetenzen von Menschen mit Migrationshintergrund werden gegenwärtig kaum wahrgenommen, geschweige denn genutzt - weder in Programmen zur sprachlichen Integration noch auf dem Arbeitsmarkt oder als Vorteil für die einheimische Wirtschaft. Hier liegt jedoch viel individuelles wie gesamtgesellschaftliches Potenzial. In diesem Band wird die gegenwärtige Situation in Deutschland mit derjenigen in Ländern mit prominenten Mehrsprachigkeitskonstellationen (von der Schweiz bis Indien) kontrastiert.
Dieser Band gewährt Einblick in den Entstehungsprozess von elexiko, einem im Aufbau befindlichen, korpusgestützten Online-Wörterbuch zur deutschen Gegenwartssprache. Das elexiko-Wörterbuch wird kontinuierlich erweitert (durch neue Stichworteinträge, durch die Freischaltung redaktionell bearbeiteter Wortartikel, durch die Integration automatisch ermittelter Informationen) und kann sich auch an der Benutzeroberfläche verändern (durch ein neues Design oder weitere Recherchemöglichkeiten). Solche Veränderungen, insbesondere aber auch die Erfahrungen, die bei der Erarbeitung der Wortartikel auf der Grundlage eines umfangreichen zeitungssprachlichen Korpus gemacht wurden und die ein Nachdenken über die ursprüngliche Konzeption bedingten, werden in den verschiedenen Beiträgen beschrieben. Alle zentralen Angabebereiche in den Wortartikeln (Bedeutungserläuterung, lexikalische Mitspieler, typische Verwendungsmuster, sinnverwandte Wörter, Besonderheiten des Gebrauchs und Grammatik) sind dabei berücksichtigt. Daneben werden kleinere lexikografische Angaben (z.B. Illustrationen, Ausspracheangaben) wie Fragen der Lemmatisierung (z.B. von Eigennamen) thematisiert. Schließlich werden die praktischen Erfahrungen mit der Datenmodellierung von elexiko (eine granulare, maßgeschneiderte XML-Struktur) reflektiert.
Bericht über die 15. Arbeitstagung zur Gesprächsforschung vom 30. März - 1. April 2011 in Mannheim
(2011)
Linguistic variation and linguistic virtuosity of young “Ghetto”-migrants in Mannheim, Germany
(2011)
In this paper, we provide an insight into the life world and social experiences of young Turkish migrants who are categorised by German society as “social problem cases”. Based on natural conversational data, we describe the communicative repertoire of one migrant adolescent and that of his friends. Our aims are (a) to isolate those linguistic features that convey the impression of “foreignness”, and stand out among other German speakers’ features, and (b) to analyse the variability in our informants’ discursive practices - i.e. code- or style-switching, as it is commonly referred to in the literature - in order to show how variation serves as a communicative resource. Our findings show that these adolescents’ remarkable linguistic proficiency and communicative competence contrast markedly to their low educational and professional status.
Ausdrucksalternativen bei Konnektoren – Varianten oder Fehler? Protokoll eines fiktiven Gesprächs
(2011)
Wo ein Wille ist, ist auch ein Weg - das erste größere Neologismenwörterbuch für das Deutsche
(2011)
The contribution will focus on aspects of pluricentricity in spoken Standard German. After a brief overview over the historical and dialectal background of the linguistic diversity in the German speaking area, the regionally balanced speech-corpus "German today” is presented, which has been collected for the analysis of the (regional) variation of spoken Standard German. Aspects of pluricentric German will be discussed by means of both the distribution of certain phonetic variables and a short analysis of regional differences in the use of certain conversational constructions. It is argued that pluricentric structures are constituted by a set of linguistic features on different levels of description. Above all, the analysis tries to reveal traces of the impact of both traditional dialects and national or even subnational political units on the constitution of the standard varieties.
Varietäten im Diskurs
(2011)
Der Beitrag präsentiert ausgewählte Ergebnisse einer Untersuchung zum Dialekt-Standard-Gebrauch in einer Schulklasse im mittelschwäbischen Sprachraum (vgl. KNÖBL 2008). Dabei wird auf das Erkenntnisinteresse, die Datengrundlage und die Analysemethode eingegangen. An Analysebeispielen wird gezeigt, dass sich die in der Untersuchung kombiniert eingesetzten quantitativ und qualitativ orientierten methodischen Verfahren ergänzen. Die variablenanalytisch und interaktionsanalytisch gewonnenen Ergebnisse belegen, dass bei den untersuchten Lehrern und Schülern der Gebrauch linguistischer Formen strukturiert ist und in Bezug zu kommunikativen Anforderungen steht.
Vorwort
(2011)
In diesem Beitrag geht es einerseits um eine Definition dessen, was korpusgestützte Lexikographie ist, und andererseits um eine Bestandsaufnahme der gegenwärtigen Praxis korpusgestützter Lexikographie. Dabei wird ein Schwerpunkt gelegt auf allgemeinsprachige Wörterbücher der Gegenwartssprache, deren Inhalt die Beschreibung von Bedeutung und Verwendung von Lexemen ist. Außerdem liegt die Einschätzung zugrunde, dass die Auswertung elektronischer Korpora die Wörterbucharbeit weitgehend positiv beeinflusst und verändert, vorausgesetzt, dass zugrunde gelegte Korpus wurde für das geplante Wörterbuch so gut wie möglich in Umfang und Zusammensetzung eingerichtet.
Einleitung
(2011)
elexiko ist ein im Aufbau befindliches Online-Wörterbuch, d. h. es ist ständigen Änderungen in Form von Korrekturen oder Ergänzungen unterworfen. Diese betreffen sowohl die Stichwortliste als auch die lexikografischen Angaben. In diesem Beitrag sollen einige kleinere konzeptionelle Entscheidungen und offene Fragen, die in den anderen Beiträgen in diesem Sammelband noch nicht thematisiert wurden, zusammengefasst werden.
Im vorliegenden Beitrag wird untersucht, welche lexikographischen Traditionen bei der Beschreibung von Bedeutung und Verwendung der Stichwörter in elexiko, einem Online-Wörterbuch zur deutschen Gegenwartssprache, fortgesetzt werden. Gezeigt wird anhand verschiedener Beispiele auch, wie dieses Internetwörterbuch über das tradierte Beschreibungsinventar in allgemeinsprachigen Bedeutungswörterbüchern hinausgeht. Hieraus leiten sich einige Fragen zur Zukunft des Typs .Bedeutungswörterbuch’ ab.
Starting from early approaches within Generative Grammar in the late 1960s, the article describes and discusses the development of different theoretical frameworks of lexical decomposition of verbs. It presents the major subsequent conceptions of lexical decompositions, namely, Dowty’s approach to lexical decomposition within Montague Semantics, Jackendoff’s Conceptual Semantics, the LCS decompositions emerging from the MIT Lexicon Project, Pustejovsky’s Event Structure Theory, Wierzbicka’s Natural Semantic Metalanguage, Wunderlich’s Lexical Decompositional Grammar, Hale and Kayser’s Lexical Relational Structures, and Distributed Morphology. For each of these approaches, (i) it sketches their origins and motivation, (ii) it describes the general structure of decompositions and their location within the theory, (iii) it explores their explanative value for major phenomena of verb semantics and syntax, (iv) and it briefl y evaluates the impact of the theory. Referring to discussions in article 7 (Engelberg) Lexical decomposition, a number of theoretical topics are taken up throughout the paper concerning the interpretation of decompositions, the basic inventory of decompositional predicates, the location of decompositions on the different levels of linguistic representation (syntactic, semantic, conceptual), and the role they play for the interfaces between these levels.
Pragmatics and grammar
(2011)
Most dictionaries containing phraseological information are restricted to a synchronic perspective. Diachronic information on structural, semantic, and pragmatic change over time has to be reconstructed by a time-consuming consultation of various dictionaries providing only punctual insights. In the OLdPhras, project we construct an online dictionary for diachronic phraseology in German from ca. 1650 to the present by combining dic- tionary exploration with corpus-based methods. This paper highlights some challenges we have met: How to select the interesting phrasemes, i.e., those that underwent some change? How to deal with historical cor- pora? How to include different kinds of phraseme variation? We present a semi-automatic corpus-based approach for the investigation of phraseme development. We argue for a combination of dictionary exploration and corpus-based methods to provide reliable and extensive information about the diachronic development of German phrasemes.
How to propose an action as an objective necessity. The case of Polish trzeba x (‘one needs to x’)
(2011)
The present study demonstrates that language-specific grammatical resources can afford speakers language-specific ways of organizing cooperative practical action. On the basis of video recordings of Polish families in their homes, we describe action affordances of the Polish impersonal modal declarative construction trzeba x (“one needs to x”) in the accomplishment of everyday domestic activities, such as cutting bread, bringing recalcitrant children back to the dinner table, or making phone calls. Trzeba-x turns in first position are regularly chosen by speakers to point to a possible action as an evident necessity for the furthering of some broader ongoing activity. Such turns in first position provide an environment in which recipients can enact shared responsibility by actively involving themselves in the relevant action. Treating the necessity as not restricted to any particular subject, aligning responsive actions are oriented to when the relevant action will be done, not whether it will be done. We show that such sequences are absent from English interactions by analyzing (a) grammatically similar turn formats in English interaction (“we need to x,” “the x needs to y”), and (b) similar interactive environments in English interactions. We discuss the potential of this research to point to a new avenue for researchers interested in the relationship between language diversity and diversity in human action and cognition.
Zwischenräume – Phänomene, Methoden und Modellierung im Bereich zwischen Lexikon und Grammatik
(2011)
Der Beitrag führt in den Sammelband „Sprachliches Wissen zwischen Lexikon und Grammatik“ ein und diskutiert zunächst den Zusammenhang zwischen den drei Dichotomien Lexikon versus Grammatik, Wort versus Phrase und Idiosynkrasie versus Regel. Im Folgenden werden Varianten des Konstruktionsbegriffs dargestellt und hinsichtlich verschiedener Dimensionen analysiert. Einer Darstellung der im Zusammenhang mit der Lexikon-Grammatik-Abgrenzung diskutierten Phänomene und angewandten empirischen Methoden schließt sich eine Übersicht über die Aufsätze des Sammelbandes an.
Der Artikel stellt die Projekte vor, die sich im Rahmen der Projektmesse zur „Elektronischen Lexikografie“ präsentiert haben. Diese Messe wurde begleitend zur 46. Jahrestagung des Instituts für Deutsche Sprache veranstaltet. Es wird in diesem Beitrag auf der Basis der Messepräsentationen dargelegt, inwiefern Entwicklungen der Korpuslexikografie und der Internetlexikografie die lexikografische Erfassung syntagmatischer Aspekte des deutschen Wortschatzes befördern und welche lexikografischen Internetressourcen dazu verfügbar sind.
Aus den Argumentstrukturen von Verben lassen sich vielfach eigenständige Argumentstrukturmuster mit idiosynkratischen formalen oder inhaltlichen Eigenschaften abstrahieren. Der Artikel zeigt, dass sich Ähnlichkeiten zwischen solchen Mustern nicht, wie von Goldberg (1995) vorgeschlagen, über das Konzept polysemer Argumentstrukturkonstruktionen erfassen lassen, sondern adäquater über ein Netz von Familienähnlichkeiten modelliert werden können. Die einzelnen Argumentstrukturmuster zeigen dabei eine Vielzahl von idiosynkratischen lexikalischen Kookkurrenzen, die spezifisch für die je einzelnen Argumentstrukturmuster sind und in einer implikativen Beziehung zu diesen stehen. Überlegungen zur angemessenen sprachtheoretischen Modellierung der Daten zeigen dabei sowohl Schwächen valenzbasierter Theorien als auch Mängel konstruktionsbasierter Ansätze auf.
Der Beitrag betrachtet lexikalisch-semantische Relationen aus einer emergentistischen Perspektive vor dem Hintergrund eines korpusgeleiteten empirisch-linguistischen Ansatzes. Er skizziert, wie eine systematische Erfassung und Auswertung des Kookkurrenzverhaltens von Lexemen – die Analyse der Ahnlichkeit von Kookkurrenzprofilen mit Hilfe von selbstorganisierenden lexikalischen Merkmalskarten und ihre im Diskurs verankerte Interpretation – wichtige Einblicke in die Struktur verschiedenartiger Verwendungsaspekte dieser Lexeme einschlieslich ihrer semantischen Nahe ermoglichen. Die vorgestellte Methodik wird dabei –uber die explorativ-analytischen Zielsetzungen hinaus – als eine abduktive, auf Theoriebildung zielende Generalisierungsstrategie im postulierten Lexikon-Syntax-Kontinuum verstanden. Zum Schluss werden die Anwendungsmoglichkeiten einiger Komponenten dieser Methodik in der Lexikografie, Lexikologie und Didaktik diskutiert.
Der Beitrag reflektiert den Zusammenhang zwischen gesellschaftlichen Umbrüchen und sprachlichen Veränderungen. Am Beispiel der Geschichte des 20. Jahrhunderts soll dieser Zusammenhang exemplifiziert werden. Dieses Jahrhundert der Extreme ist gesellschaftlich und politisch gekennzeichnet von Demokratisierungs-, Entdemokratisierungs- und Redemokratisierungsschüben. Insofern ist Demokratie die Schlüsselsignatur dieser Veränderungen, im Sinn von Schaffung, Zerstörung und Wiedererschaffung von Demokratie. Die diskursiven und lexikalisch-semantischen Verschiebungen des 20. Jahrhunderts können unter dieser Voraussetzung als Reflektionen dieser demokratiegeschichtlichen Brüche verstanden werden.
Industrielle Prozessmodellierung als kommunikativer Prozess. Eine Typologie zentraler Probleme
(2011)
Der Beitrag diskutiert mündliche Interaktionen als Bestandteil industrieller Prozessmodellierungsmethoden unter dem Aspekt der dabei auftretenden kommunikativen Probleme und ihrer systematisierenden Darstellung. Die vorgestellte Typologie stützt sich auf die gesprächsanalytische Auswertung authentischer Daten einer Feldstudie, in der die Methodik der industriellen Prozessmodellierung in einem Unternehmen exemplarisch durchgeführt wurde. Die Methodik ist kommunikationsintensiv; sie enthält ein breites Spektrum mündlich, schriftlich und grafisch-symbolisch zu bearbeitender Aufgaben. Die ermittelten Probleme ihrer Bearbeitung lassen sich drei Bereichen zuordnen: vorhabensbezogene, arbeitsorganisationsbezogene und kommunikationsbezogene Probleme. Jeder Bereich umfasst Untertypen von Problemen, die aus dem Vollzug sprachlich-kommunikativer Handlungen resultieren und/oder sich sprachlich manifestieren. Zwei weitere Problembereiche – Transformations- und Multimodalitätsprobleme – werden genannt, aber nicht ausführlich behandelt. Die Ergebnisse der Studie werden für die Gestaltung von Kommunikationstrainings für Ingenieure genutzt.
Nachruf auf Hugo Steger
(2011)
Nachruf auf Michael Clyne
(2011)
High word frequency and neighborhood density contribute to the accuracy and speed of word production in English adults (e.g., Vitevitch & Sommers 2003), and characterize early words in child English (e.g., Storkel 2004). The present study investigated a speech corpus of child German (ages 2;00-3;00) to further the understanding of the influence of frequency and density on production. Results for four children suggest that, contrary to English, words produced early are not from denser neighborhoods in an adult lexicon than later words. As in English, frequent words are produced before less frequent words. Implications on theory and methodology are discussed.
Based on German data from history-taking in doctor-patient interaction, the paper shows that the three basic syntactic types of questions (questions fronted by a question-word (w-questions), verb-first (V1) questions, and declarative questions) provide different opportunities for displaying understanding in medical interaction. Each syntactic questionformat is predominantly used in a different stage of topical sequences in history taking: w-questions presuppose less knowledge and are thus used to open up topical sequences; declarative questions are used to check already achieved understandings and to close topical sequences. Still, the expected scope of answers to yes/no-questions and to declarative questions is less restricted than previously thought. The paper focuses in detail on the doctors’ use of formulations as declarative questions, which are designed to make patients elaborate on already established topics, giving more details or accounting for a confirmation. Formulations often involve a shift to psychological aspects of the illness. Although patients confirm doctors’ empathetic formulations, they, however, regularly do not align with this shift, returning to the description of symptoms and to biomedical accounts instead. The study shows how displays of understanding are responded to not only in terms of correctness, but also (and more importantly) in terms of their relevance for further action.
Der Beitrag diskutiert vor dem Hintergrund allgemeiner Eigenschaften von gesprochener Sprache in Interaktionen, inwiefern die Konstruktionsgrammatik (KxG) aus Sicht der Interaktionalen Linguistik (IL) eine geeignete Basis für eine Grammatik der gesprochenen Sprache abgeben kann. Affinitäten und Perspektivenunterschiede zwischen KxG und IL sowie Potenziale und Grenzen ihrer Integration werden aufgezeigt. Am Beispiel einer Untersuchung von dann und also als Inferenzindikatoren wird das konstruktionsgrammatische Zeichenverständnis problematisiert, und es werden einige generelle Überlegungen zum Stellenwert von Grammatik im Kontext einer Theorie der verbalen Interaktion formuliert.
Der vorliegende Beitrag stellt einen neuartigen Typ von mehrsprachiger elektronischer Ressource vor, bei dem verschiedene Lehnwörterbücher zu einem "umgekehrten Lehnwörterbuch" für eine bestimmte Gebersprache zusammengefasst werden. Ein solches Wörterbuch erlaubt es, die zu einem Etymon der Gebersprache gehörigen Lehnwörter in verschiedenen Nehmersprachen zu finden. Die Entwicklung einer solchen Webanwendung, insbesondere der zugrundeliegenden Datenbasis, ist mit zahlreichen konzeptionellen Problemen verbunden, die an der Schnittstelle zwischen lexikographischen und informatischen Themen liegen. Der Beitrag stellt diese Probleme vor dem Hintergrund wünschenswerter Funktionalitäten eines entsprechenden Internetportals dar und diskutiert einen möglichen Lösungsansatz: Die Artikel der Einzelwörterbücher werden als XML-Dokumente vorgehalten und dienen als Grundlage für die gewöhnliche Online-Ansicht dieser Wörterbücher; insbesondere für portalweite Abfragen werden aber grundlegende, standardisierte Informationen zu Lemmata und Etyma aller Portalwörterbücher samt deren Varianten und Wortbildungsprodukten (hier zusammenfassend als "Portalinstanzen" bezeichnet) sowie die verschiedenartigen Relationen zwischen diesen Portalinstanzen zusätzlich in relationalen Datenbanktabelle nabgelegt, die performante und beliebig komplex strukturierte Suchabfragen gestatten.