Refine
Year of publication
- 2011 (252) (remove)
Document Type
- Part of a Book (115)
- Article (68)
- Conference Proceeding (27)
- Book (21)
- Other (6)
- Part of Periodical (5)
- Contribution to a Periodical (3)
- Doctoral Thesis (2)
- Review (2)
- Bachelor Thesis (1)
Language
Keywords
- Deutsch (138)
- Korpus <Linguistik> (29)
- Grammatik (18)
- Computerlinguistik (17)
- Computerunterstützte Lexikographie (14)
- Konversationsanalyse (14)
- Online-Wörterbuch (13)
- Sprachvariante (13)
- Wörterbuch (13)
- Englisch (11)
Publicationstate
- Veröffentlichungsversion (104)
- Zweitveröffentlichung (24)
- Postprint (10)
- (Verlags)-Lektorat (1)
- Erstveröffentlichung (1)
- Preprint (1)
Reviewstate
Publisher
- Institut für Deutsche Sprache (38)
- Narr (30)
- de Gruyter (29)
- Lang (11)
- Springer (6)
- Trojina, Institute for Applied Slovene Studies (5)
- Verlag für Gesprächsforschung (5)
- De Gruyter (3)
- Groos (3)
- Universidade de Santiago de Compostela (3)
"Mit sofortiger Wirkung" : Deutsche Rücktrittserklärungen 2010 aus linguistischer Perspektive
(2011)
2010 war für die Bundesrepublik ein Jahr der Rücktritte aus zentralen Machtbereichen der Politik, Kirche und Verwaltung. Die Funktionsträger vermittelten den Eindruck „als sei ihnen die Gestaltung dieses Landes nicht mehr wichtig genug, um ihr Leben damit zu füllen“ (Bartsch 2010, 66). In diesem Aufsatz stehen nicht die Vorgeschichte, Gründe oder die Bewertung von Rücktritten im Vordergrund, sondern die linguistische Perspektive – d.h. die sprachliche Ausgestaltung sowie die Funktionen der Textsorte Rücktrittserklärung.
"Themengebundene Verwendung(en)" als neuer Angabetyp unter der Rubrik "Besonderheiten des Gebrauchs"
(2011)
Der Lehrer, der an der Tafel steht und rechnet, gilt als Inbegriff des Mathematikunterrichts. Der Topos kommt nicht von ungefähr: Das Lösen von Übungsaufgaben im fragend-entwickelnden Unterrichtsgespräch nimmt bei der Vermittlung von Mathematik zumindest in den oberen Schulstufen nach wie vor eine wichtige Stellung ein. Doch was macht eine Lehrperson genau, wenn sie gemeinsam mit den Lernenden eine Übungsaufgabe löst? Der vorliegende Beitrag gibt eine empirisch fundierte Antwort auf diese Frage. Er beruht auf audiovisuellen Aufnahmen, die in einer Mathematikstunde an einer Fachhochschule entstanden. Die Analyse zeichnet das konkrete Handeln eines Dozenten nach, der an der Tafel die Lösung einer Übungsaufgabe zu Ungleichungen erarbeitet. Der Dozent reagiert damit auf die Bemerkung einer Studentin, sie könne mit dem Thema ‘Ungleichungen’ „gar nichts anfangen“. Das Lösen der Aufgabe lässt sich also als Verfahren konzeptionalisieren, mit dem der Dozent eine konkrete Anforderung bearbeitet, die sich aus der Interaktion mit den Studierenden ergeben hat.
To build a comparable Wikipedia corpus of German, French, Italian, Norwegian, Polish and Hungarian for contrastive grammar research, we used a set of XSLT stylesheets to transform the mediawiki anntations to XML. Furthermore, the data has been amnntated with word class information using different taggers. The outcome is a corpus with rich meta data and linguistic annotation that can be used for multilingual research in various linguistic topics.
Linguistic query systems are special purpose IR applications. We present a novel state-of-the-art approach for the efficient exploitation of very large linguistic corpora, combining the advantages of relational database management systems (RDBMS) with the functional MapReduce programming model. Our implementation uses the German DEREKO reference corpus with multi-layer linguistic annotations and several types of text-specific metadata, but the proposed strategy is language-independent and adaptable to large-scale multilingual corpora.
XML has been designed for creating structured documents, but the information that is encoded in these structures are, by definition, out of scope for XML. Additional sources, normally not easily interpretable by computers, such as documentation are needed to determine the intention of specific tags in a tag-set. The Component Metadata Infrastructure (CMDI) takes a rather pragmatic approach to foster interoperability between XML instances in the domain of metadata descriptions for language resources. This paper gives an overview of this approach.
This article presents a revised version of GAT, a transcription system first devel-oped by a group of German conversation analysts and interactional linguists in 1998. GAT tries to follow as many principles and conventions as possible of the Jefferson-style transcription used in Conversation Analysis, yet proposes some conventions which are more compatible with linguistic and phonetic analyses of spoken language, especially for the representation of prosody in talk-in-interaction. After ten years of use by researchers in conversation and discourse analysis, the original GAT has been revised, against the background of past experience and in light of new necessities for the transcription of corpora arising from technologi-cal advances and methodological developments over recent years. The present text makes GAT accessible for the English-speaking community. It presents the GAT 2 transcription system with all its conventions and gives detailed instructions on how to transcribe spoken interaction at three levels of delicacy: minimal, basic and fine. In addition, it briefly introduces some tools that may be helpful for the user: the German online tutorial GAT-TO and the transcription editing software FOLKER.
This paper formulates a proposal for standardising spoken language transcription, as practised in conversation analysis, sociolinguistics, dialectology and related fields, with the help of the TEI guidelines. Two areas relevant to standardisation are identified and discussed: first, the macro structure of transcriptions, as embodied in the data models and file formats of transcription tools such as ELAN, Praat or EXMARaLDA; second, the micro structure of transcriptions as embodied in transcription conventions such as CA, HIAT or GAT. A two-step process is described in which first the macro structure is represented in a generic TEI format based on elements defined in the P5 version of the Guidelines. In the second step, character data in this representation is parsed according to the regularities of a transcription convention resulting in a more fine-grained TEI markup which is also based on P5. It is argued that this two step process can, on the one hand, map idiosyncratic differences in tool formats and transcription conventions onto a unified representation. On the other hand, differences motivated by different theoretical decisions can be retained in a manner which still allows a common processing of data from different sources. In order to make the standard usable in practice, a conversion tool—TEI Drop—is presented which uses XSL transformations to carry out the conversion between different tool formats (CHAT, ELAN, EXMARaLDA, FOLKER and Transcriber) and the TEI representation of transcription macro structure (and vice versa) and which also provides methods for parsing the micro structure of transcriptions according to two different transcription conventions (HIAT and cGAT). Using this tool, transcribers can continue to work with software they are familiar with while still producing TEI-conformant transcription files. The paper concludes with a discussion of the work needed in order to establish the proposed standard. It is argued that both tool formats and the TEI guidelines are in a sufficiently mature state to serve as a basis for standardisation. Most work consequently remains in analysing and standardising differences between different transcription conventions.
This paper presents ongoing research which is embedded in an empirical-linguistic research program, set out to devise viable research strategies for developing an explanatory theory of grammar as a psychological and social phenomenon. As this phenomenon cannot be studied directly, the program attempts to approach it indirectly through its correlates in language corpora, which is justified by referring to the core tenets of Emergent Grammar. The guiding principle for identifying such corpus correlates of grammatical regularities is to imitate the psychological processes underlying the emergent nature of these regularities. While previous work in this program focused on syntagmatic structures, the current paper goes one step further by investigating schematic structures that involve paradigmatic variation. It introduces and explores a general strategy by which corpus correlates of such structures may be uncovered, and it further outlines how these correlates may be used to study the nature of the psychologically real schematic structures.
Between classical symbolic word sense disambiguation (wsd) using explicit deep semantic representations of sentences and texts and statistical wsd using word co-occurrence information, there is a recent tendency towards mediating methods. Similar to so-called lightweight semantics (Marek, 2009) we suggest to only make sparse use of semantic information. We describe an approximation model based upon flat underspecified discourse representation structures (FUDRSs, cf. Eberle, 2004) that weighs knowledge about context structure, lexical semantic restrictions and interpretation preferences. We give a catalogue of guidelines for human annotation of texts by corresponding indicators. Using this, the reliability of an analysis tool that implements the model can be tested with respect to annotation precision and disambiguation prediction and how both can be improved by bootstrapping the knowledge of the system using corpus information. For the balanced test corpus considered the recognition rate of the preferred reading is 80-90% (depending on the smoothing of parse errors).
Aus den Argumentstrukturen von Verben lassen sich vielfach eigenständige Argumentstrukturmuster mit idiosynkratischen formalen oder inhaltlichen Eigenschaften abstrahieren. Der Artikel zeigt, dass sich Ähnlichkeiten zwischen solchen Mustern nicht, wie von Goldberg (1995) vorgeschlagen, über das Konzept polysemer Argumentstrukturkonstruktionen erfassen lassen, sondern adäquater über ein Netz von Familienähnlichkeiten modelliert werden können. Die einzelnen Argumentstrukturmuster zeigen dabei eine Vielzahl von idiosynkratischen lexikalischen Kookkurrenzen, die spezifisch für die je einzelnen Argumentstrukturmuster sind und in einer implikativen Beziehung zu diesen stehen. Überlegungen zur angemessenen sprachtheoretischen Modellierung der Daten zeigen dabei sowohl Schwächen valenzbasierter Theorien als auch Mängel konstruktionsbasierter Ansätze auf.
The contribution will focus on aspects of pluricentricity in spoken Standard German. After a brief overview over the historical and dialectal background of the linguistic diversity in the German speaking area, the regionally balanced speech-corpus "German today” is presented, which has been collected for the analysis of the (regional) variation of spoken Standard German. Aspects of pluricentric German will be discussed by means of both the distribution of certain phonetic variables and a short analysis of regional differences in the use of certain conversational constructions. It is argued that pluricentric structures are constituted by a set of linguistic features on different levels of description. Above all, the analysis tries to reveal traces of the impact of both traditional dialects and national or even subnational political units on the constitution of the standard varieties.
Ausdrucksalternativen bei Konnektoren – Varianten oder Fehler? Protokoll eines fiktiven Gesprächs
(2011)
Kombinationen aus Präposition und artikelloser Nominalprojektion, deren syntaktischer Kopf ein zählbares Substantiv im Singular ist, fristeten lange Zeit ein Schattendasein in der Grammatikschreibung. Sie wurden ignoriert oder als Ausnahmen beschrieben, obwohl sie offenkundig regelhaft gebildet werden. Im vorliegenden Aufsatz verwenden wir computerlinguistische Verfahren, insbesondere „Annotation Mining“ und logistische Regression, um die syntaktische Distribution dieser Kombinationen zu charakterisieren und anhand zweier Präpositionen (‚ohne‘ und ‚unter‘) detailliert die Realisationsbedingungen zu bestimmen.
Im vorliegenden Beitrag werden Ergebnisse aus zwei Benutzungsstudien präsentiert, die zum Wörterbuch elexiko im Januar bzw. März 2011 realisiert wurden. Wörterbuchbenutzungsforschung für ein neu konzipiertes, noch im Aufbau befindliches, umfangreiches Onlinewörterbuch zur deutschen Gegenwartssprache wie elexiko ist bislang nur in geringem Umfang durchgeführt worden.Dabei ist der Bedarf an Klärung der Benutzerbedürfnisse und -meinungen insgesamt groß. Solch eine Klärung kann einerseits als Bestätigung von Entscheidungen, die für Inhalt und Präsentation des Wörterbuchs getroffen wurden, dienen. Sie dient andererseits aber auch als Anregung für deren Verbesserung auf der Grundlage nicht vermeintlicher, sondern tatsächlicher Bedürfnisse und Meinungen zur Wörterbuchbenutzung.
Bericht über die 15. Arbeitstagung zur Gesprächsforschung vom 30. März - 1. April 2011 in Mannheim
(2011)
This paper provides a unified semantic and discourse pragmatic analysis of the German particle nämlich, traditionally described as having a specificational and an explanative reading. Our claim is that nämlich is a discourse marker which signals that the expression it is attached to is a short (elliptic) answer to a salient implicit question about the previous utterance. We show how both the explanative and the specificational reading can be derived from this more general semantic contribution. In addition we discuss some cross linguistic consequences of our analysis.
Prominence has been widely studied on the word level and the syllable level. An extensive study comparing the two approaches is missing in the literature. This study investigates how word and syllable prominence relate to each other in German. We find that perceptual ratings based on the word level are more extreme than those based on the syllable level. The correlations between word prominence and acoustic features are greater than the correlations between syllable prominence and acoustic features.
Conduit metaphor
(2011)
In this paper, we explore different linguistic structures encoded as convolution kernels for the detection of subjective expressions. The advantage of convolution kernels is that complex structures can be directly provided to a classifier without deriving explicit features. The feature design for the detection of subjective expressions is fairly difficult and there currently exists no commonly accepted feature set. We consider various structures, such as constituency parse structures, dependency parse structures, and predicate-argument structures. In order to generalize from lexical information, we additionally augment these structures with clustering information and the task-specific knowledge of subjective words. The convolution kernels will be compared with a standard vector kernel.
Dieser Beitrag thematisiert semantische Bedingungen des unpersönlichen Passivs im Deutschen und in anderen Sprachen. Traditionellerweise nimmt man an, dass nur atelische und agentivische Verben im unpersönlichen Passiv akzeptabel sind. Ich werde die empirischen Hypothesen der bisherigen Forschung auf der Grundlage von Akzeptabilitätsstudien und einer breiteren korpusbasierten Datenmenge revidieren. Die hier behandelten semantischen Aspekte wurden in einflussreichen Arbeiten als Evidenz für die Überlegenheit einer konstruktionsgrammatischen Herangehensweise gewertet. Ich werde diese Evidenz in Frage stellen und beschränkungsbasierte Alternativen präsentieren.
Problems for parsing morphologically rich languages are, amongst others, caused by the higher variability in structure due to less rigid word order constraints and by the higher number of different lexical forms. Both properties can result in sparse data problems for statistical parsing. We present a simple approach for addressing these issues. Our approach makes use of self-training on instances selected with regard to their similarity to the annotated data. Our similarity measure is based on the perplexity of part-of-speech trigrams of new instances measured against the annotated training data. Preliminary results show that our method outperforms a self-training setting where instances are simply selected by order of occurrence in the corpus and argue that selftraining is a cheap and effective method for improving parsing accuracy for morphologically rich languages.
Das Kicktionary ist ein dreisprachiges (deutsch-englisch-französisches) elektronisches Wörterbuch der Fußballsprache. Es basiert auf einem Korpus von geschriebenen Fußballberichten und (in geringerem Umfang) gesprochenen Fußballkommentaren und nutzt die Ideen der Framesemantik (Fillmore 1982, Fillmore et al. 2003) sowie der lexikalischen Relationen (Fellbaum 1998) zur Strukturierung des Wortschatzes. Verschiedene Aspekte der Erstellung, Präsentation und Nutzung des Kicktionary sind in Schmidt (2008, 2009 und 2010) dargestellt. Im vorliegenden Beitrag konzentriere ich mich auf die Frage, welche Datenmodelle und welche Datenformate zur Modellierung des Wortschatzes im Kicktionary zum Einsatz kamen. Zu diesem Zweck möchte ich einleitend zunächst mein Verständnis dieser drei Begriffe – Datenmodell, Datenformat und Modellierung – näher erläutern.
Den Wald vor lauter Bäumen sehen - und andersherum: zum Verhältnis von 'Mustern' und 'Regeln'
(2011)
Die Konstruktionsgrammatik setzt dem Begriff der konstruktiven Regel den des komplexen Musters entgegen, das in syntaktischen Generalisierungsprozessen analogisch erweitert wird. Der vorliegende Beitrag präsentiert eine solche musterbasierte Analyse von deutschen Konstruktionen mit lokativem Subjekt (Wiesen und Wälder wuchern vor Blumen und Kräutern) als Extension einer Reihe verwandter Konstruktionen mit kausaler und intensivierender Funktion, aus denen die lokative Variante mutmaßlich hervorgegangen ist. Die Analyse argumentiert, dass der umgebenden ,Ökologie‘ der Zielkonstruktion im sprachlichen Wissen der Sprecher eine zentrale Rolle für die Erklärung der attestierten Varianten zukommt, die in regelbasierten Zugängen als unmotivierte ,Ausnahmen‘ von allgemeinen Linkingprinzipien gelten müssen.
Im vorliegenden Beitrag soll der Aufbau einer maßgeschneiderten XML-Modellierung für ein Wörterbuchnetz erläutert werden. Diese Schriftfassung beruht auf einem gleichlautenden Vortrag, der auf dem ersten Arbeitstreffen des DFG-Netzwerks "Internetlexikografie" in Mannheim im Mai 2011 gehalten wurde. Der Beitrag ist als Werkstattbericht zu verstehen, d. h. als praktisch orientierter Blick sowohl darauf, wie wir unsere Modellierung für OWID konzipiert haben, welche Konsequenzen dies für die lexikographische Arbeit sowie für die Recherchemöglichkeiten der Nutzer hat, als auch darauf, welche Vor- und Nachteile wir bei diesem Modellierungsansatz sehen. Der vorliegende Beitrag bietet damit keine umfassende theoretische Auseinandersetzung mit verschiedenen Möglichkeiten der Modellierung. Lediglich im folgenden Kapitel werden die Grundzüge des Modellierungsansatzes kurz erläutert und es wird auf entsprechende weiterführende projektbezogene Literatur verwiesen.
Der Definitionswortschatz im einsprachigen Lernerwörterbuch des Deutschen. Anspruch und Wirklichkeit
(2011)
Der vorliegende Band beschäftigt sich im theoretisch orientierten ersten Teil mit der Geschichte des Ansatzes, in Lernerwörterbüchern einen kontrollierten Definitionswortschatz zu verwenden. Zudem wird die kontroverse Diskussion um den kontrollierten Definitionswortschatz in der Metalexikografie wiedergegeben. Den Hauptteil der Arbeit bildet die korpusbasierte Analyse des Definitionswortschatzes des Langenscheidt Taschenwörterbuchs Deutsch als Fremdsprache und des Duden/Hueber Wörterbuchs Deutsch als Fremdsprache. Zum einen werden sowohl quantitative als auch qualitative Merkmale des verwendeten Definitionswortschatzes untersucht, zum anderen geht es um die Frage, inwieweit die beiden Wörterbücher ihren Eigenanspruch eines computerkontrollierten Definitionswortschatzes einhalten. Die Untersuchung schließt damit einerseits eine metalexikografische Forschungslücke, andererseits enthält sie Empfehlungen an die praktische Lexikografie.
Der Einsatz einer maßgeschneiderten, feingranularen XML-Modellierung im lexikografischen Prozess
(2011)
Ausdrücke wie Globalisierung und Wirtschaftskrise sind Teil unserer öffentlichen Alltagssprache. Sie stehen für politische und soziokulturell brisante Debatten und ihre semantische Analyse zeigt den engen Zusammenhang zwischen Sprache und Gesellschaft. Der alltägliche Gebrauch solcher Ausdrücke etabliert gemeingesellschaftliche Diskurse, die mit korpuslinguistischen Verfahren analysierbar sind. In diesem Beitrag wird der Diskurs der Finanz- und Wirtschaftskrise in der öffentlichen Sprache von Zeitungstexten betrachtet. Zentrales Diskursobjekt ist der lexikalische Ausdruck Wirtschaftskrise selbst. Die Ermittlung relevanter Kontextbeziehungen, wie sie in Kollokationen vorhanden sind, und regelhafter Verwendungsmuster spielt für seine Beschreibung die wichtigste Rolle, da diese Indikatoren zum einen typische Thematisierungen sind und zum anderen Lexikalisierungen mit Bewertungspotenzial darstellen. Abschließend erfolgt eine kurze kritische Betrachtung der Dokumentation diskurs-relevanter Ausdrücke in deutschen Wörterbüchern der Gegenwartssprache.
Wenn man einen Blick in die traditionellen Grammatiken wirft, so wird man feststellen, dass die Struktur der deutschen Sprache hier eher isoliert beschrieben wird, das heißt, dass sich die Beschreibung grammatischer Phänomene auf das Deutsche konzentriert. Hierbei handelt es sich sicherlich um fundierte Analysen der deutschen Sprachstruktur, die wichtige Einblicke und Erkenntnisse liefern. Allerdings hat diese einzelsprachlich orientierte Betrachtungsweise einen entscheidenden Nachteil – die Besonderheiten einer Sprache können so gar nicht erfasst werden, da sich die spezifischen Charakteristika natürlich erst im Vergleich mit anderen Sprachen zeigen. Mit anderen Worten: Wenn nur das Deutsche betrachtet wird, lassen sich gar keine Aussagen darüber treffen, was nun charakteristisch für diese Sprache ist. Ebenso wenig lassen sich Gemeinsamkeiten mit anderen Sprachen herausstellen. Phänomene, die nicht nur auf eine Sprache beschränkt sind, sind aber wiederum von Bedeutung für die linguistische Theoriebildung.
This paper uses a devil’s advocate position to highlight the benefits of metadata creation for linguistic resources. It provides an overview of the required metadata infrastructure and shows that this infrastructure is in the meantime developed by various projects and hence can be deployed by those working with linguistic resources and archiving. Possible caveats of metadata creation are mentioned starting with user requirements and backgrounds, contribution to academic merits of researchers and standardisation. These are answered with existing technologies and procedures, referring to the Component Metadata Infrastructure (CMDI). CMDI provides an infrastructure and methods for adapting metadata to the requirements of specific classes of resources, using central registries for data categories, and metadata schemas. These registries allow for the definition of metadata schemas per resource type while reusing groups of data categories also used by other schemas. In summary, rules of best practice for the creation of metadata are given.
In diesem abschließenden Beitrag soll zunächst verdeutlicht werden, was die zurückliegenden Fallanalysen an allgemeinen Einsichten für didaktisches Handeln unter Bedingungen faktischer Interaktion eröffnet haben. Es geht also um Einsichten, die in ihrer Bedeutung über das einzelne analysierte Beispiel hinausgehen (Kap. 2). Darüber hinaus soll gezeigt werden, welche Konsequenzen sich auf der Grundlage dieser falltranszendierenden Einsichten für eine handlungsgegründete Konzeption von Didaktik ergeben (Kap. 3). Schließlich soll die Frage gestellt werden, welche Perspektiven sich für die Ausbildung von Referendarinnen/Referendaren und die Weiterbildung von Lehrern/Lehrerinnen auf der Grundlage der produzierten Ergebnisse eröffnen (Kap. 4). An einem konkreten Beispiel soll abschließend aufgezeigt werden, welche Möglichkeiten bestehen, die Analyseergebnisse für eine Sensibilisierung sowohl in der Ausbildung von Referendaren/ Referendarinnen als auch der Weiterbildung von Lehrerinnen/Lehrern für Mechanismen von Interaktion zu nutzen und für den Unterricht zur Verfügung zu stellen (Kap. 5).
Die Aufnahme deutscher Siedler und die Bildung von Sprachinseln in Russland seit Katharina II
(2011)
In dieser ersten Fallstudie geht es um die Rekonstruktion der Entwicklung eines „brisanten“ Themas im Englisch-Unterricht. Aus der Bearbeitung der aktuellen Aufgabe „Steckbriefe prominenter Personen verfassen, vorlesen und erraten“ entsteht in mehreren Etappen das Thema „nationale Identität“, an dem sich unterschiedliche Schüler und der Lehrer beteiligen. Wir beschreiben zunächst, aus welchem schulischen Zusammenhang der für die Analyse ausgesuchte Videoausschnitt stammt (Kap. 2). Dabei stellen wir auch kurz den Unterrichtszusammenhang dar, der dem analysierten Ausschnitt vorausgeht (Kap. 3). Dieser wiederum verdeutlicht, aus welchem konkreten Zusammenhang sich das „brisante Thema“ entwickelt und unter welchen Bedingungen dies geschieht. Danach rekonstruieren wir die schrittweise Entstehung dieses Themas (Kap. 4). Im Anschluss daran konzentrieren wir uns auf die interaktive Beteiligungsweise des Lehrers und fragen nach den konkreten Anforderungen, die sich für ihn aus der thematischen Entwicklung ergeben (Kap. 5) und nach den Verfahren, die er zur Bearbeitung dieser Anforderungen einsetzt (Kap. 6). Weiter verdeutlichen wir die mit den Verfahren verbundenen Implikationen in Begriffen von „Chancen und Risiken“ (Kap. 7) und beschreiben den Zusammenhang von unterrichts- und fachspezifischen Ressourcen der vom Lehrer eingesetzten interaktiven Verfahren (Kap. 8). Eine kurze Schlussbemerkung vervollständigt unsere Darstellung (Kap. 9).
In diesem Beitrag soll zunächst der Hintergrund des DWDS-Wörterbuchs dargestellt werden. Im zweiten Abschnitt erfolgt eine kurze Charakterisierung des im DWDS-Wörterbuch verwendeten Kollokationsbegriffs. Dessen Einbettung in die Wörterbuchstruktur des DWDSWörterbuchs wird im dritten Abschnitt beschrieben. Das eigentliche digitale Herzstück der Kollokationsbeschreibung im DWDS-Wörterbuch ist das DWDS-Wortprofil, eine auf syntaktischer Analyse und statistischer Auswertung basierende automatische Kollokationsextraktion, deren Grundlagen und Qualität in Abschnitt 4 dargestellt werden. In Abschnitt 5 soll anhand einiger Beispiele illustriert werden, wie die Arbeitsteilung der automatischen Kollokationen und der lexikographischen Intuition in der täglichen lexikographischen Arbeit aussieht. Schließlich geben wir im letzten Abschnitt einen Ausblick auf die künftige Arbeit.
In der letzten Zeit wurde aus verschiedenen linguistischen Teildisziplinen heraus versucht, die Anwendbarkeit der Construction Grammar in Bereichen wie beispielsweise der Gesprächsforschung zu überprüfen. Für die Gesprächsforschung bzw. Interaktionale Linguistik bietet die Construction Grammar einen viel versprechenden theoretischen Rahmen, da sich viele der Grundannahmen von Construction Grammar und Interaktionaler Linguistik/Gesprächsanalyse decken. Trotz dieser positiven Übereinstimmungen führt das zeichenbasierte Konzept der Konstruktionsgrammatik zu Problemen bei der Analyse gesprochener Sprache. Häufig können bestimmte Phrasen, Satzmuster oder Wörter nicht bestimmten Konstruktionen eindeutig zugeordnet werden, da zu ihrem Verständnis Kontextinformationen nötig sind oder da sie die Merkmale mehrerer Konstruktionen teilen. Anhand dreier problematischer Fälle aus dem gesprochenen Deutsch, bei denen das Konzept, Konstruktionen als Zeichen zu betrachten, zu Problemen führt, werden die Grenzen des konstruktionsgrammatischen Modells aufgezeigt. In einem zweiten Schritt wird als Lösungsvorschlag die Theorie der Granularität nach Bittner/Smith (2001a und b, 2003) vorgestellt, die dazu entwickelt wurde, „to map vague concepts onto crisp portions of reality“ (Bittner/Smith 2011a, S 1). Zuletzt wird eine granulare Re-Analyse der eingangs vorgestellten Problemfälle vorgenommen.
Die Kausalkonjunktionen denn, weil, da im Deutschen und perché, poiché, siccome im Italienischen
(2011)
Gegenstand des vorliegenden Aufsatzes sind die deutschen Kausalkonjunktionen denn, weil und da und ihre (partiellen) italienischen Äquivalente perché, poiché und siccome. Sie werden vergleichend in syntaktischer und semantischer Hinsicht untersucht, mit dem Ziel, Gemeinsamkeiten und Unterschiede zwischen ihnen aufzuweisen.
Die Ordnung des öffentlichen Diskurses der Wirtschaftskrise und die (Un-)Ordnung des Ausgeblendeten
(2011)
Die vorliegende Arbeit befasst sich mit der Frage, wie Sprachvariation in Gesprächen in sozialsymbolisierender Funktion eingesetzt wird. Sie entstand vor dem Hintergrund der ethnographisch-soziolinguistischen Stadtsprachenforschung im Rahmen des Projekts "Kommunikation in der Stadt" von Inken Keim und Werner Kallmeyer, das sich mit dem Kommunikationsverhalten von Zugehörigen unterschiedlicher sozialer Milieus der Mannheimer Bevölkerung beschäftigt und unter anderem die sozial bedeutsame Verwendung von Sprachvariation analysiert. Bei der hier betrachteten Sprachvariation handelt es sich um die Variation zwischen Standard und dem Saarlouiser Dialekt, der zu den moselfränkischen Dialekten zählt. Ziel dieser Arbeit ist es, festzustellen, ob und wie sprachliche Symbolisierungen mit Hilfe von Sprachvariation gebildet werden. Es wird untersucht, wie bestimmte soziale Kategorien in der Selbst- und Fremddarstellung der Sprecher im Erzählen oder im Gespräch durch Sprachvariation ausgedrückt werden können und wie diese bewertet werden.
Die Sprechmaschine Wolfgang von Kempelens stellt in ihrer Art als erste grundsätzlich funktionierende Apparatur zur Sprachsynthese einen ganz besonderen Meilenstein in der Geschichte der Linguistik dar. Zwar gerieten Kempelen und seine Sprachforschung niemals völlig in Vergessenheit, doch sind seine und die Forschungen seiner Zeitgenossen heute nur noch einem eher kleinen Kreis näher bekannt. Im Rahmen dieser vom Autor ursprünglich als Magisterarbeit verfassten Abhandlung sollen der historische Kontext und die herausragende Leistung Kempelens detailliert dargestellt und kommentiert werden.
DIL ist ein deutsch-italienisches Online-Fachwörterbuch der Linguistik. Es ist ein offenes Wörterbuch und mit diesem Beitrag wird für eine mögliche Zusammenarbeit, Kollaboration plädiert. DIL ist noch im Aufbau begriffen; zur Zeit ist nur die Sektion DaF komplett veröffentlicht, auch wenn andere Sektionen in Bearbeitung sind. Die Sektion LEX (Lexikographie), die zur Veröffentlichung ansteht, wird zusammen mit den wichtigsten Eigenschaften des Wörterbuches präsentiert.
Based on German data from history-taking in doctor-patient interaction, the paper shows that the three basic syntactic types of questions (questions fronted by a question-word (w-questions), verb-first (V1) questions, and declarative questions) provide different opportunities for displaying understanding in medical interaction. Each syntactic questionformat is predominantly used in a different stage of topical sequences in history taking: w-questions presuppose less knowledge and are thus used to open up topical sequences; declarative questions are used to check already achieved understandings and to close topical sequences. Still, the expected scope of answers to yes/no-questions and to declarative questions is less restricted than previously thought. The paper focuses in detail on the doctors’ use of formulations as declarative questions, which are designed to make patients elaborate on already established topics, giving more details or accounting for a confirmation. Formulations often involve a shift to psychological aspects of the illness. Although patients confirm doctors’ empathetic formulations, they, however, regularly do not align with this shift, returning to the description of symptoms and to biomedical accounts instead. The study shows how displays of understanding are responded to not only in terms of correctness, but also (and more importantly) in terms of their relevance for further action.
Der vorliegende Aufsatz beschäftigt sich mit der Frage, wie Argumente während des Sprachverstehens erkannt werden, welche Eigenschaften einem Argument in Abwesenheit des Verbs zugeschrieben werden und welche Art von Vorhersagen mit der Argumentinterpretation verbunden sind. Ausgehend von der Annahme, dass beim Sprachverstehen in Echtzeit jedes Wort so maximal wie möglich interpretiert wird, werden wir argumentieren, dass die zugrunde liegenden, sprachübergreifend zu findenden Mechanismen durch die Interaktion von typologisch motivierten Prominenzskalen (z.B. Belebtheitshierarchie) beschrieben werden sollten. Diese gestatten nicht nur eine Erklärung bestehender Befunde, sondern besitzen das Potenzial, zentrale Aspekte der Sprachverstehensarchitektur modelltheoretisch abzuleiten. Experimentell liegt der Fokus des Aufsatzes auf der Erfassung elektrophysiologischer-neuronaler Aktivierungsmuster, da diese uns im Gegensatz zu Urteilen oder Korpusverteilungen einen unmittelbaren Einblick in die Verarbeitung im Echtzeitbereich gestatten.
Editorial
(2011)
Der vorliegende Beitrag stellt einen neuartigen Typ von mehrsprachiger elektronischer Ressource vor, bei dem verschiedene Lehnwörterbücher zu einem "umgekehrten Lehnwörterbuch" für eine bestimmte Gebersprache zusammengefasst werden. Ein solches Wörterbuch erlaubt es, die zu einem Etymon der Gebersprache gehörigen Lehnwörter in verschiedenen Nehmersprachen zu finden. Die Entwicklung einer solchen Webanwendung, insbesondere der zugrundeliegenden Datenbasis, ist mit zahlreichen konzeptionellen Problemen verbunden, die an der Schnittstelle zwischen lexikographischen und informatischen Themen liegen. Der Beitrag stellt diese Probleme vor dem Hintergrund wünschenswerter Funktionalitäten eines entsprechenden Internetportals dar und diskutiert einen möglichen Lösungsansatz: Die Artikel der Einzelwörterbücher werden als XML-Dokumente vorgehalten und dienen als Grundlage für die gewöhnliche Online-Ansicht dieser Wörterbücher; insbesondere für portalweite Abfragen werden aber grundlegende, standardisierte Informationen zu Lemmata und Etyma aller Portalwörterbücher samt deren Varianten und Wortbildungsprodukten (hier zusammenfassend als "Portalinstanzen" bezeichnet) sowie die verschiedenartigen Relationen zwischen diesen Portalinstanzen zusätzlich in relationalen Datenbanktabelle nabgelegt, die performante und beliebig komplex strukturierte Suchabfragen gestatten.
Einführung
(2011)
Einleitung
(2011)
Einleitung
(2011)
Der Artikel stellt die Projekte vor, die sich im Rahmen der Projektmesse zur „Elektronischen Lexikografie“ präsentiert haben. Diese Messe wurde begleitend zur 46. Jahrestagung des Instituts für Deutsche Sprache veranstaltet. Es wird in diesem Beitrag auf der Basis der Messepräsentationen dargelegt, inwiefern Entwicklungen der Korpuslexikografie und der Internetlexikografie die lexikografische Erfassung syntagmatischer Aspekte des deutschen Wortschatzes befördern und welche lexikografischen Internetressourcen dazu verfügbar sind.
Im vorliegenden Beitrag wird untersucht, welche lexikographischen Traditionen bei der Beschreibung von Bedeutung und Verwendung der Stichwörter in elexiko, einem Online-Wörterbuch zur deutschen Gegenwartssprache, fortgesetzt werden. Gezeigt wird anhand verschiedener Beispiele auch, wie dieses Internetwörterbuch über das tradierte Beschreibungsinventar in allgemeinsprachigen Bedeutungswörterbüchern hinausgeht. Hieraus leiten sich einige Fragen zur Zukunft des Typs .Bedeutungswörterbuch’ ab.
Dieser Band gewährt Einblick in den Entstehungsprozess von elexiko, einem im Aufbau befindlichen, korpusgestützten Online-Wörterbuch zur deutschen Gegenwartssprache. Das elexiko-Wörterbuch wird kontinuierlich erweitert (durch neue Stichworteinträge, durch die Freischaltung redaktionell bearbeiteter Wortartikel, durch die Integration automatisch ermittelter Informationen) und kann sich auch an der Benutzeroberfläche verändern (durch ein neues Design oder weitere Recherchemöglichkeiten). Solche Veränderungen, insbesondere aber auch die Erfahrungen, die bei der Erarbeitung der Wortartikel auf der Grundlage eines umfangreichen zeitungssprachlichen Korpus gemacht wurden und die ein Nachdenken über die ursprüngliche Konzeption bedingten, werden in den verschiedenen Beiträgen beschrieben. Alle zentralen Angabebereiche in den Wortartikeln (Bedeutungserläuterung, lexikalische Mitspieler, typische Verwendungsmuster, sinnverwandte Wörter, Besonderheiten des Gebrauchs und Grammatik) sind dabei berücksichtigt. Daneben werden kleinere lexikografische Angaben (z.B. Illustrationen, Ausspracheangaben) wie Fragen der Lemmatisierung (z.B. von Eigennamen) thematisiert. Schließlich werden die praktischen Erfahrungen mit der Datenmodellierung von elexiko (eine granulare, maßgeschneiderte XML-Struktur) reflektiert.
Streefkerk defines prominence as the perceptually outstanding parts in spoken language. An optimal rating scale for syllable prominence has not been found yet. This paper evaluates a 4-point, an 11-point, a 31-point, and a continuous scale for the rating of syllable prominence and gives support for scales using a higher number of levels. Priming effects found by Arnold, et al., could only be replicated using the 31-point scale.
Active Learning (AL) has been proposed as a technique to reduce the amount of annotated data needed in the context of supervised classification. While various simulation studies for a number of NLP tasks have shown that AL works well on goldstandard data, there is some doubt whether the approach can be successful when applied to noisy, real-world data sets. This paper presents a thorough evaluation of the impact of annotation noise on AL and shows that systematic noise resulting from biased coder decisions can seriously harm the AL process. We present a method to filter out inconsistent annotations during AL and show that this makes AL far more robust when applied to noisy data.
Most dictionaries containing phraseological information are restricted to a synchronic perspective. Diachronic information on structural, semantic, and pragmatic change over time has to be reconstructed by a time-consuming consultation of various dictionaries providing only punctual insights. In the OLdPhras, project we construct an online dictionary for diachronic phraseology in German from ca. 1650 to the present by combining dic- tionary exploration with corpus-based methods. This paper highlights some challenges we have met: How to select the interesting phrasemes, i.e., those that underwent some change? How to deal with historical cor- pora? How to include different kinds of phraseme variation? We present a semi-automatic corpus-based approach for the investigation of phraseme development. We argue for a combination of dictionary exploration and corpus-based methods to provide reliable and extensive information about the diachronic development of German phrasemes.
The study empirically examines the interpretation of focus accents in German. To this end, a methodology is developed, and it is discussed how experimental investigation can proceed at the current state of the focus theory. Methodologically, experiments directly measuring interpretation provide an alternative to the widespread practice of using only empirical preference and production data to investigate the interpretation of stimuli, and it is shown why such an alternative is necessary.
The empirical results show that one must extend and restrict theories assuming an association of free focus and scalar implicature (exhaustivity) or question–answer congruence as follows: On the one hand, situational factors in the interpretation must be taken into account to a greater extent than until now, especially their interaction with ‘physical’ properties of the speech signal (focus marking). On the other hand, a prototypical definition of Focus is called for which connects the major concepts of focus on the phonetic-phonological, semantic and information-structural levels and takes their prototypical coincidence to be the basis of focus interpretation and corresponding intuitions.
In den letzten Jahren entwickelten sich in vielen europäischen Großstädten unter Jugendlichen der 2. und 3. Migrantengeneration ethnolektale Formen des Deutschen. Sie sind charakteristisch für multilinguale Kontexte, in denen Sprecher unterschiedlicher Herkunftssprachen die regionale Umgangssprache des Landes, in dem sie leben, als lingua franca benutzen. Die neuen Formen haben große Überschneidungsbereiche mit den regionalen Varietäten, unterscheiden sich aber prosodisch- phonetisch, lexikalisch und morphosyntaktisch. Meist werden sie nur in bestimmten Kontexten verwendet, und die Sprecher wechseln virtuos zwischen regionalen Varietäten, Herkunftsvarietäten, sprachlichen Mischungen und ethnolektalen Formen.
Auf der Basis von drei ethnografischen Fallstudien in Mannheim wird gezeigt, wie die von den Migrantenjugendlichen entwickelten ethnolektalen Formen aussehen und zu welchen Zwecken die Jugendlichen sie verwenden. Die Jugendlichen haben ein weites Sprachrepertoire, verfugen über ethnolektale sowie standardnahe Formen und nutzen die Differenz zwischen beiden als kommunikative Ressource.
In diesem Beitrag befassen wir uns mit Aspekten der textuellen Verwendung von Possessiva im Deutschen, im Polnischen und im Ungarischen, die wir aus ihrem jeweiligen Formensystem und dessen Einbettung in das entsprechende Sprachsystem zu erklären suchen. Im Mittelpunkt des Beitrags stehen Possessiva mit anaphorischen Bezügen, die in deutsch-, polnisch- und ungarischsprachigen Texten die Possessiva der 3. Person betreffen. Wir widmen uns insbesondere folgenden drei Fragen: (i) Welcher Formunterscheidungen bedienen sich das Deutsche, das Polnische und das Ungarische beim Gebrauch der Possessiva, um die Identifikation des richtigen Bezugsausdrucks im Text zu ermöglichen? (ii) Wie lassen sich die jeweiligen Formentscheidungen in den betreffenden Kontexten erklären? (iii) Welche textuelle Wirkung wird durch die Wahl der jeweiligen Formen erreicht? Diese Fragen werden auf Grund der durchgeführten empirischen Paralleltextanalysen beantwortet.
Starting from early approaches within Generative Grammar in the late 1960s, the article describes and discusses the development of different theoretical frameworks of lexical decomposition of verbs. It presents the major subsequent conceptions of lexical decompositions, namely, Dowty’s approach to lexical decomposition within Montague Semantics, Jackendoff’s Conceptual Semantics, the LCS decompositions emerging from the MIT Lexicon Project, Pustejovsky’s Event Structure Theory, Wierzbicka’s Natural Semantic Metalanguage, Wunderlich’s Lexical Decompositional Grammar, Hale and Kayser’s Lexical Relational Structures, and Distributed Morphology. For each of these approaches, (i) it sketches their origins and motivation, (ii) it describes the general structure of decompositions and their location within the theory, (iii) it explores their explanative value for major phenomena of verb semantics and syntax, (iv) and it briefl y evaluates the impact of the theory. Referring to discussions in article 7 (Engelberg) Lexical decomposition, a number of theoretical topics are taken up throughout the paper concerning the interpretation of decompositions, the basic inventory of decompositional predicates, the location of decompositions on the different levels of linguistic representation (syntactic, semantic, conceptual), and the role they play for the interfaces between these levels.
Much language-related research in cognitive robotics appeals to usage-based models of language as proposed in cognitive linguistics and developmental psychology [1, 2] that emphasise the significance of learning, embodiment and general cognitive development for human language acquisition. Over and above these issues, however, what takes centre stage in these theories are social-cognitive skills of “intention-reading” that are seen as “primary in the language acquisition process” [1] – and also as difficult to incorporate into computational models of language acquisition. The present paper addresses these concerns: we describe work in progress on a series of experiments that take steps towards closing the gap between ‘solipsistic’ symbol grounding in individual robotic agents and socially framed embodied language acquisition in learners that attend to common ground [3] with changing interlocutors.
This chapter focuses on the contributions of German scholars to two of the three main research questions that have defined EU studies. Leaving aside the debate on the drivers of European integration, i.e. European integration theory, we will discuss the «governance turn» Fritz Scharpf, Beate Kohler-Koch, Arthur Benz, Ingeborg Tömmel and others promoted in studying EU institutions as well as the more policy-oriented approaches by Adrienne Héritier and again Fritz Scharpf and their students. We will then address the ever-growing literature on Europeanization on how EU policies, institutions and political processes have been affecting the domestic structures of member states, membership candidates, as well as neighborhood and third countries. In this context, German scholars also contributed to EU studies in what could be coined in methodological rather than substantial terms. Whereas Thomas König, Gerald Schneider, and others promoted the application of quantitative approaches, scientists like Bernhard Ebbinghaus and Markus Haverland dealt with general questions on research designs like case selection and causal inference. Finally, we will also discuss German contributions to diffusion research. The European Union as a most likely case for the diffusion of policies has attracted considerable attention by scholars dealing with the question of when and how policies spread across time and space. So it comes as no surprise that EU studies as well as diffusion research mutually benefitted from each other. In this regard, German scientists like Katharina Holzinger, Christoph Knill, Tanja Börzel, Thomas Plümper, Thomas Risse and others played a prominent role, too.
Gesprächstraining
(2011)
This paper offers a detailed analysis of the opening of an international meeting. English Lingua Franca as the official language of the meeting is actively discussed and negotiated by the participants. The analysis highlights the issues identified by the participants themselves in choosing a linguistic regime for their professional exchanges. The English Lingua Franca regime is aimed at facilitating the participation of some of the participants, but creates problems for others, too. The chairman deals with this situation in an embodied way (through his gaze, gesture, bodily postures, and by the way in which he walks through the room), displaying that he orients to different member categories (such as 'anglophone', 'anglophone who can understand French', 'francophile', etc.) as benefitting from or resisting against the definitive language choice.
This paper aims at contributing to the analysis of overlaps in turns-at-talk from both a sequential and a multimodal perspective. Overlaps have been studied within Conversation Analysis by focusing mainly on verbal and vocal resources; taking into account multimodal resources such as gesture, bodily posture, and gaze contributes to a better understanding of participants’ orientations to the sequential organization of overlapping talk and their management of speakership. First, we introduce the way in which overlaps have been studied in Conversation Analysis, mainly by Jefferson (1973, 1983, 2004) and Schegloff (2000); then we propose possible implications of their multimodal analysis. In order to demonstrate that speakers systematically orient to the overlap onset and resolution we analyze the multimodal conduct of overlapped speakers. Findings show methodical variations in trajectories of overlap resolution: speakers’ gestures in overlap display themselves as maintaining or withdrawing their turn, thereby exhibiting the speakership achieved and negotiated during overlap.
This study explores the interdependence of qualitative and quantitative analysis in articulating empirically plausible and theoretically coherent generalizations about grammatical structure. I will show that the use of large electronic corpora is indispensable to the grammarian's work, serving as a rich source of semantic and contextual information, which turns out to be crucial in categorizing and explaining grammatical forms. These general concerns are illustrated by the patterns of use of Czech relative clauses (RC) with the non-declinable relativizer co, by taking a set of existing claims about these RCs and testing their accuracy on corpus material. The relevant analytic categories revolve around the referential type of the relativized noun, the interaction between relativization and deixis, and the semantic relationship between the relativized noun and the proposition expressed by the RC. The analysis demonstrates that some of the existing claims are fully invalid in the face of regularly attested semantic distinctions, while others are more or less on the right track but often not comprehensive or precise enough to capture the full richness of the facts. 1
Grammatik ohne Wörter?
(2011)
Am Beispiel des Deutschen wird gezeigt, dass verschiedene Strategien, die traditionelle Unterscheidung zwischen Wörtern und Syntagmen so zu modifizieren, dass sie die sehr differenzierten Daten vollständig, detailliert und widerspruchsfrei erfasst, zur inhaltlichen Entleerung dieser Unterscheidung führen und sie damit letztlich überflüssig machen. Das gilt sowohl für die populäre Aufspaltung von Wort vs. Syntagma in mehrere spezifischere Kategorienpaare (phonologisches Wort vs. phonologisches Syntagma, graphematisches Wort vs. graphematisches Syntagma usw.) als auch für ihre Umdeutung als Prototypen- oder Default-Kategorien. Allerdings kann man an der Unterscheidung zwischen Wörtern und Syntagmen festhalten, wenn man Einschränkungen der Vollständigkeit, Detailtreue oder Widerspruchsfreiheit in Kauf nimmt (wie in der linguistischen Praxis oft unumgänglich). Diese Überlegungen übertragen sich auf die auf Wort vs. Syntagma beruhenden Abgrenzungen linguistischer Teilgebiete, wie Syntax vs. Morphologie vs. Phraseologie, z.T. auch Grammatik vs. Lexikon.
Die Nutzung von Korpora hat die Grammatikforschung in den letzten Jahren wirkungsvoll vorangebracht und birgt immer noch großes Potenzial. Korpora vermitteln Einsichten in den Sprachgebrauch und ermöglichen es, auch Phänomenen auf die Spur zu kommen, die in der Grammatikografie bisher unbeachtet blieben. Die Beiträge zur Dritten Internationalen Konferenz Grammatik und Korpora (Mannheim 2009) thematisieren zum einen korpusgestützte grammatische Untersuchungen zu verschiedenen Sprachen, zum anderen übereinzelsprachlich ausgerichtete methodologisch-korpuslinguistische Ansätze. Einblicke in laufende Forschungsvorhaben runden den Band ab, der sowohl für Grammatiker mit Interesse an korpuslinguistischen Methoden als auch für Korpuslinguisten gedacht ist, die grammatiktheoretische Fragen nicht ignorieren wollen.
Der Konstruktionsbegriff hielt seinen Einzug in die Spracherwerbsforschung durch gebrauchsbasierte Lerntheorien, nach denen sprachliche Strukturen als Form-Funktionseinheiten aus dem Input abgeleitet werden, Sprache somit ein emergentes System ist (Tomasello 1998a und b; Behrens 2009a und b). Die Abstraktionseinheit für das Kind ist dabei die Äußerung in ihrer situativen Gebundenheit und ihrer Diskursfunktion, mithin die Konstruktion. Die Konstruktion wird gefasst als schematische Einheit mit mehr oder weniger offenen Slots: Teile der Konstruktion können lexikalisch fixiert oder aber produktiv und durch andere Ausdrücke ersetzbar sein. Der Kontrast zum Valenzbegriff bzw. dem der Argumentstruktur in seiner formaleren Definition liegt darin, dass die lexikalischen Eigenschaften der Wörter die Syntax nicht projizieren, sondern dass sowohl die Eigenschaften der Lemmas als auch die der Morphosyntax aus ihrem Vorkommen in konkreten Sätzen abgeleitet werden.
Empirisch konzentriert sich die Forschung auf die Ermittlung der Generalisierungsprozesse und auf deren Basis im Input, dem Sprachangebot. Erwerbsrelevant ist insbesondere der Input in seinen usualisierten Mustern in typischen Interaktionssituationen. Eher wird vor allem der Grad der Produktivität kindlicher Äußerungen analysiert. Bislang weniger untersucht, aber zunehmend im Fokus sind die Generalisierungsprozesse selbst und damit die generative Kraft des Konstruktionsbegriffs. Sobald Aspekte einer Konstruktion abstrahiert worden (= produktiv) sind, sollten sie auf neue Situationen übertragen werden können, und gilt es zu ermitteln, welche formalen, funktionalen und distributionellen Faktoren die Abstraktion sprachlichen Wissens fördern.
In dem Paradigma der gebrauchsbasierten Konstruktionsgrammatik wird die modulare Trennung zwischen Wörtern und Regeln aufgehoben. Somit kann innerhalb eines einheitlichen theoretischen Rahmens sowohl der Erwerb regelhafter als auch der stärker idiosynkratischer Strukturen erklärt werden.
Im Beitrag werden die Methodologie und die Ziele eines Projekts vorgestellt, das anstrebt, auf der Grundlage eines breiten Korpus von Texten aus allen Ländern und Regionen des zusammenhängenden deutschen Sprachgebiets die Variation in der Grammatik der geschriebenen deutschen Standardsprache zu erfassen, in einem Handbuch zu dokumentieren und damit eine Basis sowohl für Grammatiken als auch für weitergehende grammatische Untersuchungen zu schaffen. Nach einleitenden Bemerkungen zum Projekt und zu der Frage, in welcher Relation die geplante „Variantengrammatik des Standarddeutschen“ zum bereits erhältlichen „Variantenwörterbuch des Deutschen“ von Ammon et al. (2004) steht, folgt ein Forschungsüberblick zur grammatischen Variation in der Standardsprache. Dann werden Beispiele für grammatische Variabilität in verschiedenen Phänomenbereichen gegeben, und es wird anhand von zwei Fallbeispielen gezeigt, wie eine grammatische Beschreibung dieser Phänomene aussehen kann. Um Angaben zur arealen Distribution grammatischer Varianten machen zu können, wird den Analysen ein Korpus zugrunde gelegt, das sich auf den geschriebenen Standard beschränkt und darunter den Sprachgebrauch in der Presse fasst. Das Korpus, das als Basis für die Erstellung der geplanten Variantengrammatik dient, wird im Beitrag kurz vorgestellt, außerdem wird erläutert, welche Zielsetzungen mit einer solchen Grammatik verbunden sind.
Die beachtlichen Unterschiede zwischen den Dialekten des Deutschen stehen in Zusammenhang mit der territorialen Zersplitterung des deutschsprachigen Gebiets bis ins 19. Jahrhundert. In gewisser Weise spiegelt die dialektale Vielfalt das dezentrale, plurizentrische Herrschaftsmodell wider, das für das vornationale Heilige Römische Reich charakteristisch ist, bei dem sich kein dauerhaftes Machtzentrum mit sprachlicher Modellwirkung, wie bspw. Paris in Frankreich, herausbilden konnte.