430 Deutsch
Refine
Year of publication
Document Type
- Part of a Book (8)
- Article (5)
- Book (1)
Language
- German (14)
Has Fulltext
- yes (14)
Keywords
- Methodologie (14) (remove)
Publicationstate
- Zweitveröffentlichung (6)
- Veröffentlichungsversion (4)
- Postprint (2)
Reviewstate
- (Verlags)-Lektorat (8)
- Peer-Review (3)
Publisher
- de Gruyter (6)
- Schwann (2)
- Steiner (2)
- Erich Schmidt (1)
- Institut für deutsche Sprache (1)
- Niemeyer (1)
In diesem Beitrag argumentiere ich, dass das grammatische Regelwerk „Lücken“ hat und dass „realistische“ Grammatikschreibung das in Theorie und Praxis berücksichtigen muss; insbesondere sind eventuelle Äußerungen in Lückensituationen außergrammatisch zu modellieren. Diese Konzeption wird anhand morphologischer und syntaktischer so genannter Zweifelsfälle intuitiv plausibilisiert und ihr Nutzen für die Grammatikschreibung in vergleichender Auseinandersetzung mit prominenten „lücken-losen“ Analysen von zwei Beispielen - ‚Right Node Raising‘- und gewissen Ersatzinfinitiv-Strukturen - nachgewiesen.
Der Beitrag beschäftigt sich mit der Frage, wie Konstruktionen in der Konstruktionsgrammatik klassifiziert werden. Da es in der Konstruktionsgrammatik keine klare Trennung von Lexikon und Grammatik gibt, zeigt dieser Beitrag, wie die Methoden der Konstruktionsgrammatik und Frame-Semantik angewendet werden können, um eine einheitliche Beschreibung von Phänomenen im Spannungsfeld zwischen Lexikon und Grammatik zu erreichen. Darüber hinaus will dieser Beitrag auf empirische Probleme aufmerksam machen, die bei der Klassifikation von Konstruktionen anhand von Korpusdaten auftreten können.
In diesem Aufsatz diskutiere ich verschiedene Lexikonkonzepte. Ich gehe aus von der Frage, was überhaupt zum Lexikon gehört (nur idiosynkratische Elemente oder auch regelmäßig ableitbare). Ich betrachte verschiedene Grammatiktheorien und erläutere, wie diese die Frage der Valenzalternationen beantwortet haben und warum es bei Weiterentwicklungen der Theorien Änderungen gab (z.B. die Wiederaufnahme der lexikalischen Repräsentation der Valenz nach Kategorialgrammatik-Art in der HPSG, nach phrasalen Ansätzen in der GPSG). Ich gehe der Frage nach, ob man Lexikon und Grammatik abgrenzen kann oder ob es sinnvoll ist, von einem Kontinuum zu sprechen, wie das in der Konstruktionsgrammatik üblich ist. Dazu werden Ansätze aus der GPSG, der TAG und der HPSG diskutiert. Ein letzter Abschnitt des Aufsatzes ist etwas formaler. Hier geht es um verschiedene Formalisierungen von Lexikonregeln und den Vergleich mit Ansätzen im Rahmen des Minimalistischen Programms, die statt Lexikonregeln leere Köpfe verwenden. Vererbungsbasierte Ansätze zur Beschreibung von Valenzalternationen werden als dritte Möglichkeit diskutiert und verworfen.
Seit 2017 wird im deutschen Mikrozensus eine Frage zur Sprache der Bevölkerung gestellt. Die letzte Spracherhebung in einem deutschen Zensus datiert aus dem Jahr 1939; entsprechend gibt es aktuell keine aussagekräftigen Sprachstatistiken in Deutschland. Die neue Sprachfrage des Mikrozensus weist jedoch erhebliche Mängel auf; offensichtlich wurde sie als Stellvertreterfrage zur Messung kultureller Integration konzipiert. Im vorliegenden Text werden die Fragen diskutiert und ihre ersten Ergebnisse analysiert. Daran anschließend werden andere Varianten von Sprachfragen dargestellt, dabei wird insbesondere auf die vorbildlichen Sprachfragen im kanadischen Zensus eingegangen. Abschließend wird die Sprachfrage der Deutschland-Erhebung 2018 des IDS inklusive ihrer Ergebnisse vorgestellt; die Deutschland-Erhebung 2018 stellt neben dem Mikrozensus bislang die einzige repräsentative Spracherhebung in Deutschland dar.
Unterschiede bei Dialektübersetzungen in Abhängigkeit von schriftlichen und mündlichen Stimuli
(2016)
When collecting linguistic data using translation tasks, stimuli can be presented in written or in oral form. In doing so, there is a possibility that a systematic source of error can occur that can be traced back to the selected survey method and which can influence the results of the translation tasks. This contribution investigates whether and to what extent both of the aforementioned survey methods result in divergent results when using translation tasks. For this investigation, 128 informants provided linguistic data; each informant had to translate 25 Wenker sentences from Standard German into either East Swabian, Lechrain or West Central Bavarian dialect, as the case may be. The results show two tendencies. First, written stimuli lead to a slightly higher number of dialectal translation in segmental variables. Second, when oral stimuli are used, syntactic and lexical variables are translated significantly more often in such a manner that they diverge from the template. The results can be explained in terms of varying cognitive processing operations and the constraints of human working memory. When collecting data in the future, these tendencies should be taken into account.
When collecting linguistic data using translation tasks, stimuli can be presented in written or in oral form. In doing so, there is a possibility that a systematic source of error can occur that can be traced back to the selected survey method and which can influence the results of the translation tasks. This contribution investigates whether and to what extent both of the aforementioned survey methods result in divergent results when using translation tasks. For this investigation, 128 informants provided linguistic data; each informant had to translate 25 Wenker sentences from Standard German into either East Swabian, Lechrain or West Central Bavarian dialect, as the case may be. The results show two tendencies. First, written stimuli lead to a slightly higher number of dialectal translation in segmental variables. Second, when oral stimuli are used, syntactic and lexical variables are translated significantly more often in such a manner that they diverge from the template. The results can be explained in terms of varying cognitive processing operations and the constraints of human working memory. When collecting data in the future, these tendencies should be taken into account.
Es gibt viele linguistische Forschungsfragen, für deren Beantwortung man Korpusdaten qualitativ und quantitativ auswerten möchte. Beide Auswertungsmethoden können sich auf den Korpustext, aber auch auf Annotationsebenen beziehen. Jede Art von Annotation, also Kategorisierung, stellt einen kontrollierten und notwendigen Informationsverlust dar. Das bedeutet, dass jede Art von Kategorisierung auch eine Interpretation der Daten ist. In den meisten großen Korpora wird zu jeder vorgesehenen Annotationsebene, wie z. B. Wortart-Ebene oder Lemma-Ebene, genau eine Interpretation angeboten. In den letzten Jahren haben sich neben den großen, ,,flach“ annotierten Korpora Korpusmodelle herausgebildet, mit denen man konfligierende Informationen kodieren kann, die so genannten Mehrebenen-Modelle (multilevel standoff corpora), in denen alle Annotationsebenen unabhängig vom Text gespeichert werden und nur auf bestimmte Textanker verweisen. Ich argumentiere anhand der Fehlerannotation in einem Lernerkorpus dafür, dass zumindest Korpora, in denen es stark variierende Annotationsbedürfnisse und umstrittene Analysen geben kann, davon profitieren, in Mehrebenen-Modellen kodiert zu werden.
Der Begriff und die Rolle von Daten in einer Wissenschaft hängen eng mit ihrem Selbstverständnis zusammen. Als erstes ist zu überlegen, inwiefern Linguistik eine empirische Wissenschaft ist und also von Daten abhängt.
Während in den Philologien ein Korpus die Grundlage einer Disziplin abgibt, die ohne es nicht bestünde, ist in der Linguistik ein Korpus nur ein Weg, an Daten zu kommen. Hier ist zu diskutieren, welche relativen Meriten die alternativen Wege im Hinblick auf die angestrebten Ziele haben.
Während manches auf uns gekommene Korpus seine Sprache sicher nicht angemessen repräsentiert, könnte eine heute von Linguisten erstellte Dokumentation diesen Anspruch im Prinzip einlösen. Hier stellt sich die Frage, ob das - angesichts des infiniten Charakters der Sprache - überhaupt möglich ist und in wieweit die Repräsentativität wieder von den angestrebten Zielen abhängt.
Dies sind alles Fragen linguistischer Methodologie. Eine Zeitlang hat man in der Linguistik geglaubt, ohne Methodologie zu Theorien gelangen zu können. Seit sich das als irrig herausgestellt hat, ist die Entwicklung von Methoden ein fühlbares Desiderat geworden. Wie man repräsentative Daten erhebt, wie man ein Korpus zusammenstellt und nutzt, wie man eine Sprache dokumentiert, sind alles Fragen, die eigentlich in die Alltagsroutine einer Wissenschaft fallen müssten. Dass sie noch weitgehend ungeklärt sind, ist ein Symptom dafür, dass die Linguistik noch keine erwachsene Wissenschaft ist.