Refine
Year of publication
Document Type
- Part of a Book (759)
- Article (367)
- Conference Proceeding (70)
- Review (40)
- Book (36)
- Report (12)
- Other (6)
- Master's Thesis (3)
- Doctoral Thesis (2)
- Working Paper (2)
subject_facet_heading
- Deutsch (553)
- Korpus <Linguistik> (138)
- Sprachgebrauch (92)
- Rezension (72)
- Linguistik (62)
- Rechtschreibung (62)
- Gesprochene Sprache (60)
- Wortschatz (51)
- Diskursanalyse (50)
- Grammatik (50)
Publicationstate
- Zweitveröffentlichung (1300) (remove)
Reviewstate
- (Verlags)-Lektorat (893)
- Peer-Review (337)
- Peer-reviewed (5)
- (Verlags-)lektorat (4)
- (Verlags-)Lektorat (3)
- Abschlussarbeit (Bachelor, Master, Diplom, Magister) (Bachelor, Master, Diss.) (3)
- Peer review (2)
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (2)
- Verlagslektorat (2)
- (Verlags-)Lektoriat (1)
Coronaparty, Jo-jo-Lockdown und Mask-have – Wortschatzerweiterung während des Corona-Stillstands
(2021)
Korpora sind – als idealerweise digital verfüg- und auswertbare Sammlungen von Texten – eine wertvolle empirische Grundlage linguistischer Studien. Eigene Korpora aufzubauen ist, je nach Sprachausschnitt, mit unterschiedlichen Herausforderungen verbunden. Zu allen Texten sollten Metadaten zu den Textentstehungsbedingungen (Zeit, Quelle usw.) erhoben werden, um diese als Variablen in Auswertungen einbeziehen zu können. Andere Informationen wie etwa die Themenzugehörigkeit (oder Annotationen auch unterhalb der Textebene) sind auch hilfreich, in vielerlei Hinsicht aber schwieriger pauschal taxonomisch vorzugeben, geschweige denn, operationell zu ermitteln. Jenseits der »materiellen« Verfügbarkeit der Texte und der technischen Aufbereitung sind es das Urheberrecht, vor allem Lizenz- bzw. Nutzungsrechte, sowie ethische Verantwortung und Persönlichkeitsrechte, die beachtet werden müssen, auch um zu gewährleisten, dass die Daten für die Reproduktion der Studien Dritten rechtssicher zugänglich gemacht werden dürfen. Bevor für ein Vorhaben ein neues Korpus aufgebaut wird, sollte deshalb am besten geprüft werden, ob nicht ein geeignetes bereits zur Verfügung steht. Wenn ein Korpus aufgebaut wird, sollte für eine nachhaltige Aufbewahrung und Zugänglichmachung gesorgt und die Existenz an geeigneter Stelle dokumentiert werden.
Auch Linguist*innen, die gesprochene Sprache untersuchen, kommen schon seit längerem nicht mehr ohne digitale Infrastrukturen aus. Seit Beginn der Gesprochene-Sprache-Forschung werden Gespräche aufgezeichnet und anschließend transkribiert, da die flüchtigen, innerhalb von Bruchteilen von Sekunden stattfindenden Feinheiten des Gesprochenen paradoxerweise nur durch Verschriftung im Detail untersucht werden können. Diese Detailuntersuchungen beschränkten sich im vergangenen Jahrhundert meist auf wenige Einzelbelege für ein untersuchtes Phänomen. Das heißt, die Forschenden hatten den unmittelbaren Überblick über ihre Datenkollektionen und benötigten keine elaborierten digitalen Methoden zu deren Aufbereitung, Annotation und Analyse. Dies hat sich in den letzten beiden Jahrzehnten stark geändert: Es wurden vermehrt gezielt große Datenmengen gesammelt, in Datenbanken organisiert und der Forschungsgemeinschaft zur Nutzung zur Verfügung gestellt. An erster Stelle muss hier das Forschungs- und Lehrkorpus gesprochenes Deutsch (FOLK) genannt werden (vgl. Schmidt 2014). Dieses wird seit 2008 am Leibniz-Institut für Deutsche Sprache (IDS) aufgebaut und ist heute das größte Referenzkorpus für das gesprochene Deutsch.
Spontan kreierte Okkasionalismen sind rekurrenter Bestandteil verbaler Interaktionen. Vor dem Hintergrund, dass die Bedeutung von Okkasionalismen nicht konventionalisiert und damit potenziell unbekannt ist, untersucht der vorliegende Beitrag aus gesprächsanalytischer Perspektive die Frage, unter welchen Bedingungen die Bedeutung okkasioneller Ausdrücke in Folgeäußerungen selbstinitiiert oder fremdinitiiert erklärt wird und wann dies nicht der Fall ist. Es zeigt sich, dass die überwältigende Mehrheit der 1.068 analysierten Okkasionalismen aus verschiedenen Gründen kein Verstehensproblem darstellt. Wird die Bedeutung eines Okkasionalismus dennoch selbstinitiiert erklärt, dient dies oft anderen Zwecken als der Verstehenssicherung. Wird dagegen die Bedeutung eines nicht problemlos erschließbaren Okkasionalismus nicht unmittelbar selbstinitiiert erläutert, dient der ‚rätselhafte‘ Ausdruck als interaktive Ressource dazu, Rezipient/-innen neugierig zu machen, Nachfragen zu elizitieren und damit Folgeäußerungen zu lizenzieren.
In a recent article, Meylan and Griffiths (Meylan & Griffiths, 2021, henceforth, M&G) focus their attention on the significant methodological challenges that can arise when using large-scale linguistic corpora. To this end, M&G revisit a well-known result of Piantadosi, Tily, and Gibson (2011, henceforth, PT&G) who argue that average information content is a better predictor of word length than word frequency. We applaud M&G who conducted a very important study that should be read by any researcher interested in working with large-scale corpora. The fact that M&G mostly failed to find clear evidence in favor of PT&G's main finding motivated us to test PT&G's idea on a subset of the largest archive of German language texts designed for linguistic research, the German Reference Corpus consisting of ∼43 billion words. We only find very little support for the primary data point reported by PT&G.
Lexical resources are often represented in table form, e. g., in relational databases, or represented in specially marked up texts, for example, in document based XML models. This paper describes how it is possible to model lexical structures as graphs and how this model can be used to exploit existing lexical resources and even how different types of lexical resources can be combined.
In this contribution we present some work of the R&D European project “LIRICS” and of the ISO/TC 37/SC 4 committee related to the topic of interoperability and re-use of language resources. We introduce some basic mechanisms of the standardization work in ISO and describe in more details the general approach on how to cope with the annotation of language data within ISO.
Wenn alle Forschungsfragen gestellt, alle Hypothesen formuliert, alle Korpora kompiliert und alle Daten von Proband*innen gesammelt wurden, befinden Sie sich auf einer der letzten Etappen Ihrer linguistischen Studie: der Analyse der Daten. In diesem Kapitel werden Sie einige Werkzeuge kennenlernen, die Sie dabei unterstützen können. Hier nehmen wir an, dass Sie in irgendeiner Form eine quantitative statistische Auswertung vornehmen möchten, denn für qualitative Analysen sind die Werkzeuge, die wir Ihnen vorstellen werden, weniger bis gar nicht geeignet.
Transkriptionswerkzeuge sind spezialisierte Softwaretools für die Transkription und Annotation von Audio- oder Videoaufzeichnungen gesprochener Sprache. Dieses Kapitel erklärt einleitend, worin der zusätzliche Nutzen solcher Werkzeuge gegenüber einfacher Textverarbeitungssoftware liegt, und gibt dann einen Überblick über grundlegende Prinzipien und einige weitverbreitete Tools dieser Art. Am Beispiel der Editoren FOLKER und OrthoNormal wird schließlich der praktische Einsatz zweier Werkzeuge in den Arbeitsabläufen eines Korpusprojekts illustriert.
Was darf die sprachwissenschaftliche Forschung? Juristische Fragen bei der Arbeit mit Sprachdaten
(2022)
Sich in der Linguistik mit rechtlichen Themen beschäftigen zu müssen, ist auf den ersten Blick überraschend. Da jedoch in den Sprachwissenschaften empirisch gearbeitet wird und Sprachdaten, insbesondere Texte und Ton- und Videoaufnahmen sowie Transkripte gesprochener Sprache, in den letzten Jahren auch verstärkt Sprachdaten internetbasierter Kommunikation, als Basis für die linguistische Forschung dienen, müssen rechtliche Rahmenbedingungen für jede Art von Datennutzung beachtet werden. Natürlich arbeiten auch andere Wissenschaften, wie z. B. die Astronomie oder die Meteorologie, empirisch. Jedoch gibt es einen grundsätzlichen Unterschied der empirischen Basis: Im Gegensatz zu Temperaturen, die gemessen, oder Konstellationen von Himmelskörpern, die beobachtet werden, basieren Sprachdaten auf schriftlichen, mündlichen oder gebärdeten Äußerungen von Menschen, wodurch sich juristisch begründete Beschränkungen ihrer Nutzung ergeben.
Sobald eine statistische Datenanalyse abgeschlossen ist, müssen in einem weiteren Schritt die Untersuchungsergebnisse aufbereitet und dargestellt werden. Hierzu gibt es verschiedene Möglichkeiten, die davon abhängig sind, welche Art von Analyse man durchgeführt hat. Aus diesem Grund ist der Beitrag gegliedert in die Aufbereitung von Ergebnissen für deskriptive, also beschreibende statistische Analysen (Abschnitt 2) und in die Ergebnisdarstellung von inferenzstatistischen (= schließenden) Auswertungen (Abschnitt 3). Wir gehen dabei auf die Aufbereitung der Daten in Tabellenform ein, werden an einem Beispiel zeigen, wie man die Ergebnisse von statistischen Tests berichtet und einige Visualisierungsmöglichkeiten vorstellen.
Gegenstand des Beitrags sind korpuslinguistische Zugänge zur Variation im Auftreten des Fugenelements in Komposita aus zwei Nomen (Arbeit I s I weg). Die qualitative Vorstudie zeigt, dass die Verfügung nach Erstglied auf Vokal (Bühne I n I spiel, See I ufer) entgegen manchen Hinweisen aus bisherigen Korpusuntersuchungen sehr weitgehend linguistisch systematisierbar ist. Die Hauptstudie fokussiert dann die sehr variable Verfügung nach Erstglied auf Konsonant (Arbeit I s I weg vs. Heimat I art). Sie modelliert statistisch den Einfluss von Größen, deren Bedeutung in der bisherigen Forschung nur angenommen, aber nicht überprüft werden konnte. Dabei führt sie auch neue Einflussgrößen ein und gibt deutliche Hinweise darauf, dass die Variation in größerem Ausmaß als bisher vermutet einzelfallspezifisch geregelt ist.
In diesem Kapitel stellen wir zunächst grundlegende Konzepte von Abfragesystemen und Abfragesprachen für die Suche in Korpora vor. Diese Konzepte sollen Ihnen helfen, die einzelnen Abfragesprachen besser zu verstehen und vergleichen zu können. Die gängigen Abfragesprachen unterscheiden sich in vielen Details. Diese Details und die Möglichkeiten und Grenzen der einzelnen Abfragesprachen stellen wir im zweiten Teil mit vielen Beispielaufgaben und dazu passenden Lösungen in jeweils drei Abfragesprachen vor.
Korpora gesprochener Sprache
(2022)
Korpora gesprochener Sprache bestehen aus Audio- oder Videoaufnahmen sprachlicher Produktionen, die über eine Transkription einer linguistischen Analyse zugänglich gemacht werden. Sie kommen zur Untersuchung unterschiedlichster sprachwissenschaftlicher Fragestellungen unter anderem in der Gesprächsforschung, der Dialektologie und der Phonetik zum Einsatz. Dieser Beitrag diskutiert die wichtigsten Eigenschaften von Korpora gesprochener Sprache und stellt einige Vertreter der verschiedenen Kategorien vor.
Dieses Kapitel gibt einen Überblick über Korpora internetbasierter Kommunikation, die als digitale Ressourcen frei zur Verfügung stehen und für eigene linguistische Forschungsarbeiten genutzt werden können. In Abschnitt 1 erläutern wir korpuslinguistische Basiskonzepte, die für die Arbeit mit Korpora internetbasierter Kommunikation benötigt werden, und präzisieren die Sprachgebrauchsdomäne Internetbasierte Kommunikation, die den Gegenstand des hier beschriebenen Ressourcentyps bildet. Abschnitt 2 gibt einen Überblick zu existierenden Korpusressourcen für das Deutsche und stellt ausgewählte Korpora zu weiteren europäischen Sprachen vor. In Abschnitt 3 geben wir abschließend einen kurzen Einblick in aktuelle Forschungsfelder, die sich im Bereich der Korpuslinguistik und Sprachtechnologie in Bezug auf den Aufbau und die Aufbereitung von Korpora internetbasierter Kommunikation stellen.
Man findet im Burnout-Diskurs einerseits zahlreiche Passagen in fachinternen/-externen Texten, in denen ein „Noch-nicht-(genug)-Wissen“ oder „unsicheres Wissen“ (Janich 2018: 557) und eine zu wenig trennscharfe, ungenaue Verwendung des Begriffs und das Fehlen einer validen, allgemeingültigen, eindeutigen Definition des Phänomens konstatiert werden. Dieser offensichtlichen Kritik steht allerdings der konvergente Leseeindruck entgegen, der sich in Bezug auf die begriffliche Fassung bzw. Definition von ›Burnout‹ einstellt, wenn man Texte von 1975-2018 zu diesem Phänomen sichtet. Von diesen Beobachtungen ausgehend, analysiert die hier vorgestellte Dissertation: 1.) wie ein psychosomatisches Phänomen, das spezifikationsbedürftig erscheint, in Fach-, Medien- und Vermittlungstexten vor dem Hintergrund fachkultureller, sozialer und diskursiver Bedingungen definiert wird, 2.) wie bestimmte definitorische Merkmale und Definitionsformen sich trotz Kritik über die Zeit im Diskurs durchsetzen und 3.) in welcher Weise sich medizinische/psychologische und fachexterne Ansprüche an die Tätigkeit des Definierens und sprachliche Mittel und diskursive Praktiken des Definierens unterscheiden oder ähneln und sich in Typen diskursiver Praxis des Definierens verdichten lassen.
Der Beitrag lässt sich hinsichtlich seines Gegenstands dem Bereich ,Sprache und Emotion' zuordnen. Seine Fragestellung bezieht sich auf die Kodierung von Gefühlen und auf deontisch markierte Ausdrücke. Datengrundlage sind Texte, die bisher von der Linguistik noch nicht erschlossen wurden. Es sind Berichte von Nationalsozialist*innen, die ihren Weg zur NSDAP schildern, in die sie in der späten Weimarer Republik eintraten. Der Beitrag analysiert diese Texte mit einem quantitativ-qualitativen Ansatz, indem er danach fragt, welche Gefühlsbezeichnungen in den untersuchten Texten verwendet werden und worauf sie referieren. Die Beantwortung dieser Fragen besteht in der Darstellung der lexikalisch-semantischen Kodierung von Gefühlen seitens der positiv und negativ emotionalisierten NS-affinen Mitglieder der Gesellschaft. Er leistet damit einen linguistischen Beitrag zur Entstehungsgeschichte des Nationalsozialismus.
Der folgende Leitfaden bietet eine grundlegende Übersicht darüber, welche Schritte bei der Konzeption und Durchführung einer empirischen Untersuchung in der germanistischen Linguistik zu beachten sind. Wir werden den grundlegenden Ablauf und die zugrunde liegenden Konzepte allgemein bzw. modellhaft beschreiben und sie anhand von einfachen Beispielen illustrieren. Eine stärkere Ausgestaltung anhand von Beispielen zu verschiedenen linguistischen Forschungsfragen und -feldern und damit auch mehr Illustrationen, wie die einzelnen Schritte für bestimmte Forschungsfragen umzusetzen sind, finden Sie in den Fallstudien im —> Teil III dieses Bandes. Detailliertere Ausführungen zu den zentralen Konzepten des empirischen Arbeitens in der Linguistik finden Sie in —> Teil VI dieses Bandes. Weiterführende Literatur findet sich am Ende des Beitrags.
Diese Fallstudie untersucht die quantitative Verteilung von direkten und nicht-direkten Formen von Redewiedergabe im Vergleich zwischen zwei Literaturtypen: Hochliteratur - definiert als Werke, die auf der Auswahlliste von Literaturpreisen standen - und Heftromanen - massenproduzierten Erzählwerken, die zumeist über den Zeitschriftenhandel vertrieben werden. Die Studie geht von manuell annotierten Daten aus und überprüft daran die Verlässlichkeit automatischer Annotationswerkzeuge, die im Anschluss eingesetzt werden, um eine Untersuchung von insgesamt 250 Volltexten durchzuführen. Es kann nachgewiesen werden, dass sich die Literaturtypen sowie auch unterschiedliche Genres von Heftromanen hinsichtlich der verwendeten Wiedergabeformen unterscheiden.