Refine
Year of publication
Document Type
- Article (30) (remove)
Has Fulltext
- yes (30)
Keywords
- Sprachstatistik (14)
- Korpus <Linguistik> (12)
- Deutsch (11)
- Wortschatz (7)
- COVID-19 (5)
- Lexikostatistik (5)
- Online-Medien (4)
- Vielfalt (4)
- Informationstheorie (3)
- Sprachwandel (3)
Publicationstate
- Veröffentlichungsversion (17)
- Zweitveröffentlichung (7)
- Postprint (5)
Reviewstate
- Peer-Review (22)
- (Verlags)-Lektorat (3)
- Peer-Revied (2)
Publisher
- Leibniz-Institut für Deutsche Sprache (IDS) (4)
- de Gruyter (4)
- De Gruyter (2)
- Erich Schmidt (2)
- MDPI (2)
- Oxford University Press (OUP) (2)
- Springer Nature (2)
- Benjamins (1)
- Buske (1)
- PLOS (1)
cOWIDplus Analyse ist eine kontinuierlich aktualisierte Ressource zu der Frage, ob und wie stark sich der Wortschatz ausgewählter deutscher Online-Pressemeldungen während der Corona-Pandemie systematisch einschränkt und ob bzw. wann sich das Vokabular nach der Krise wieder ausweitet. In diesem Artikel erläutern die Autor*innen die hinter der Ressource stehende Forschungsfrage, die zugrunde gelegten Daten, die Methode sowie die bisherigen Ergebnisse.
The coronavirus pandemic may be the largest crisis the world has had to face since World War II. It does not come as a surprise that it is also having an impact on language as our primary communication tool. In this short paper, we present three inter-connected resources that are designed to capture and illustrate these effects on a subset of the German language: An RSS corpus of German-language newsfeeds (with freely available untruncated frequency lists), a continuously updated HTML page tracking the diversity of the vocabulary in the RSS corpus and a Shiny web application that enables other researchers and the broader public to explore the corpus in terms of basic frequencies.
We introduce DeReKoGram, a novel frequency dataset containing lemma and part-of-speech (POS) information for 1-, 2-, and 3-grams from the German Reference Corpus. The dataset contains information based on a corpus of 43.2 billion tokens and is divided into 16 parts based on 16 corpus folds. We describe how the dataset was created and structured. By evaluating the distribution over the 16 folds, we show that it is possible to work with a subset of the folds in many use cases (e.g., to save computational resources). In a case study, we investigate the growth of vocabulary (as well as the number of hapax legomena) as an increasing number of folds are included in the analysis. We cross-combine this with the various cleaning stages of the dataset. We also give some guidance in the form of Python, R, and Stata markdown scripts on how to work with the resource.
Thema des Aufsatzes ist die Komplementsatzdistribution im Deutschen. Überprüft wird die These, dass die lexikalisch-semantischen Eigenschaften der einbettenden Verben, dabei v.a. ihre Kontrolleigenschaften sowie ihre temporale und modale Spezifikation, dafür verantwortlich sind, ob bevorzugt ein dass-Satz oder ein zu-Infinitiv selegiert wird. Eine korpuslinguistische Überprüfung dieser These zeigt, dass die genannten drei Kriterien in unterschiedlicher Weise von Bedeutung für die Komplementselektion sind. Als bedeutendster Faktor erweist sich das Kontrollkriterium. Ein weiteres wichtiges Ergebnis der Untersuchung ist, dass die Komplementselektion dem Prinzip der argumentstrukturellen Trägheit entspricht: Verben neigen dazu, als Essenz memorisierter Gebrauchsspuren eine graduelle Präferenz für ein bestimmtes Komplementationsmuster zu entwickeln.
We present studies using the 2013 log files from the German version of Wiktionary. We investigate several lexicographically relevant variables and their effect on look-up frequency: Corpus frequency of the headword seems to have a strong effect on the number of visits to a Wiktionary entry. We then consider the question of whether polysemic words are looked up more often than monosemic ones. Here, we also have to take into account that polysemic words are more frequent in most languages. Finally, we present a technique to investigate the time-course of look-up behaviour for specific entries. We exemplify the method by investigating influences of (temporary) social relevance of specific headwords.
Die Corona-Pandemie betrifft fast alle Facetten des öffentlichen Lebens und hat nicht nur erhebliche Auswirkungen auf den persönlichen Umgang miteinander, sondern beherrscht auch die Berichterstattung im großen Stil. In unserem Beitrag wollen wir zeigen, welche lexikalischen Spuren oder Trends der Coronakrise wir in der deutschen Online-Nachrichtenberichterstattung beobachten können, obwohl wir uns noch mitten in der Pandemie zu befinden scheinen. „Lexikalische Spuren“ bedeutet, dass wir z.B. die am häufigsten verwendeten Wörter, Wortbildungsprodukte rund um „Corona“ oder Häufigkeitskurven einzelner Wortformen analysieren. Auf der Grundlage von Online-Nachrichtenberichten aus 13 deutschsprachigen Quellen, die seit Anfang 2020 gesammelt wurden, zeigen wir unter anderem, wie über wöchentliche Übersichten der am häufigsten verwendeten Wörter zu sehen ist, wann die Corona-Pandemie zum dominierenden Thema in der Nachrichtenberichterstattung wird; wie eine wahre Explosion von Wortbildungsprodukten mit „Corona“ wie „Vor-Corona-Gesellschaft“ oder „Post-Corona Zukunft“ beobachtet werden kann, wie andere Themen – z.B. der Fußball – durch Corona verdrängt werden, wie sich die Diskussion um Auswege aus dem Lockdown in den Daten widerspiegelt, oder wie prominente Virolog/-innen in die gleiche „Frequenzliga“ wie Politiker/-innen aufsteigen.
Studying Lexical Dynamics and Language Change via Generalized Entropies: The Problem of Sample Size
(2019)
Recently, it was demonstrated that generalized entropies of order α offer novel and important opportunities to quantify the similarity of symbol sequences where α is a free parameter. Varying this parameter makes it possible to magnify differences between different texts at specific scales of the corresponding word frequency spectrum. For the analysis of the statistical properties of natural languages, this is especially interesting, because textual data are characterized by Zipf’s law, i.e., there are very few word types that occur very often (e.g., function words expressing grammatical relationships) and many word types with a very low frequency (e.g., content words carrying most of the meaning of a sentence). Here, this approach is systematically and empirically studied by analyzing the lexical dynamics of the German weekly news magazine Der Spiegel (consisting of approximately 365,000 articles and 237,000,000 words that were published between 1947 and 2017). We show that, analogous to most other measures in quantitative linguistics, similarity measures based on generalized entropies depend heavily on the sample size (i.e., text length). We argue that this makes it difficult to quantify lexical dynamics and language change and show that standard sampling approaches do not solve this problem. We discuss the consequences of the results for the statistical analysis of languages.