430 Deutsch
Refine
Document Type
- Article (4)
- Part of a Book (4)
- Conference Proceeding (3)
Has Fulltext
- yes (11)
Keywords
- Deutsches Referenzkorpus (DeReKo) (11) (remove)
Publicationstate
- Veröffentlichungsversion (3)
- Zweitveröffentlichung (3)
- Postprint (1)
Reviewstate
- (Verlags)-Lektorat (5)
- Peer-Review (1)
„Actual words are of theoretical interest” (Audring 2021: 3). Unter Zugrundelegung dieser gebrauchsbasierten Prämisse geht der vorliegende Beitrag der Frage nach, wie sich die Nominalkomposition im Deutschen auf der Basis sprachlicher Massendaten als Konstruktionsfamilie, d.h. als ein hierarchisches Netzwerk von Konstruktionen unterschiedlichen Abstraktionsgrads, beschreiben lässt. Der Beitrag knüpft in theoretischer Hinsicht an Booijs (2010) „Construction Morphology” an, geht jedoch insofern über diese hinaus, als versucht wird, deren Grundannahmen auch auf automatisch erhobene sprachliche Massendaten anzuwenden. Konkret wird mit einem Inventar von rund 185.000 Zusammensetzungen aus zwei simplizischen Nomen gearbeitet, die systematisch aus dem Deutschen Referenzkorpus (DeReKo) (vgl. Leibniz-Institut für Deutsche Sprache 2007) extrahiert und im Anschluss (semi)automatisch weiterverarbeitet wurden.
Die durch die Covid-19-Pandemie bedingte Umstellung der Präsenzlehre auf digitale Lehr- und Lernformate stellte Lehrende und Studierende gleichermaßen vor eine Herausforderung. Innerhalb kürzester Zeit musste die Nutzung von Plattformen und digitalen Tools erlernt und getestet werden. Der Beitrag stellt exemplarisch Dienste und Werkzeuge von CLARIAH-DE vor und erläutert, wie die digitale Forschungsinfrastruktur Lehrende und Studierende auch im Rahmen der digitalen Lehre unterstützen kann.
Das Deutsche Referenzkorpus DeReKo dient als eine empirische Grundlage für die germanistische Linguistik. In diesem Beitrag geben wir einen Überblick über Grundlagen und Neuigkeiten zu DeReKo und seine Verwendungsmöglichkeiten sowie einen Einblick in seine strategische Gesamtkonzeption, die zum Ziel hat, DeReKo trotz begrenzter Ressourcen für einerseits möglichst viele und andererseits auch für innovative und anspruchsvolle Anwendungen nutzbar zu machen. Insbesondere erläutern wir dabei Strategien zur Aufbereitung sehr großer Korpora mit notwendigerweise heuristischen Verfahren und Herausforderungen, die sich auf dem Weg zur linguistischen Erschließung solcher Korpora stellen.
In this paper, the basic assumptions are presented against the background of the development of a corpus-based method to determine suitable headword candidates for the LeGeDe-prototype (LeGeDe= Lexik des gesprochenen Deutsch), a lexicographical resource on spoken German. In a first quantitatively oriented step, potential one-word headword candidates are identified with the help of frequency class comparisons from a corpus for spoken (FOLK) and a subset from a corpus for written German (DEREKO). Qualitative analyses based on a project-specifically defined sample of data from the FOLK corpus lead to multi-word headword candidates. The results of the qualitative analyses were also compared with the results of studies from the research literature as well as (quantitative-orientated) bi- and trigram analyses. In their multi-word form, these candidates are particularly characterized by the fact that they assume a very special interactional function in the (authentic) interaction and have to be described as a whole unit. The paper explains this combined procedure, which was extracted in the LeGeDe-project for the appointment of headword candidates.
Wikipedia is a valuable resource, useful as a lingustic corpus or a dataset for many kinds of research. We built corpora from Wikipedia articles and talk pages in the I5 format, a TEI customisation used in the German Reference Corpus (Deutsches Referenzkorpus - DeReKo). Our approach is a two-stage conversion combining parsing using the Sweble parser, and transformation using XSLT stylesheets. The conversion approach is able to successfully generate rich and valid corpora regardless of languages. We also introduce a method to segment user contributions in talk pages into postings.
We describe a systematic and application-oriented approach to training and evaluating named entity recognition and classification (NERC) systems, the purpose of which is to identify an optimal system and to train an optimal model for named entity tagging DeReKo, a very large general-purpose corpus of contemporary German (Kupietz et al., 2010). DeReKo 's strong dispersion wrt. genre, register and time forces us to base our decision for a specific NERC system on an evaluation performed on a representative sample of DeReKo instead of performance figures that have been reported for the individual NERC systems when evaluated on more uniform and less diverse data. We create and manually annotate such a representative sample as evaluation data for three different NERC systems, for each of which various models are learnt on multiple training data. The proposed sampling method can be viewed as a generally applicable method for sampling evaluation data from an unbalanced target corpus for any sort of natural language processing.