Refine
Year of publication
- 2021 (2) (remove)
Document Type
- Part of a Book (1)
- Conference Proceeding (1)
Has Fulltext
- yes (2)
Is part of the Bibliography
- yes (2)
Keywords
- CLARIAH-DE (1)
- Computerlinguistik (1)
- Computerunterstützter Unterricht (1)
- DaF-Unterricht (1)
- DaZ-Unterricht (1)
- Datenbank für Gesprochenes Deutsch (1)
- Deutsch (1)
- Deutsches Referenzkorpus (DeReKo) (1)
- Deutsches Textarchiv (1)
- Digitale Daten (1)
Publicationstate
- Veröffentlichungsversion (2) (remove)
Reviewstate
- Peer-Review (2)
This paper will address the challenge of creating a knowledge graph from a corpus of historical encyclopedias with a special focus on word sense alignment (WSA) and disambiguation (WSD). More precisely, we examine WSA and WSD approaches based on article similarity to link messy historical data, utilizing Wikipedia as aground-truth component – as the lack of a critical overlap in content paired with the amount of variation between and within the encyclopedias does not allow for choosing a ”baseline” encyclopedia to align the others to. Additionally, we are comparing the disambiguation performance of conservative methods like the Lesk algorithm to more recent approaches, i.e. using language models to disambiguate senses.
Die durch die Covid-19-Pandemie bedingte Umstellung der Präsenzlehre auf digitale Lehr- und Lernformate stellte Lehrende und Studierende gleichermaßen vor eine Herausforderung. Innerhalb kürzester Zeit musste die Nutzung von Plattformen und digitalen Tools erlernt und getestet werden. Der Beitrag stellt exemplarisch Dienste und Werkzeuge von CLARIAH-DE vor und erläutert, wie die digitale Forschungsinfrastruktur Lehrende und Studierende auch im Rahmen der digitalen Lehre unterstützen kann.