Refine
Document Type
- Conference Proceeding (9)
- Part of a Book (5)
- Report (3)
- Article (1)
- Other (1)
Has Fulltext
- yes (19)
Keywords
- Korpus <Linguistik> (9)
- Forschungsdaten (8)
- Datenmanagement (4)
- Metadatenmodell (4)
- CLARIAH-DE (3)
- Deutsch (3)
- Digitale Edition (3)
- Edition (3)
- Infrastruktur (3)
- Metadaten (3)
Publicationstate
- Veröffentlichungsversion (19) (remove)
Reviewstate
- Peer-Review (10)
- (Verlags)-Lektorat (5)
Publisher
- Leibniz-Institut für Deutsche Sprache, CLARIAH-DE (3)
- Linköping University Electronic Press (3)
- CLARIN (2)
- Dagstuhl (2)
- Leibniz-Institut für Deutsche Sprache (IDS) (2)
- Waxmann (2)
- Zenodo (2)
- European Language Resources Association (1)
- Institute for Logic, Language and Computation (1)
- Universitätsverlag Rhein-Ruhr (1)
The understanding of story variation, whether motivated by cultural currents or other factors, is important for applications of formal models of narrative such as story generation or story retrieval. We present the first stage of an experiment to elicit natural narrative variation data suitable for evaluation with respect to story similarity, to qualitative and quantitative analysis of story variation, and also for data processing. We also present few preliminary results from the first stage of the experiment, using Red Riding Hood and Romeo and Juliet as base texts.
This paper addresses long-term archival for large corpora. Three aspects specific to language resources are focused, namely (1) the removal of resources for legal reasons, (2) versioning of (unchanged) objects in constantly growing resources, especially where objects can be part of multiple releases but also part of different collections, and (3) the conversion of data to new formats for digital preservation. It is motivated why language resources may have to be changed, and why formats may need to be converted. As a solution, the use of an intermediate proxy object called a signpost is suggested. The approach will be exemplified with respect to the corpora of the Leibniz Institute for the German Language in Mannheim, namely the German Reference Corpus (DeReKo) and the Archive for Spoken German (AGD).
We present web services which implement a workflow for transcripts of spoken language following the TEI guidelines, in particular ISO 24624:2016 “Language resource management – Transcription of spoken language”. The web services are available at our website and will be available via the CLARIN infrastructure, including the Virtual Language Observatory and WebLicht.
CMDI Explorer
(2021)
We present CMDI Explorer, a tool that empowers users to easily explore the contents of complex CMDI records and to process selected parts of them with little effort. The tool allows users, for instance, to analyse virtual collections represented by CMDI records, and to send collection items to other CLARIN services such as the Switchboard for subsequent processing. CMDI Explorer hence adds functionality that many users felt was lacking from the CLARIN tool space.
Das vorliegende Dokument befasst sich mit der Evaluation des Basisformats des Deutschen Textarchivs (DTABf) als potenziellem Austausch- bzw. Zielformat für digitale Editionen. Der Text ist im Kontext des Projekts CLARIAH-DE entstanden und möchte die Fragen beantworten, wie und inwieweit das DTABf allgemein sinnvoll in der Editionsarbeit eingesetzt werden und in seiner aktuellen Fassung die Bedürfnisse von Edierenden bei der Textauszeichnung erfüllen kann. Ausgehend von bestehenden Editionsdaten, wird deren Auszeichnung auf ihre Interoperabilität und ihr Überführungspotenzial zum DTABf überprüft, damit gleichzeitig aber auch Kodierungsempfehlungen für die Neuanlage von Editionen abgeleitet. Im Bericht wird die angewandte Methodik erläutert, sowie die Ergebnisse der Evaluation zusammengefasst.
Die Editionsmatrix EdMa ist ein Hilfsmittel zur Kategorisierung von Editionen, das als Ausgangspunkt für eigene Planungen von Editorinnen und Editoren und für eine gezielte Beratung genutzt werden kann.
Die vorliegende Handreichung bzw. Anleitung zur kriterienbasierten Erfassung und Kategorisierung digitaler Editionen ist im Kontext des Projekts CLARIAH-DE entstanden, welches in seiner ersten Phase von April 2019 bis März 2021 vom Bundesministerium für Bildung und Forschung gefördert wurde.
Evaluationsbericht: Das DTA-Basisformat als Austauschformat für kritische Editionen (Neologie)
(2021)
Dieser Bericht befasst sich mit der Anwendung des DTA-Basisformats (DTABf) auf Editionen historischer Texte. Er ist im Kontext des CLARIAH-DE-Projekts entstanden und behandelt die Frage, inwiefern das DTABf als Austauschformat für Editionen historischer Texte sinnvoll eingesetzt werden kann. Dies wird an konkreten Beispielen solider Editionspraxis überprüft. Der generelle Rahmen ist im einleitenden Text (Fisseni et al., 2021) beschrieben. Dieser Evaluationsbericht stellt die Auswertung des ersten von drei Fallbeispielen (zusammen mit Schulz, 2021a, 2021b) für die Konversion unterschiedlich komplexer Editionen in das DTABf dar. Die hier betrachteten Beispiele stammen aus der Bibliothek der Neologie (BdN).