Refine
Year of publication
Document Type
- Part of a Book (174)
- Conference Proceeding (146)
- Article (93)
- Book (26)
- Working Paper (11)
- Other (8)
- Contribution to a Periodical (7)
- Review (5)
- Doctoral Thesis (4)
- Part of Periodical (3)
Language
- German (260)
- English (213)
- French (4)
- Multiple languages (2)
Is part of the Bibliography
- no (479) (remove)
Keywords
- Korpus <Linguistik> (479) (remove)
Publicationstate
- Veröffentlichungsversion (287)
- Zweitveröffentlichung (70)
- Postprint (15)
Reviewstate
- (Verlags)-Lektorat (228)
- Peer-Review (109)
- Verlags-Lektorat (6)
- Peer-review (5)
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (4)
- Review-Status-unbekannt (3)
- Abschlussarbeit (Bachelor, Master, Diplom, Magister) (Bachelor, Master, Diss.) (2)
- Zweitveröffentlichung (2)
- Peer-Revied (1)
- Peer-reviewed (1)
Publisher
- de Gruyter (65)
- Narr (37)
- Institut für Deutsche Sprache (34)
- IDS-Verlag (16)
- Association for Computational Linguistics (13)
- European Language Resources Association (ELRA) (12)
- European Language Resources Association (8)
- Leibniz-Institut für Deutsche Sprache (8)
- Leibniz-Institut für Deutsche Sprache (IDS) (8)
- Lang (7)
The project Referenzkorpus Altdeutsch (‘Old German Reference Corpus’) aims to es- tablish a deeply-annotated text corpus of all extant Old German texts. As the automated part-of-speech and morphological pre-annotation is amended by hand, a quality control system for the results seems a desirable objective. To this end, standardized inflectional forms, generated using the morphological information, are compared with the attested word forms. Their creation is described by way of example for the Old High German part of the corpus. As is shown, in a few cases, some features of the attested word forms are also required in order to determine as exactly as possible the shape of the inflected lemma form to be created.
The availability of electronic corpora of historical stages of languages has been wel- comed as possibly attenuating the inherent problem of diachronic linguistics, i.e. that we only have access to what has chanced to come down to us - the problem which was memorably named by Labov (1992) as one of “Bad Data”. However, such corpora can only give us access to an increased amount ot historical material and this can essentially still only be a partial and possibly distorted picture of the actual language at a particular period of history. Corpora can be improved by taking a more representative sample of extant texts if these are available (as they are in significant number for periods after the invention of printing). But, as examples from the recently compiled GerManC corpus of seventeenth and eighteenth century German show, the evidence from such corpora can still fail to yield definitive answers to our questions about earlier stages of a language. The data still require expert interpretation, and it is important to be realistic about what can legitimately be expected from an electronic historical corpus.
Multi-faceted alignment. Toward automatic detection of textual similarity in Gospel-derived texts
(2015)
Ancient Germanic Bible-derived texts stand in as test material for producing computational means for automatically determining where textual contamination and linguistic interference have influenced the translation process. This paper reports on the results of research efforts that produced a text corpus; a method for decomposing the texts involved into smaller, more directly comparable thematically-related chunks; a database of relationships between these chunks; and a user-interface allowing for searches based on various referential criteria. Finally, the state of the product at the end of the project is discussed, namely as it was handed over to another researcher who has extended it to automatically find semantic and syntactic similarities within comparable chunks.
In this paper we present some preliminary considerations concerning the possibility of automatic parsing an annotated corpus for N-N compounds. This should in prin- ciple be possible at least for relational and stereotype compounds, if the lemmatization of the corpus connects the lemmata with lexical entries as described in Höhle (1982). These lexical entries then supply the necessary information about the argument structure of a relational noun or about the stereotypical purpose associated with the noun’s referent which can be used to establish a relation between the first and the head constituent of the compound.
The relative order of dative and accusative objects in older German is less free than it is today. The reason for this could be that speakers of the direct predecessor of Old High German organized the referents according to the Thematic Hierarchy. If one applies a Case Hierarchy Nom>Acc>Dat to this, the order Nom - Dat - Acc falls out. It becomes apparent that the status of the Thematic Hierarchy is not a factor governing underlying word order, but a factor inducing scrambling. Arguments from binding theory, whose validity is discussed, indicate that the underlying order is ‘accusative before dative’
GraphVar ist ein Korpus aus über 1.600 Abiturarbeiten, die zwischen 1917 und 2018 an einem niedersächsischen Gymnasium geschrieben wurden. Das Hauptinteresse beim Aufbau bestand in der Beschreibung graphematischer Variation und ihrer Entwicklung über die Zeit. Leitend war die Frage, was Schreiberinnen und Schreiber eigentlich tatsächlich machen bzw. gemacht haben – und zwar unbeeinflusst von technischen Hilfsmitteln oder Schluss- und Endredaktion, aber unter vergleichbaren Bedingungen. Das Korpus bietet somit ein Fenster auf den unverfälschten Schreibgebrauch von Abiturientinnen und Abiturienten im Laufe der Zeit. Zum jetzigen Zeitpunkt sind 1.618 Arbeiten transkribiert, linguistisch annotiert und über eine ANNIS-Instanz erreichbar (graphvar.unibonn.de, Stand: 8.8.2023). Im Sommer 2022 konnten weitere 1.600 Arbeiten zwischen 1900 und 2021 an einem Gymnasium in Nordrhein-Westfalen digitalisiert werden. Neben schriftlinguistischen Fragestellungen ist das Korpus prinzipiell auch für syntaktische, morphologische und lexikalische Fragestellungen geeignet; auch didaktische Untersuchungen sind möglich, genau wie kulturwissenschaftliche.
Funktionsverbgefüge stehen seit jeher in der Sprachkritik, die sich nun auch auf digitale Räume ausbreitet. Vertreten wird dort die These, Funktionsverbgefüge und ihre entsprechenden Basisverben seien äquivalent und könnten in allen Kontexten durch die verbalen Entsprechungen ersetzt werden. Dies kann durch die vorliegende korpusbasierte und textlinguistische Studie am Beispiel des Gefüges Frage stellen widerlegt werden. Anhand eines extensiven Datenmaterials aus den Wikipedia-Artikel-Korpora des IDS zeige ich die semantischen, grammatischen und textlinguistischen Unterschiede zwischen dem Basisverb und dem Funktionsverbgefüge im Gebrauch auf, die sich in der Anreicherung, Verdichtung, Perspektivierung, Gewichtung und Wiederaufnahme von Informationen im Text manifestieren.
Dieser Beitrag beschreibt die Prozesse der Datenerhebung, -aufbereitung und geplanten Veröffentlichung eines Teilkorpus des vom österreichischen Wissenschaftsfonds (FWF) finanzierten Spezialforschungsbereichs (SFB) „Deutsch in Österreich. Variation – Kontakt – Perzeption“ (FWF F060). Die Daten werden v. a. aus variationslinguistischer, kontaktlinguistischer wie auch perzeptionslinguistischer Perspektive analysiert, wofür eigene Tools entwickelt wurden, die – ebenso wie das Korpus selbst – mittelfristig der interessierten Öffentlichkeit zur Verfügung gestellt werden.
Das Werk versteht sich als eine Darstellung der wichtigsten syntaktischen, prosodischen, semantischen und pragmatischen Eigenschaften kausaler und konditionaler Konnektoren des gesprochenen Deutsch.
Die Untersuchung formuliert notwendige theoretische Grundlagen und zeigt die komplexe Interaktion mehrerer Faktoren, die sich auf die Interpretation einer Äußerung auswirken. Empirische Daten belegen, dass die kontextuelle und pragmatische Interpretation der untersuchten Relationen stark mit ihren syntaktischen und prosodischen Mustern korreliert. Jedoch handelt es sich nicht um eine Eins-zu-eins-Beziehung, denn gleiche Lesarten können von kausalen und konditionalen Relationen unterschiedlich markiert sein. Anhand der Ergebnisse wird das Verhältnis zwischen Konditionalität und Kausalität diskutiert.
This study explores the interdependence of qualitative and quantitative analysis in articulating empirically plausible and theoretically coherent generalizations about grammatical structure. I will show that the use of large electronic corpora is indispensable to the grammarian's work, serving as a rich source of semantic and contextual information, which turns out to be crucial in categorizing and explaining grammatical forms. These general concerns are illustrated by the patterns of use of Czech relative clauses (RC) with the non-declinable relativizer co, by taking a set of existing claims about these RCs and testing their accuracy on corpus material. The relevant analytic categories revolve around the referential type of the relativized noun, the interaction between relativization and deixis, and the semantic relationship between the relativized noun and the proposition expressed by the RC. The analysis demonstrates that some of the existing claims are fully invalid in the face of regularly attested semantic distinctions, while others are more or less on the right track but often not comprehensive or precise enough to capture the full richness of the facts. 1
Conversation is usually considered to be grammatically simple, while academic writing is often claimed to be structurally complex, associated primarily with a greater use of dependent clauses. Our goal in the present paper is to challenge these stereotypes, based on the results of large-scale corpus investigations. We argue that both conversation and professional academic writing are grammatically complex but that their complexities are dramatically different. Surprisingly, the traditional view that complexity is realized through extensive clausal embedding leads to the conclusion that conversation is more complex than academic writing. In contrast, written academic discourse is actually much more ‘compressed’ than elaborated, and the complexities of academic writing are realized mostly as phrasal embedding rather than embedded clauses.
Nachdem die Erforschung der Wortbildungsregularitäten des Deutschen in den zentralen Bereichen zu erheblichen Fortschritten und weithin konsensfähigen Ergebnissen geführt hat, wendet sich die Forschung in den letzten Jahren verstärkt neuen Aspekten zu, wobei textlinguistische und in verschiedener Weise anwendungsorientierte Fragen eine erhebliche Rolle spielen, daneben aber auch andere, häufig theoriespezifischere Herangehensweisen gewählt werden. Wie viele andere Bereiche der Sprachwissenschaft hat sich auch die Wortbildungsforschung mit der neuen Möglichkeit auseinanderzusetzen, elektronische Korpora als empirische Basis zu nutzen.
Der Band dokumentiert die Ergebnisse der Tagung zur Wortbildung an der Universität Santiago de Compostela im Sommer 2006, und gerade bei einer transnationalen - und im Gefolge auch germanistisch-hispanistisch transdisziplinären - Tagung liegt es nahe, die typologisch vergleichenden Aspekte zu betonen, die ebenfalls in letzter Zeit erheblich an Bedeutung gewonnen haben. Mit der Schwerpunktsetzung auf den (deutsch-spanischen) Vergleich, auf textuelle und auf am Bereich DaF anwendungsorientierte Fragestellungen ergänzen die im vorliegenden Band dokumentierten Ergebnisse dieser Tagung die derzeit wieder recht lebhafte Diskussion um Fragen der Wortbildung.
This paper describes general requirements for evaluating and documenting NLP tools with a focus on morphological analysers and the design of a Gold Standard. It is argued that any evaluation must be measurable and documentation thereof must be made accessible for any user of the tool. The documentation must be of a kind that it enables the user to compare different tools offering the same service, hence the descriptions must contain measurable values. A Gold Standard presents a vital part of any measurable evaluation process, therefore, the corpus-based design of a Gold Standard, its creation and problems that occur are reported upon here. Our project concentrates on SMOR, a morphological analyser for German that is to be offered as a web-service. We not only utilize this analyser for designing the Gold Standard, but also evaluate the tool itself at the same time. Note that the project is ongoing, therefore, we cannot present final results.
Corpus-based identification and disambiguation of reading indicators for German nominalizations
(2010)
Corpus data is often structurally and lexically ambiguous; corpus extraction methodologies thus must be made aware of ambiguities. Therefore, given an extraction task, all relevant ambiguities must be identified. To resolve these ambiguities, contextual data responsible for one or another reading is to be considered. In the context of our present work, German -ung-nominalizations and their sortal readings are under examination. A number of these nominalizations may be read as an event or a result, depending on the semantic group they belong to. Here, we concentrate on nominalizations of verbs of saying (henceforth: "verba dicendi"), identify their context partners and their influence on the sortal reading of the nominalizations in question. We present a tool which calculates the sortal reading of such nominalizations and thus may improve not only corpus extraction, but also e.g. machine translation. Lastly, we describe successful attempts to identify the correct sortal reading, conclusions and future work.
Das Forschungs- und Lehrkorpus für GesprochenesDeutsch (FOLK) ist ein Korpus des gesprochenen Deutsch in natürlichen sozialen Interaktionen, das seit 2008 in der Abteilung Pragmatik am Leibniz-Institut für Deutsche Sprache in Mannheim aufgebaut wird. FOLK besteht aus Audio- und Videoaufzeichnungen natürlicher Gespräche aus verschiedensten gesellschaftlichen Bereichen (private, institutionelle und öffentliche Interaktionsdomäne), die durch Transkription, weitere Annotationen und Metadaten-Dokumentation für korpusgestützte Analysen erschlossen und zur wissenschaftlichen Nutzung bereitgestellt werden. FOLK wird auf vielfältige Weise für Untersuchungen zum gesprochenen Deutsch genutzt, insbesondere in der Gesprächsforschung, der Korpuslinguistik und anwendungsorientierten Zweigen der Linguistik.
Das KOLLokationsLEXikon Deutsch als Fremdsprache (KOLLEX DAF) ist ein
- korpusgestütztes Kollokationswörterbuch, da es typische Wortverbindungen, sog. Kollokationen und häufige Wortkombinationen nach bestimmten Kategorien mit ihren ungarischen Äquivalenten auflistet (Stichwort mit SUBSTANTIVEN, ADJEKTIVEN, VERBEN und ADVERBIEN bzw. in KOMBINATIONEN),
- syntagmatisches Lernerwörterbuch, da es außer Kollokationen auch die Valenz der Stichwörter und die der Kollokationen und Wortkombinationen angibt, ergänzt mit pragmatischen und morphosyntaktischen Verwendungsbeschränkungen sowie ggf. mit einem Symbol für mögliche Fehlerquellen,
- benutzerfreundliches Produktionswörterbuch, da es alle deutschen Wortverbindungen in blauer Farbe und in klar strukturierten Wörterbuchartikeln mit einem Übersichtsblock zu den Bedeutungen des Stichwortes auflistet, aber auch die Sprachrezeption mit einem umfangreichen Register unterstützt.
Seit der Forschung große Datenmengen und Rechenkapazitäten zur Verfügung stehen arbeitet auch die Sprachwissenschaft zunehmend datengeleitet. Datengeleitete Forschung geht nicht von einer Hypothese aus, sondern sucht nach statistischen Auffälligkeiten in den Daten. Sprache wird dabei oft stark vereinfacht als lineare Abfolge von Wörtern betrachtet. Diese Studie zeigt erstmals, wie der zusätzliche Einbezug syntaktischer Annotationen dabei hilft, sprachliche Strukturen des Deutschen besser zu erfassen.
Als Anwendungsbeispiel dient der Vergleich der Wissenschaftssprachen von Linguistik und Literaturwissenschaft. Die beiden Fächer werden oft als Teildisziplinen der Germanistik zusammengefasst. Ihre wissenschaftliche Praxis unterscheidet sich jedoch systematisch hinsichtlich Forschungsdaten, Methoden und Erkenntnisinteressen, was sich auch in den Wissenschaftssprachen niederschlägt.
Dieses Buch stellt die Gesprächsanalyse als Methodik zur Erforschung linguistischer Fragestellungen dar. Ihr Ziel ist die umfassende Analyse sprachlicher Phänomene in ihren formalen, funktionalen und kontextuellen Dimensionen. Grundlegende Eigenschaften der verbalen Interaktion werden zunächst auf ihre sprachtheoretischen Konsequenzen befragt. Sodann werden aus ihnen methodologische Prinzipien für die Erhebung und Analyse von Gesprächskorpora entwickelt. Das methodische Vorgehen wird an einer grammatischen und einer semantischen Fragestellung demonstriert. Untersucht werden freie Infinitivkonstruktionen im gesprochenen Deutsch und die Effekte von Kontrastierungsaktivitäten auf die Semantik von Ausdrücken im Gespräch. Theoretische Basis bildet hier die Integration der Gesprächsanalyse mit der construction grammar und der kognitiven Linguistik.