Refine
Year of publication
Document Type
- Part of a Book (937)
- Article (116)
- Book (55)
- Review (25)
- Conference Proceeding (22)
- Course Material (1)
- Lecture (1)
- Other (1)
- Part of Periodical (1)
- Report (1)
Keywords
- Deutsch (536)
- Korpus <Linguistik> (146)
- Sprachgebrauch (91)
- Grammatik (71)
- Rechtschreibung (65)
- Linguistik (47)
- Wortschatz (46)
- Semantik (45)
- Kommunikation (44)
- Syntax (44)
Publicationstate
- Zweitveröffentlichung (1161) (remove)
Reviewstate
- (Verlags)-Lektorat (1161) (remove)
Publisher
- de Gruyter (410)
- Narr Francke Attempto (115)
- Narr (82)
- IDS-Verlag (36)
- Niemeyer (31)
- Stauffenburg (21)
- Lang (17)
- Steiner (17)
- Wilhelm Fink (14)
- Winter (14)
У статті досліджено салієнтні політичні речення та їхні функції в україн¬ському і німецькому медійному дискурсі, які використовуються у контексті російсько-української війни та закріплюються в системі актуальних полі¬тичних знань. Teрмін «салієнтні політичні речення» вжито відповідно до наукових праць Й. Кляйна. В українському дискурсі аналізуються відомі речення із відеозвернень та політичних промов В. Зеленського. Також про¬аналізовано гасла та лозунги, які поширюються через соціальні мережі або на прогестних демонстраціях і, відповідно, утверджуються як салієнтні по¬літичні речення. У німецькому дискурсі розглянуто значущі речення у про¬мовах провідних політичних діячів у контексті переосмислення німецької зовнішньої та внутрішньої політики після повномасштабного вторгнення Росії в Україну та після промови О. Шольца «Zeitenwende».
Dieser Beitrag behandelt aus der Perspektive des Verarbeitens und des
Lernens von Deutsch als Fremdsprache die Frage nach dem Umgang mit Zwischenräumen, die sich zwischen einem Pol rein lexikalischen Wissens und einem Pol lexikonunabhängiger grammatischer Regeln ansiedeln lassen. Dabei wird unterschieden zwischen dem Wissen um abstrakte Konstruktionen, über das Lernende verfügen müssen, um adäquate Erwartungen in der Rezeption fremdsprachlichen Inputs aufzubauen, und dem valenz- und framebasierten Wissen, das an spezifische lexikalische Einheiten angedockt werden muss, um die lernersprachliche Produktion anzuleiten.
The project Referenzkorpus Altdeutsch (‘Old German Reference Corpus’) aims to es- tablish a deeply-annotated text corpus of all extant Old German texts. As the automated part-of-speech and morphological pre-annotation is amended by hand, a quality control system for the results seems a desirable objective. To this end, standardized inflectional forms, generated using the morphological information, are compared with the attested word forms. Their creation is described by way of example for the Old High German part of the corpus. As is shown, in a few cases, some features of the attested word forms are also required in order to determine as exactly as possible the shape of the inflected lemma form to be created.
The availability of electronic corpora of historical stages of languages has been wel- comed as possibly attenuating the inherent problem of diachronic linguistics, i.e. that we only have access to what has chanced to come down to us - the problem which was memorably named by Labov (1992) as one of “Bad Data”. However, such corpora can only give us access to an increased amount ot historical material and this can essentially still only be a partial and possibly distorted picture of the actual language at a particular period of history. Corpora can be improved by taking a more representative sample of extant texts if these are available (as they are in significant number for periods after the invention of printing). But, as examples from the recently compiled GerManC corpus of seventeenth and eighteenth century German show, the evidence from such corpora can still fail to yield definitive answers to our questions about earlier stages of a language. The data still require expert interpretation, and it is important to be realistic about what can legitimately be expected from an electronic historical corpus.
In diesem Beitrag wird sich mithilfe eines bottom up- sowie bottom down-Verfahrens mit netzwerkartigen Verknüpfungsbeziehungen der Konstruktionen und mit den für die Verlinkung und Vernetzung vorgesehenen Verfahrensmechanismen, wie etwa Fusionierung, Vererbungshierarchien, konstruktioneller Polysemie u.a. sowie mit ihrer Umsetzung in die Praxis auseinandergesetzt.3 Als Ziel strebe ich einen Vorschlag zu einer netzwerkartigen Konstruktionssystematik an, die am Beispiel deutscher Verben zum Ausdruck der Empfindung veranschaulicht wird. Gemeinsamer Nenner aller von mir analysierten Konstrukte ist das Vorhandensein eines Affizierten bzw. Experiencer.
Der Beitrag behandelt Schreibvarianten der Gegenwartssprache. Es werden auf der Grundlage von vier Fallgruppen (1. Binnenmajuskel, 2. Kompositaschreibung mit Leerzeichen, 3. Kompositaschreibung mit Bindestrich, 4. genderfokussierende Schreibweisen) zwei Typen von Normvarianz unterschieden – ein politischer und ein unpolitischer. Dabei wird der Frage nachgegangen, ob unpolitische Ad-hoc-Bildungen auf dem Weg der Konventionalisierung sich von als politisch wahrgenommenen Normvarianten unterscheiden. Zur Beschreibung des Phänomens wird der Begriff der elastischen Norm eingeführt, um divergierende Schreibkonventionen im Spannungsfeld von Faktizitätsherstellung und kodifizierter Setzung zu modellieren. Zur soziolinguistischen Unterscheidung von Schreib- und Leseperspektiven werden die Schreibvarianten als drei unterschiedliche Gesten kategorisiert – als unmarkierte Nullgeste, als markierte Nullgeste und als indexikalisierte Signalgeste.
Multi-faceted alignment. Toward automatic detection of textual similarity in Gospel-derived texts
(2015)
Ancient Germanic Bible-derived texts stand in as test material for producing computational means for automatically determining where textual contamination and linguistic interference have influenced the translation process. This paper reports on the results of research efforts that produced a text corpus; a method for decomposing the texts involved into smaller, more directly comparable thematically-related chunks; a database of relationships between these chunks; and a user-interface allowing for searches based on various referential criteria. Finally, the state of the product at the end of the project is discussed, namely as it was handed over to another researcher who has extended it to automatically find semantic and syntactic similarities within comparable chunks.
In this paper we present some preliminary considerations concerning the possibility of automatic parsing an annotated corpus for N-N compounds. This should in prin- ciple be possible at least for relational and stereotype compounds, if the lemmatization of the corpus connects the lemmata with lexical entries as described in Höhle (1982). These lexical entries then supply the necessary information about the argument structure of a relational noun or about the stereotypical purpose associated with the noun’s referent which can be used to establish a relation between the first and the head constituent of the compound.