Refine
Year of publication
- 2017 (370) (remove)
Document Type
- Part of a Book (161)
- Article (101)
- Conference Proceeding (43)
- Book (33)
- Part of Periodical (13)
- Other (7)
- Working Paper (6)
- Report (4)
- Doctoral Thesis (2)
Keywords
- Deutsch (154)
- Korpus <Linguistik> (64)
- Gesprochene Sprache (30)
- Grammatik (22)
- Sprachvariante (22)
- Englisch (14)
- Linguistik (14)
- Sprache (14)
- Diskursanalyse (13)
- Interaktion (13)
Publicationstate
- Veröffentlichungsversion (163)
- Zweitveröffentlichung (87)
- Postprint (20)
- Erstveröffentlichung (1)
- Preprint (1)
Reviewstate
- (Verlags)-Lektorat (135)
- Peer-Review (114)
- Peer-review (12)
- (Verlags-)Lektorat (2)
- Peer-Revied (2)
- (Verlags-)lektorat (1)
- Peer Review (1)
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (1)
Publisher
- Institut für Deutsche Sprache (56)
- de Gruyter (50)
- Narr Francke Attempto (39)
- Narr (19)
- De Gruyter (17)
- Verlag für Gesprächsforschung (11)
- Stauffenburg (10)
- Hempen (9)
- Springer (6)
- TUDpress (6)
Alles verstehen heißt alles verzeihen ist ein Satz, der im Deutschen den Charakter eines Spruchs, eines geflügelten Wortes angenommen hat, und der wahrscheinlich auf einem Zitat aus „Corinne ou l‘Italie“ von Madame de Staël (1807) (tout) comprendre c‘est (tout) pardonner basiert. Dieser Satz wurde ins Deutsche übersetzt und als Alles verstehen heißt alles verzeihen tradiert. Die Form eines Spruchs, eines geflügelten Wortes ist im Allgemeinen sehr konstant. Die Tendenz zur grammatischen Variation ist auch dann gering, wenn sie nach gängigen grammatischen Regeln möglich wäre.
Am Anfang ist das Wort
(2017)
Analepses with topic-drop are frequent structures in German interaction. While hitherto the focus on analepses was a rather syntactic one, this paper deals with analeptic structures from a semantic perspective. It particularly concentrates on the semantic relations between the referents of the analepses and the prior interactional context. This analysis shows that even for rather simple analepses which just omit a constituent from the prior utterance, conceptual processes are more decisive for its interpretation than syntactic features of the antecedent constituents. This is even more the case for complex analepses that are only indirectly linked to the prior context, and for the interpretation of which hearers need to draw inferences. The paper argues that theoretical approaches like Conversation Analysis and Interactional Linguistics can profit from adopting a semantic and conceptual perspective for the interpretation of interactional structures.
As a consequence of a recent curation project, the Dortmund Chat Corpus is available in CLARIN-D research infrastructures for download and querying. In a legal expertise it had been recommended that standard measures of anonymisation be applied to the corpus before its republication. This paper reports about the anonymisation campaign that was conducted for the corpus. Anonymisation has been realised as categorisation, and the taxonomy of anonymisation categories applied is introduced and the method of applying it to the TEI files is demonstrated. The results of the anonymisation campaign as well as issues of quality assessment are discussed. Finally, pseudonymisation as an alternative to categorisation as a method of the anonymisation of CMC data is discussed, as well as possibilities of an automatisation of the process.
Theateraufführungen sind ohne Zuschauer nicht denkbar. Zugleich erweisen sich Proben aber als öffentlichkeitsabgeschirmte und intime Vorgänge, da eine (zu frühe) Orientierung an möglichen Publikums-Effekten den kreativen Prozess stört. Auf der Grundlage von über 30 Stunden Videoaufnahmen von Theaterproben zeige ich an ausgewählten Ausschnitten, wie Theatermachende sich sprachlich und körperlich im Probenprozess auf das Publikum beziehen, wie dies interaktiv realisiert wird und welche Rückschlüsse das auf die Weisen der Publikumskonstruktion im Kontext von Proben zulässt.
Our paper describes an experiment aimed to assessment of lexical coverage in web corpora in comparison with the traditional ones for two closely related Slavic languages from the lexicographers’ perspective. The preliminary results show that web corpora should not be considered ― inferior, but rather ― different.
Der Beitrag thematisiert einen in der Forschung bislang kaum beachteten Parameter für grammatische Variation im Standard: die Arealität. Im ersten Teil folgen Begriffsklärungen, zunächst zum Terminus areal (mit einer Stellungnahme zur Debatte um das Deutsche als plurizentrische bzw. pluriareale Sprache), dann zu der Frage, wie Standard als Gebrauchsstandard definiert werden kann und in welcher Relation dazu der Terminus Kodex steht. Danach wird mit Blick auf das Projekt „Variantengrammatik des Deutschen“ aufgezeigt, wie areale grammatische Variation im Deutschen empirisch zu beschreiben ist. Der letzte Teil präsentiert Fallbeispiele, anhand derer sich das Erfassen von Varianten - von der Recherche in einem areal ausgewogenen Korpus bis zu ihrer Kodifikation in den Gebrauchsstandards des Deutschen - nachzeichnen lässt.
Argumentation nicht erwünscht – Einstellungen zum Argumentativen im Japanischen und Deutschen
(2017)
Dieser Beitrag behandelt Erscheinungsweisen des Argumentativen im Japanischen und Deutschen. Diesbezügliche Unterschiede und ihre Hintergründe werden je nach alltäglichen und institutionalisierten Situationen dargestellt. Im ersten teil werden Relationen von schwer bemerkbaren Normalitäten verbaler Interaktion und Kooperationsstilen dargestellt. Unterschiedliche Orientierung an Gleichheit bzw. Andersartigkeit entspricht jeweils positiver oder negativer Einstellung zur Argumentation. Die Grundzüge argumentativer Handlungen im Japanischen und Deutschen, die sich vorwiegend in Alltagsinteraktionen manifestieren, werden skizziert. Anhand deutschsprachiger Beispiele wird gezeigt, wie in (halb-)öffentlichen Diskursen eine positive Einstellung zur Argumentation reflexiv ausgedrückt wird. Krasse Differenzen zum Japanischen sind zu erwarten. Im zweiten Teil werden zuerst Hinweise auf historische Prozesse der Modernisierung Japans als Hintergrund der negativen Einstellung zur Argumentation gegeben. Anschließend werden in Anlehnung an kritische Untersuchungen öffentlicher Diskurse Beobachtungen über die gegenwärtige Situation vorgestellt. Der dritte Teil behandelt zur Erörterung der oben erwähnten Umstände sprachlich- interaktionale Eigenschaften des stigmatisierenden Worts hühyö ('Gerücht'). Dabei geht es um eine Herausarbeitung von Strategien zum Vorbeugen und Außerkraftsetzen der prototypischen Form der Argumentation. Zum Schluss wird nach der Zusammenfassung der Ausführungen auf den Sinn der Argumentation als allgemeines Werkzeug der Konfliktbewältigung hingewiesen.
Das von der Leibniz-Gemeinschaft geförderte Projekt „Lexik des gesprochenen Deutsch“(LeGeDe, Leibniz-Wettbewerb 2016, Förderlinie I: „Innovative Vorhaben“) nahm im September 2016 am Institut für Deutsche Sprache (IDS) seine Arbeit auf.1 Das Hauptziel ist die Erstellung einer korpusbasierten lexikografischen Online-Ressource zur Lexik des gesprochenen Deutsch auf der Grundlage von lexikologischen und gesprächsanalytischen Untersuchungen authentischer gesprochensprachlicher Daten. Als Kooperationsprojekt der Abteilungen Lexik und Pragmatik arbeiten Mitarbeiter/innen aus der Lexikologie, Lexikografie, Interaktionalen bzw. Gesprächslinguistik, Korpus- und Computerlinguistik und den Empirischen Methoden zusammen, wodurch sowohl aus der Sicht der Gesprochene- Sprache-Forschung als auch aus lexikografischer Perspektive eine innovative Form der Sprachbeschreibung entstehen soll.
We use a convolutional neural network to perform authorship identification on a very homogeneous dataset of scientific publications. In order to investigate the effect of domain biases, we obscure words below a certain frequency threshold, retaining only their POS-tags. This procedure improves test performance due to better generalization on unseen data. Using our method, we are able to predict the authors of scientific publications in the same discipline at levels well above chance.
In this paper we present the results of an automatic classification of Russian texts into three levels of difficulty. Our aim is to build a study corpus of Russian, in which a L2 student is able to select texts of a desired complexity. We are building on a pilot study, in which we classified Russian texts into two levels of difficulty. In the current paper, we apply the classification to an extended corpus of 577 labelled texts. The best-performing combination of features achieves an accuracy of 0,74 within at most one level difference.