Refine
Year of publication
- 2019 (361) (remove)
Document Type
- Article (124)
- Part of a Book (110)
- Conference Proceeding (39)
- Book (34)
- Review (25)
- Part of Periodical (14)
- Other (9)
- Working Paper (4)
- Doctoral Thesis (1)
- Report (1)
Language
- German (250)
- English (106)
- Multiple languages (2)
- Ukrainian (2)
- Chinese (1)
Keywords
- Deutsch (144)
- Korpus <Linguistik> (65)
- Gesprochene Sprache (26)
- Sprache (19)
- Konversationsanalyse (17)
- Rezension (16)
- Automatische Sprachanalyse (15)
- Grammatik (15)
- Interaktion (15)
- Kommunikation (15)
Publicationstate
- Zweitveröffentlichung (164)
- Veröffentlichungsversion (137)
- Postprint (29)
- Erstveröffentlichung (2)
Reviewstate
- Peer-Review (148)
- (Verlags)-Lektorat (145)
- (Verlags-)Lektorat (2)
- Peer review (1)
- Peer-review (1)
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (1)
Publisher
- de Gruyter (66)
- Leibniz-Institut für Deutsche Sprache (IDS) (33)
- Leibniz-Institut für Deutsche Sprache (20)
- Erich Schmidt (18)
- Narr Francke Attempto (11)
- German Society for Computational Linguistics & Language Technology und Friedrich-Alexander-Universität Erlangen-Nürnberg (9)
- Stauffenburg (8)
- Winter (8)
- Institut für Deutsche Sprache (7)
- Lang (6)
This paper describes a rule-based approach to detect direct speech without the help of any quotation markers. As datasets fictional and non-fictional texts were used. Our evaluation shows that the results appear stable throughout different datasets in the fictional domain and are comparable to the results achieved in related work.
This contribution presents a quantitative approach to speech, thought and writing representation (ST&WR) and steps towards its automatic detection. Automatic detection is necessary for studying ST&WR in a large number of texts and thus identifying developments in form and usage over time and in different types of texts. The contribution summarizes results of a pilot study: First, it describes the manual annotation of a corpus of short narrative texts in relation to linguistic descriptions of ST&WR. Then, two different techniques of automatic detection – a rule-based and a machine learning approach – are described and compared. Evaluation of the results shows success with automatic detection, especially for direct and indirect ST&WR.
We present an approach for automatic detection and correction of OCR-induced misspellings in historical texts. The main objective is the post-correction of the digitized Royal Society Corpus, a set of historical documents from 1665 to 1869. Due to the aged material the OCR procedure has made mistakes, thus leading to files corrupted by thousands of misspellings. This motivates a post processing step. The current correction technique is a pattern-based approach which due to its lack of generalization suffers from bad recall.
To generalize from the patterns we propose to use the noisy channel model. From the pattern based substitutions we train a corpus specific error model complemented with a language model. With an F1-Score of 0.61 the presented technique significantly outperforms the pattern based approach which has an F1-score of 0.28. Due to its more accurate error model it also outperforms other implementations of the noisy channel model.
Konstanze Marx/Axel Schmidt (Mannheim) folgen in ihrem Beitrag „Making Let’s Plays watchable - Praktiken des stellvertretenden Erlebbar-Machens von Interaktivität in vorgeführten Video-spielen“ einem - angesichts der Datenqualität multimodal erweiterten - interaktionsanalytischen Ansatz. Dabei wird der Frage nachgegangen, wie die für das Genre konstitutive Ent-Interaktivisierung entschärft wird. Hierfür wird in Sing-le-Let’s Plays die begleitende Moderation zentral gesetzt, in Multi-Let’s Plays die Interaktion zwischen den Beteiligten.
Interaktionsanalytische Zugänge zu medienvermittelter Kommunikation. Zur Einleitung in diesen Band
(2019)
Die Kategorie „Shitstorm“ ist eine Zuschreibung, die aus dem Diskurs unter den Interagierenden einerseits und den boulevardjournalistischen Berichten andererseits heraus entsteht. Die nachweislich heterogene Konstitution des diskursiven Phänomens scheint bei den Shitstorm-Etikettierungen vernachlässigt zu werden, vielmehr rücken die gezeigten negativen Emotionen in den Fokus. Im vorhegenden Aufsatz wird zunächst anhand einiger exemplarischer Shitstorms gezeigt, dass diese aus verschiedenen sprachlichen Handlungen und unterschiedlichen Werturteilen bestehen. Im Anschluss wird auf die mediale Berichterstattung eingegangen, die Äußerungen mit hohem Beleidigungspotenzial pars pro toto für den Diskurs behandelt und es werden mögliche Auswirkungen dieser Vorgehensweise skizziert, etwa im Hinblick auf die Wahrnehmung berechtigter Kritik.
Untersuchungsgegenstand dieser Arbeit sind retrospektive Äußerungen, d.h. Nachfragen und fremdinitiierte Erweiterungen, die an den Sprecher der Ausgangsäußerung gerichtet sind. In der Forschung werden Nachfragen und Erweiterungen meist unabhängig voneinander mit unterschiedlichen Funktionen beschrieben. Die vorliegende Untersuchung setzt sich mit den gemeinsamen Eigenschaften beider Äußerungsformate auseinander, unabhängig von ihren deklarativen und interrogativen Merkmalen. Im Rahmen der Triangulation werden die Methode der Konversationsanalyse und die Annahmen der Relevanztheorie verbunden, um zu beschreiben, wie Sprecher in retrospektiven Äußerungen auf inhaltlicher Ebene mit den Informationen aus vorhergehenden Redebeiträgen umgehen. Primäre Datengrundlage sind die narrativen Interviews des Berliner Wendekorpus, ca. 60 Stunden gesprochenes Deutsch. Die Arbeit analysiert die grammatischen und lexikalischen Mittel, mit denen Sprecher bei der Bedeutungskonstruktion epistemische Unterstützung zum Ausdruck bringen. Weitere Analyseebenen sind die grammatische Kohärenz retrospektiver Äußerungen als evidentiale Strategie und die Ähnlichkeitsrelationen zwischen der interpretativen Annahme und den jeweiligen Bezugskomponenten.