Refine
Year of publication
- 2016 (43) (remove)
Document Type
- Part of a Book (43) (remove)
Has Fulltext
- yes (43)
Keywords
- Deutsch (20)
- Online-Wörterbuch (4)
- Wörterbuch (4)
- Computerunterstützte Lexikographie (3)
- Gesprochene Sprache (3)
- Jugendsprache (3)
- Korpus <Linguistik> (3)
- Lexikographie (3)
- Polnisch (3)
- Transkription (3)
Publicationstate
- Veröffentlichungsversion (43) (remove)
Reviewstate
- (Verlags)-Lektorat (33)
- Peer-Review (5)
- Peer-review (2)
- Peer Review (1)
Publisher
- De Gruyter (6)
- Institut für Deutsche Sprache (4)
- Ruhr-Universität Bochum (4)
- Monsenstein und Vannerdat (3)
- Retorika (3)
- Peter Lang (2)
- bu, press (2)
- de Gruyter (2)
- Benjamins (1)
- Buske (1)
Bild-Makros, auch unter dem Begriff Memes bekannt, sind populäre Internetphänomene, die im Zuge der umfassenden Multimodalisierung der Medienkommunikation als Unterhaltungsangebote auf Facebook verbreitet und kommentiert werden. Dieser Beitrag betrachtet diese aus einer Kombination von Bild und Text bestehenden multimodalen Kommunikate aus einer gattungs- und gesprächsanalytischen Perspektive, da Bild- Makros sowohl in ihrer formalen und semantischen Gestaltung als auch in der interaktiven Rezeption in Form von Kommentaren und Antworten verfestigte Muster aufzuweisen scheinen. In dieser medial vermittelten Interaktion haben sich sowohl auf der strukturellen Ebene der Interaktionssequenzen als auch innerhalb einzelner, auf sequenzexterner und sequenzinterner Ebene analysierten Interaktionseinheiten verschiedene kommunikative Muster herausgebildet. Darin nehmen soziale Prozesse wie face-work und Identitätskonstruktion Einfluss auf die interaktive Aushandlung des Kommunikats.
Vorgestellt werden kontrastive Analysen zur Besetzung und Häufigkeitsverteilung von Vorfeldern im Deutschen und ihren französischen, italienischen, norwegischen, polnischen und ungarischen Äquivalenten in morphosyntaktisch annotierten Wikipedia-Korpora. Im Rahmen der Untersuchung wurden mit korpusanalytischen Methoden quantitative Zusammenhänge bei den sprachspezifischen Ausprägungen von Vorfeldern nachgewiesen, die im Einklang mit typischen Struktureigenschaften der untersuchten Kontrastsprachen stehen. Die Ergebnisse legen aber nahe, dass die untersuchten Vorfeldstrukturen ‒ trotz der beträchtlichen Größe und thematischen Vielfalt der Wikipedia-Korpora ‒ nicht hinreichend repräsentativ sind, um uneingeschränkt Rückschlüsse auf allgemeine Struktureigenschaften der sechs Kontrastsprachen zu ziehen. Hierfür verantwortlich ist insbesondere die ausgeprägte Textsortenspezifizität der Mediengattung (Online-)Enzyklopädie, was mithilfe weiterer Vergleichskorpora aufgezeigt werden konnte.
In diesem Beitrag liegt der Fokus auf der Vorfeldbesetzung des deutschen Satzes, insofern das Vorfeld einerseits aus einem Satzglied oder mehreren Satzgliedern und einem infiniten Teil des Verbalkomplexes oder andererseits nur aus dem infiniten Teil des Verbalkomplexes besteht. Bei diesen Formen der Vorfeldbesetzung werden Varianten und deren informationsstrukturelle Besonderheiten betrachtet. Des Weiteren soll der Frage nachgegangen werden, ob – entgegen einer haufig vorgebrachten Regel, dass das Vorfeld des deutschen Satzes nur einfach besetzt werden kann – eindeutige und auch akzeptable Belege in den Wikipedia-Korpora auffindbar sind, die darauf hinweisen, dass im Deutschen durchaus eine Vorfeldbesetzung mit mehr als einem Satzglied auftreten kann.
In this paper, we present first results of training a classifier for discriminating Russian texts into different levels of difficulty. For the classification we considered both surface-oriented features adopted from readability assessments and more linguistically informed, positional features to classify texts into two levels of difficulty. This text classification is the main focus of our Levelled Study Corpus of Russian (LeStCoR), in which we aim to build a corpus adapted for language learning purposes – selecting simpler texts for beginner second language learners and more complex texts for advanced learners. The most discriminative feature in our pilot study was a lexical feature that approximates accessibility of the vocabulary by the second language learner in terms of the proportion of familiar words in the texts. The best feature setting achieved an accuracy of 0.91 on a pilot corpus of 209 texts.
Wörterverzeichnis
(2016)
Konnexion in argumentativen Texten. Gebrauchsunterschiede in Deutsch als L2 vs. Deutsch als L1
(2016)
Für die Kodierung interpropositionaler semantischer Relationen wie Additivität, Adversativität, Kausalität etc. steht im Deutschen wie in vielen anderen Sprachen ein reichhaltiges Inventar von Konnektoren unterschiedlicher syntaktischer Kategorien zur Verfügung. Einige semantische Relationen müssen jedoch nicht explizit kodiert werden, da sie auf der Basis übereinzelsprachlicher Erwartungen an „normale“ Sachverhaltszusammenhänge aus dem Kontext erschließbar sind. Ob diese Relationen dann auch von Schreibern ausbuchstabiert werden, ist einzelsprach-spezifisch unterschiedlich. Der Beitrag untersucht vor diesem Hintergrund die Kodierung interpropositionaler Relationen bei Lernern des Deutschen als Fremdsprache. Die Analyse eines Lernerkorpus mit Essays fortgeschrittener Deutschlerner aus Schweden, China und Weißrussland (KobaltDaF-Korpus) und eines muttersprachlichen Kontrollkorpus zeigt, dass Lerner von den Mustern der Muttersprachler quantitativ und qualitativ abweichen. Der Beitrag beschreibt diese Abweichungen und diskutiert mögliche Erklärungen.
Brown clustering has been used to help increase parsing performance for morphologically rich languages. However, much of the work has focused on using clustering techniques to replace terminal nodes or as a feature for parsing. Instead, we choose to examine how effectively Brown clustering is for unlexicalized parsing by creating data-driven POS tagsets which are then used with the Berkeley parser. We investigate cluster sizes as well as on what information (e.g. words vs. lemmas) clustering will yield the best parser performance. Our results approach the current state of the art results for the German T¨uBa-D/Z treebank when using parser internal tagging.
Many applications in Natural Language Processing require a semantic analysis of sentences in terms of truth-conditional representations, often with specific desiderata in terms of which information needs to be included in the semantic analysis. However, there are only very few tools that allow such an analysis. We investigate the representations of an automatic analysis pipeline of the C&C parser and Boxer to determine whether Boxer’s analyses in form of Discourse Representation Structure can be successfully converted into a more surface oriented event semantic representation, which will serve as input for a fusion algorithm for fusing hard and soft information. We use a data set of synthetic counter intelligence messages for our investigation. We provide a basic pipeline for conversion and subsequently discuss areas in which ambiguities and differences between the semantic representations present challenges in the conversion process.