Refine
Year of publication
- 2017 (163) (remove)
Document Type
- Article (70)
- Part of a Book (35)
- Conference Proceeding (35)
- Book (10)
- Working Paper (5)
- Other (3)
- Part of Periodical (2)
- Report (2)
- Doctoral Thesis (1)
Keywords
- Deutsch (52)
- Korpus <Linguistik> (42)
- Gesprochene Sprache (16)
- Corpus linguistics (11)
- Computerunterstützte Lexikographie (7)
- Diskursmarker (7)
- Computerlinguistik (6)
- Corpus technology (6)
- Interaktionsanalyse (6)
- Texttechnologie (6)
Publicationstate
- Veröffentlichungsversion (163) (remove)
Reviewstate
Publisher
- Institut für Deutsche Sprache (43)
- de Gruyter (19)
- Verlag für Gesprächsforschung (10)
- Lexical Computing CZ s.r.o. (5)
- The Association for Computational Linguistics (5)
- Heidelberg University Publishing (4)
- Narr (4)
- Synchron (4)
- Leibniz-Institut für Deutsche Sprache (IDS) (3)
- Narr Francke Attempto (3)
In this paper, we discuss to what extent the German-based contact language Unserdeutsch (Rabaul Creole German, cf. Volker 1982) matches the category‘creole language’ from both a socio-historical and structural perspective. As a point of reference, we will use typological criteria that are widely supposed to be typical for creole languages. It is shown that Unserdeutsch fits fairly well into the pattern of an ‘average creole’, as has been suggested by data in the Atlas of Pidgin and Creole Language Structures (Michaelis et al. 2013). This is despite a series of atypical conditions in its development that might lead us to expect a close structural proximity to the lexifier language, i.e. a relatively acrolectal creole. A possible explanation for this striking discrepancy can be found in the primary function of Unserdeutsch as a marker of identity as well as in the linguistic structure of its substrate language Tok Pisin.
This paper provides insights into the ongoing international research project Unserdeutsch (Rabaul Creole German): Documentation of a highly endangered creole language in Papua New Guinea, based at the University of Augsburg, Germany. It elaborates on the different stages of the project, ranging from fieldwork to corpus development, thereby outlining the methods and software background used for the intended purposes. In doing so, we also give some approaches to solving specific problems, which have arisen in the course of practical work until now.
This paper reports about current practice in a staged approach to the introduction of NLP principles and techniques for students of information science (IIM) and of international communication and translation (ICT) as part of their curricula. As most of these students are rather not familiar with computer science or, in the case of IIM students, linguistics, we see them as comparable with students of the humanities. We follow a blended learning strategy with lectures, online materials, tutorials, and screencasts. In the first two terms, we focus on linguistics and its formalisation, NLP tools and applications are then introduced from the third term on. The lectures are combined with tutorials and - since the summer term 2017 - with a set of screencasts.
Welche Sprachen sehen wir auf Schildern, Plakaten, Graffiti in der Öffentlichkeit? Wovon hängt es ab, an welchen Orten und in welchen Funktionen bestimmte sprachliche Varietäten zu finden sind? Wie spiegeln sich Mehrsprachigkeit in der Gesellschaft, Prestige von Sprachen und Machtverhältnisse von Sprechergruppen in den Texten im öffentlichen Raum?
Dieser Band widmet sich derartigen Fragen, die in der Sprachwissenschaft heute unter dem Schlagwort der Linguistic Landscapes untersucht werden, aus einer Perspektive der deutschen Sprache außerhalb des deutschsprachigen Kerngebietes. Welches – z. T. unerwartete – Auftreten des Deutschen lässt sich in Ländern wie Malta, Estland, Dänemark oder Tschechien beobachten? Was für Geschichten stehen dahinter und wie spiegeln sich in deutschen Texten und Symbolen historische Ereignisse und heutige Verbindungen zu den deutschsprachigen Ländern?
Gleichzeitig berichten die Beiträge des Bandes über Erfahrungen, die Präsenz der deutschen Sprache in der Öffentlichkeit zu Unterrichtszwecken und zum Sprachmarketing einzusetzen. Ob in Schule, Universität oder in der Werbung für Deutsch in der allgemeinen Öffentlichkeit – dieser in Anlehnung an ein Projekt auf Malta Spot German genannte Ansatz veranschaulicht nicht nur die Vielfalt der Rollen des Deutschen, er zeigt vor allem, dass Projekte zur deutschen Sprache Spaß machen und auf einfache Weise zur Nachahmung einladen können.
Skatesticker sind grafisch gestaltete Aufkleber, die von Skatelabels – den Herstellern von Skateboards und Zubehör – distribuiert werden. Ursprünglich zu reinen Werbezwecken produziert, haben sich Skatesticker als Symbole der Szene etabliert: Befragte Skater bekennen, dass Skatesticker ein „Ausdruck eines Lebensgefühls“, ein „visueller Eindruck unserer Gefühle“ und eine „[e]infache Möglichkeit[,] sich einer Gruppe zuzuordnen“ sind. Sie werden von Skatern gesammelt, gehandelt und wertgeschätzt. Die vorliegende Arbeit verfolgt einen bildwissenschaftlich orientierten Forschungsansatz, der es ermöglicht, die komplexen – oftmals bildende Kunst adaptierenden – Bildmotive dieser Grafikdesignobjekte und ihre zunehmend autonomisierten Funktionen als visuelle Medien einer Szene zu analysieren und anzuerkennen.
Data sets of publication meta data with manually disambiguated author names play an important role in current author name disambiguation (AND) research. We review the most important data sets used so far, and compare their respective advantages and shortcomings. From the results of this review, we derive a set of general requirements to future AND data sets. These include both trivial requirements, like absence of errors and preservation of author order, and more substantial ones, like full disambiguation and adequate representation of publications with a small number of authors and highly variable author names. On the basis of these requirements, we create and make publicly available a new AND data set, SCAD-zbMATH. Both the quantitative analysis of this data set and the results of our initial AND experiments with a naive baseline algorithm show the SCAD-zbMATH data set to be considerably different from existing ones. We consider it a useful new resource that will challenge the state of the art in AND and benefit the AND research community.
In conversation, turn-taking is usually fluid, with next speakers taking their turn right after the end of the previous turn. Most, but not all, previous studies show that next speakers start to plan their turn early, if possible already during the incoming turn. The present study makes use of the list-completion paradigm (Barthel et al., 2016), analyzing speech onset latencies and eye-movements of participants in a task-oriented dialogue with a confederate. The measures are used to disentangle the contributions to the timing of turn-taking of early planning of content on the one hand and initiation of articulation as a reaction to the upcoming turn-end on the other hand. Participants named objects visible on their computer screen in response to utterances that did, or did not, contain lexical and prosodic cues to the end of the incoming turn. In the presence of an early lexical cue, participants showed earlier gaze shifts toward the target objects and responded faster than in its absence, whereas the presence of a late intonational cue only led to faster response times and did not affect the timing of participants' eye movements. The results show that with a combination of eye-movement and turn-transition time measures it is possible to tease apart the effects of early planning and response initiation on turn timing. They are consistent with models of turn-taking that assume that next speakers (a) start planning their response as soon as the incoming turn's message can be understood and (b) monitor the incoming turn for cues to turn-completion so as to initiate their response when turn-transition becomes relevant.
We present an event-related potentials (ERP) study that addresses the question of how pieces of information pertaining to semantic roles and event structure interact with each other and with the verb’s meaning. Specifically, our study investigates German verb-final clauses with verbs of motion such as fliegen ‘fly’ and schweben ‘float, hover,’ which are indeterminate with respect to agentivity and event structure. Agentivity was tested by manipulating the animacy of the subject noun phrase and event structure by selecting a goal adverbial, which makes the event telic, or a locative adverbial, which leads to an atelic reading. On the clause-initial subject, inanimates evoked an N400 effect vis-à-vis animates. On the adverbial phrase in the atelic (locative) condition, inanimates showed an N400 in comparison to animates. The telic (goal) condition exhibited a similar amplitude like the inanimate-atelic condition. Finally, at the verbal lexeme, the inanimate condition elicited an N400 effect against the animate condition in the telic (goal) contexts. In the atelic (locative) condition, items with animates evoked an N400 effect compared to inanimates. The combined set of findings suggest that clause-initial animacy is not sufficient for agent identification in German, which seems to be completed only at the verbal lexeme in our experiment. Here non-agents (inanimates) changing their location in a goal-directed way and agents (animates) lacking this property are dispreferred and this challenges the assumption that change of (locational) state is generally a defining characteristic of the patient role. Besides this main finding that sheds new light on role prototypicality, our data seem to indicate effects that, in our view, are related to complexity, i.e., minimality. Inanimate subjects or goal arguments increase processing costs since they have role or event structure restrictions that animate subjects or locative modifiers lack.
Verstehen und Motivieren: semantische Fluchtpunkte deutscher und italienischer Lexeme mit -log-
(2017)
The possibilities of re-use and archiving of spoken and written corpora are affected by personality rights (depending on legal tradition also called: the right of publicity), copyright law and data protection / privacy laws. These recommendations include information about legal aspects which should be considered while creating corpora to ensure the greatest archivability and re-usability possible in compliance with current laws.
The information compiled here shall serve researchers who plan to create corpora or who are involved in evaluation of such measures as a guideline. This information is not exhaustive or to be considered as legal advice. Researchers should consult institutional legal departments and management before making legally relevant decisions. That said, further legal expertise should be sought if possible as early as project planning phases.
This paper analyses the XVIII century German translations of 'Les aventures de Télémaque' (1699) by François de Salignac de la Mothe Fénelon. In that century, Fénelon's masterpiece was translated into German mainly by four authors (August Bohse, Benjamin Neukirch, Josef Anton Ehrenreich, Ludwig Ernst Faramond), who adapted the text according not only to the historical period, but also to their own purpose, creating completely different works. They transformed the original text in different text genres, from a utopian novel with political and pedagogical aims to a text in verse form for didactic purposes, or to an epic poem with pedagogical functions. To investigate the differences between the translations the paper will focus especially on the macrostructural and the paratextual elements in order to make preliminary hypothesis on 1) the text genre, 2) the functions of the text and 3) the expected audience. Examples and final conclusions will end the article.
Die folgenden Ausführungen zur Maskierung basieren auf den Erfahrungen bei der Aufbereitung der Daten des Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) für die Veröffentlichung in der Datenbank für Gesprochenes Deutsch (DGD). Sie sollen anderen Forschern und Forschungsprojekten als praktische Hilfestellung für die Maskierung von Aufnahmen dienen, können aber selbstverständlich nicht die gesamte Bandbreite von Einzelfallentscheidungen und Pflichten der Forschenden abdecken.
Es werden sowohl allgemeine Hinweise zur Maskierung von Audio- und Videoaufnahmen gegeben als auch praktische Tipps zur Umsetzung der Maskierung mit dem Transkriptionseditor FOLKER.
Die in den Ausführungen geschilderten arbeitsteiligen Prozesse in größeren Projekten können in kleineren Projekten einzelner Forscher selbstverständlich auch von einer einzelnen Person ausgeführt werden.
Ein Teildiskurs der Digital Humanities dreht sich um die Frage, wie tradierte Wissensressourcen der Geisteswissenschaften sinnvoll mit digitalen Technologien und Tools verbunden werden können. Auch bei der Neubearbeitung des Deutschen Wörterbuchs von Jacob Grimm und Wilhelm Grimm (DWB) ist dieser Diskurs spürbar, denn mit der Ende 2016 abgeschlossenen Arbeit des traditionsreichen Unternehmens liegt ein konzeptuell einzigartiges Referenzwerk der historischen Lexikografie des Deutschen vor, das in ‘traditioneller’ Printform entstanden, dessen Umsetzung in ein digitales Format jedoch bereits beschlossen ist. Im Laufe der Arbeit am DWB sind überdies zwei Datensammlungen entstanden, die mittlerweile digitalisiert wurden und öffentlich zugänglich sind: das (digitale) Quellenverzeichnis und die Kartei Literatur zur Wortforschung (LW-Kartei). Ihre Einbindung in die Wörterbucharbeit und -benutzung trägt auf unterschiedliche Weise zum Verständnis des DWB bei; weiterhin verweisen sie als digitale Werkzeuge auf grundlegende Möglichkeiten zur Aufbereitung von lexikografischen Daten.
Im Folgenden werden beide Projekte, die sich ursprünglich als innerbetriebliche lexikografische Werkzeuge aus der Wörterbuchpraxis ergaben, vorgestellt. Anschließend wird anhand mehrerer ausgewählter Beispielwörter demonstriert, inwiefern sich die LW-Kartei und das Quellenverzeichnis für ein breites Spektrum von Forschungsfragen nutzen lassen. Am Ende werden Überlegungen zur Erweiterung der Datenbanken, d. h. der jeweiligen Systeme zur elektronischen Datenverwaltung, und ihrer Vernetzung mit den jeweiligen DWB-Artikeln diskutiert – Themen, denen u. a. bei der anstehenden Retrodigitalisierung des DWB besondere Beachtung zukommen sollte.
When appearance does not match accent: neural correlates of ethnicity-related expectancy violations
(2017)
Most research on ethnicity in neuroscience and social psychology has focused on visual cues. However, accents are central social markers of ethnicity and strongly influence evaluations of others. Here, we examine how varying auditory (vocal accent) and visual (facial appearance) information about others affects neural correlates of ethnicity-related expectancy violations. Participants listened to standard German and Turkish-accented speakers and were subsequently presented with faces whose ethnic appearance was either congruent or incongruent to these voices. We expected that incongruent targets (e.g. German accent/Turkish face) would be paralleled by a more negative N2 event-related brain potential (ERP) component. Results confirmed this, suggesting that incongruence was related to more effortful processing of both Turkish and German target faces. These targets were also subjectively judged as surprising. Additionally, varying lateralization of ERP responses for Turkish and German faces suggests that the underlying neural generators differ, potentially reflecting different emotional reactions to these targets. Behavioral responses showed an effect of violated expectations: German-accented Turkish-looking targets were evaluated as most competent of all targets. We suggest that bringing together neural and behavioral measures of expectancy violations, and using both visual and auditory information, yields a more complete picture of the processes underlying impression formation.
Forms of committed relationships, including formal marriage arrangements between men and women, exist in almost every culture (Bell, 1997). Yet, similarly to many other psychological constructs (Henrich et al., 2010), marital satisfaction and its correlates have been investigated almost exclusively in Western countries (e.g., Bradbury et al., 2000). Meanwhile, marital relationships are heavily guided by culturally determined norms, customs, and expectations (for review see Berscheid, 1995; Fiske et al., 1998). While we acknowledge the differences existing both between- and within-cultures, we measured marital satisfaction and several factors that might potentially correlate with it based on self-report data from individuals across 33 countries. The purpose of this paper is to introduce the raw data available for anybody interested in further examining any relations between them and other country-level scores obtained elsewhere. Below, we review the central variables that are likely to be related to marital satisfaction.
Language of Responsibility. The Influence of Linguistic Abstraction on Collective Moral Emotions
(2017)
Two experiments investigated the effects of linguistic abstractness on the experience of collective moral emotions. In Experiment 1 participants were presented with two scenarios about ingroup misbehavior, phrased using descriptive action verbs, interpretative action verbs, adjectives or nouns. The results show that participants experienced slightly more negative moral emotions with higher levels of linguistic abstractness. In Experiment 2 we also tested for the influence of national identification on the relationship between linguistic abstractness and emotional reactions. Additionally, we expanded the number of scenarios. Experiment 2 replicated the earlier pattern, but found larger differences between conditions. The strength of national identification did not moderate the observed effects. The results of this research are discussed within the context of the linguistic category model and psychology of collective moral emotions.
Unknown words are a challenge for any NLP task, including sentiment analysis. Here, we evaluate the extent to which sentiment polarity of complex words can be predicted based on their morphological make-up. We do this on German as it has very productive processes of derivation and compounding and many German hapax words, which are likely to bear sentiment, are morphologically complex. We present results of supervised classification experiments on new datasets with morphological parses and polarity annotations.
We present a major step towards the creation of the first high-coverage lexicon of polarity shifters. In this work, we bootstrap a lexicon of verbs by exploiting various linguistic features. Polarity shifters, such as ‘abandon’, are similar to negations (e.g. ‘not’) in that they move the polarity of a phrase towards its inverse, as in ‘abandon all hope’. While there exist lists of negation words, creating comprehensive lists of polarity shifters is far more challenging due to their sheer number. On a sample of manually annotated verbs we examine a variety of linguistic features for this task. Then we build a supervised classifier to increase coverage. We show that this approach drastically reduces the annotation effort while ensuring a high-precision lexicon. We also show that our acquired knowledge of verbal polarity shifters improves phrase-level sentiment analysis.
We use a convolutional neural network to perform authorship identification on a very homogeneous dataset of scientific publications. In order to investigate the effect of domain biases, we obscure words below a certain frequency threshold, retaining only their POS-tags. This procedure improves test performance due to better generalization on unseen data. Using our method, we are able to predict the authors of scientific publications in the same discipline at levels well above chance.
This paper presents a survey on hate speech detection. Given the steadily growing body of social media content, the amount of online hate speech is also increasing. Due to the massive scale of the web, methods that automatically detect hate speech are required. Our survey describes key areas that have been explored to automatically recognize these types of utterances using natural language processing. We also discuss limits of those approaches.
We propose a new type of subword embedding designed to provide more information about unknown compounds, a major source for OOV words in German. We present an extrinsic evaluation where we use the compound embeddings as input to a neural dependency parser and compare the results to the ones obtained with other types of embeddings. Our evaluation shows that adding compound embeddings yields a significant improvement of 2% LAS over using word embeddings when no POS information is available. When adding POS embeddings to the input, however, the effect levels out. This suggests that it is not the missing information about the semantics of the unknown words that causes problems for parsing German, but the lack of morphological information for unknown words. To augment our evaluation, we also test the new embeddings in a language modelling task that requires both syntactic and semantic information.
Universal Dependency (UD) annotations, despite their usefulness for cross-lingual tasks and semantic applications, are not optimised for statistical parsing. In the paper, we ask what exactly causes the decrease in parsing accuracy when training a parser on UD-style annotations and whether the effect is similarly strong for all languages. We conduct a series of experiments where we systematically modify individual annotation decisions taken in the UD scheme and show that this results in an increased accuracy for most, but not for all languages. We show that the encoding in the UD scheme, in particular the decision to encode content words as heads, causes an increase in dependency length for nearly all treebanks and an increase in arc direction entropy for many languages, and evaluate the effect this has on parsing accuracy.
To improve grammatical function labelling for German, we augment the labelling component of a neural dependency parser with a decision history. We present different ways to encode the history, using different LSTM architectures, and show that our models yield significant improvements, resulting in a LAS for German that is close to the best result from the SPMRL 2014 shared task (without the reranker).
We introduce a method for error detection in automatically annotated text, aimed at supporting the creation of high-quality language resources at affordable cost. Our method combines an unsupervised generative model with human supervision from active learning. We test our approach on in-domain and out-of-domain data in two languages, in AL simulations and in a real world setting. For all settings, the results show that our method is able to detect annotation errors with high precision and high recall.
In the NLP literature, adapting a parser to new text with properties different from the training data is commonly referred to as domain adaptation. In practice, however, the differences between texts from different sources often reflect a mixture of domain and genre properties, and it is by no means clear what impact each of those has on statistical parsing. In this paper, we investigate how differences between articles in a newspaper corpus relate to the concepts of genre and domain and how they influence parsing performance of a transition-based dependency parser. We do this by applying various similarity measures for data point selection and testing their adequacy for creating genre-aware parsing models.
Deutschland sieht sich in den nächsten Jahren vor enormen Herausforderungen gegen-übergestellt. Mit der Fluchtmigration von knapp 1,5 Mio. Menschen alleine zwischen 2014 und 2017 stehen nahezu in jedem gesellschaftlichen Bereich und hier insbesonde-re in den Sektoren Bildung und Arbeit große Integrationsaufgaben an. Steven Vertovec, der Leiter des Max-Planck-Instituts zur Erforschung multireligiöser und multiethnischer Gesellschaften bezeichnet die Fluchtmigration von 2015 auch deshalb als die „zweite Wende“ (Vertovec 2015) für Deutschland, die das Land nachhaltig verändern wird. Nach seiner Einschätzung werden die gesellschaftlichen Transformationen dermaßen tiefgrei-fend sein, dass die Formulierung „seit der Flüchtlingskrise“ eine ebenso geläufige Rede-wendung sein wird wie die Formulierung „seit der Wende“.
Berufliche Qualifizierungsmaßnahmen wie „GASTRO“ im Rhein-Neckar-Raum sind in diesem Kontext sehr wichtige Anstrengungen im Hinblick auf die strukturelle Integrati-on der Fluchtmigranten. Im gesamtgesellschaftlichen Kontext sind sie unverzichtbare Bestandteile der neuen Willkommenskultur, die seit den 2010ern versucht wird, in Deutschland zu etablieren. Als Einwanderungsland kann Deutschland mit Hilfe solcher Initiativen gezielt für Arbeitsbereiche und Berufsgruppen werben, in denen es an Nach-wuchs mangelt. Den Neuzugewanderten bieten sie die Chance sich in der hiesigen Ar-beitswelt zu orientieren und möglicherweise Berufsfelder zu erkunden, die ihnen bis-lang noch nicht oder nur in anderer Form bekannt waren.
Sprachnormen und Sprachnormierungsprozesse hängen unmittelbar mit Sprachreflexion und Sprachkritik zusammen. Entweder werden Sprachnormen und Sprachnormierungsprozesse linguistisch be- schrieben oder linguistisch / laienlinguistisch bewertet. In der linguistisch begründeten Sprachkritik der 1980er Jahre wird unter dem Paradigma der Sprachnormenkritik der Prozess der Sprachnormierung beobachtet und beschrieben. Sprachnormen und Sprachnormierungsprozesse werden in sprachhistorischer Perspektive aber bereits viel früher in intellektuel- len Kreisen reflektiert und kritisiert. Auch in gegenwärtiger Perspektive sind im laienlinguistischen Bereich Bestrebungen zu verzeichnen, mittels Sprachkritik Einfluss auf Sprachnormen und Sprachnormierungsprozesse zu nehmen. Seit den 2000er Jahren setzen sich wiederum Linguistinnen und Linguisten zum Ziel, Sprachnormen und Sprachnormierung zunächst zu beschreiben und dann nach linguistischen Kriterien zu bewerten. In dem Artikel wird ein Sprachnormenkritikbegriff vertreten, der auf einem Kontinuum von eher Ausdrucksmöglichkeiten abwägenden bis hin zu eindeutig positionsbezogenen Sprachbetrachtungen zu verorten ist, und sowohl die linguistische als auch die laienlinguistische Perspektive mit einbezieht. Unter Sprachnormenkritik wird hier also eine Reflexion der Sprachnormen und Sprachnormierungsprozesse verstanden, in der die Kriterien explizit (eher beschreibend oder eher bewertend) formuliert oder implizit praktiziert werden.
Der Artikel beschäftigt sich mit einem ganz spezifischen Blick auf Sprachnormen: Ausgehend von der Sprachnormenkritik der Germanistik fokussiert der Artikel die sozio-politischen Implikationen sprachlicher Normfragen. Der Terminus Sprachnormenkritik hat weder im Englischen noch im Französischen oder Italienischen und auch nicht im Kroatischen eine ausdrucksseitige Entsprechung. Das Konzept der ›Sprachnormenkritik‹ bzw. bestimmte Teilkomponenten sind dessen ungeachtet im Englischen, Französischen, Italienischen und Kroatischen seit Jahrhunderten in der Diskussion. Aus vergleichend europäischer Perspektive ist besonders interessant, dass nicht in jedem nationalsprachlichen Diskurs über Sprachnormen der unmittelbare Zusammenhang von sprachlichen Normen einerseits und sozio-ökonomischer Macht bzw. politischer Handlungsfähigkeit andererseits als korrelierende Phänomene diskutiert wird – und genau dies ist der Kern der ursprünglichen Sprachnormenkritik im Deutschen. Besonders eindrücklich lässt sich der politische Charakter der Sprachnormenkritik im Kroatischen demonstrieren. In den 1960er Jahren ist die Sprachnormenkritik im Kroatischen nicht nur eine Kritik, die degressiv erscheinende Zustände aufzudecken versucht, sondern vor allem eine progressive Kritik, die als Vorreiter der politischen Bewegung für die Unabhängigkeit Kroatiens angesehen werden kann.
Einleitung
(2017)
Das Handbuch Europäische Sprachkritik Online (HESO) liefert eine vergleichende Perspektive auf Sprachkritik in europäischen Sprachkulturen. Das Handbuch ist eine periodische und mehrsprachige Online-Publikation. Zu ausgewählten Konzepten der Sprachkritik werden sukzessiv enzyklopädische Artikel veröffentlicht, die ein sprachkritisches Schlüsselkonzept betreffen und die für die europäische Perspektive von kultureller Bedeutung sind. Das Ziel ist demnach, eine Konzeptgeschichte der europäischen Sprachkritik zu präsentieren. Zum einen liefert das Handbuch einen spezifischen Blick auf die jeweiligen Sprachkulturen. Zum anderen werden diese vergleichend in den Blick genommen.
Das Handbuch Europäische Sprachkritik Online liefert eine vergleichende Perspektive auf Sprachkritik in europäischen Sprachkulturen (im Speziellen auf die Sprachkritik im Deutschen, Englischen, Französischen, Italienischen und Kroatischen). In dem Handbuch werden zentrale Konzepte der Sprachkritik deskriptiv behandelt. Das Ziel ist demnach, eine Konzeptgeschichte der europäischen Sprachkritik zu präsentieren. Zum einen liefert das Handbuch einen spezifischen Blick auf die jeweiligen Sprachkulturen. Zum anderen werden diese vergleichend in den Blick genommen. Das multilinguale Handbuch erscheint periodisch in Bänden.
Harold Garfinkel, Begründer der Ethnomethodologie, wäre dieses Jahr 100 Jahre alt geworden, seine Studies in Ethnomethodology werden 50 Jahre. Grund genug diesen doppelten Geburtstag mit einer Tagung zur "deutschsprachigen Vorge-schichte, Wirkung und Rezeption des Werkes und der Person zu würdigen" (so der Ankündigungstext zur Tagung), die nicht ganz zufällig in Konstanz stattfand, lange Zeit und nach wie vor eine Hochburg rekonstruktiver Sozialforschung (auch) ethnomethodologischer Prägung. Die Tagung Harold Garfinkel's 'Studies in Ethnomethodolgy' – Fifty Years After vom 26.-28.10.2017 an der Universität Konstanz, ausgerichtet vom Lehrstuhl für Allgemeine Soziologie und Kultursoziologie und organisiert von Jörg Bergmann, Christian Meyer und Erhard Schüttpelz, tat dies in einer gebührlichen und beson-deren Weise: Die acht Kapitel der Studies in Ethnomethodology (im Folgenden kurz Studies), ein Konvolut aus Essays und Artikeln, die 1967 erschienen sind, dienten als Grundlage zur Strukturierung der Tagung und als Ausgangspunkt der einzelnen Vorträge.
Der vorliegende Beitrag beschreibt auf der Basis authentischer Alltagsinteraktionen das Formen- und Funktionsspektrum der äußerungsmodalisierenden Kommen-tarphrase ohne Scheiß im gesprochenen Deutsch. Die Konstruktion wird von Inter-agierenden insbesondere als Ressource zur Steigerung des Geltungsanspruchs einer Bezugsäußerung genutzt, wodurch diese als wahr und/oder ernstgemeint modali-siert wird. Damit leistet ohne Scheiß einen wichtigen Beitrag zur Bearbeitung des Erwartungsmanagements durch den/die SprecherIn sowie zur Herstellung von In-tersubjektivität. Die Konstruktion ist syntaktisch variabel und kann somit Äußerun-gen sowohl prospektiv als auch retraktiv modalisieren. Zudem wird mit der Wahl des Lexem Scheiß ein nähesprachliches Register aktiviert, was in Verbindung mit weiteren (prosodischen und/oder lexikalischen) Elementen zu affektiver Aufladung führen kann. Eine abschließende Darstellung häufiger lexikalischer Kookkurrenz-partner und deren funktionaler Bedeutung sowie ein Abgleich zu intrakonstruktio-nalen Varianten wie ohne Witz/ohne Spaß zeigt die Produktivität der Konstruktion im alltäglichen Sprachgebrauch auf.
This article explores how close one can come to a cultural-scientific perspective on the basis of a constitution-analytical methodology. We do this on the basis of a comparison of the celebration of Totensonntag in Zotzenbach (Southern Hesse) and Sarepta (Wolgograd). In both places, there are protestant churches that perform this ritual to commemorate the dead on this “Sunday of the Dead” as a part of their church service. Our scientific interest lies in the reconstruction of the rituality produced during the in situ execution. In both services, the names of the deceased are read out and a candle is lit for each deceased person. In Zotzenbach the priest reads out the names and an assistant ignites the candles for the deceased, whereas in Sarepta the bereaved are responsible for this. Since the ritual is organised in very different ways in terms of architecture-for-interaction (statically in Zotzenbach, spatially dynamic in Sarepta), we can reconstruct two completely different models of rituality: a demonstrative one (Zotzenbach) and a participative one (Sarepta). The demonstrative model works on the basis of a finely tuned coordination between the two church representatives and is aimed at a dignified execution. The model in Sarepta is not suitable for the production of formality due to its participatory structure. Here, however, the focus is also on the aspect of socialization, which goes beyond the church service and offers the Russian-German worshipers the opportunity to situationally constitute as a culturally homogeneous group.
This paper deals with the creation of the first morphological treebank for German by merging two pre-existing linguistic databases. The first of these is the linguistic database CELEX which is a standard resource for German morphology. We build on its refurbished and modernized version. The second resource is GermaNet, a lexical-semantic network which also provides partial markup for compounds. We describe the state of the art and the essential characteristics of both databases and our latest revisions. As the merging involves two data sources with distinct annotation schemes, the derivation of the morphological trees for the unified resource is not trivial. We discuss how we overcome problems with the data and format, in particular how we deal with overlaps and complementary scopes. The resulting database comprises about 100,000 trees whose format can be chosen according to the requirements of the application at hand. In our discussion, we show some future directions for morphological treebanks. The Perl script for the generation of the data from the sources will be made publicly available on our website.
In the NLP literature, adapting a parser to new text with properties different from the training data is commonly referred to as domain adaptation. In practice, however, the differences between texts from different sources often reflect a mixture of domain and genre properties, and it is by no means clear what impact each of those has on statistical parsing. In this paper, we investigate how differences between articles in a newspaper corpus relate to the concepts of genre and domain and how they influence parsing performance of a transition-based dependency parser. We do this by applying various similarity measures for data point selection and testing their adequacy for creating genre-aware parsing models.