Refine
Year of publication
- 2016 (169) (remove)
Document Type
- Article (59)
- Conference Proceeding (44)
- Part of a Book (43)
- Book (15)
- Working Paper (5)
- Doctoral Thesis (3)
Keywords
- Deutsch (64)
- Korpus <Linguistik> (31)
- Gesprochene Sprache (20)
- Konversationsanalyse (11)
- Wörterbuch (11)
- Computerunterstützte Lexikographie (10)
- Französisch (8)
- German (7)
- Computerlinguistik (6)
- Linguistik (6)
Publicationstate
- Veröffentlichungsversion (169) (remove)
Reviewstate
Publisher
The Component MetaData Infrastructure (CMDI) is a framework for the creation and usage of metadata formats to describe all kinds of resources in the CLARIN world. To better connect to the library world, and to allow librarians to enter metadata for linguistic resources into their catalogues, a crosswalk from CMDI-based formats to bibliographic standards is required. The general and rather fluid nature of CMDI, however, makes it hard to map arbitrary CMDI schemas to metadata standards such as Dublin Core (DC) or MARC 21, which have a mature, well-defined and fixed set of field descriptors. In this paper, we address the issue and propose crosswalks between CMDI-based profiles originating from the NaLiDa project and DC and MARC 21, respectively.
Co-development of action, conceptualization and social interaction mutually scaffold and support each other within a virtuous feedback cycle in the development of human language in children. Within this framework, the purpose of this article is to bring together diverse but complementary accounts of research methods that jointly contribute to our understanding of cognitive development and in particular, language acquisition in robots. Thus, we include research pertaining to developmental robotics, cognitive science, psychology, linguistics and neuroscience, as well as practical computer science and engineering. The different studies are not at this stage all connected into a cohesive whole; rather, they are presented to illuminate the need for multiple different approaches that complement each other in the pursuit of understanding cognitive development in robots. Extensive experiments involving the humanoid robot iCub are reported, while human learning relevant to developmental robotics has also contributed useful results.
Disparate approaches are brought together via common underlying design principles. Without claiming to model human language acquisition directly, we are nonetheless inspired by analogous development in humans and consequently, our investigations include the parallel co-development of action, conceptualization and social interaction. Though these different approaches need to ultimately be integrated into a coherent, unified body of knowledge, progress is currently also being made by pursuing individual methods.
Wiktionary is increasingly gaining influence in a wide variety of linguistic fields such as NLP and lexicography, and has great potential to become a serious competitor for publisher-based and academic dictionaries. However, little is known about the "crowd" that is responsible for the content of Wiktionary. In this article, we want to shed some light on selected questions concerning large-scale cooperative work in online dictionaries. To this end, we use quantitative analyses of the complete edit history files of the English and German Wiktionary language editions. Concerning the distribution of revisions over users, we show that — compared to the overall user base — only very few authors are responsible for the vast majority of revisions in the two Wiktionary editions. In the next step, we compare this distribution to the distribution of revisions over all the articles. The articles are subsequently analysed in terms of rigour and diversity, typical revision patterns through time, and novelty (the time since the last revision). We close with an examination of the relationship between corpus frequencies of headwords in articles, the number of article visits, and the number of revisions made to articles.
The author presents a study using eye-tracking-while-reading data from participants reading German jurisdictional texts. I am particularly interested in nominalisations. It can be shown that nominalisations are read significantly longer than other nouns and that this effect is quite strong. Furthermore, the results suggest that nouns are read faster in reformulated texts. In the reformulations, nominalisations were transformed into verbal structures. Reformulations did not lead to increased processing times of verbal constructions but reformulated texts were read faster overall. Where appropriate, results are compared to a previous study of Hansen et al. (2006) using the same texts but other methodology and statistical analysis.
We examine different features and classifiers for the categorization of opinion words into actor and speaker view. To our knowledge, this is the first comprehensive work to address sentiment views on the word level taking into consideration opinion verbs, nouns and adjectives. We consider many high-level features requiring only few labeled training data. A detailed feature analysis produces linguistic insights into the nature of sentiment views. We also examine how far global constraints between different opinion words help to increase classification performance. Finally, we show that our (prior) word-level annotation correlates with contextual sentiment views.
We present an approach to the new task of opinion holder and target extraction on opinion compounds. Opinion compounds (e.g. user rating or victim support) are noun compounds whose head is an opinion noun. We do not only examine features known to be effective for noun compound analysis, such as paraphrases and semantic classes of heads and modifiers, but also propose novel features tailored to this new task. Among them, we examine paraphrases that jointly consider holders and targets, a verb detour in which noun heads are replaced by related verbs, a global head constraint allowing inferencing between different compounds, and the categorization of the sentiment view that the head conveys.
In this paper, we present a GOLD standard of part-of-speech tagged transcripts of spoken German. The GOLD standard data consists of four annotation layers – transcription (modified orthography), normalization (standard orthography), lemmatization and POS tags – all of which have undergone careful manual quality control. It comes with guidelines for the manual POS annotation of transcripts of German spoken data and an extended version of the STTS (Stuttgart Tübingen Tagset) which accounts for phenomena typically found in spontaneous spoken German. The GOLD standard was developed on the basis of the Research and Teaching Corpus of Spoken German, FOLK, and is, to our knowledge, the first such dataset based on a wide variety of spontaneous and authentic interaction types. It can be used as a basis for further development of language technology and corpus linguistic applications for German spoken language.
Lexikalisch-semantische Graduonymie. Eine empirisch basierte Arbeit zur lexikalischen Semantik
(2016)
Diese Arbeit befasst sich mit der Problematik gradueller Bedeutungsbeziehungen in der Sprache. Sie verfolgt das Ziel, die aufgrund der graduellen Opposition in Paradigmen formierten Wörter als eigenständigen Relationstyp der lexikalischen Semantik zu unterscheiden, ihn theoretisch herauszuarbeiten und empirisch zu fundieren. Diese Relation wird analog der terminologischen Tradition der "-nymie"-Relationen als Graduonymie bezeichnet. Mit verschiedenen empirischen Methoden wie der webbasierten Sprecherbefragung, Korpusanalysen, systematischen Tests und Kontrastierung mit dem Usbekischen werden die Validität und Stabilität der Daten überprüft und somit Erkenntnisse zum Phänomen der Graduonymie gewonnen. Dies bildet den Kernpunkt der Untersuchung. Dabei werden unterschiedliche Aspekte der Graduonymie betrachtet und analysiert. Der Vergleich der Methoden eröffnet neue Perspektiven auf die semantischen Relationen, die Vorgehensweise hat sich methodisch als erfolgreich erwiesen. Die Ergebnisse der Arbeit erbringen interessante Einsichten nicht nur in den Phänomenbereich der Graduonymie, sondern ergänzen den aktuellen Stand der lexikalischen Semantik sowohl in theoretischer Hinsicht als auch durch die methodenpluralistische Behandlung semantischer Relationen.
The aim of this study is to select and formulate criteria for the assessment of tools and exercises that are using computer-assisted pronunciation training (CAPT). We examined ten different CAPT tools selected on the basis of an informal questionnaire among 10 colleagues working in a German-French CAPT project. Although the applied assessment must still be regarded as informal, and although the selected CAPT tools might not be an optimal sample for representing the state of the art, the results clearly show that there is a lot to improve regarding the clarity of instruction, the quality of exercises, the robustness of the diagnosis, the clarity and appropriateness of scoring, the diversity of feedback methods, the assumed benefit for various types of users as well as the usage of ASR. Despite various good approaches regarding graphics and game-like exercises there are obviously missing links between the pedagogical expertise in phonetic training on the one hand, and software development including usability engineering on the other.
The IFCASL corpus is a French-German bilingual phonetic learner corpus designed, recorded and annotated in a project on individualized feedback in computer-assisted spoken language learning. The motivation for setting up this corpus was that there is no phonetically annotated and segmented corpus for this language pair of comparable of size and coverage. In contrast to most learner corpora, the IFCASL corpus incorporate data for a language pair in both directions, i.e. in our case French learners of German, and German learners of French. In addition, the corpus is complemented by two sub-corpora of native speech by the same speakers. The corpus provides spoken data by about 100 speakers with comparable productions, annotated and segmented on the word and the phone level, with more than 50% manually corrected data. The paper reports on inter-annotator agreement and the optimization of the acoustic models for forced speech-text alignment in exercises for computer-assisted pronunciation training. Example studies based on the corpus data with a phonetic focus include topics such as the realization of /h/ and glottal stop, final devoicing of obstruents, vowel quantity and quality, pitch range, and tempo.
The Component MetaData Infrastructure (CMDI) is the dominant framework for describing language resources according to ISO 24622 (ISO/TC 37/SC 4, 2015). Within the CLARIN world, CMDI has become a huge success. The Virtual Language Observatory (VLO) now holds over 800.000 resources, all described with CMDI-based metadata. With the metadata being harvested from about thirty centres, there is a considerable amount of heterogeneity in the data. In part, there is some use of controlled vocabularies to keep data heterogeneity in check, say when describing the type of a resource, or the country the resource is originating from. However, when CMDI data refers to the names of persons or organisations, strings are used in a rather uncontrolled manner. Here, the CMDI community can learn from libraries and archives who maintain standardised lists for all kinds of names. In this paper, we advocate the use of freely available authority files that support the unique identification of persons, organisations, and more. The systematic use of authority records enhances the quality of the metadata, hence improves the faceted browsing experience in the VLO, and also prepares the sharing of CMDI-based metadata with the data in library catalogues.
The Component MetaData Infrastructure (CMDI) provides a lego-brick framework for the creation, use and re-use of self-defined metadata formats. The design of CMDI can be a force forgood, but history shows that it has often been misunderstood or badly executed. Consequently,it has led the community towards the dark ages of metadata clutter rather than the bright side of semantic interoperability. In this abstract, we report on the condition of CMDI but also outlinean agenda to make the CMDI world a better place to use, share and profit from metadata.
Der Aufsatz knüpft an die Diskussion zur Verwendung von formalen grammatischen Kategorien im Sprachvergleich an (vgl. insbesondere Haspelmath 2007, 2010a, b und Newmeyer 2007, 2010). Es wird dabei nicht danach gefragt, ob sprachübergreifende grammatische Kategorien (oder genauer gesagt Kategorienausprägungen) existieren oder nicht bzw. ob einzelsprachliche grammatische Kategorien im Sprachvergleich sinnvoll einsetzbar sind, sondern wie ähnlich bzw. unterschiedlich einzelsprachliche Kategorien bzw. Kategorisierungen sind. Das Ziel ist damit, eine Methode zur Messung des Äquivalenzgrades von grammatischen Kategorien in verschiedenen Sprachen zu präsentieren; dies wird am Beispiel des IMPERATIVS im Deutschen, Englischen, Polnischen und Tschechischen illustriert.
Der Begriff der „Gattung“ wird in der Soziologie und der Sprachwissenschaft als Sammelbegriff für verfestigte, (sprachlich) ähnliche Muster mit repetitiver Frequenz zur Lösung verwandter kommunikativer Probleme gefasst (z.B. unterschiedliche moralische Gattungen, vgl. Bergmann/Luckmann (Hg.) 1999). Wenig Aufmerksamkeit wurde bislang den Gemeinsamkeiten und Unterschieden – also den Abgrenzungsmöglichkeiten – von prototypischen zu weniger prototypischen Vertretern einzelner Gattungsfamilien zuteil. Im vorliegenden Beitrag beschreiben wir anhand von authentischen Daten die sogenannten „Gassigespräche“ als spontane Kommunikation des Alltags von Hundebesitzer/innen. Außerhalb der Sprachwissenschaft werden diese primär als Hyponym des Hyperonyms „Small Talk“ subsumiert. Wir versuchen zunächst unter gattungsanalytischen Gesichtspunkten die obligatorischen und fakultativen Einheiten um ein – sofern es denn überhaupt existiert – prototypisches Zentrum von Small-Talk zu gruppieren. Anhand eines paradigmatischen Falls beschreiben wir Gemeinsamkeiten und Unterschiede in Bezug auf andere Gattungen, die sich im Spektrum der Alltagsgespräche – oder auch darüber hinaus – ansiedeln. Wir plädieren in der Diskussion dafür, Gattungsfamilien als mehr oder weniger verfestigte Muster mit teils wiederkehrenden Merkmalen zu sehen, die ihre Eigenschaften in Form und Funktion teilen können.
Die Mensch-Tier-Interaktion wird aus linguistischer Perspektive bislang hauptsächlich im Bereich des phatic talk angesiedelt. Meist werden ihr Funktionen zur Kontroll- oder Aufmerksamkeitssicherung des Hundes (Mitchell 2001) zugeschrieben. Als soziale Praxis innerhalb alltäglicher spontaner Kurzgespräche zwischen HundehalterInnen bietet die Mensch-Hund-Interaktion jedoch ein Repertoire innerhalb des kommunikativen Haushalts, mit dem spezifische, rekurrent auftretende kommunikative Aufgaben gelöst werden können. Dieser Beitrag betrachtet unter gesprächsanalytischen Gesichtspunkten dieses funktionale Spektrum mit besonderem Fokus auf das Adressierungsverhalten. Zunächst wird der bisherige Forschungsstand zu Adressierungsverhalten in natürlichen Gesprächen sowie zur Mensch-Tier- Interaktion beleuchtet. Anschließend werden konkrete Interaktionssequenzen innerhalb von Gassigesprächen analysiert, um herauszuarbeiten, welche interaktiven Funktionen das Sprechen mit dem Tier haben kann.
The compilation of terminological vocabularies plays a central role in the organization and retrieval of scientific texts. Both simple keyword lists as well as sophisticated modellings of relationships between terminological concepts can make a most valuable contribution to the analysis, classification, and finding of appropriate digital documents, either on the Web or within local repositories. This seems especially true for long-established scientific fields with various theoretical and historical branches, such as linguistics, where the use of terminology within documents from different origins is sometimes far from being consistent. In this short paper, we report on the early stages of a project that aims at the re-design of an existing domain-specific KOS for grammatical content grammis. In particular, we deal with the terminological part of grammis and present the state-of-the-art of this online resource as well as the key re-design principles. Further, we propose questions regarding ramifications of the Linked Open Data and Semantic Web approaches for our re-design decisions.
The present paper reports the first results of the compilation and annotation of a blog corpus for German. The main aim of the project is the representation of the blog discourse structure and relations between its elements (blog posts, comments) and participants (bloggers, commentators). The data included in the corpus were manually collected from the scientific blog portal SciLogs. The feature catalogue for the corpus annotation includes three types of information which is directly or indirectly provided in the blog or can be construed by means of statistical analysis or computational tools. At this point, only directly available information (e.g. title of the blog post, name of the blogger etc.) has been annotated. We believe, our blog corpus can be of interest for the general study of blog structure or related research questions as well as for the development of NLP methods and techniques (e.g. for authorship detection).
Der Beitrag fasst die Schritte einer Projektvorstellung und aktuelle Reflexionen über ein am Institut für Deutsche Sprache in Mannheim neues, korpusgestütztes Paronymwörterbuch zusammen. Zunächst wird der Begriff der Paronymie in einer Arbeitsdefinition eingegrenzt und es wird gezeigt, welche Lücke mit dem neuen Werk in der Wörterbuchlandschaft geschlossen wird. Im Anschluss werden ausgewählte methodische Aspekte sowie Fragen der Wortartikelinhalte und -präsentation skizziert.
Sense relations
(2016)
Präposition-Substantiv-Verbindungen mit rekurrentem Nullartikel in adverbialer Verwendung – z.B. nach Belieben, auf Knopfdruck, ohne Ende oder bei Nacht – sind ein in der Mehrwortforschung bisher eher vernachlässigter Typ. Sie sind Untersuchungsgegenstand des laufenden Forschungsprojekts „Präpositionale Wortverbindungen kontrastiv“ (beteiligte Institutionen: IDS Mannheim, Universität Santiago de Compostela, Universität Trnava), in das wir in unserem Vortrag einen Einblick vermitteln. Es wird skizziert, wie sich solche Wortverbindungen sowie abstraktere präpositionale Wortverbindungsmuster vom Typ [in + SUBX-Zeit(en) (z.B. in Echtzeit, in Krisenzeiten) aus kontrastiver Sicht (Deutsch – Spanisch – Slowakisch) korpusbasiert untersuchen und lexikografisch beschreiben lassen. Von großem Interesse – gerade auch für Fremdsprachenlerner – sind dabei insbesondere die semantisch-funktionalen Restriktionen, denen solche Entitäten unterliegen. Basierend auf den theoretischen und empirischen Grundannahmen des am IDS entwickelten Modells „Usuelle Wortverbindungen“ (vgl. Steyer 2013) werden im Projekt zunächst Kollokations- und Kotextmuster für die binären deutschen Mehrworteinheiten induktiv in sehr großen Korpora ermittelt; im Anschluss werden sie einem systematischen Vergleich mit dem Spanischen und Slowakischen unterzogen. Methodisch greifen wir – in allen drei Sprachen – u.a. auf Kookkurrenzprofile zu den Wortverbindungen sowie auf Slotanalysen zu definierten Suchmustern zurück. Ziel des Projekts ist u.a. die Entwicklung eines neuartigen Prototyps für eine multilinguale Aufbereitung des Untersuchungsgegentands (speziell für Fremdsprachenlerner).
This paper presents our model of ‘MultiWord Patterns’ (MWPs). MWPs are defined as recurrent frozen schemes with fixed lexical components and productive slots that have a holistic – but not necessarily idiomatic – meaning and/or function, sometimes only on an abstract level. These patterns can only be reconstructed with corpus-driven, iterative (qualitative-quantitative) methods. This methodology includes complex phrase searches, collocation analysis that not only detects significant word pairs, but also significant syntagmatic cotext patterns and slot analysis with our UWV Tool. This tool allows us to bundle KWICs in order to detect the nature of lexical fillers for and to visualize MWP hierarchies.
The CELEX database is one of the standard lexical resources for German. It yields a wealth of data especially for phonological and morphological applications. The morphological part comprises deep-structure morphological analyses of German. However, as it was developed in the Nineties, both encoding and spelling are outdated. About one fifth of over 50,000 datasets contain umlauts and signs such as ß. Changes to a modern version cannot be obtained by simple substitution. In this paper, we shortly describe the original content and form of the orthographic and morphological database for German in CELEX. Then we present our work on modernizing the linguistic data. Lemmas and morphological analyses are transferred to a modern standard of encoding by first merging orthographic and morphological information of the lemmas and their entries and then performing a second substitution for the morphs within their morphological analyses. Changes to modern German spelling are performed by substitution rules according to orthographical standards. We show an example of the use of the data for the disambiguation of morphological structures. The discussion describes prospects of future work on this or similar lexicons. The Perl script is publicly available on our website.
Deutsch-russisches Neologismenwörterbuch. Neuer Wortschatz im Deutschen, 1991-2010. Bd. 1 - 2 (A-Z)
(2016)
Dieses Wörterbuch, das auf dem ersten größeren Neologismenwörterbuch für das Deutsche fußt, schließt eine Lücke in der deutsch-russischen Wörterbuchlandschaft: Es präsentiert dem Benutzer den neuen deutschen Wortschatz, den er in anderen Wörterbüchern meist vergeblich sucht. Enthalten sind fast 2000 neue Wörter (z.B. Kletterwald, scrollen), neue feste Wortverbindungen (z.B. etw. in die Tonne treten, der Drops ist gelutscht) und neue Bedeutungen etablierter Wörter (z.B. halbrund, Stolperstein), von denen rund 1350 umfassend lexikografisch beschrieben sind. Die vielen Verknüpfungen zwischen den Stichwörtern ermöglichen Einblicke in die Vernetztheit des neuen Wortschatzes und leisten so einen wichtigen Beitrag für den Wortschatzerwerb.
It is widely assumed that there is a natural, prelinguistic conceptual domain of time whose linguistic organization is universally structured via metaphoric mapping from the lexicon and grammar of space and motion. We challenge this assumption on the basis of our research on the Amondawa (Tupi Kawahib) language and culture of Amazonia. Using both observational data and structured field linguistic tasks, we show that linguistic space-time mapping at the constructional level is not a feature of the Amondawa language, and is not employed by Amondawa speakers (when speaking Amondawa). Amondawa does not recruit its extensive inventory of terms and constructions for spatial motion and location to express temporal relations. Amondawa also lacks a numerically based calendric system. To account for these data, and in opposition to a Universal Space-Time Mapping Hypothesis, we propose a Mediated Mapping Hypothesis, which accords causal importance to the numerical and artefact-based construction of time-based (as opposed to event-based) time interval systems.
Weihnachten erzählen
(2016)
In this paper, we describe preliminary results from an ongoing experiment wherein we classify two large unstructured text corpora—a web corpus and a newspaper corpus—by topic domain (or subject area). Our primary goal is to develop a method that allows for the reliable annotation of large crawled web corpora with meta data required by many corpus linguists. We are especially interested in designing an annotation scheme whose categories are both intuitively interpretable by linguists and firmly rooted in the distribution of lexical material in the documents. Since we use data from a web corpus and a more traditional corpus, we also contribute to the important field of corpus comparison and corpus evaluation. Technically, we use (unsupervised) topic modeling to automatically induce topic distributions over gold standard corpora that were manually annotated for 13 coarse-grained topic domains. In a second step, we apply supervised machine learning to learn the manually annotated topic domains using the previously induced topics as features. We achieve around 70% accuracy in 10-fold cross validations. An analysis of the errors clearly indicates, however, that a revised classification scheme and larger gold standard corpora will likely lead to a substantial increase in accuracy.
The article investigates the ways in which organic-medical metaphors were used to set the boundary of discourse between the economy and politics. The successful establishment of organic-medical metaphors for the economy is mainly explained by their connectivity to different political views. Concepts such as ‘Wirtschaftsleben’ or perceptions of the economy as an ‘organism’ laid the foundation for diagnosing sick or healthy conditions. From the end of the 19th to beyond the mid-20th century typical statements illustrate that the use of such metaphors supported the naturalization and stabilization of the boundary-setting discourse, insofar as it seemed natural that the relation between the two spheres should be formulated in terms of health and disease. Within liberal economic discourse in particular, politics was on the one hand targeted as a potential cause for economic disease, while on the other, it was claimed that politics had the task of keeping economic forces healthy.
This paper is about the workflow for construction and dissemination of FOLK (Forschungs - und Lehrkorpus Gesprochenes Deutsch – Research and Teaching Corpus of Spoken German), a large corpus of authentic spoken interaction data, recorded on audio and video. Section 2 describes in detail the tools used in the individual steps of transcription, anonymization, orthographic normalization, lemmatization and POS tagging of the data, as well as some utilities used for corpus management. Section 3 deals with the DGD (Datenbank für Gesprochenes Deutsch - Database of Spoken German) as a tool for distributing completed data sets and making them available for qualitative and quantitative analysis. In section 4, some plans for further development are sketched.
Die Preußische Akademie der Wissenschaften zu Berlin hat im Jahr 1906 auf Bitte der deutschen Regierung die Verantwortung für die Arbeiten zur Vollendung des Deutschen Wörterbuchs von Jacob Grimm und Wilhelm Grimm übernommen. Im Jahr 1929/30 hat sie die Berliner Arbeitsstelle gegründet. Nach dem Zweiten Weltkrieg wurde dieses lexikographische Grundlagenwerk in den Jahrzehnten der Spaltung Deutschlands, aber in enger Gemeinschaft einer Berliner und einer Göttinger Arbeitsstelle zum Abschluss gebracht. Schon in den fünfziger Jahren entschlossen sich die Akademien in Berlin und Göttingen, „zunächst“ die völlige Neubearbeitung der ältesten Teile des Werks, die die Brüder Grimm zwischen 1852 und 1863 noch selbst erarbeitet hatten, vorzunehmen. Diese Neubearbeitung ist inzwischen nahezu abgeschlossen. Umso deutlicher zeigt sich aber nun, dass auch die übrigen Teile dringend der Neubearbeitung bedürfen. Das Jahrhundertwerk der Brüder Grimm, ihre wichtigste gemeinsame sprachwissenschaftliche Leistung, heute in der ganzen Welt täglich von Tausenden im Internet benutzt, Fundament der gesamten neueren deutschen Wortforschung, kann seine Aufgabe nur erfüllen, wenn es nicht als Museumsstück bewundert, sondern in gründlich erneuerter Form als aktuelles Auskunftsmittel fortgeführt wird. In dieser Situation war die Schließung der Berliner Arbeitsstelle im Dezember 2012 das falsche Signal.
Laudatio auf Damaris Nübling
(2016)
Im Verlauf der Geschehnisse in der arabischen Welt seit 2011 gewann der Begriff Arabischer Frühling an Bedeutung und avancierte zum Leitausdruck des Diskurses. Der Beitrag geht den Fragen nach, wie der Begriff Arabischer Frühling in der deutschsprachigen Öffentlichkeit sprachlich realisiert, mit welchen sprachlichen Mitteln er konstruiert und mit welchen Ereignissen – zuweilen auch Katastrophen – er identifiziert wurde bzw. wird. Dabei wird auf die symbolische Funktion des Frühlings sowohl aus historischer Perspektive der Vormärzzeit als auch aus heutiger Sicht eingegangen. Im Blickfeld der Untersuchung stehen darüber hinaus die Jahreszeitenbezeichnungen Winter, Herbst und Sommer und ihr symbolisches Verhältnis zu den arabischen Revolutionen.
Overview of the IGGSA 2016 Shared Task on Source and Target Extraction from Political Speeches
(2016)
We present the second iteration of IGGSA’s Shared Task on Sentiment Analysis for German. It resumes the STEPS task of IGGSA’s 2014 evaluation campaign: Source, Subjective Expression and Target Extraction from Political Speeches. As before, the task is focused on fine-grained sentiment analysis, extracting sources and targets with their associated subjective expressions from a corpus of speeches given in the Swiss parliament. The second iteration exhibits some differences, however; mainly the use of an adjudicated gold standard and the availability of training data. The shared task had 2 participants submitting 7 runs for the full task and 3 runs for each of the subtasks. We evaluate the results and compare them to the baselines provided by the previous iteration. The shared task homepage can be found at http://iggsasharedtask2016.github.io/.
Sentiment analysis has so far focused on the detection of explicit opinions. However, of late implicit opinions have received broader attention, the key idea being that the evaluation of an event type by a speaker depends on how the participants in the event are valued and how the event itself affects the participants. We present an annotation scheme for adding relevant information, couched in terms of so-called effect functors, to German lexical items. Our scheme synthesizes and extends previous proposals. We report on an inter-annotator agreement study. We also present results of a crowdsourcing experiment to test the utility of some known and some new functors for opinion inference where, unlike in previous work, subjects are asked to reason from event evaluation to participant evaluation.
There is increasing interest in recognizing opinion inferences in addition to expressions of explicit sentiment. While different formalisms for representing inferential mechanisms are being developed and lexical resources are being built alongside, we here address the need for deeper investigation of the robustness of various aspects of opinion inference, performing crowdsourcing experiments with constructed stimuli as well as a corpus study of attested data.
Annotating Discourse Relations in Spoken Language: A Comparison of the PDTB and CCR Frameworks
(2016)
In discourse relation annotation, there is currently a variety of different frameworks being used, and most of them have been developed and employed mostly on written data. This raises a number of questions regarding interoperability of discourse relation annotation schemes, as well as regarding differences in discourse annotation for written vs. spoken domains. In this paper, we describe ouron annotating two spoken domains from the SPICE Ireland corpus (telephone conversations and broadcast interviews) according todifferent discourse annotation schemes, PDTB 3.0 and CCR. We show that annotations in the two schemes can largely be mappedone another, and discuss differences in operationalisations of discourse relation schemes which present a challenge to automatic mapping. We also observe systematic differences in the prevalence of implicit discourse relations in spoken data compared to written texts,find that there are also differences in the types of causal relations between the domains. Finally, we find that PDTB 3.0 addresses many shortcomings of PDTB 2.0 wrt. the annotation of spoken discourse, and suggest further extensions. The new corpus has roughly theof the CoNLL 2015 Shared Task test set, and we hence hope that it will be a valuable resource for the evaluation of automatic discourse relation labellers.
Der vorliegende Aufsatz untersucht die Syntax und Semantik sogenannter Postponierer, d.h. konjunktionaler Konnektoren, die den von ihnen eingeleiteten Nebensatz dem Hauptsatz stets nachstellen. Anhand von sodass und zumal werden die Kerneigenschaften solcher Konnektoren im Deutschen vorgestellt. Am Beispiel der italienischen Konjunktionen cosicché, tanto più che und perché wird diskutiert, ob der Begriff des Postponierers für den Sprachvergleich genutzt werden kann. In einem nächsten Schritt werden die Postponierer des Deutschen unter Beiziehung sprachgeschichtlicher Argumente präziser beschrieben und im Übergangsfeld zwischen Adverbkonnektoren und Subjunktoren verortet. Es zeigt sich, dass die untersuchten Konnektoren sich letztlich sehr unterschiedlich verhalten, sodass es fraglich erscheint, ob ihre Zusammenfassung zu einer gemeinsamen Klasse gerechtfertigt ist.
Evaluation of Phonatory Behavior of German and French Speakers in Native and Non-native Speech
(2016)
Phonatory behavior of German speakers (GS) and French speakers (FS) in native (L1) and non-native (L2) speech was instrumentally examined. Vowel productions of the two groups were analyzed using a parametrization of phonatory behaviour and phonatory quality properties in the acoustic signal. The behavior of GS is characterized by more strained adduction of the vocal folds whereas FS show more incomplete glottal closure. Furthermore, GS change their phonatory behavior in the foreign language (=French) by adapting phonatory strategies of FS, whereas FS do not show this tendency. In addition, German beginners (BEG) and partly German advanced learners (ADV) are already orientated on production characteristics of the L2. French BEG however retain their phonatory behavior in L2 (=German) by showing less vocal fold adduction in comparison to their L1. French ADV show the opposite behavior. Finally, ADV of the two speaker groups generally show more strained behavior in L2 productions than BEG. The results provide evidence that GS and FS apply different laryngeal phonatory settings and that they altered their settings in L2 differently. Perceptual evaluation of voice quality of the speech material and a correlation analysis between acoustic and perceptual results are suggested for future research.
There have been several attempts to annotate communicative functions to utterances of verbal feedback in English previously. Here, we suggest an annotation scheme for verbal and non-verbal feedback utterances in French including the categories base, attitude, previous and visual. The data comprises conversations, maptasks and negotiations from which we extracted ca. 13,000 candidate feedback utterances and gestures. 12 students were recruited for the annotation campaign of ca. 9,500 instances. Each instance was annotated by between 2 and 7 raters. The evaluation of the annotation agreement resulted in an average best-pair kappa of 0.6. While the base category with the values acknowledgement, evaluation, answer, elicit and other achieves good agreement, this is not the case for the other main categories. The data sets, which also include automatic extractions of lexical, positional and acoustic features, are freely available and will further be used for machine learning classification experiments to analyse the form-function relationship of feedback.
Profit cumulat summierter Gewinn: wirtschaftssprachliche Kollokationen im Rumänischen und Deutschen
(2016)
Dieser Band ist ein sprachvergleichender Beitrag zur Kollokationsforschung. Exemplarisch wurden 3022 Kombinationen von 116 rumänischen Termini der Wirtschaftssprache exzerpiert, mit deutschen Kombinationen parallelisiert und statistisch ausgewertet. Eine Auswahl der auf dieser Basis gewonnenen rumänischen Kollokationen und deren deutsche Äquivalente wurden en detail linguistisch analysiert. Im Mittelpunkt standen dabei gemeinsprachliche Verben in fachsprachlichen Kollokationen.
Comparaison de deux marqueurs d’affirmation dans des séquences de co-construction: voilà et genau
(2016)
This contribution investigates the German response particle genau and the French response particle voilà within collaborative turn sequences in videotaped ordinary conversations. Adopting a conversation analytic approach to cross-linguistic comparison, I will show that the basic epistemic value of both particles allows them to be used in similar sequential environments. When a co-participant formulates a candidate conclusion in environments where it can be easily inferred from previous talk, first speakers may confirm the adequacy of the pre-emptive completion by voilà or genau. These particles may then also be followed by self- or other-repeats. The analyses aim to illustrate that participants rely on a variety of practices in order to positively assess a pre-emptive completion, and to refute a supposed binary opposition of refusal vs. acceptance in the receipt slot.
Zweisprachige Neologismenwörterbücher, die den neuen Wortschatz der Ausgangssprache eines bestimmten Zeitraumes erfassen und Bedeutungserklärungen und/oder Äquivalente in der Zielsprache anbieten, können dem Deutschlerner beim Sprachenerwerb eine große Hilfe sein. Sie präsentieren den Wortschatz, der in zweisprachigen Gesamtwörterbüchern in der Regel noch nicht erfasst ist, und unterstützen damit den Lerner bei der Textrezeption. Auch für die Textproduktion sind sie geeignet, wenn der Darstellung von Bedeutung und Gebrauch angemessen Raum gegeben wird. Diese Möglichkeiten werden am Beispiel des Deutsch-russischen Neologismenwörterbuches erläutert. Das Wörterbuch umfasst den Zeitraum 1991 – 2010. Es ist mit seinen knapp 2000 Stichwörtern für den neuen Wortschatz im Deutschen primär als passives Wörterbuch angelegt, d.h. es richtet sich in erster Linie an deutschlernende bzw. -beherrschende russischsprachige Benutzer. Es bietet zwei Vorteile: Zum einen finden die Benutzer hier den neuen Wortschatz, den sie in allgemeinen zweisprachigen Wörterbüchern in der Regel vergeblich suchen. Zum anderen ist dem allgemein großen Informationsbedarf durch eine explizite Beschreibung Rechnung getragen, weil das Platzangebot hier aufgrund der – im Vergleich zu einem allgemeinsprachlichen Gesamtwörterbuch – geringeren Stichwortzahl relativ großzügig bemessen ist. Die Spezifika des Wortartikelaufbaus, die auch durch den besonderen Charakter des zweisprachigen Neologismenwörterbuches bestimmt sind, werden näher erläutert. Die Autoren haben die Erwartung, dass das zweisprachige Neologismenwörterbuch bei den Deutschlernern den Wunsch weckt, Neues im deutschen Wortschatz nachzuschlagen, und dass es dazu beiträgt, die interkulturelle Kompetenz zu fördern.
When translating narrative texts from French into German, translators mostly choose the German simple tense “Präteritum” as an equivalent for French simple tenses and the German perfect tense “Plusquamperfekt” as an equivalent for French perfect tenses. There are common cases
however when the translator expresses anteriority where French is underspecified. On the other hand, sometimes the translator (or the editor) decides not to express anteriority by a verb tense
even if there is a perfect tense in the French source text. This is the surprising result of this study based on a small corpus of contemporary novel translations.
Gegenstand dieser Arbeit sind syntagmatische Verwendungsmuster in einsprachigen deutschen Wörterbüchern. Es wurden zehn einsprachige deutsche Wörterbücher (darunter Allgemeine Bedeutungswörterbücher, Lernerwörterbücher und auf Syntagmen fokussierte Spezialwörterbücher) und die darin befindlichen syntagmatischen Verwendungsmuster untersucht. Dabei wurde der Frage nachgegangen, wie in einsprachigen deutschen Wörterbüchern der syntagmatische Kontext eines Wortes berücksichtigt und in lexikografischer Hinsicht umgesetzt wird. Die typografischen Besonderheiten von jedem untersuchten Werk – gedruckt wie online publiziert – wurden herausgearbeitet. Dies wurde anhand von Syntagmen aus 30 Wortartikeln, die den Wortarten Nomen, Verben und Adjektive zugeordnet sind, systematisch beleuchtet.
The Online Bibliography of Electronic Lexicography (OBELEXmeta) is a bibliographic database which is developed for researchers working in the field of dictionary research. The platform is hosted at the Institute for the German Language (Institut für Deutsche Sprache, IDS) in Mannheim. The poster presentation aims at presenting the current status of the ongoing project.
This thesis investigates temporal and aspectual reference in the typologically unrelated African languages Hausa (Chadic, Afro–Asiatic) and Medumba (Grassfields Bantu). It argues that Hausa is a genuinely tenseless language and compares the interpretation of temporally unmarked sentences in Hausa to that of morphologically tenseless sentences in Medumba, where tense marking is optional and graded. The empirical behavior of the optional temporal morphemes in Medumba motivates an analysis as existential quantifiers over times and thus provides new evidence suggesting that languages vary in whether their (past) tense is pronominal or quantificational (see also Sharvit 2014). The thesis proposes for both Hausa and Medumba that the alleged future tense marker is a modal element that obligatorily combines with a prospective future shifter (which is covert in Medumba). Cross-linguistic variation in whether or not a future marker is compatible with non-future interpretation is proposed to be predictable from the aspectual architecture of the given language.
Languages vary in whether or not their future markers are compatible with non-future modal readings (Tonhauser, 2011b). The present paper proposes that this Variation is determined by the aspectual architecture of a given language, more precisely if and how aspects can be stacked. Building on recent accounts of the temporal interpretation of modals (Matthewson, 2012, 2013; Kratzer, 2012; Chen et al., ta), the paper first sketches an analysis of the temporal readings of the English future marker will and then provides cross-linguistic comparison with a selected, typologically diverse set of languages (Medumba, Hausa, Gitksan, and Greek).
This thesis investigates temporal and aspectual reference in the typologically unrelated African languages Hausa (Chadic, Afro–Asiatic) and Medumba (Grassfields Bantu).
It argues that Hausa is a genuinely tenseless language and compares the interpretation of temporally unmarked sentences in Hausa to that of morphologically tenseless sentences in Medumba, where tense marking is optional and graded.
The empirical behavior of the optional temporal morphemes in Medumba motivates an analysis as existential quantifiers over times and thus provides new evidence suggesting that languages vary in whether their (past) tense is pronominal or quantificational (see also Sharvit 2014).
The thesis proposes for both Hausa and Medumba that the alleged future tense marker is a modal element that obligatorily combines with a prospective future shifter (which is covert in Medumba). Cross-linguistic variation in whether or not a future marker is compatible with non-future interpretation is proposed to be predictable from the aspectual architecture of the given language.
Dieser Aufsatz präsentiert Ergebnisse, die im Rahmen des binationalen Forschungsprojekts SDiv erarbeitet wurden 1. Im vorliegenden Text mit seinem Schwerpunkt auf den Textsorten innerhalb des Korpus Öffentliche Bekanntmachungen geht es im ersten Schritt um die Bestimmung der kommunikativen Merkmale, den historischen Rahmen, die quantitative Verteilung der Textsorten sowie ihre Klassifikation innerhalb des betreffenden Korpus 2. Im zweiten Schritt wird eine Analyse der sprachlichen Strukturen und Routinen durchgeführt. Das Ziel der textlinguistischen Analyse ist die Rekonstruktion der „Kommunikationsbedürfnisse und Kommunikationsbedingungen“ (Mattheier, 1998: 4), so wie sie im Zusammenhang mit den Öffentlichen Bekanntmachungen im 19. Jh. wirksam gewesen sind. Textsorten und Textsortengeschichte(n) haben den Vorzug, dass sie als „Schaltstellen zwischen Geschichte der Sprache und der Geschichte der Sprachgemeinschaft“ (Mattheier, 1998: 4) fungieren können, insofern leistet die hier realisierte Studie zu den Textsorten innerhalb der Öffentlichen Bekanntmachungen auch einen Beitrag zur Geschichte des Deutschen sowie zur Sozialgeschichte der mehrsprachigen Sprecher des Deutschen in Luxemburg. Der nachfolgende Aufsatz gliedert sich in sechs Abschnitte: 1. Einleitung, 2. Historischer Rahmen, 3. Korpus, 4. Theoretische Einbettung, 5. Sprachexterne Faktoren, 6. Sprachinterne Faktoren (z. B. grammatische Merkmale) sowie 7. Bilanz
The wdlpOst dictionary writing system to be presented in this paper has been developed for the specific purposes of a lexicographical project on German loanwords in the East Slavic languages Russian, Belarusian, and Ukrainian. The project’s main objectives are (i) to document those loanwords for which a cognate lexical borrowing from German is known in Polish and (ii) to establish possible borrowing pathways for these lexical items. In the first phase of the project, the collaborative client/server architecture of the wdlpOst system has been used for excerpting detailed lexicographical information from a large range of historical and contemporary East Slavic dictionaries, taking the entries in a large dictionary of German loanwords in Polish as a common frame of reference. For the project’s second phase, the wdlpOst system provides innovative tooling for compiling entries of the East Slavic loanwords. Most importantly, the numerous word sense definitions for a set of cognate loanwords, as excerpted from different lexicographical sources, are mapped onto a system of newly defined cross-language word senses; in a similar vein, the phonemic and graphemic variation in the loanwords and their derivatives is captured through a tool that abstracts from dictionary-specific idiosyncrasies.
Emissionsverben und Argumentstrukturmuster. Empirie und lexikographische Kodifizierung im DaF-Umfeld
(2016)
Der Beitrag beschäftigt sich mit einigen Emissionsverben (EV) und ihrer lexikographischen Kodifizierung. Anhand von empirischen Daten aus dem deutschen Referenzkorpus DEREKO sollen die unterschiedlichen Argumentstrukturmuster (ASTRM) und Argumentrealisierungsmuster (ARM) dieser Verben genauer untersucht und ihre entsprechende lexikographische Kodifizierung sowohl in zwei allgemeinsprachlichen Wörterbüchern (AWB) des Deutschen als auch in drei einsprachigen Lernerwörterbüchern (LWB) für DaF überprüft werden. Von Interesse sind im besonderen Maße die Fragen, ob die ausgewählten Wörterbücher (WB) den empirisch belegten Sprachgebrauch kodifizieren und welche der lexikographischen Funktionen (Sprachdokumentation, Sprachkonsultation u.a. für das Umfeld Deutsch als Fremdsprache) sie erfüllen.
Dieser Beitrag fasst die wesentlichen Aussagen und Ergebnisse eines Workshops zusammen, der sieben Perspektiven auf die Untersuchung der Rolle des Deutschen im öffentlichen Raum zusammengebracht hat. Einige der vorgestellten Studien folgten dem seit Beginn der 2000er Jahre rasant an Popularität gewonnenen Ansatz der ‚Linguistic Landscapes‘. In anderen Beiträgen standen praktische Überlegungen zum Suchen von Beispielen der deutschen Sprache im Mittelpunkt, um diese im Kontext von DaF und Auslandsgermanistik sowie der Werbung für die deutsche Sprache einzusetzen. Ziel des Workshops war es, Gemeinsamkeiten und Perspektiven von diesen unter dem Schlagwort ‚Spot German‘ verorteten Studien mit der Linguistic Landscape-Tradition zu eruieren. Länder, aus denen Studien vorgestellt wurden, waren Estland, Lettland, Dänemark, Tschechien, Deutschland, Zypern und Malta.
Ob es um die Rechtschreibreform geht, um Anglizismen im Deutschen oder um den Umgang mit Migranten- oder Minderheitensprachen - Debatten und Meinungen zu Sprache(n) und Sprachformen sind Teil unseres Alltages. Dass Sprache auch Gegenstand der Politik ist, also Sprache und das Verhältnis von Sprachen in der Gesellschaft bewusst oder unbewusst gesteuert werden, wird dagegen in deutschsprachigen Kontexten eher selten thematisiert. Diese Einführung gibt einen Überblick über Ansätze, Praktiken, Theorien und Perspektiven auf wichtige Bereiche der Sprach(en)politik. Der erste Teil erläutert den theoretischen Hintergrund, der zweite Teil stellt eine Reihe von Ländern vor, die beispielhaft für wichtige Ansätze der sprachpolitischen Praxis stehen, aber auch nach ihrer Bedeutung für die größten philologischen Fächer (Germanistik, Anglistik, Romanistik) ausgewählt wurden. Damit liegt die erste systematische deutschsprachige Einführung in ein Thema vor, das international seit langem ein großes Maß an Aufmerksamkeit erhält. Sie richtet sich an Studierende und Lehrende sprachwissenschaftlicher Fächer und Nachbardisziplinen ebenso wie an Akteure der sprachpolitischen Praxis.
Zum Geleit
(2016)
Dieser Band ist in mehrerlei Hinsicht außergewöhnlich. Einerseits ist er die diesjährige und damit 21. Ausgabe des seit 1994 erscheinenden Jahrbuches Triangulum und steht damit in der Tradition, der Germanistik im Baltikum ein Sprachrohr zu geben. Im Gegensatz zu früheren Jahren ist dieser Band jedoch noch viel mehr: Als Dokumentation des 10. Nordisch-Baltischen Germanistentreffens (NBGT), das vom 10. bis zum 13. Juni 2015 von der Germanistik der Universität Tallinn ausgerichtet wurde, bündelt er eine Vielzahl der Vorträge, die im Rahmen der Tagung gehalten wurden.
This paper presents C-WEP, the Collection of Writing Errors by Professionals Writers of German. It currently consists of 245 sentences with grammatical errors. All sentences are taken from published texts. All authors are professional writers with high skill levels with respect to German, the genres, and the topics. The purpose of this collection is to provide seeds for more sophisticated writing support tools as only a very small proportion of those errors can be detected by state-of-the-art checkers. C-WEP is annotated on various levels and freely available.
Sprache ist in der Psychotherapie nicht nur Verständigungsmittel, sondern zugleich diagnostisches und therapeutisches Instrument, und therapeutische Fragen sind dabei ein zentraler Handlungstyp. Welche Typen von Fragen vorkommen und welche Funktionen sie für das diagnostische und therapeutische Handeln haben, ist hier Gegenstand einer linguistisch-gesprächsanalytischen Untersuchung. Den Forschungskontext bildet eine Kooperation von Psychotherapeuten und Linguisten zur Weiterentwicklung von Theorie und Praxis der psychotherapeutischen Anamneseerhebung.
We introduce our pipeline to integrate CMC and SM corpora into the CLARIN-D corpus infrastructure. The pipeline was developed by transforming an existing CMC corpus, the Dortmund Chat Corpus, into a resource conforming to current technical and legal standards. We describe how the resource has been prepared and restructured in terms of TEI encoding, linguistic annotations, and anonymisation. The output is a CLARIN-conformant resource integrated in the CLARIN-D research infrastructure.
We present the IUCL system, based on supervised learning, for the shared task on stance detection. Our official submission, the random forest model, reaches a score of 63.60, and is ranked 6th out of 19 teams. We also use gradient boosting decision trees and SVM and merge all classifiers into an ensemble method. Our analysis shows that random forest is good at retrieving minority classes and gradient boosting majority classes. The strengths of different classifiers wrt. precision and recall complement each other in the ensemble.
Unserdeutsch (Rabaul Creole German) ist nach heutigem Kenntnisstand die einzige deutschbasierte Kreolsprache der Welt. Sie entstand zu Beginn des 20. Jahrhunderts an einer katholischen Missionsstation in der damaligen Kolonie Deutsch-Neuguinea im melanesischen Pazifik. Die Sprache selbst und ihre Entstehungsumstände sind in mehrfacher Hinsicht bemerkenswert. Trotzdem wäre die Chance zur Dokumentation und Erforschung von Unserdeutsch beinahe verpasst worden: Nur noch rund 100 Sprecher, alle in fortgeschrittenem Alter, leben heute verstreut in Ostaustralien und Papua-Neuguinea.
Der hier vorliegende Blickpunkt informiert über die Entstehung, Bedeutung, Forschung und Aktualität der Sprache „Unserdeutsch“ im Pazifik.
Constructing a Corpus
(2016)
Smiling individuals are usually perceived more favorably than non-smiling ones—they are judged as happier, more attractive, competent, and friendly. These seemingly clear and obvious consequences of smiling are assumed to be culturally universal, however most of the psychological research is carried out in WEIRD societies (Western, Educated, Industrialized, Rich, and Democratic) and the influence of culture on social perception of nonverbal behavior is still understudied. Here we show that a smiling individual may be judged as less intelligent than the same non-smiling individual in cultures low on the GLOBE’s uncertainty avoidance dimension. Furthermore, we show that corruption at the societal level may undermine the prosocial perception of smiling—in societies with high corruption indicators, trust toward smiling individuals is reduced. This research fosters understanding of the cultural framework surrounding nonverbal communication processes and reveals that in some cultures smiling may lead to negative attributions.
In order to demonstrate why it is important to correctly account for the (serial dependent) structure of temporal data, we document an apparently spectacular relationship between population size and lexical diversity: for five out of seven investigated languages, there is a strong relationship between population size and lexical diversity of the primary language in this country. We show that this relationship is the result of a misspecified model that does not consider the temporal aspect of the data by presenting a similar but nonsensical relationship between the global annual mean sea level and lexical diversity. Given the fact that in the recent past, several studies were published that present surprising links between different economic, cultural, political and (socio-)demographical variables on the one hand and cultural or linguistic characteristics on the other hand, but seem to suffer from exactly this problem, we explain the cause of the misspecification and show that it has profound consequences. We demonstrate how simple transformation of the time series can often solve problems of this type and argue that the evaluation of the plausibility of a relationship is important in this context. We hope that our paper will help both researchers and reviewers to understand why it is important to use special models for the analysis of data with a natural temporal ordering.
This paper explores speakers’ notions of the situational appropriacy of linguistic variants. We conducted a web-based survey in which we collected ratings of the appropriacy of variants of linguistic variables in spoken German. A range of quantitative methods (cluster analysis, factor analysis and various forms of visualization techniques) is applied in order to analyze metalinguistic awareness and the differences in the evaluation of written vs. spoken stimuli. First, our data show that speakers’ ratings of the appropriacy of linguistic variants vary reliably with two rough clusters representing formal and informal speech situations and genres. The findings confirm that speakers adhere to a notion of spoken standard German which takes genre and register-related variation into account. Secondly, our analysis reveals a written language bias: metalinguistic awareness is strongly influenced by the physical mode of the presentation of linguistic items (spoken vs. written).
This thesis consists of the following three papers that all have been published in international peer-reviewed journals:
Chapter 3: Koplenig, Alexander (2015c). The Impact of Lacking Metadata for the Measurement of Cultural and Linguistic Change Using the Google Ngram Data Sets—Reconstructing the Composition of the German Corpus in Times of WWII. Published in: Digital Scholarship in the Humanities. Oxford: Oxford University Press. [doi:10.1093/llc/fqv037]
Chapter 4: Koplenig, Alexander (2015b). Why the quantitative analysis of dia-chronic corpora that does not consider the temporal aspect of time-series can lead to wrong conclusions. Published in: Digital Scholarship in the Humanities. Oxford: Oxford University Press. [doi:10.1093/llc/fqv030]
Chapter 5: Koplenig, Alexander (2015a). Using the parameters of the Zipf–Mandelbrot law to measure diachronic lexical, syntactical and stylistic changes – a large-scale corpus analysis. Published in: Corpus Linguistics and Linguistic Theory. Berlin/Boston: de Gruyter. [doi:10.1515/cllt-2014-0049]
Chapter 1 introduces the topic by describing and discussing several basic concepts relevant to the statistical analysis of corpus linguistic data. Chapter 2 presents a method to analyze diachronic corpus data and a summary of the three publications. Chapters 3 to 5 each represent one of the three publications. All papers are printed in this thesis with the permission of the publishers.
Bericht über die 19. Arbeitstagung zur Gesprächsforschung vom 16. bis 18. März 2016 in Mannheim
(2016)
Bericht über die 19. Arbeitstagung zur Gesprächsforschung vom 16. bis 18. März 2016 in Mannheim
(2016)
This study investigates high vowel laxing in the Louisiana French of the Lafourche Basin. Unlike Canadian French, in which the high vowels /i, y, u/ are traditionally described as undergoing laxing (to [I, Y, U]) in word-final syllables closed by any consonant other than a voiced fricative (see Poliquin 2006), Oukada (1977) states that in the Louisiana French of Lafourche Parish, any coda consonant will trigger high vowel laxing of /i/; he excludes both /y/ and /u/ from his discussion of high vowel laxing. The current study analyzes tokens of /i, y, u/ from pre-recorded interviews with three older male speakers from Terrebonne Parish. We measured the first and second formants and duration for high vowel tokens produced in four phonetic environments, crossing syllable type (open vs. closed) by consonant type (voiced fricative vs. any consonant other than a voiced fricative). Results of the acoustic analysis show optional laxing for /i/ and /y/ and corroborate the finding that high vowels undergo laxing in word-final closed syllables, regardless of consonant type. Data for /u/ show that the results vary widely by speaker, with the dominant pattern (shown by two out of three speakers) that of lowering and backing in the vowel space of closed syllable tokens. Duration data prove inconclusive, likely due to the effects of stress. The formant data published here constitute the first acoustic description of high vowels for any variety of Louisiana French and lay the groundwork for future study on these endangered varieties.
Researchers in Natural Language Processing rely on availability of data and software, ideally under open licenses, but little is done to actively encourage it. In fact, the current Copyright framework grants exclusive rights to authors to copy their works, make them available to the public and make derivative works (such as annotated language corpora). Moreover, in the EU databases are protected against unauthorized extraction and re-utilization of their contents. Therefore, proper public licensing plays a crucial role in providing access to research data. A public license is a license that grants certain rights not to one particular user, but to the general public (everybody). Our article presents a tool that we developed and whose purpose is to assist the user in the licensing process. As software and data should be licensed under different licenses, the tool is composed of two separate parts: Data and Software. The underlying logic as well as elements of the graphic interface are presented below.
In order to develop its full potential, global communication needs linguistic support systems such as Machine Translation (MT). In the past decade, free online MT tools have become available to the general public, and the quality of their output is increasing. However, the use of such tools may entail various legal implications, especially as far as processing of personal data is concerned. This is even more evident if we take into account that their business model is largely based on providing translation in exchange for data, which can subsequently be used to improve the translation model, but also for commercial purposes. The purpose of this paper is to examine how free online MT tools fit in the European data protection framework, harmonised by the EU Data Protection Directive. The perspectives of both the user and the MT service provider are taken into account.
Diese Handreichung stellt die Datenbank für Gesprochenes Deutsch (DGD) und speziell das Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) als Instrumente gesprächsanalytischer Arbeit vor. Nach einem kurzen einführenden Überblick werden anhand des Beispiels "sprich" als Diskursmarker bzw. Reformulierungsindikator Schritt für Schritt die Ressourcen und Tools für systematische korpus- und datenbankgesteuerte Recherchen und Analysen vorgestellt und illustriert.
Diese Handreichung stellt die Datenbank für Gesprochenes Deutsch (DGD) und speziell das Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) als Instrumente gesprächsanalytischer Arbeit vor. Nach einem kurzen einführenden Überblick werden anhand des Beispiels metapragmatischer Modalisierungen mit den Adverbien "sozusagen" und "gewissermaßen" und mit der Formel "in Anführungszeichen/-strichen" Schritt für Schritt die Ressourcen und Tools für systematische korpus- und datenbankgesteuerte Recherchen und Analysen vorgestellt und illustriert.
Diese Handreichung stellt die Datenbank für Gesprochenes Deutsch (DGD) und speziell das Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) als Instrumente gesprächsanalytischer Arbeit vor. Nach einem kurzen einführenden Überblick werden anhand vier verschiedener Beispiele Schritt für Schritt die Ressourcen und Tools für systematische korpus- und datenbankgesteuerte Recherchen und Analysen vorgestellt und illustriert.