Refine
Year of publication
- 2017 (71) (remove)
Document Type
- Article (43)
- Conference Proceeding (17)
- Part of a Book (9)
- Book (2)
Has Fulltext
- yes (71)
Is part of the Bibliography
- yes (71) (remove)
Keywords
- Deutsch (26)
- Korpus <Linguistik> (17)
- Rezension (7)
- Gesprochene Sprache (6)
- Computerlinguistik (4)
- Computerunterstützte Lexikographie (4)
- Konversationsanalyse (4)
- Multimodalität (4)
- Online-Wörterbuch (4)
- Sprachstatistik (4)
Publicationstate
- Veröffentlichungsversion (52)
- Postprint (5)
- Zweitveröffentlichung (4)
Reviewstate
- Peer-Review (71) (remove)
Publisher
Der vorliegende Beitrag beschreibt auf der Basis authentischer Alltagsinteraktionen das Formen- und Funktionsspektrum der äußerungsmodalisierenden Kommen-tarphrase ohne Scheiß im gesprochenen Deutsch. Die Konstruktion wird von Inter-agierenden insbesondere als Ressource zur Steigerung des Geltungsanspruchs einer Bezugsäußerung genutzt, wodurch diese als wahr und/oder ernstgemeint modali-siert wird. Damit leistet ohne Scheiß einen wichtigen Beitrag zur Bearbeitung des Erwartungsmanagements durch den/die SprecherIn sowie zur Herstellung von In-tersubjektivität. Die Konstruktion ist syntaktisch variabel und kann somit Äußerun-gen sowohl prospektiv als auch retraktiv modalisieren. Zudem wird mit der Wahl des Lexem Scheiß ein nähesprachliches Register aktiviert, was in Verbindung mit weiteren (prosodischen und/oder lexikalischen) Elementen zu affektiver Aufladung führen kann. Eine abschließende Darstellung häufiger lexikalischer Kookkurrenz-partner und deren funktionaler Bedeutung sowie ein Abgleich zu intrakonstruktio-nalen Varianten wie ohne Witz/ohne Spaß zeigt die Produktivität der Konstruktion im alltäglichen Sprachgebrauch auf.
In this paper, we will present a first attempt to classify commonly confused words in German by consulting their communicative functions in corpora. Although the use of so-called paronyms causes frequent uncertainties due to similarities in spelling, sound and semantics, up until now the phenomenon has attracted little attention either from the perspective of corpus linguistics or from cognitive linguistics. Existing investigations rely on structuralist models, which do not account for empirical evidence. Still, they have developed an elaborate model based on formal criteria, primarily on word formation (cf. Lăzărescu 1999). Looking from a corpus perspective, such classifications are incompatible with language in use and cognitive elements of misuse.
This article sketches first lexicological insights into a classification model as derived from semantic analyses of written communication. Firstly, a brief description of the project will be provided. Secondly, corpus-assisted paronym detection will be focused. Thirdly, in the main section the paper concerns the description of the datasets for paronym classification and the classification procedures. As a work in progress, new insights will continually be extended once spoken and CMC data are added to the investigations.
In this paper, an exploratory data-driven method is presented that extracts word-types from diachronic corpora that have undergone the most pronounced change in frequency of occurrence in a given period of time. Combined with statistical methods from time series analysis, the method is able to find meaningful patterns and relationships in diachronic corpora, an idea that is still uncommon in linguistics. This indicates that the approach can facilitate an improved understanding of diachronic processes.
In the first volume of Corpus Linguistics and Linguistic Theory, Gries (2005. Null-hypothesis significance testing of word frequencies: A follow-up on Kilgarriff. Corpus Linguistics and Linguistic Theory 1(2). doi:10.1515/ cllt.2005.1.2.277. http://www.degruyter.com/view/j/cllt.2005.1.issue-2/cllt.2005. 1.2.277/cllt.2005.1.2.277.xml: 285) asked whether corpus linguists should abandon null-hypothesis significance testing. In this paper, I want to revive this discussion by defending the argument that the assumptions that allow inferences about a given population – in this case about the studied languages – based on results observed in a sample – in this case a collection of naturally occurring language data – are not fulfilled. As a consequence, corpus linguists should indeed abandon null-hypothesis significance testing.
Analepses with topic-drop are frequent structures in German interaction. While hitherto the focus on analepses was a rather syntactic one, this paper deals with analeptic structures from a semantic perspective. It particularly concentrates on the semantic relations between the referents of the analepses and the prior interactional context. This analysis shows that even for rather simple analepses which just omit a constituent from the prior utterance, conceptual processes are more decisive for its interpretation than syntactic features of the antecedent constituents. This is even more the case for complex analepses that are only indirectly linked to the prior context, and for the interpretation of which hearers need to draw inferences. The paper argues that theoretical approaches like Conversation Analysis and Interactional Linguistics can profit from adopting a semantic and conceptual perspective for the interpretation of interactional structures.
Theateraufführungen sind ohne Zuschauer nicht denkbar. Zugleich erweisen sich Proben aber als öffentlichkeitsabgeschirmte und intime Vorgänge, da eine (zu frühe) Orientierung an möglichen Publikums-Effekten den kreativen Prozess stört. Auf der Grundlage von über 30 Stunden Videoaufnahmen von Theaterproben zeige ich an ausgewählten Ausschnitten, wie Theatermachende sich sprachlich und körperlich im Probenprozess auf das Publikum beziehen, wie dies interaktiv realisiert wird und welche Rückschlüsse das auf die Weisen der Publikumskonstruktion im Kontext von Proben zulässt.
Das von der Leibniz-Gemeinschaft geförderte Projekt „Lexik des gesprochenen Deutsch“(LeGeDe, Leibniz-Wettbewerb 2016, Förderlinie I: „Innovative Vorhaben“) nahm im September 2016 am Institut für Deutsche Sprache (IDS) seine Arbeit auf.1 Das Hauptziel ist die Erstellung einer korpusbasierten lexikografischen Online-Ressource zur Lexik des gesprochenen Deutsch auf der Grundlage von lexikologischen und gesprächsanalytischen Untersuchungen authentischer gesprochensprachlicher Daten. Als Kooperationsprojekt der Abteilungen Lexik und Pragmatik arbeiten Mitarbeiter/innen aus der Lexikologie, Lexikografie, Interaktionalen bzw. Gesprächslinguistik, Korpus- und Computerlinguistik und den Empirischen Methoden zusammen, wodurch sowohl aus der Sicht der Gesprochene- Sprache-Forschung als auch aus lexikografischer Perspektive eine innovative Form der Sprachbeschreibung entstehen soll.
We use a convolutional neural network to perform authorship identification on a very homogeneous dataset of scientific publications. In order to investigate the effect of domain biases, we obscure words below a certain frequency threshold, retaining only their POS-tags. This procedure improves test performance due to better generalization on unseen data. Using our method, we are able to predict the authors of scientific publications in the same discipline at levels well above chance.
Der Auftaktworkshop "Lexik des gesprochenen Deutsch: Forschungsstand, Erwartungen und Anforderungen an die Entwicklung einer innovativen lexikografischen Ressource" fand am 16. und 17. Februar 2017 am Institut fur Deutsche Sprache (IDS) in Mannheim statt. Das von der Leibniz-Gemeinschaft geforderte Projekt "Lexik des gesprochenen Deutsch" (=LeGeDe, Leibniz-Wettbewerb 2016, Forderlinie "Innovative Vorhaben") nahm im September 2016 am IDS seine Arbeit auf. Das Hauptziel ist die Erstellung einer korpusbasierten elektronischen Ressource zur Lexik des gesprochenen Deutsch auf der Grundlage von lexikologischen und gesprachsanalytischen Untersuchungen authentischer gesprochensprachlicher Daten.
Harold Garfinkel, Begründer der Ethnomethodologie, wäre dieses Jahr 100 Jahre alt geworden, seine Studies in Ethnomethodology werden 50 Jahre. Grund genug diesen doppelten Geburtstag mit einer Tagung zur "deutschsprachigen Vorge-schichte, Wirkung und Rezeption des Werkes und der Person zu würdigen" (so der Ankündigungstext zur Tagung), die nicht ganz zufällig in Konstanz stattfand, lange Zeit und nach wie vor eine Hochburg rekonstruktiver Sozialforschung (auch) ethnomethodologischer Prägung. Die Tagung Harold Garfinkel's 'Studies in Ethnomethodolgy' – Fifty Years After vom 26.-28.10.2017 an der Universität Konstanz, ausgerichtet vom Lehrstuhl für Allgemeine Soziologie und Kultursoziologie und organisiert von Jörg Bergmann, Christian Meyer und Erhard Schüttpelz, tat dies in einer gebührlichen und beson-deren Weise: Die acht Kapitel der Studies in Ethnomethodology (im Folgenden kurz Studies), ein Konvolut aus Essays und Artikeln, die 1967 erschienen sind, dienten als Grundlage zur Strukturierung der Tagung und als Ausgangspunkt der einzelnen Vorträge.
CMC Corpora in DeReKo
(2017)
We introduce three types of corpora of computer-mediated communication that have recently been compiled at the Institute for the German Language or curated from an external project and included in DeReKo, the German Reference Corpus, namely Wikipedia (discussion) corpora, the Usenet news corpus, and the Dortmund Chat Corpus. The data and corpora have been converted to I5, the TEI customization to represent texts in DeReKo, and are researchable via the web-based IDS corpus research interfaces and in the case of Wikipedia and chat also downloadable from the IDS repository and download server, respectively.
This paper discusses changes of lexicographic traditions with respect to approaches to meaning descriptions towards more cognitive perspectives. I will uncover how cognitive aspects can be incorporated into meaning descriptions based on corpus-driven analysis. The new German Online dictionary “Paronyme − Dynamisch im Kontrast” (Storjohann 2014; 2016) is concerned with easily confused words such as effektiv/effizient, sensibel/sensitiv. It is currently in the process of being developed and it aims at adopting a more conceptual and encyclopaedic approach to meaning by incorporating cognitive features. As a corpus-guided reference work it strives to adequately reflect ideas such as conceptual structure, categorisation and knowledge. Contrastive entries emphasise aspects of usage, comparing conceptual categories and indicate the (metonymic) mapping of knowledge. Adaptable access to lexicographic details and variable search options offer different foci and perspectives on linguistic information, and authentic examples reflect prototypical structures. Some of the cognitive features are demonstrated with the help of examples. Firstly, I will outline how patterns of usage imply conceptual categories as central ideas instead of sufficiently logical criteria of semantic distinction. In this way, linguistic findings correlate better with how users conceptualise language. Secondly, it is pointed out how collocates are treated as family members and fillers in contexts. Thirdly, I will demonstrate how contextual structure and functions are included summarising referential information. Details are drawn from corpus data, they are usage-based linguistic patterns illustrating conversational interaction and semantic negotiations in contemporary public discourse. Finally, I will outline consultation routines which activate different facets of structural knowledge, e.g. through changes of the ordering of information or through the visualisation of semantic networks.
This paper discusses how cognitive aspects can be incorporated into lexicographic meaning descriptions based on corpus-driven analysis. The new German Online dictionary “Paronyme − Dynamisch im Kontrast” is concerned with easily confused words such as effektiv/effizient, sensibel/sensitiv. It is currently in the process of being developed and it aims at adopting a more conceptual and encyclopedic approach to meaning. Contrastive entries emphasize usage, comparing conceptual categories and indicating the mapping of knowledge. Adaptable access to lexicographic details offers different perspectives on information, and authentic examples reflect prototypical structures.
Some of the cognitive features are demonstrated with the help of examples. Firstly, I will outline how patterns of usage imply conceptual categories as central ideas instead of sufficiently logical criteria of semantic distinction. In this way, linguistic findings correlate better with how users conceptualize language. Secondly, it is pointed out how collocates are family members and fillers in contexts. Thirdly, I will demonstrate how contextual structure and function are included by summarizing referential information. Details are drawn from corpus data; they are usage-based patterns illustrating conversational interaction and semantic negotiation in contemporary public discourse. Finally, I will show flexible consultation routines where the focus on structural knowledge changes.
We present an approach to making existing CLARIN web services usable for spoken language transcriptions. Our approach is based on a new TEI-based ISO standard for such transcriptions. We show how existing tool formats can be transformed to this standard, how an encoder/decoder pair for the TCF format enables users to feed this type of data through a WebLicht tool chain, and why and how web services operating directly on the standard format would be useful.
In my talk, I present an empirical approach to detecting and describing proverbs as frozen sentences with specific functions in current language use. We have developed this approach in the EU project ‘SprichWort’ (based on the German Reference Corpus). The first chapter illustrates selected aspects of our complex, iterative procedure to validate proverb candidates. Based on our corpus-driven lexpan methodology of slot analysis I then discuss semantic restrictions of proverb patterns. Furthermore, I show different degrees of proverb quality ranging from genuine proverbs to non-proverb realizations of the same abstract pattern. On the one hand, the corpus validation reveals that proverbs are definitely perceived and used as relatively fixed entities and often as sentences. On the other hand, proverbs are not only interpreted as an interesting unique phenomenon but also as part of the whole lexicon, embedded in networks of different lexical items.
In the NLP literature, adapting a parser to new text with properties different from the training data is commonly referred to as domain adaptation. In practice, however, the differences between texts from different sources often reflect a mixture of domain and genre properties, and it is by no means clear what impact each of those has on statistical parsing. In this paper, we investigate how differences between articles in a newspaper corpus relate to the concepts of genre and domain and how they influence parsing performance of a transition-based dependency parser. We do this by applying various similarity measures for data point selection and testing their adequacy for creating genre-aware parsing models.
We present a method to identify and document a phenomenon on which there is very little empirical data: German phrasal compounds occurring in the form of as a single token (without punctuation between their components). Relying on linguistic criteria, our approach implies to have an operational notion of compounds which can be systematically applied as well as (web) corpora which are large and diverse enough to contain rarely seen phenomena. The method is based on word segmentation and morphological analysis, it takes advantage of a data-driven learning process. Our results show that coarse-grained identification of phrasal compounds is best performed with empirical data, whereas fine-grained detection could be improved with a combination of rule-based and frequency-based word lists. Along with the characteristics of web texts, the orthographic realizations seem to be linked to the degree of expressivity.
We introduce a method for error detection in automatically annotated text, aimed at supporting the creation of high-quality language resources at affordable cost. Our method combines an unsupervised generative model with human supervision from active learning. We test our approach on in-domain and out-of-domain data in two languages, in AL simulations and in a real world setting. For all settings, the results show that our method is able to detect annotation errors with high precision and high recall.
Das Archiv für Gesprochenes Deutsch (AGD, Stift/Schmidt 2014) am Institut für Deutsche Sprache ist die zentrale Sammelstelle für Korpora des Gesprochenen Deutsch. Gegründet als Deutsches Spracharchiv (DSAv) im Jahre 1932 hat es über Eigenprojekte, Kooperationen und Übernahmen von Daten aus abgeschlossenen Forschungsprojekten einen Bestand von etwa 50 Variations- und Gesprächskorpora aufgebaut. Heute ist dieser Bestand fast vollständig digitalisiert und wird zu einem großen Teil der wissenschaftlichen Gemeinschaft über die Datenbank für Gesprochenes Deutsch (DGD) im Internet zur Nutzung in Forschung und Lehre angeboten.
Am Institut für Deutsche Sprache in Mannheim fand vom 17. bis 19.11.2016 die sechste Tagung des Netzwerks „Diskurs – interdisziplinär“ statt, diesmal zum Thema „Diskurs – kontrastiv“. An der Tagung nahmen Teilnehmerinnen und Teilnehmer aus Bosnien-Herzegowina, Deutschland, England, Polen, Serbien, Schweiz, Schweden, der Slowakei und Slowenien teil. Die 18 Vorträge waren fünf Sektionen zugeordnet: Prinzipien des Kontrastiven, Internationale Vergleiche, Metaphorik im internationalen Vergleich, kontrastive Semantik, Kulturen und Stereotype – transnational. Die Beiträge fokussierten dabei immer wieder folgende Fragestellungen: Wie werden gleiche Themen in unterschiedlichen Gesellschaften konstituiert und erörtert? Welche sprachlichen Auswirkungen haben die jeweiligen gesellschaftlichen und politischen Bedingungen, unter denen formal gleichwertige Diskursbeteiligte (z. B. außerparlamentarische Opposition, Bürgerinitiativen, Interessengruppen) in Bezug auf identische Diskursgegenstände sprachlich agieren? Inwiefern lassen sich ähnliche Diskurse als je spezifische Zeitphänomene darstellen? Inwiefern besteht strukturelle Identität/Similarität bzw. Differenz z. B. hinsichtlich der Verwendung vergleichbarer bzw. abweichender Leit- und Schlüsselwörter, Metaphern, Argumentationsmuster etc.? Neben Vorträgen, die sich derlei Fragestellungen widmeten, gab es zudem Beiträge, die sich auf empirischer Basis mit Methoden kontrastiver Diskursforschung auseinandersetzten.
Einleitung
(2017)
Das Handbuch Europäische Sprachkritik Online (HESO) liefert eine vergleichende Perspektive auf Sprachkritik in europäischen Sprachkulturen. Das Handbuch ist eine periodische und mehrsprachige Online-Publikation. Zu ausgewählten Konzepten der Sprachkritik werden sukzessiv enzyklopädische Artikel veröffentlicht, die ein sprachkritisches Schlüsselkonzept betreffen und die für die europäische Perspektive von kultureller Bedeutung sind. Das Ziel ist demnach, eine Konzeptgeschichte der europäischen Sprachkritik zu präsentieren. Zum einen liefert das Handbuch einen spezifischen Blick auf die jeweiligen Sprachkulturen. Zum anderen werden diese vergleichend in den Blick genommen.
To improve grammatical function labelling for German, we augment the labelling component of a neural dependency parser with a decision history. We present different ways to encode the history, using different LSTM architectures, and show that our models yield significant improvements, resulting in a LAS for German that is close to the best result from the SPMRL 2014 shared task (without the reranker).
Unknown words are a challenge for any NLP task, including sentiment analysis. Here, we evaluate the extent to which sentiment polarity of complex words can be predicted based on their morphological make-up. We do this on German as it has very productive processes of derivation and compounding and many German hapax words, which are likely to bear sentiment, are morphologically complex. We present results of supervised classification experiments on new datasets with morphological parses and polarity annotations.
The German Historical Institute Washington (GHI) is in the development phase of German History Digital (GH-D), a transatlantic digital initiative to meet the scholarly needs of historians and their students facing new historiographical and technological challenges. In the proposed paper we will discuss the research goals, methodology, prototyping, and development strategy of GH-D as infrastructure to facilitate transnational historical knowledge co-creation for the large community of researchers and students already relying on digital resources of the GHI and for the growing constituency of citizen scholars.
Historical sociolinguistics in colonial New Guinea: The Rhenish mission society in the Astrolabe Bay
(2017)
The Rhenish Mission Society, a German Protestant mission, was active in a small part of northern New Guinea, the Astrolabe Bay, between 1887 and 1932. Up until 1914, this region was under German colonial rule. The German dominance was also reflected in rules on language use in official contexts such as schools and administration.
Missionaries were strongly affected by such rules as their most important tool in mission work was language. In addition, they were also responsible for school education as most schools in the German colonial areas in the Pacific were mission-run. Thus, mission societies had to make decisions about what languages to use, considering their own needs, their ideological convictions, and the colonial government’s requirements. These considerations were framed by the complex setting of New Guinea’s language wealth where several hundred languages were, and still are, spoken.
This paper investigates a small set of original documents from the Rhenish Mission Society to trace what steps were taken and what considerations played a major role in the process of agreeing on a suitable means of communication with the people the missionaries wanted to reach, thereby touching upon topics such as language attitudes, language policies and politics, practical considerations of language learning and language spread, and colonial actions impacting local language ecologies.
Introduction
(2017)
CoMParS is a resource under construction in the context of the long-term project German Grammar in European Comparison (GDE) at the IDS Mannheim. The principal goal of GDE is to create a novel contrastive grammar of German against the background of other European languages. Alongside German, which is the central focus, the core languages for comparison are English, French, Hungarian and Polish, representing different typological classes. Unlike traditional contrastive grammars available for German, which usually cover language pairs and are based on formal grammatical categories, the new GDE grammar is developed in the spirit of functionalist typology. This implies that, instead of formal criteria, cognitively motivated functional domains in terms of Givón (1984) are used as tertia comparationis. The purpose of CoMParS is to document the empirical basis of the theoretical assumptions of GDE-V and to illustrate the otherwise rather abstract content of grammar books by as many as possible naturally occurring and adequately presented multilingual examples, including information on their use in specific contexts and registers. These examples come from existing parallel corpora, and our presentation will focus on the legal aspects and consequences of this choice of language data.
This paper gives an insight into the basic concepts for a corpus-based lexical resource of spoken German, which is being developed by the project "The Lexicon of Spoken German"(Lexik des gesprochenen Deutsch, LeGeDe) at the "Institute for the German Language" (Institut für Deutsche Sprache, IDS) in Mannheim. The focus of the paper is on initial ideas of semi-automatic and automatic resources that assist the quantitative analysis of the corpus data for the creation of dictionary content. The work is based on the "Research and Teaching Corpus of Spoken German" (Forschungs- und Lehrkorpus Gesprochenes Deutsch, FOLK).
Thema des Aufsatzes ist die Komplementsatzdistribution im Deutschen. Überprüft wird die These, dass die lexikalisch-semantischen Eigenschaften der einbettenden Verben, dabei v.a. ihre Kontrolleigenschaften sowie ihre temporale und modale Spezifikation, dafür verantwortlich sind, ob bevorzugt ein dass-Satz oder ein zu-Infinitiv selegiert wird. Eine korpuslinguistische Überprüfung dieser These zeigt, dass die genannten drei Kriterien in unterschiedlicher Weise von Bedeutung für die Komplementselektion sind. Als bedeutendster Faktor erweist sich das Kontrollkriterium. Ein weiteres wichtiges Ergebnis der Untersuchung ist, dass die Komplementselektion dem Prinzip der argumentstrukturellen Trägheit entspricht: Verben neigen dazu, als Essenz memorisierter Gebrauchsspuren eine graduelle Präferenz für ein bestimmtes Komplementationsmuster zu entwickeln.
Körperliche wie seelische Gesundheit ist ein hohes individuelles und gesellschaftliches Gut und Grundrecht. Häufig wird die Gesundheit durch ihr Gegenteil, d. h. in der Verständigung über Krankheit, thematisiert. Der gesellschaftliche Austausch über Krankheiten, Gesundheitsrisiken und Behandlungsmethoden ist untrennbar mit Sprache verknüpft (Busch/Spranz-Fogasy 2015); die Sprache ist „[…] das zentrale Medium, um medizinisches Wissen herzustellen, zu systematisieren, zu tradieren und auszutauschen.“ (Busch/Spranz-Fogasy 2015: 336). Ausgehend von dieser Prämisse wurde das Netzwerk „Linguistik und Medizin“ gegründet, um die Forschungstätigkeiten der verschiedenen linguistischen Disziplinen, die an den Verbindungslinien von „Sprache – Wissen – Medizin“ arbeiten, zu bündeln: Forschungsdesiderate sollen kooperierend bearbeitet und die interdisziplinäre Anschlussfähigkeit zwischen linguistischen und medizinischen, psychiatrischen sowie salutogenetischen Forschungsbereichen auf- und ausgebaut werden.
Making 1:n explorable: a search interface for the ZAS database of clause-embedding predicates
(2017)
We introduce a recently published corpus-based database of German clause-embedding predicates and present an innovative web application for exploring it. The application displays the predicates and the corpus examples for these predicates in two separate tables that can be browsed and searched in real time. While familiar web interface paradigms make it easy for users to get started, the data presentation and the interactive advanced search components for the two tables are designed to accommodate remarkably complex query needs without the need for resorting to a dedicated query language or a more specialized tool. The 1:n relationship between predicates and their examples is exploited in the two tables in that, e.g. the predicate table also shows, for each predicate and each example attribute, all values that occur in the examples for this predicate. An easy-to-use visual query builder for arbitrary Boolean combinations of search criteria can optionally be displayed to pre-filter the underlying data presented in both tables. Several options for altering quantifier scope can be activated with simple checkboxes and considerably widen the space of searchable constellations.
This paper deals with the creation of the first morphological treebank for German by merging two pre-existing linguistic databases. The first of these is the linguistic database CELEX which is a standard resource for German morphology. We build on its refurbished and modernized version. The second resource is GermaNet, a lexical-semantic network which also provides partial markup for compounds. We describe the state of the art and the essential characteristics of both databases and our latest revisions. As the merging involves two data sources with distinct annotation schemes, the derivation of the morphological trees for the unified resource is not trivial. We discuss how we overcome problems with the data and format, in particular how we deal with overlaps and complementary scopes. The resulting database comprises about 100,000 trees whose format can be chosen according to the requirements of the application at hand. In our discussion, we show some future directions for morphological treebanks. The Perl script for the generation of the data from the sources will be made publicly available on our website.
Modeling the properties of German phrasal compounds within a usage-based constructional approach
(2017)
This paper discusses phrasal compounds in German (e.g.“Man-muss-doch-überalles-reden-können”-Credo, ‘one-should-be-able-to-talk-about-everything motto’). It provides the first empirically based investigation and description of this wordformation type within the theoretical framework of construction grammar. While phrasal compounds pose a problem for “traditional” generative approaches, I argue that a usage-based constructional model (e.g. Langacker 1987; Goldberg 2006) which takes into consideration aspects of frequency provides a suitable approach to modeling and explaining their properties. For this purpose, a large inventory of phrasal compounds was extracted from the German Reference Corpus (DeReKo) and modeled as pairings of form and meaning at different levels of specificity and abstractness within a bottom-up process.
Overall, this paper not only presents a new and original approach to phrasal compounds, but also offers interesting perspectives for dealing with composition in general.
The authors are pleased to present to the readers of the Zeitschrift für Sprachwissenschaft a Special Issue in honor of Rosemarie Tracy.
Contents:
0. Frontmatter
1. Petra Schulz, Ira Gawlitzek, Angelika Wöllstein: Introduction, S. 1
2. Natascha Müller: Different sources of delay and acceleration in early child bilingualism, S. 7
3. Hubert Haider, Christina Schörghofer-Essl, Karin Seethaler: Quantifying kids prefer intersecting sets - a pilot study, S. 31
4. Petra Schulz, Rabea Schwarze: How strong is the ban on non-finite verbs in V2? Evidence from early second language learners of German with and without SLI, S. 51
5. Monika Rothweiler, Manuela Schönenberger, Franziska Sterner: Subject-verb agreement in German in bilingual children with and without SLI, S. 79
6. Holger Hopp: The processing of English which-questions in adult L2 learners: Effects of L1 transfer and proficiency, S. 107
7. Oksana Laleko, Maria Polinsky: Silence is difficult: On missing elements in bilingual grammars, S. 135
8. Artemis Alexiadou: Building verbs in language mixing varieties, S. 165
In diesem Aufsatz wird einzelfallanalytisch der Frage nachgegangen, wie die Struktur einer Kirchenbesichtigung aussieht. Im theoretischen Rahmen, der die Kirchenbesichtigung als kulturelle Praktik konzeptualisiert, wird „Objektkonstitution“ als eine aktive Leistung des Kirchenbesichtigers in den Blick genommen. Bei den Aufnahmen zum Kirchenbesichtigungskorpus wurden die Besichtiger nicht nur bei ihrem Gang durch den Kirchenraum und der visuellen Wahrnehmung bestimmter Raumaspekte gefilmt. Sie wurden vielmehr darum gebeten, ihre visuelle Wahrnehmung durch begleitendes Sprechen auch zu kommentieren. Aufgezeichnet wurde das Besichtigungskorpus mit zwei Kameras: einer Actionkamera, die den Wahrnehmungsraum der Besichtiger dokumentiert, und einer Kontextkamera, die ihnen bei ihrem Weg durch den Raum folgt.
Dieses experimentelle Erhebungsdesign, bei dem exothetisches Sprechen bewusst als wissenschaftliche Erhebungsmethode eingesetzt wird, macht es möglich, das Besichtigungskonzept der Personen als dynamisches Zusammenspiel ihrer visuellen Wahrnehmung des Kirchenraums und ihrer wahrnehmungsbegleitenden Exothese zu rekonstruieren. Dass Objektkonstitution eine aktive Herstellung ist, durch die der Kirchenraum in den Relevanzen seines Betrachters teilweise neu entsteht, zeigt die Fallanalyse in exemplarischer Klarheit: Anton, der analysierte Besichtiger, der sich ausführlich mit zwei großen Gemälden beschäftigt, konstituiert diese de facto als „Bilderrahmen“, ohne überhaupt auf die dargestellten Szenen einzugehen.
This paper provides a formal semantic analysis of past interpretation in Medumba (Grassfields Bantu), a graded tense language. Based on original fieldwork, the study explores the empirical behavior and meaning contribution of graded past morphemes in Medumba and relates these to the account of the phenomenon proposed in Cable (Nat Lang Semant 21:219–276, 2013) for Gĩkũyũ. Investigation reveals that the behavior of Medumba gradedness markers differs from that of their Gĩkũyũ counterparts in meaningful ways and, more broadly, discourages an analysis as presuppositional eventuality or reference time modifiers. Instead, the Medumba markers are most appropriately analyzed as quantificational tenses. It also turns out that Medumba, though belonging to the typological class of graded tense languages, shows intriguing similarities to genuinely tenseless languages in allowing for temporally unmarked sentences and exploiting aspectual and pragmatic cues for reference time resolution. The more general cross-linguistic implication of the study is that the set of languages often subsumed under the label “graded tense” does not in fact form a natural class and that more case-by-case research is needed to refine this category.
Contents:
1. Andreas Dittrich: Intra-connecting a small exemplary literary corpus with semantic web technologies for exploratory literary studies, S. 1
2. John Kirk, Anna Čermáková: From ICE to ICC: The new International Comparable Corpus, S. 7
3. Dawn Knight, Tess Fitzpatrick, Steve Morris, Jeremy Evas, Paul Rayson, Irena Spasic, Mark Stonelake, Enlli Môn Thomas, Steven Neale, Jennifer Needs, Scott Piao, Mair Rees, Gareth Watkins, Laurence Anthony, Thomas Michael Cobb, Margaret Deuchar, Kevin Donnelly, Michael McCarthy, Kevin Scannell: Creating CorCenCC (Corpws Cenedlaethol Cymraeg Cyfoes – The National Corpus of Contemporary Welsh), S. 13
4. Marc Kupietz, Andreas Witt, Piotr Bański, Dan Tufiş, Dan Cristea, Tamás Váradi: EuReCo - Joining Forces for a European Reference Corpus as a sustainable base for cross-linguistic research, S. 15
5. Harald Lüngen, Marc Kupietz: CMC Corpora in DeReKo, S. 20
6. David McClure, Mark Algee-Hewitt, Douris Steele, Erik Fredner, Hannah Walser: Organizing corpora at the Stanford Literary Lab, S. 25
7. Radoslav Rábara, Pavel Rychlý ,Ondřej Herman: Accelerating corpus search using multiple cores, S. 30
8. John Vidler, Stephen Wattam: Keeping Properties with the Data: CL-MetaHeaders – An Open Specification, S. 35
9. Vladimir Benko: Are Web Corpora Inferior? The Case of Czech and Slovak, S. 43
10. Edyta Jurkiewicz-Rohrbacher, Zrinka Kolaković, Björn Hansen: Web Corpora – the best possible solution for tracking phenomena in underresourced languages: clitics in Bosnian, Croatian and Serbian, S. 49
11. Vít Suchomel: Removing Spam from Web Corpora Through Supervised Learning Using FastText, S. 56
Rekontextualisierung von Hate Speech als Aneignungs- und Positionierungsverfahren in Sozialen Medien
(2017)
Hate Speech wird im vorliegenden Aufsatz nicht als Medium der Herabwürdigung betrachtet, sondern als Positionierungsverfahren. Es handelt sich bei Hate Speech Liebert (2015, 176) zufolge um eine „unorganisierte [...] Praktik" innerhalb der Online-Kommunikation. Das würde erstens bedeuten, dass keine strategische Dekonstruktion einer spezifischen Identität damit verbunden ist, wie das etwa beim Cybermobbing der Fall wäre. Es gibt also keine Verabredungen und gruppenkonstitutiven Prozesse außerhalb der medial vermittelten Kommunikation. Es scheint jedoch auch die diskursdynamischen Prozesse auszublenden, die sich ad hoc „organisieren", wo Hassrede praktiziert wird. Zweitens ruft der Terminus der „Unorganisiertheit" die Assoziation einer strukturellen Unterspezifikation auf und damit das Bedürfnis nach einer präzisierenden Definition für diese Praktik. Drittens ware davon auszugehen, dass Hass-Kommentare verstreut an Diskursorten und zu willkürlichen Diskurszeiten auftreten, die deshalb nicht vorhersagbar sind.
Sprachnormen und Sprachnormierungsprozesse hängen unmittelbar mit Sprachreflexion und Sprachkritik zusammen. Entweder werden Sprachnormen und Sprachnormierungsprozesse linguistisch be- schrieben oder linguistisch / laienlinguistisch bewertet. In der linguistisch begründeten Sprachkritik der 1980er Jahre wird unter dem Paradigma der Sprachnormenkritik der Prozess der Sprachnormierung beobachtet und beschrieben. Sprachnormen und Sprachnormierungsprozesse werden in sprachhistorischer Perspektive aber bereits viel früher in intellektuel- len Kreisen reflektiert und kritisiert. Auch in gegenwärtiger Perspektive sind im laienlinguistischen Bereich Bestrebungen zu verzeichnen, mittels Sprachkritik Einfluss auf Sprachnormen und Sprachnormierungsprozesse zu nehmen. Seit den 2000er Jahren setzen sich wiederum Linguistinnen und Linguisten zum Ziel, Sprachnormen und Sprachnormierung zunächst zu beschreiben und dann nach linguistischen Kriterien zu bewerten. In dem Artikel wird ein Sprachnormenkritikbegriff vertreten, der auf einem Kontinuum von eher Ausdrucksmöglichkeiten abwägenden bis hin zu eindeutig positionsbezogenen Sprachbetrachtungen zu verorten ist, und sowohl die linguistische als auch die laienlinguistische Perspektive mit einbezieht. Unter Sprachnormenkritik wird hier also eine Reflexion der Sprachnormen und Sprachnormierungsprozesse verstanden, in der die Kriterien explizit (eher beschreibend oder eher bewertend) formuliert oder implizit praktiziert werden.
Der Artikel beschäftigt sich mit einem ganz spezifischen Blick auf Sprachnormen: Ausgehend von der Sprachnormenkritik der Germanistik fokussiert der Artikel die sozio-politischen Implikationen sprachlicher Normfragen. Der Terminus Sprachnormenkritik hat weder im Englischen noch im Französischen oder Italienischen und auch nicht im Kroatischen eine ausdrucksseitige Entsprechung. Das Konzept der ›Sprachnormenkritik‹ bzw. bestimmte Teilkomponenten sind dessen ungeachtet im Englischen, Französischen, Italienischen und Kroatischen seit Jahrhunderten in der Diskussion. Aus vergleichend europäischer Perspektive ist besonders interessant, dass nicht in jedem nationalsprachlichen Diskurs über Sprachnormen der unmittelbare Zusammenhang von sprachlichen Normen einerseits und sozio-ökonomischer Macht bzw. politischer Handlungsfähigkeit andererseits als korrelierende Phänomene diskutiert wird – und genau dies ist der Kern der ursprünglichen Sprachnormenkritik im Deutschen. Besonders eindrücklich lässt sich der politische Charakter der Sprachnormenkritik im Kroatischen demonstrieren. In den 1960er Jahren ist die Sprachnormenkritik im Kroatischen nicht nur eine Kritik, die degressiv erscheinende Zustände aufzudecken versucht, sondern vor allem eine progressive Kritik, die als Vorreiter der politischen Bewegung für die Unabhängigkeit Kroatiens angesehen werden kann.
The paper reviews the results of work done in the context of TEI-Lex0, a joint ENeL / DARIAH / PARTHENOS initiative aimed at formulating guidelines for the encoding of retrodigitized dictionaries by streamlining and simplifying the recommendations of the “Print Dictionaries” chapter of the TEI Guidelines. TEI-Lex0 work is performed by teams concentrating on each of the main components of dictionary entries. The work presented here concerns proposals for constraining TEI-based encoding of orthographic, phonetic, and grammatical information on written and spoken forms of the lemma (headword), including auxiliary inflected forms. We also adduce examples of handling various types of orthographic and phonetic variants, as well as examples of handling the representation of inflectional paradigms, which have received less attention in the TEI Guidelines but which are nonetheless essential for properly exposing data content to the various uses that digitized lexica may have.
In the lexicon of pidgin and creole languages we can see an important part of these languages’ history of origin and of language contact. The current paper deals with the lexical sources of Tok Pisin and, more specifically, with words of German origin found in this language. During the period of German colonial domination of New Guinea and a number of insular territories in the Pacific (ca. 1885–1915), German words entered the emerging Tok Pisin lexicon. Based on a broad range of lexical and lexicographic data from the early 20th century up until today, we investigate the actual or presumed German origin of a number of Tok Pisin words and trace different lexical processes of integration that are linked to various, often though not always colonially determined, contact settings and sociocultural interactions.
Languages employ different strategies to transmit structural and grammatical information. While, for example, grammatical dependency relationships in sentences are mainly conveyed by the ordering of the words for languages like Mandarin Chinese, or Vietnamese, the word ordering is much less restricted for languages such as Inupiatun or Quechua, as these languages (also) use the internal structure of words (e.g. inflectional morphology) to mark grammatical relationships in a sentence. Based on a quantitative analysis of more than 1,500 unique translations of different books of the Bible in almost 1,200 different languages that are spoken as a native language by approximately 6 billion people (more than 80% of the world population), we present large-scale evidence for a statistical trade-off between the amount of information conveyed by the ordering of words and the amount of information conveyed by internal word structure: languages that rely more strongly on word order information tend to rely less on word structure information and vice versa. Or put differently, if less information is carried within the word, more information has to be spread among words in order to communicate successfully. In addition, we find that–despite differences in the way information is expressed–there is also evidence for a trade-off between different books of the biblical canon that recurs with little variation across languages: the more informative the word order of the book, the less informative its word structure and vice versa. We argue that this might suggest that, on the one hand, languages encode information in very different (but efficient) ways. On the other hand, content-related and stylistic features are statistically encoded in very similar ways.
Researchers interested in the sounds of speech or the physical gestures of Speakers make use of audio and video recordings in their work. Annotating these recordings presents a different set of requirements to the annotation of text. Special purpose tools have been developed to display video and audio Signals and to allow the creation of time-aligned annotations. This chapter reviews the most widely used of these tools for both manual and automatic generation of annotations on multimodal data.
We present a major step towards the creation of the first high-coverage lexicon of polarity shifters. In this work, we bootstrap a lexicon of verbs by exploiting various linguistic features. Polarity shifters, such as ‘abandon’, are similar to negations (e.g. ‘not’) in that they move the polarity of a phrase towards its inverse, as in ‘abandon all hope’. While there exist lists of negation words, creating comprehensive lists of polarity shifters is far more challenging due to their sheer number. On a sample of manually annotated verbs we examine a variety of linguistic features for this task. Then we build a supervised classifier to increase coverage. We show that this approach drastically reduces the annotation effort while ensuring a high-precision lexicon. We also show that our acquired knowledge of verbal polarity shifters improves phrase-level sentiment analysis.
Multinomial processing tree (MPT) models are a class of measurement models that account for categorical data by assuming a finite number of underlying cognitive processes. Traditionally, data are aggregated across participants and analyzed under the assumption of independently and identically distributed observations. Hierarchical Bayesian extensions of MPT models explicitly account for participant heterogeneity by assuming that the individual parameters follow a continuous hierarchical distribution.We provide an accessible introduction to hierarchical MPT modeling and present the user-friendly and comprehensive R package TreeBUGS, which implements the two most important hierarchical MPT approaches for participant heterogeneity—the beta-MPT approach (Smith & Batchelder, Journal of Mathematical Psychology 54:167-183, 2010) and the latent-trait MPT approach (Klauer, Psychometrika 75:70-98, 2010). TreeBUGS reads standard MPT model files and obtains Markov-chain Monte Carlo samples that approximate the posterior distribution. The functionality and output are tailored to the specific needs of MPT modelers and provide tests for the homogeneity of items and participants, individual and group parameter estimates, fit statistics, and within- and between-subjects comparisons, as well as goodness-of-fit and summary plots. We also propose and implement novel statistical extensions to include continuous and discrete predictors (as either fixed or random effects) in the latent-trait MPT model.
Universal Dependency (UD) annotations, despite their usefulness for cross-lingual tasks and semantic applications, are not optimised for statistical parsing. In the paper, we ask what exactly causes the decrease in parsing accuracy when training a parser on UD-style annotations and whether the effect is similarly strong for all languages. We conduct a series of experiments where we systematically modify individual annotation decisions taken in the UD scheme and show that this results in an increased accuracy for most, but not for all languages. We show that the encoding in the UD scheme, in particular the decision to encode content words as heads, causes an increase in dependency length for nearly all treebanks and an increase in arc direction entropy for many languages, and evaluate the effect this has on parsing accuracy.
Neologismen, im Folgenden konkret die, die seit den 90er Jahren aufgekommen, in die Allgemeinsprache eingegangen und in einem Neologismenwörterbuch (www.owid.de) umfassend beschrieben sind, dienen der Anpassung des Wortschatzes an neue Gegebenheiten und Sachverhalte. Insofern lassen Neologismen in erster Linie an Wortschatzerweiterung denken. Dazu tragen auch Pseudoanglizismen bei, die scheinbar als lexikalische Einheiten aus dem Englischen entlehnt, tatsächlich im Deutschen mit Mitteln der Wortbildung entstanden sind (z.B. Beniner) oder im Deutschen eine neue Bedeutung bekommen haben (z.B. Public Viewing). Konträr zur Wortschatzerweiterung stehen die Kurzzeitwörter, das heißt Neologismen, die innerhalb des genannten relativ kurzen Erfassungszeitraums aus unterschiedlichen Gründen wieder außer Gebrauch kommen (z.B. Praxisgebühr, Gauckbehörde).
Intention des Kooperationsprojektes „Grammatische Kenntnisse in der Sekundarstufe II“ (GramKid-SII) des Instituts für Deutsche Sprache (IDS) und der Ruhr-Universität Bochum ist, die deutschdidaktische Behauptung, Grammatikunterricht bis in die Sekundarstufe II führe zu besseren expliziten und nachhaltigen Grammatikkenntnissen des Deutschen, empirisch in Form einer longitudinalen Interventionsstudie mit Kontrollgruppendesign zu untersuchen.
We propose a new type of subword embedding designed to provide more information about unknown compounds, a major source for OOV words in German. We present an extrinsic evaluation where we use the compound embeddings as input to a neural dependency parser and compare the results to the ones obtained with other types of embeddings. Our evaluation shows that adding compound embeddings yields a significant improvement of 2% LAS over using word embeddings when no POS information is available. When adding POS embeddings to the input, however, the effect levels out. This suggests that it is not the missing information about the semantics of the unknown words that causes problems for parsing German, but the lack of morphological information for unknown words. To augment our evaluation, we also test the new embeddings in a language modelling task that requires both syntactic and semantic information.
Sound units play a pivotal role in cognitive models of auditory comprehension. The general consensus is that during perception listeners break down speech into auditory words and subsequently phones. Indeed, cognitive speech recognition is typically taken to be computationally intractable without phones. Here we present a computational model trained on 20 hours of conversational speech that recognizes word meanings within the range of human performance (model 25%, native speakers 20–44%), without making use of phone or word form representations. Our model also generates successfully predictions about the speed and accuracy of human auditory comprehension. At the heart of the model is a ‘wide’ yet sparse two-layer artificial neural network with some hundred thousand input units representing summaries of changes in acoustic frequency bands, and proxies for lexical meanings as output units. We believe that our model holds promise for resolving longstanding theoretical problems surrounding the notion of the phone in linguistic theory.
Este artículo expone a partir de una serie de ejemplos diferentes situaciones de uso del diccionario bilingüe que evidencian la importancia de llevar a cabo una adecuada adquisición y desarrollo de las competencias lexicográficas en el contexto de enseñanza-aprendizaje de lenguas extranjeras y, en este caso en concreto, del alemán como lengua extranjera. Con este propósito se parte de tres competencias básicas: la selección de la obra lexicográfica adecuada según la situación comunicativa, la desambiguación pertinente en el contexto de la recepción en L2 y traducción de L2 a L1 y la selección y uso del equivalente en el contexto de la producción y traducción en la L2. El objetivo de esta aportación es poner de manifiesto la necesidad de identificar adecuadamente por parte del usuario de un recurso lexicográfico bilingüe la información lexicológica pertinente a la forma, contenido y uso de los lemas consultados tanto en la situación de recepción y producción en L2 como en el contexto de la traducción de y a L2.
In this article, we investigate the semantics of causal modifiers headed by vor (‘with’, ‘from’) in adjectival copular sentences with sein (‘to be’). We distinguish two readings of the causal vor-phrases: a pure causal reading as in rot vor Wut (‘red with rage’), sprachlos vor Freude (‘speechless with joy’), and a causal-local reading as in rot vor Blut (‘red from blood’) or schwarz vor Menschen (‘black with people’). Based on corpus data, we provide descriptive generalisations for the use and meaning of vor and its two readings. A uniform formal semantics analysis is presented to account for both readings, according to which the meaning of vor can be captured with a cause relation between two tropes. In the case of the causal-local reading, the causing trope is interpolated via coercion from the compositionally provided concrete object. Finally, we compare vor and von (‚from‘).
This article explores how close one can come to a cultural-scientific perspective on the basis of a constitution-analytical methodology. We do this on the basis of a comparison of the celebration of Totensonntag in Zotzenbach (Southern Hesse) and Sarepta (Wolgograd). In both places, there are protestant churches that perform this ritual to commemorate the dead on this “Sunday of the Dead” as a part of their church service. Our scientific interest lies in the reconstruction of the rituality produced during the in situ execution. In both services, the names of the deceased are read out and a candle is lit for each deceased person. In Zotzenbach the priest reads out the names and an assistant ignites the candles for the deceased, whereas in Sarepta the bereaved are responsible for this. Since the ritual is organised in very different ways in terms of architecture-for-interaction (statically in Zotzenbach, spatially dynamic in Sarepta), we can reconstruct two completely different models of rituality: a demonstrative one (Zotzenbach) and a participative one (Sarepta). The demonstrative model works on the basis of a finely tuned coordination between the two church representatives and is aimed at a dignified execution. The model in Sarepta is not suitable for the production of formality due to its participatory structure. Here, however, the focus is also on the aspect of socialization, which goes beyond the church service and offers the Russian-German worshipers the opportunity to situationally constitute as a culturally homogeneous group.
Vom 14. bis 16. März fand im Congress Center Rosengarten in Mannheim die 53. Jahrestagung des Instituts für Deutsche Sprache (IDS) statt, die sich in diesem Jahr mit dem Lexikon und dessen Komplexität und Dynamik beschäftigte. Im Mittelpunkt standen neue Perspektiven auf das Lexikon und die Lexikonforschung nach der empirischen Wende, die das Bild vom Wortschatz deutlich verändert und den Blick darauf erweitert hat. Lexikontheoretiker und Lexikografen arbeiten heute u.a. mit quantitativen korpuslinguistischen Methoden und berücksichtigen Forschungsergebnisse und -methoden angrenzender Disziplinen wie der Psycholinguistik, wodurch auch neuartige Konzepte ins Blickfeld rücken. Das Inventar lexikalischer Einheiten beschränkt sich nicht mehr nur auf Wörter, sondern wurde durch konstruktionsartige Einheiten und semiabstrakte lexikalische Muster ergänzt.