Refine
Year of publication
- 2017 (103) (remove)
Document Type
- Article (42)
- Part of a Book (27)
- Conference Proceeding (19)
- Book (6)
- Working Paper (4)
- Other (2)
- Report (2)
- Part of Periodical (1)
Is part of the Bibliography
- yes (103) (remove)
Keywords
- Deutsch (36)
- Korpus <Linguistik> (28)
- Gesprochene Sprache (16)
- Diskursmarker (7)
- Annotation (5)
- Computerlinguistik (5)
- Computerunterstützte Lexikographie (5)
- Online-Wörterbuch (5)
- Computerunterstützte Kommunikation (4)
- Grammatik (4)
Publicationstate
- Veröffentlichungsversion (103) (remove)
Reviewstate
- Peer-Review (52)
- (Verlags)-Lektorat (41)
- Peer-review (7)
Publisher
- Institut für Deutsche Sprache (18)
- de Gruyter (13)
- Verlag für Gesprächsforschung (10)
- Lexical Computing CZ s.r.o. (5)
- Heidelberg University Publishing (4)
- The Association for Computational Linguistics (4)
- Narr Francke Attempto (3)
- De Gruyter (2)
- Erich Schmidt (2)
- Linköping University Electronic Press (2)
Der vorliegende Beitrag beschreibt auf der Basis authentischer Alltagsinteraktionen das Formen- und Funktionsspektrum der äußerungsmodalisierenden Kommen-tarphrase ohne Scheiß im gesprochenen Deutsch. Die Konstruktion wird von Inter-agierenden insbesondere als Ressource zur Steigerung des Geltungsanspruchs einer Bezugsäußerung genutzt, wodurch diese als wahr und/oder ernstgemeint modali-siert wird. Damit leistet ohne Scheiß einen wichtigen Beitrag zur Bearbeitung des Erwartungsmanagements durch den/die SprecherIn sowie zur Herstellung von In-tersubjektivität. Die Konstruktion ist syntaktisch variabel und kann somit Äußerun-gen sowohl prospektiv als auch retraktiv modalisieren. Zudem wird mit der Wahl des Lexem Scheiß ein nähesprachliches Register aktiviert, was in Verbindung mit weiteren (prosodischen und/oder lexikalischen) Elementen zu affektiver Aufladung führen kann. Eine abschließende Darstellung häufiger lexikalischer Kookkurrenz-partner und deren funktionaler Bedeutung sowie ein Abgleich zu intrakonstruktio-nalen Varianten wie ohne Witz/ohne Spaß zeigt die Produktivität der Konstruktion im alltäglichen Sprachgebrauch auf.
In recent years, formal semantic research on the meaning of tense and aspect has benefited from a number of studies investigating languages with graded tense systems. This paper contributes a first sketch of the temporal marking system of Awing (Grassfields Bantu), focusing on two varieties of remote past and remote future. We argue that the data support a "symmetric" analysis of past and future tense in Awing. In our specific proposal, Awing temporal remoteness markers are uniformly analyzed as quantificational tense operators, and both the past and the future paradigm include a form that prevents contextual restriction of this temporal quantifier.
In this paper, we will present a first attempt to classify commonly confused words in German by consulting their communicative functions in corpora. Although the use of so-called paronyms causes frequent uncertainties due to similarities in spelling, sound and semantics, up until now the phenomenon has attracted little attention either from the perspective of corpus linguistics or from cognitive linguistics. Existing investigations rely on structuralist models, which do not account for empirical evidence. Still, they have developed an elaborate model based on formal criteria, primarily on word formation (cf. Lăzărescu 1999). Looking from a corpus perspective, such classifications are incompatible with language in use and cognitive elements of misuse.
This article sketches first lexicological insights into a classification model as derived from semantic analyses of written communication. Firstly, a brief description of the project will be provided. Secondly, corpus-assisted paronym detection will be focused. Thirdly, in the main section the paper concerns the description of the datasets for paronym classification and the classification procedures. As a work in progress, new insights will continually be extended once spoken and CMC data are added to the investigations.
This paper presents a short insight into a new project at the "Institute for the German Language” (IDS) (Mannheim). It gives an insight into some basic ideas for a corpus-based dictionary of spoken German, which will be developed and compiled by the new project "The Lexicon of spoken German” (Lexik des gesprochenen Deutsch, LeGeDe). The work is based on the "Research and Teaching Corpus of Spoken German” (Forschungs- und Lehrkorpus Gesprochenes Deutsch, FOLK), which is implemented in the "Database for Spoken German” (Datenbank für Gesprochenes Deutsch, DGD). Both resources, the database and the corpus, have been developed at the IDS.
Qualifizierungsmaßnahmen wie „Perspektive für Flüchtlinge Plus“ (PerFPlus) können als wichtige Bestandteile der neuen Willkommenskultur in Deutschland betrachtet werden. Deutschland als Einwanderungsland kann mit Hilfe solcher Initiativen gezielt für Arbeitsbereiche und Berufsgruppen werben, in denen es an Nachwuchs mangelt. Den Neuzugewanderten bieten sie die eine Chance sich in der hiesigen Arbeitswelt zu orientieren und Berufsfelder zu erkunden, die ihnen bislang noch nicht oder nur in anderer Form bekannt waren. Auf der anderen Seite bergen solche Maßnahmen aber auch ihr Risiko: Wenn sie ihr Ziel verfehlen und Frustrationen auf beiden Seiten erzeugen, sind lange Warteschleifen, Arbeitslosigkeit und möglicherweise politische Polarisierung und Radikalisierung die Folge. Insofern ist eine schnelle Intervention hinsichtlich der Verbesserung solcher Maßnahmen essentiell. Der vorliegende Bericht soll die konzeptionell-arbeitenden Teams bei der Bundesagentur für Arbeit (BA) sowie bei Bildungsanbietern die mit der BA kooperieren bei ihren wichtigen Aufgaben unterstützen. Alle Partner bleiben im Bericht anonym.
Deutschland sieht sich in den nächsten Jahren vor enormen Herausforderungen gegen-übergestellt. Mit der Fluchtmigration von knapp 1,5 Mio. Menschen alleine zwischen 2014 und 2017 stehen nahezu in jedem gesellschaftlichen Bereich und hier insbesonde-re in den Sektoren Bildung und Arbeit große Integrationsaufgaben an. Steven Vertovec, der Leiter des Max-Planck-Instituts zur Erforschung multireligiöser und multiethnischer Gesellschaften bezeichnet die Fluchtmigration von 2015 auch deshalb als die „zweite Wende“ (Vertovec 2015) für Deutschland, die das Land nachhaltig verändern wird. Nach seiner Einschätzung werden die gesellschaftlichen Transformationen dermaßen tiefgrei-fend sein, dass die Formulierung „seit der Flüchtlingskrise“ eine ebenso geläufige Rede-wendung sein wird wie die Formulierung „seit der Wende“.
Berufliche Qualifizierungsmaßnahmen wie „GASTRO“ im Rhein-Neckar-Raum sind in diesem Kontext sehr wichtige Anstrengungen im Hinblick auf die strukturelle Integrati-on der Fluchtmigranten. Im gesamtgesellschaftlichen Kontext sind sie unverzichtbare Bestandteile der neuen Willkommenskultur, die seit den 2010ern versucht wird, in Deutschland zu etablieren. Als Einwanderungsland kann Deutschland mit Hilfe solcher Initiativen gezielt für Arbeitsbereiche und Berufsgruppen werben, in denen es an Nach-wuchs mangelt. Den Neuzugewanderten bieten sie die Chance sich in der hiesigen Ar-beitswelt zu orientieren und möglicherweise Berufsfelder zu erkunden, die ihnen bis-lang noch nicht oder nur in anderer Form bekannt waren.
In the first volume of Corpus Linguistics and Linguistic Theory, Gries (2005. Null-hypothesis significance testing of word frequencies: A follow-up on Kilgarriff. Corpus Linguistics and Linguistic Theory 1(2). doi:10.1515/ cllt.2005.1.2.277. http://www.degruyter.com/view/j/cllt.2005.1.issue-2/cllt.2005. 1.2.277/cllt.2005.1.2.277.xml: 285) asked whether corpus linguists should abandon null-hypothesis significance testing. In this paper, I want to revive this discussion by defending the argument that the assumptions that allow inferences about a given population – in this case about the studied languages – based on results observed in a sample – in this case a collection of naturally occurring language data – are not fulfilled. As a consequence, corpus linguists should indeed abandon null-hypothesis significance testing.
Analepses with topic-drop are frequent structures in German interaction. While hitherto the focus on analepses was a rather syntactic one, this paper deals with analeptic structures from a semantic perspective. It particularly concentrates on the semantic relations between the referents of the analepses and the prior interactional context. This analysis shows that even for rather simple analepses which just omit a constituent from the prior utterance, conceptual processes are more decisive for its interpretation than syntactic features of the antecedent constituents. This is even more the case for complex analepses that are only indirectly linked to the prior context, and for the interpretation of which hearers need to draw inferences. The paper argues that theoretical approaches like Conversation Analysis and Interactional Linguistics can profit from adopting a semantic and conceptual perspective for the interpretation of interactional structures.
As a consequence of a recent curation project, the Dortmund Chat Corpus is available in CLARIN-D research infrastructures for download and querying. In a legal expertise it had been recommended that standard measures of anonymisation be applied to the corpus before its republication. This paper reports about the anonymisation campaign that was conducted for the corpus. Anonymisation has been realised as categorisation, and the taxonomy of anonymisation categories applied is introduced and the method of applying it to the TEI files is demonstrated. The results of the anonymisation campaign as well as issues of quality assessment are discussed. Finally, pseudonymisation as an alternative to categorisation as a method of the anonymisation of CMC data is discussed, as well as possibilities of an automatisation of the process.
We use a convolutional neural network to perform authorship identification on a very homogeneous dataset of scientific publications. In order to investigate the effect of domain biases, we obscure words below a certain frequency threshold, retaining only their POS-tags. This procedure improves test performance due to better generalization on unseen data. Using our method, we are able to predict the authors of scientific publications in the same discipline at levels well above chance.
Der Auftaktworkshop "Lexik des gesprochenen Deutsch: Forschungsstand, Erwartungen und Anforderungen an die Entwicklung einer innovativen lexikografischen Ressource" fand am 16. und 17. Februar 2017 am Institut fur Deutsche Sprache (IDS) in Mannheim statt. Das von der Leibniz-Gemeinschaft geforderte Projekt "Lexik des gesprochenen Deutsch" (=LeGeDe, Leibniz-Wettbewerb 2016, Forderlinie "Innovative Vorhaben") nahm im September 2016 am IDS seine Arbeit auf. Das Hauptziel ist die Erstellung einer korpusbasierten elektronischen Ressource zur Lexik des gesprochenen Deutsch auf der Grundlage von lexikologischen und gesprachsanalytischen Untersuchungen authentischer gesprochensprachlicher Daten.
Harold Garfinkel, Begründer der Ethnomethodologie, wäre dieses Jahr 100 Jahre alt geworden, seine Studies in Ethnomethodology werden 50 Jahre. Grund genug diesen doppelten Geburtstag mit einer Tagung zur "deutschsprachigen Vorge-schichte, Wirkung und Rezeption des Werkes und der Person zu würdigen" (so der Ankündigungstext zur Tagung), die nicht ganz zufällig in Konstanz stattfand, lange Zeit und nach wie vor eine Hochburg rekonstruktiver Sozialforschung (auch) ethnomethodologischer Prägung. Die Tagung Harold Garfinkel's 'Studies in Ethnomethodolgy' – Fifty Years After vom 26.-28.10.2017 an der Universität Konstanz, ausgerichtet vom Lehrstuhl für Allgemeine Soziologie und Kultursoziologie und organisiert von Jörg Bergmann, Christian Meyer und Erhard Schüttpelz, tat dies in einer gebührlichen und beson-deren Weise: Die acht Kapitel der Studies in Ethnomethodology (im Folgenden kurz Studies), ein Konvolut aus Essays und Artikeln, die 1967 erschienen sind, dienten als Grundlage zur Strukturierung der Tagung und als Ausgangspunkt der einzelnen Vorträge.
Catching the common cause: extraction and annotation of causal relations and their participants
(2017)
In this paper, we present a simple, yet effective method for the automatic identification and extraction of causal relations from text, based on a large English-German parallel corpus. The goal of this effort is to create a lexical resource for German causal relations. The resource will consist of a lexicon that describes constructions that trigger causality as well as the participants of the causal event, and will be augmented by a corpus with annotated instances for each entry, that can be used as training data to develop a system for automatic classification of causal relations. Focusing on verbs, our method harvested a set of 100 different lexical triggers of causality, including support verb constructions. At the moment, our corpus includes over 1,000 annotated instances. The lexicon and the annotated data will be made available to the research community.
The paper presents best practices and results from projects dedicated to the creation of corpora of computer-mediated communication and social media interactions (CMC) from four different countries. Even though there are still many open issues related to building and annotating corpora of this type, there already exists a range of tested solutions which may serve as a starting point for a comprehensive discussion on how future standards for CMC corpora could (and should) be shaped like.
CMC Corpora in DeReKo
(2017)
We introduce three types of corpora of computer-mediated communication that have recently been compiled at the Institute for the German Language or curated from an external project and included in DeReKo, the German Reference Corpus, namely Wikipedia (discussion) corpora, the Usenet news corpus, and the Dortmund Chat Corpus. The data and corpora have been converted to I5, the TEI customization to represent texts in DeReKo, and are researchable via the web-based IDS corpus research interfaces and in the case of Wikipedia and chat also downloadable from the IDS repository and download server, respectively.
This paper discusses changes of lexicographic traditions with respect to approaches to meaning descriptions towards more cognitive perspectives. I will uncover how cognitive aspects can be incorporated into meaning descriptions based on corpus-driven analysis. The new German Online dictionary “Paronyme − Dynamisch im Kontrast” (Storjohann 2014; 2016) is concerned with easily confused words such as effektiv/effizient, sensibel/sensitiv. It is currently in the process of being developed and it aims at adopting a more conceptual and encyclopaedic approach to meaning by incorporating cognitive features. As a corpus-guided reference work it strives to adequately reflect ideas such as conceptual structure, categorisation and knowledge. Contrastive entries emphasise aspects of usage, comparing conceptual categories and indicate the (metonymic) mapping of knowledge. Adaptable access to lexicographic details and variable search options offer different foci and perspectives on linguistic information, and authentic examples reflect prototypical structures. Some of the cognitive features are demonstrated with the help of examples. Firstly, I will outline how patterns of usage imply conceptual categories as central ideas instead of sufficiently logical criteria of semantic distinction. In this way, linguistic findings correlate better with how users conceptualise language. Secondly, it is pointed out how collocates are treated as family members and fillers in contexts. Thirdly, I will demonstrate how contextual structure and functions are included summarising referential information. Details are drawn from corpus data, they are usage-based linguistic patterns illustrating conversational interaction and semantic negotiations in contemporary public discourse. Finally, I will outline consultation routines which activate different facets of structural knowledge, e.g. through changes of the ordering of information or through the visualisation of semantic networks.
This paper discusses how cognitive aspects can be incorporated into lexicographic meaning descriptions based on corpus-driven analysis. The new German Online dictionary “Paronyme − Dynamisch im Kontrast” is concerned with easily confused words such as effektiv/effizient, sensibel/sensitiv. It is currently in the process of being developed and it aims at adopting a more conceptual and encyclopedic approach to meaning. Contrastive entries emphasize usage, comparing conceptual categories and indicating the mapping of knowledge. Adaptable access to lexicographic details offers different perspectives on information, and authentic examples reflect prototypical structures.
Some of the cognitive features are demonstrated with the help of examples. Firstly, I will outline how patterns of usage imply conceptual categories as central ideas instead of sufficiently logical criteria of semantic distinction. In this way, linguistic findings correlate better with how users conceptualize language. Secondly, it is pointed out how collocates are family members and fillers in contexts. Thirdly, I will demonstrate how contextual structure and function are included by summarizing referential information. Details are drawn from corpus data; they are usage-based patterns illustrating conversational interaction and semantic negotiation in contemporary public discourse. Finally, I will show flexible consultation routines where the focus on structural knowledge changes.
The paper reports on the results of a scientific colloquium dedicated to the creation of standards and best practices which are needed to facilitate the integration of language resources for CMC stemming from different origins and the linguistic analysis of CMC phenomena in different languages and genres. The key issue to be solved is that of interoperability – with respect to the structural representation of CMC genres, linguistic annotations metadata, and anonymization/pseudonymization schemas. The objective of the paper is to convince more projects to partake in a discussion about standards for CMC corpora and for the creation of a CMC corpus infrastructure across languages and genres. In view of the broad range of corpus projects which are currently underway all over Europe, there is a great window of opportunity for the creation of standards in a bottom-up approach.
We present an approach to making existing CLARIN web services usable for spoken language transcriptions. Our approach is based on a new TEI-based ISO standard for such transcriptions. We show how existing tool formats can be transformed to this standard, how an encoder/decoder pair for the TCF format enables users to feed this type of data through a WebLicht tool chain, and why and how web services operating directly on the standard format would be useful.
In my talk, I present an empirical approach to detecting and describing proverbs as frozen sentences with specific functions in current language use. We have developed this approach in the EU project ‘SprichWort’ (based on the German Reference Corpus). The first chapter illustrates selected aspects of our complex, iterative procedure to validate proverb candidates. Based on our corpus-driven lexpan methodology of slot analysis I then discuss semantic restrictions of proverb patterns. Furthermore, I show different degrees of proverb quality ranging from genuine proverbs to non-proverb realizations of the same abstract pattern. On the one hand, the corpus validation reveals that proverbs are definitely perceived and used as relatively fixed entities and often as sentences. On the other hand, proverbs are not only interpreted as an interesting unique phenomenon but also as part of the whole lexicon, embedded in networks of different lexical items.
In the NLP literature, adapting a parser to new text with properties different from the training data is commonly referred to as domain adaptation. In practice, however, the differences between texts from different sources often reflect a mixture of domain and genre properties, and it is by no means clear what impact each of those has on statistical parsing. In this paper, we investigate how differences between articles in a newspaper corpus relate to the concepts of genre and domain and how they influence parsing performance of a transition-based dependency parser. We do this by applying various similarity measures for data point selection and testing their adequacy for creating genre-aware parsing models.
Das Konzept De-facto-Didaktik ist der theoretische Rahmen, in dem wir aus multimodal-interaktionsanalytischer Sicht Unterrichtskommunikation analysieren. Es integriert neue Entwicklungen im Bereich Interaktionstheorie, empirische Interaktionsanalyse und Raumlinguistik. Aus einer dezidiert interaktionistischen Perspektive fokussiert das Konzept zunächst bewusst allgemeine Anforderungen der Interaktionskonstitution, um spezifische Aspekte der Unterrichtskommunikation - im konkreten Fall primär das didaktische Handeln der Lehrer - neu perspektivieren zu können. Wie immer man das Geschehen im Unterricht auch konzeptualisieren mag, es ist und bleibt in seiner grundlegenden Struktur und - jenseits seiner institutionellen Prägung und Bedingtheit - ein Ereignis, das in der konkreten Interaktionsarchitektur des Klassenraums, sequenziell-simultan durch das multimodale Verhalten aller Anwesenden gemeinsam hervorgebracht wird. Dabei unterliegen alle Beteiligten ungeachtet ihrer besonderen Beteiligungsrolle den Bedingungen der Interaktionskonstitution.
Wir werden nachfolgend die interaktionstheoretischen Grundlagen skizzieren, auf der unsere Methode der de-facto-didaktisehen Analyse basiert, und führen dann an einem ausgewählten Beispiel vor, wodurch sich dieser analytische Zugang auszeichnet. Zum Abschluss weisen wir nach einem fallspezifischen Resümee auf die anwendungsbezogene Relevanz de-facto-didaktischer Analysen hin.
Die pfälzische Sprachinsel am Niederrhein, deren Gründung auf das Jahr 1641 zurückgeht, ist die letzte deutsche Binnensprachinsel. Sie steht unter einem akuten Assimilationsdruck, der sich im funktionellen Wandel des autochthonen dialektalen Systems bemerkbar macht; verstärkt wird dieser Prozess durch den deutschlandweit vielerorts beobachtbaren Rückgang der Dialektkompetenz auf basisdialektaler Ebene. In der vorliegenden Arbeit werden einerseits die Entwicklung in der Struktur des Sprachinseldialekts und andererseits die Rolle des Gebrauchs von sprachlichen Varianten als identitätsmarkierende Mittel untersucht. Dazu werden Sprachproben aus zwei Generationen variablenanalytisch ausgewertet und die Ergebnisse gegenübergestellt. Dabei zeigt sich, dass die dialektkompetenten Sprecher der jüngeren Generation einzelne (ehemals) dialektale Merkmale verstärkt realisieren, um ihre Identität als pfälzische Sprachinsulaner zu markieren.
We introduce a method for error detection in automatically annotated text, aimed at supporting the creation of high-quality language resources at affordable cost. Our method combines an unsupervised generative model with human supervision from active learning. We test our approach on in-domain and out-of-domain data in two languages, in AL simulations and in a real world setting. For all settings, the results show that our method is able to detect annotation errors with high precision and high recall.
Das Archiv für Gesprochenes Deutsch (AGD, Stift/Schmidt 2014) am Institut für Deutsche Sprache ist die zentrale Sammelstelle für Korpora des Gesprochenen Deutsch. Gegründet als Deutsches Spracharchiv (DSAv) im Jahre 1932 hat es über Eigenprojekte, Kooperationen und Übernahmen von Daten aus abgeschlossenen Forschungsprojekten einen Bestand von etwa 50 Variations- und Gesprächskorpora aufgebaut. Heute ist dieser Bestand fast vollständig digitalisiert und wird zu einem großen Teil der wissenschaftlichen Gemeinschaft über die Datenbank für Gesprochenes Deutsch (DGD) im Internet zur Nutzung in Forschung und Lehre angeboten.
Am 1. September 2016 hat das Forschungsprojekt „Lexik des gesprochenen Deutsch“ (= LeGeDe) am Institut für Deutsche Sprache in Mannheim als Kooperationsprojekt der Abteilungen Pragmatik und Lexik seine Arbeit aufgenommen. Dieses drittmittelgeförderte Projekt der Leibniz-Gemeinschaft (Leibniz-Wettbewerb 2016; Förderlinie 1: Innovative Vorhaben) hat eine Laufzeit von drei Jahren (1.9.2016-31.8.2019) und besteht aus einem Team von Mitarbeiterinnen und Mitarbeitern aus den Bereichen Lexikologie, Lexikografie, Gesprächsforschung, Korpus- und Computerlinguistik sowie Empirische Methoden. Im folgenden Beitrag werden neben Informationen zu den Eckdaten des Projekts, zu den unterschiedlichen Ausgangspunkten, dem Gegenstandsbereich, den Zielen sowie der LeGeDe-Datengrundlage vor allem einige grundlegende Forschungsfragen und methodologische Ansätze aufgezeigt sowie erste Vorschläge zur Gewinnung, Analyse und Strukturierung der Daten präsentiert. Zur lexikografischen Umsetzung werden verschiedene Möglichkeiten skizziert und im Ausblick einige Herausforderungen zusammengefasst.
Am Institut für Deutsche Sprache in Mannheim fand vom 17. bis 19.11.2016 die sechste Tagung des Netzwerks „Diskurs – interdisziplinär“ statt, diesmal zum Thema „Diskurs – kontrastiv“. An der Tagung nahmen Teilnehmerinnen und Teilnehmer aus Bosnien-Herzegowina, Deutschland, England, Polen, Serbien, Schweiz, Schweden, der Slowakei und Slowenien teil. Die 18 Vorträge waren fünf Sektionen zugeordnet: Prinzipien des Kontrastiven, Internationale Vergleiche, Metaphorik im internationalen Vergleich, kontrastive Semantik, Kulturen und Stereotype – transnational. Die Beiträge fokussierten dabei immer wieder folgende Fragestellungen: Wie werden gleiche Themen in unterschiedlichen Gesellschaften konstituiert und erörtert? Welche sprachlichen Auswirkungen haben die jeweiligen gesellschaftlichen und politischen Bedingungen, unter denen formal gleichwertige Diskursbeteiligte (z. B. außerparlamentarische Opposition, Bürgerinitiativen, Interessengruppen) in Bezug auf identische Diskursgegenstände sprachlich agieren? Inwiefern lassen sich ähnliche Diskurse als je spezifische Zeitphänomene darstellen? Inwiefern besteht strukturelle Identität/Similarität bzw. Differenz z. B. hinsichtlich der Verwendung vergleichbarer bzw. abweichender Leit- und Schlüsselwörter, Metaphern, Argumentationsmuster etc.? Neben Vorträgen, die sich derlei Fragestellungen widmeten, gab es zudem Beiträge, die sich auf empirischer Basis mit Methoden kontrastiver Diskursforschung auseinandersetzten.
Wie können Diskursmarker in einem Korpus gesprochener Sprache auffindbar gemacht werden? Was ist Part-of-Speech-Tagging und wie funktioniert es? In diesem Artikel soll anhand der POS-Kategorie Diskursmarker dargestellt werden, wie für das Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) ein Part-of-Speech-Tagging entwickelt wurde, das auf die Annotation typisch gesprochen-sprachlicher Phänomene ausgerichtet ist. Diskursmarker sollen dafür aus der Sicht maschineller Sprachverarbeitung dargestellt werden, d. h. wie eine POS-Kategorie Diskursmarker so definiert werden kann, dass sie automatisch annotiert werden kann. Schließlich soll gezeigt werden, wie man auch weitere Diskursmarker in der Datenbank auffinden kann
Der vorliegende Band ist die erste Publikation in Buchform, die sich umfassend den Diskursmarkern im gesprochenen Deutsch widmet. Vor dem Hintergrund des Forschungsstands zu anderen Sprachen gibt er einen repräsentativen Überblick über Formen und Funktionen von Diskursmarkern in der deutschen Gegenwartssprache.
Die zwölf Beiträge befassen sich mit dem Diskursmarkerbegriff und seiner definitorischen Abgrenzung sowie mit den interaktionalen Funktionen von Diskursmarker-Subklassen und ausgewählten Einzelmarkern. Alle Beiträge stützen sich auf Originalaufnahmen mündlicher Interaktionen. Teilweise werden ergänzend schriftlich konstituierte Daten herangezogen.
Der Aufsatz beschreibt Grundlinien der Diskursmarkerforschung von ihren Anfängen bis in die Mitte der 2010er Jahre. Der Schwerpunkt liegt auf einer fachgeschichtlichen und systematischen Rekonstruktion des Diskursmarkerbegriffs. Im ersten Schritt werden Herausbildung und Entwicklung des Terminus nachgezeichnet und zu verwandten Termini wie Partikel, Gesprächswort und (pragmatischer) Operator in Beziehung gesetzt. Dabei werden unterschiedliche Forschungstraditionen in Germanistik, angelsächsischer Linguistik und Romanistik sowie ihre wechselseitigen Verflechtungen berücksichtigt. Im zweiten Schritt werden inhaltliche Bestimmungen des Diskursmarkerbegriffs in morphologischer, prosodischer, syntaktischer, semantischer, pragmatischer und sprachgeschichtlicher Hinsicht zusammengestellt und gewichtet. Zum Schluss werden unterschiedliche Richtungen der Diskursmarkerforschung in einen systematischen Zusammenhang gestellt, der die notorischen Unschärfen des Diskursmarkerbegriffs verständlich macht und ihre Überwindung absehbar erscheinen lässt.
In diesem Aufsatz werden Diskursmarker als Operatoren definiert, die Skopus über Sprechakte nehmen, d.h. Sprechakte modifizieren oder miteinander verknüpfen. Als Sprechakte in diesem Sinne kommen neben perlokutionären und illokutionären auch lokutionäre Akte in Betracht. Die Operation eines Diskursmarkers wird als Zuordnung thematischer Rollen konzeptualisiert. Dafür muss der Diskursmarker zu seinem Operanden im syntaktischen Verhältnis eines Kopfes zu seinem Komplement oder eines Adjunktes zu seinem Wirt stehen, oder er muss ein syntaktisch unabhängiger referentieller Ausdruck sein, der seinen Operanden als Verweisziel nimmt. Linear stehen Diskursmarker typischerweise peripher zu ihren Operanden. In satzförmigen Operanden können adverbiale Diskursmarker auch Binnenstellungen einnehmen.
Ziel einer größer angelegten Studie – die Grundlage dieses Beitrags ist – war es, anhand der „Gassigespräche“ auf gattungsspezifische Ordnungsprinzipien und Familienähnlichkeiten miteinander verwandter Alltagsgattungen einzugehen, die vor allem in westlichen Kulturen etabliert zu sein scheinen. Die ihnen zugrundeliegenden kommunikativen Muster beschreiben wir als mehr oder weniger stark verfestigte Elemente. Mit diesem Beitrag wollen wir einen Einblick in die gattungsanalytische Betrachtung von Alltagskommunikation am Beispiel der Gassigespräche bieten.
Einleitung
(2017)
Einleitung
(2017)
Das Handbuch Europäische Sprachkritik Online (HESO) liefert eine vergleichende Perspektive auf Sprachkritik in europäischen Sprachkulturen. Das Handbuch ist eine periodische und mehrsprachige Online-Publikation. Zu ausgewählten Konzepten der Sprachkritik werden sukzessiv enzyklopädische Artikel veröffentlicht, die ein sprachkritisches Schlüsselkonzept betreffen und die für die europäische Perspektive von kultureller Bedeutung sind. Das Ziel ist demnach, eine Konzeptgeschichte der europäischen Sprachkritik zu präsentieren. Zum einen liefert das Handbuch einen spezifischen Blick auf die jeweiligen Sprachkulturen. Zum anderen werden diese vergleichend in den Blick genommen.
To improve grammatical function labelling for German, we augment the labelling component of a neural dependency parser with a decision history. We present different ways to encode the history, using different LSTM architectures, and show that our models yield significant improvements, resulting in a LAS for German that is close to the best result from the SPMRL 2014 shared task (without the reranker).
Unknown words are a challenge for any NLP task, including sentiment analysis. Here, we evaluate the extent to which sentiment polarity of complex words can be predicted based on their morphological make-up. We do this on German as it has very productive processes of derivation and compounding and many German hapax words, which are likely to bear sentiment, are morphologically complex. We present results of supervised classification experiments on new datasets with morphological parses and polarity annotations.
The German Historical Institute Washington (GHI) is in the development phase of German History Digital (GH-D), a transatlantic digital initiative to meet the scholarly needs of historians and their students facing new historiographical and technological challenges. In the proposed paper we will discuss the research goals, methodology, prototyping, and development strategy of GH-D as infrastructure to facilitate transnational historical knowledge co-creation for the large community of researchers and students already relying on digital resources of the GHI and for the growing constituency of citizen scholars.
The possibilities of re-use and archiving of spoken and written corpora are affected by personality rights (depending on legal tradition also called: the right of publicity), copyright law and data protection / privacy laws. These recommendations include information about legal aspects which should be considered while creating corpora to ensure the greatest archivability and re-usability possible in compliance with current laws.
The information compiled here shall serve researchers who plan to create corpora or who are involved in evaluation of such measures as a guideline. This information is not exhaustive or to be considered as legal advice. Researchers should consult institutional legal departments and management before making legally relevant decisions. That said, further legal expertise should be sought if possible as early as project planning phases.
Die ältesten schriftlichen Rezepte in deutscher Sprache sind uns im Buoch von guoter Spise aus der Zeit um 1350 überliefert (<http://digital.slub-dresden.de/werkansicht/dlf/2518/1/>, 10.7.2017). Schon damals hatten Rezepte wie heute außer der Kochanleitung einen Namen. Denn um über etwas reden zu können, geben wir allem einen Namen. Im Buoch von guoter Spise heißen die Gerichte Ain mandel suppen oder Ein gebraten gefültes ferhelin.
Historical sociolinguistics in colonial New Guinea: The Rhenish mission society in the Astrolabe Bay
(2017)
The Rhenish Mission Society, a German Protestant mission, was active in a small part of northern New Guinea, the Astrolabe Bay, between 1887 and 1932. Up until 1914, this region was under German colonial rule. The German dominance was also reflected in rules on language use in official contexts such as schools and administration.
Missionaries were strongly affected by such rules as their most important tool in mission work was language. In addition, they were also responsible for school education as most schools in the German colonial areas in the Pacific were mission-run. Thus, mission societies had to make decisions about what languages to use, considering their own needs, their ideological convictions, and the colonial government’s requirements. These considerations were framed by the complex setting of New Guinea’s language wealth where several hundred languages were, and still are, spoken.
This paper investigates a small set of original documents from the Rhenish Mission Society to trace what steps were taken and what considerations played a major role in the process of agreeing on a suitable means of communication with the people the missionaries wanted to reach, thereby touching upon topics such as language attitudes, language policies and politics, practical considerations of language learning and language spread, and colonial actions impacting local language ecologies.
Der vorliegende Beitrag beschäftigt sich mit ICH WEIß NICHT und der Frage danach, ob einige der Verwendungen als Diskursmarker bezeichnet werden können oder nicht. Es wird zunächst ein Überblick über die Kriterien gegeben, die in der interaktionalen Linguistik für die Diskursmarkerdefinition diskutiert wurden. Dabei wird versucht, definitorische Kriterien von empirischen Befunden abzugrenzen. Es folgt eine Analyse verschiedener Verwendungen von ICH WEIß NICHT. Ein Schwerpunkt liegt dabei auf Verwendungen als epistemischer und pragmatischer Marker, die sowohl mit prospektiver Orientierung als auch mit retrospektiver Orientierung vorkommen. Abschließend wird der Unterschied zwischen definitorischen und empirischen Kriterien für die Diskursmarkerdefinition systematisiert. Auf dieser Basis argumentieren wir dafür, dass alle Verwendungen von ICH WEIß NICHT, die diskursfunktionale Eigenschaften haben und syntaktisch desintegriert sind, Diskursmarkerverwendungen sind. Einige davon sind prototypischer, während andere Fälle eher marginal sind, da sie einige Merkmale, die die meisten Diskursmarker kennzeichnen, nicht aufweisen.
Interaktion und Medien
(2017)
Introduction
(2017)
CoMParS is a resource under construction in the context of the long-term project German Grammar in European Comparison (GDE) at the IDS Mannheim. The principal goal of GDE is to create a novel contrastive grammar of German against the background of other European languages. Alongside German, which is the central focus, the core languages for comparison are English, French, Hungarian and Polish, representing different typological classes. Unlike traditional contrastive grammars available for German, which usually cover language pairs and are based on formal grammatical categories, the new GDE grammar is developed in the spirit of functionalist typology. This implies that, instead of formal criteria, cognitively motivated functional domains in terms of Givón (1984) are used as tertia comparationis. The purpose of CoMParS is to document the empirical basis of the theoretical assumptions of GDE-V and to illustrate the otherwise rather abstract content of grammar books by as many as possible naturally occurring and adequately presented multilingual examples, including information on their use in specific contexts and registers. These examples come from existing parallel corpora, and our presentation will focus on the legal aspects and consequences of this choice of language data.
This paper gives an insight into the basic concepts for a corpus-based lexical resource of spoken German, which is being developed by the project "The Lexicon of Spoken German"(Lexik des gesprochenen Deutsch, LeGeDe) at the "Institute for the German Language" (Institut für Deutsche Sprache, IDS) in Mannheim. The focus of the paper is on initial ideas of semi-automatic and automatic resources that assist the quantitative analysis of the corpus data for the creation of dictionary content. The work is based on the "Research and Teaching Corpus of Spoken German" (Forschungs- und Lehrkorpus Gesprochenes Deutsch, FOLK).
Am 12. Mai 1965 nahmen der Staat Israel und die Bundesrepublik Deutschland offiziell diplomatische Beziehungen auf. Damit kam über 15 Jahre nach der Konstitution der beiden Länder und 20 Jahre nach dem Ende der Shoah ein komplexer Prozess der langsamen politischen Annäherung zu einem keineswegs selbstverständlichen Abschluss. Das fünfzigjährige Jubiläum dieses Ereignisses im Jahr 2015 war weltweit, vor allem aber in Israel und Deutschland, Anlass für zahlreiche Veranstaltungen, über die eine offizielle bilaterale Webseite <www.de50il.org/> (Stand: 6.11.2017) Auskunft gibt. Im Rahmen des Jubiläums wurde am 30. September 2015 in einer feierlichen Abendveranstaltung im Jüdischen Museum Berlin offiziell das „Wörterbuch deutscher Lehnwörter im Hebräischen“ von Uriel Adiv in einer ersten Fassung im „Lehnwortportal Deutsch“ des IDS freigeschaltet. Eine von Koautor Jakob Mendel erheblich überarbeitete und verbesserte zweite Version ging im Mai 2017 online. Der vorliegende Beitrag möchte einige Hintergründe zum deutschen Lehnwortschatz im modernen Hebräischen darstellen sowie die Entstehungsgeschichte des Werks und seinen Platz in der lehnwortlexikografischen Publikationsplattform „Lehnwortportal Deutsch“ <http://lwp.ids-mannheim.de/> (Stand: 6.11.2017) beleuchten.
Körperliche wie seelische Gesundheit ist ein hohes individuelles und gesellschaftliches Gut und Grundrecht. Häufig wird die Gesundheit durch ihr Gegenteil, d. h. in der Verständigung über Krankheit, thematisiert. Der gesellschaftliche Austausch über Krankheiten, Gesundheitsrisiken und Behandlungsmethoden ist untrennbar mit Sprache verknüpft (Busch/Spranz-Fogasy 2015); die Sprache ist „[…] das zentrale Medium, um medizinisches Wissen herzustellen, zu systematisieren, zu tradieren und auszutauschen.“ (Busch/Spranz-Fogasy 2015: 336). Ausgehend von dieser Prämisse wurde das Netzwerk „Linguistik und Medizin“ gegründet, um die Forschungstätigkeiten der verschiedenen linguistischen Disziplinen, die an den Verbindungslinien von „Sprache – Wissen – Medizin“ arbeiten, zu bündeln: Forschungsdesiderate sollen kooperierend bearbeitet und die interdisziplinäre Anschlussfähigkeit zwischen linguistischen und medizinischen, psychiatrischen sowie salutogenetischen Forschungsbereichen auf- und ausgebaut werden.
Localism
(2017)
Localist hypothesis
(2017)
Making 1:n explorable: a search interface for the ZAS database of clause-embedding predicates
(2017)
We introduce a recently published corpus-based database of German clause-embedding predicates and present an innovative web application for exploring it. The application displays the predicates and the corpus examples for these predicates in two separate tables that can be browsed and searched in real time. While familiar web interface paradigms make it easy for users to get started, the data presentation and the interactive advanced search components for the two tables are designed to accommodate remarkably complex query needs without the need for resorting to a dedicated query language or a more specialized tool. The 1:n relationship between predicates and their examples is exploited in the two tables in that, e.g. the predicate table also shows, for each predicate and each example attribute, all values that occur in the examples for this predicate. An easy-to-use visual query builder for arbitrary Boolean combinations of search criteria can optionally be displayed to pre-filter the underlying data presented in both tables. Several options for altering quantifier scope can be activated with simple checkboxes and considerably widen the space of searchable constellations.
Die folgenden Ausführungen zur Maskierung basieren auf den Erfahrungen bei der Aufbereitung der Daten des Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) für die Veröffentlichung in der Datenbank für Gesprochenes Deutsch (DGD). Sie sollen anderen Forschern und Forschungsprojekten als praktische Hilfestellung für die Maskierung von Aufnahmen dienen, können aber selbstverständlich nicht die gesamte Bandbreite von Einzelfallentscheidungen und Pflichten der Forschenden abdecken.
Es werden sowohl allgemeine Hinweise zur Maskierung von Audio- und Videoaufnahmen gegeben als auch praktische Tipps zur Umsetzung der Maskierung mit dem Transkriptionseditor FOLKER.
Die in den Ausführungen geschilderten arbeitsteiligen Prozesse in größeren Projekten können in kleineren Projekten einzelner Forscher selbstverständlich auch von einer einzelnen Person ausgeführt werden.
Bis heute und weltweit genießt der „Mechanismus der menschlichen Sprache“ des Wolfgang von Kempelen unter Kennern einen beinahe legendären Ruf. In Methodik und Argumentation zählte dieses Buch seinerzeit zur wissenschaftlichen Avantgarde der erst im Entstehen begriffenen Phonetik. Heute jedoch ist seine Rezeption mit erheblichen Hürden verbunden: Insbesondere seine altertümliche Sprache und die Frakturschrift behindern eine intensive Auseinandersetzung. Zudem Fehlte bislang eine englische Übersetzung.
Bis heute und weltweit genießt der „Mechanismus der menschlichen Sprache“ des Wolfgang von Kempelen unter Kennern einen beinahe legendären Ruf. In Methodik und Argumentation zählte dieses Buch seinerzeit zur wissenschaftlichen Avantgarde der erst im Entstehen begriffenen Phonetik. Heute jedoch ist seine Rezeption mit erheblichen Hürden verbunden: Insbesondere seine altertümliche Sprache und die Frakturschrift behindern eine intensive Auseinandersetzung. Zudem fehlte bislang eine englische Übersetzung.
This paper deals with the creation of the first morphological treebank for German by merging two pre-existing linguistic databases. The first of these is the linguistic database CELEX which is a standard resource for German morphology. We build on its refurbished and modernized version. The second resource is GermaNet, a lexical-semantic network which also provides partial markup for compounds. We describe the state of the art and the essential characteristics of both databases and our latest revisions. As the merging involves two data sources with distinct annotation schemes, the derivation of the morphological trees for the unified resource is not trivial. We discuss how we overcome problems with the data and format, in particular how we deal with overlaps and complementary scopes. The resulting database comprises about 100,000 trees whose format can be chosen according to the requirements of the application at hand. In our discussion, we show some future directions for morphological treebanks. The Perl script for the generation of the data from the sources will be made publicly available on our website.
Modeling the properties of German phrasal compounds within a usage-based constructional approach
(2017)
This paper discusses phrasal compounds in German (e.g.“Man-muss-doch-überalles-reden-können”-Credo, ‘one-should-be-able-to-talk-about-everything motto’). It provides the first empirically based investigation and description of this wordformation type within the theoretical framework of construction grammar. While phrasal compounds pose a problem for “traditional” generative approaches, I argue that a usage-based constructional model (e.g. Langacker 1987; Goldberg 2006) which takes into consideration aspects of frequency provides a suitable approach to modeling and explaining their properties. For this purpose, a large inventory of phrasal compounds was extracted from the German Reference Corpus (DeReKo) and modeled as pairings of form and meaning at different levels of specificity and abstractness within a bottom-up process.
Overall, this paper not only presents a new and original approach to phrasal compounds, but also offers interesting perspectives for dealing with composition in general.
The authors are pleased to present to the readers of the Zeitschrift für Sprachwissenschaft a Special Issue in honor of Rosemarie Tracy.
Contents:
0. Frontmatter
1. Petra Schulz, Ira Gawlitzek, Angelika Wöllstein: Introduction, S. 1
2. Natascha Müller: Different sources of delay and acceleration in early child bilingualism, S. 7
3. Hubert Haider, Christina Schörghofer-Essl, Karin Seethaler: Quantifying kids prefer intersecting sets - a pilot study, S. 31
4. Petra Schulz, Rabea Schwarze: How strong is the ban on non-finite verbs in V2? Evidence from early second language learners of German with and without SLI, S. 51
5. Monika Rothweiler, Manuela Schönenberger, Franziska Sterner: Subject-verb agreement in German in bilingual children with and without SLI, S. 79
6. Holger Hopp: The processing of English which-questions in adult L2 learners: Effects of L1 transfer and proficiency, S. 107
7. Oksana Laleko, Maria Polinsky: Silence is difficult: On missing elements in bilingual grammars, S. 135
8. Artemis Alexiadou: Building verbs in language mixing varieties, S. 165
In diesem Aufsatz wird einzelfallanalytisch der Frage nachgegangen, wie die Struktur einer Kirchenbesichtigung aussieht. Im theoretischen Rahmen, der die Kirchenbesichtigung als kulturelle Praktik konzeptualisiert, wird „Objektkonstitution“ als eine aktive Leistung des Kirchenbesichtigers in den Blick genommen. Bei den Aufnahmen zum Kirchenbesichtigungskorpus wurden die Besichtiger nicht nur bei ihrem Gang durch den Kirchenraum und der visuellen Wahrnehmung bestimmter Raumaspekte gefilmt. Sie wurden vielmehr darum gebeten, ihre visuelle Wahrnehmung durch begleitendes Sprechen auch zu kommentieren. Aufgezeichnet wurde das Besichtigungskorpus mit zwei Kameras: einer Actionkamera, die den Wahrnehmungsraum der Besichtiger dokumentiert, und einer Kontextkamera, die ihnen bei ihrem Weg durch den Raum folgt.
Dieses experimentelle Erhebungsdesign, bei dem exothetisches Sprechen bewusst als wissenschaftliche Erhebungsmethode eingesetzt wird, macht es möglich, das Besichtigungskonzept der Personen als dynamisches Zusammenspiel ihrer visuellen Wahrnehmung des Kirchenraums und ihrer wahrnehmungsbegleitenden Exothese zu rekonstruieren. Dass Objektkonstitution eine aktive Herstellung ist, durch die der Kirchenraum in den Relevanzen seines Betrachters teilweise neu entsteht, zeigt die Fallanalyse in exemplarischer Klarheit: Anton, der analysierte Besichtiger, der sich ausführlich mit zwei großen Gemälden beschäftigt, konstituiert diese de facto als „Bilderrahmen“, ohne überhaupt auf die dargestellten Szenen einzugehen.
Contents:
1. Andreas Dittrich: Intra-connecting a small exemplary literary corpus with semantic web technologies for exploratory literary studies, S. 1
2. John Kirk, Anna Čermáková: From ICE to ICC: The new International Comparable Corpus, S. 7
3. Dawn Knight, Tess Fitzpatrick, Steve Morris, Jeremy Evas, Paul Rayson, Irena Spasic, Mark Stonelake, Enlli Môn Thomas, Steven Neale, Jennifer Needs, Scott Piao, Mair Rees, Gareth Watkins, Laurence Anthony, Thomas Michael Cobb, Margaret Deuchar, Kevin Donnelly, Michael McCarthy, Kevin Scannell: Creating CorCenCC (Corpws Cenedlaethol Cymraeg Cyfoes – The National Corpus of Contemporary Welsh), S. 13
4. Marc Kupietz, Andreas Witt, Piotr Bański, Dan Tufiş, Dan Cristea, Tamás Váradi: EuReCo - Joining Forces for a European Reference Corpus as a sustainable base for cross-linguistic research, S. 15
5. Harald Lüngen, Marc Kupietz: CMC Corpora in DeReKo, S. 20
6. David McClure, Mark Algee-Hewitt, Douris Steele, Erik Fredner, Hannah Walser: Organizing corpora at the Stanford Literary Lab, S. 25
7. Radoslav Rábara, Pavel Rychlý ,Ondřej Herman: Accelerating corpus search using multiple cores, S. 30
8. John Vidler, Stephen Wattam: Keeping Properties with the Data: CL-MetaHeaders – An Open Specification, S. 35
9. Vladimir Benko: Are Web Corpora Inferior? The Case of Czech and Slovak, S. 43
10. Edyta Jurkiewicz-Rohrbacher, Zrinka Kolaković, Björn Hansen: Web Corpora – the best possible solution for tracking phenomena in underresourced languages: clitics in Bosnian, Croatian and Serbian, S. 49
11. Vít Suchomel: Removing Spam from Web Corpora Through Supervised Learning Using FastText, S. 56
Reden über Geld
(2017)
Rekontextualisierung von Hate Speech als Aneignungs- und Positionierungsverfahren in Sozialen Medien
(2017)
Hate Speech wird im vorliegenden Aufsatz nicht als Medium der Herabwürdigung betrachtet, sondern als Positionierungsverfahren. Es handelt sich bei Hate Speech Liebert (2015, 176) zufolge um eine „unorganisierte [...] Praktik" innerhalb der Online-Kommunikation. Das würde erstens bedeuten, dass keine strategische Dekonstruktion einer spezifischen Identität damit verbunden ist, wie das etwa beim Cybermobbing der Fall wäre. Es gibt also keine Verabredungen und gruppenkonstitutiven Prozesse außerhalb der medial vermittelten Kommunikation. Es scheint jedoch auch die diskursdynamischen Prozesse auszublenden, die sich ad hoc „organisieren", wo Hassrede praktiziert wird. Zweitens ruft der Terminus der „Unorganisiertheit" die Assoziation einer strukturellen Unterspezifikation auf und damit das Bedürfnis nach einer präzisierenden Definition für diese Praktik. Drittens ware davon auszugehen, dass Hass-Kommentare verstreut an Diskursorten und zu willkürlichen Diskurszeiten auftreten, die deshalb nicht vorhersagbar sind.
This paper discusses the categorial status of nominalized adjectives, which share formal properties with both adjectives and nouns, in present-day German. Based on a corpus study conducted in the Deutsches Referenzkorpus (DeReKo), it is shown that different types of deadjectival nouns do not behave uniformly with respect to pronoun choice in attributive relative clauses. While nominalized positives (in the neuter gender) preferably combine with the regular relative pronoun das ‘that’, superlatives strongly favor relativization by means of the corresponding wh-form was ‘what’. The contrasts are taken to reflect structural differences in the internal make-up of the respective categories that give rise to different degrees of ‘nouniness’.
Schriften
(2017)
Das Handbuch Europäische Sprachkritik Online liefert eine vergleichende Perspektive auf Sprachkritik in europäischen Sprachkulturen (im Speziellen auf die Sprachkritik im Deutschen, Englischen, Französischen, Italienischen und Kroatischen). In dem Handbuch werden zentrale Konzepte der Sprachkritik deskriptiv behandelt. Das Ziel ist demnach, eine Konzeptgeschichte der europäischen Sprachkritik zu präsentieren. Zum einen liefert das Handbuch einen spezifischen Blick auf die jeweiligen Sprachkulturen. Zum anderen werden diese vergleichend in den Blick genommen. Das multilinguale Handbuch erscheint periodisch in Bänden.
Sprachnormen und Sprachnormierungsprozesse hängen unmittelbar mit Sprachreflexion und Sprachkritik zusammen. Entweder werden Sprachnormen und Sprachnormierungsprozesse linguistisch be- schrieben oder linguistisch / laienlinguistisch bewertet. In der linguistisch begründeten Sprachkritik der 1980er Jahre wird unter dem Paradigma der Sprachnormenkritik der Prozess der Sprachnormierung beobachtet und beschrieben. Sprachnormen und Sprachnormierungsprozesse werden in sprachhistorischer Perspektive aber bereits viel früher in intellektuel- len Kreisen reflektiert und kritisiert. Auch in gegenwärtiger Perspektive sind im laienlinguistischen Bereich Bestrebungen zu verzeichnen, mittels Sprachkritik Einfluss auf Sprachnormen und Sprachnormierungsprozesse zu nehmen. Seit den 2000er Jahren setzen sich wiederum Linguistinnen und Linguisten zum Ziel, Sprachnormen und Sprachnormierung zunächst zu beschreiben und dann nach linguistischen Kriterien zu bewerten. In dem Artikel wird ein Sprachnormenkritikbegriff vertreten, der auf einem Kontinuum von eher Ausdrucksmöglichkeiten abwägenden bis hin zu eindeutig positionsbezogenen Sprachbetrachtungen zu verorten ist, und sowohl die linguistische als auch die laienlinguistische Perspektive mit einbezieht. Unter Sprachnormenkritik wird hier also eine Reflexion der Sprachnormen und Sprachnormierungsprozesse verstanden, in der die Kriterien explizit (eher beschreibend oder eher bewertend) formuliert oder implizit praktiziert werden.
Der Artikel beschäftigt sich mit einem ganz spezifischen Blick auf Sprachnormen: Ausgehend von der Sprachnormenkritik der Germanistik fokussiert der Artikel die sozio-politischen Implikationen sprachlicher Normfragen. Der Terminus Sprachnormenkritik hat weder im Englischen noch im Französischen oder Italienischen und auch nicht im Kroatischen eine ausdrucksseitige Entsprechung. Das Konzept der ›Sprachnormenkritik‹ bzw. bestimmte Teilkomponenten sind dessen ungeachtet im Englischen, Französischen, Italienischen und Kroatischen seit Jahrhunderten in der Diskussion. Aus vergleichend europäischer Perspektive ist besonders interessant, dass nicht in jedem nationalsprachlichen Diskurs über Sprachnormen der unmittelbare Zusammenhang von sprachlichen Normen einerseits und sozio-ökonomischer Macht bzw. politischer Handlungsfähigkeit andererseits als korrelierende Phänomene diskutiert wird – und genau dies ist der Kern der ursprünglichen Sprachnormenkritik im Deutschen. Besonders eindrücklich lässt sich der politische Charakter der Sprachnormenkritik im Kroatischen demonstrieren. In den 1960er Jahren ist die Sprachnormenkritik im Kroatischen nicht nur eine Kritik, die degressiv erscheinende Zustände aufzudecken versucht, sondern vor allem eine progressive Kritik, die als Vorreiter der politischen Bewegung für die Unabhängigkeit Kroatiens angesehen werden kann.
Die Guidelines sind eine Erweiterung des STTS (Schiller et al. 1999) für die Annotation von Transkripten gesprochener Sprache. Dieses Tagset basiert auf der Annotation des FOLK-Korpus des IDS Mannheim (Schmidt 2014) und es wurde gegenüber dem STTS erweitert in Hinblick auf typisch gesprochensprachliche Phänomene bzw. Eigenheiten der Transkription derselben. Es entstand im Rahmen des Dissertationsprojekts „POS für(s) FOLK – Entwicklung eines automatisierten Part-of-Speech-Tagging von spontansprachlichen Daten“ (Westpfahl 2017 (i.V.)).
The paper reviews the results of work done in the context of TEI-Lex0, a joint ENeL / DARIAH / PARTHENOS initiative aimed at formulating guidelines for the encoding of retrodigitized dictionaries by streamlining and simplifying the recommendations of the “Print Dictionaries” chapter of the TEI Guidelines. TEI-Lex0 work is performed by teams concentrating on each of the main components of dictionary entries. The work presented here concerns proposals for constraining TEI-based encoding of orthographic, phonetic, and grammatical information on written and spoken forms of the lemma (headword), including auxiliary inflected forms. We also adduce examples of handling various types of orthographic and phonetic variants, as well as examples of handling the representation of inflectional paradigms, which have received less attention in the TEI Guidelines but which are nonetheless essential for properly exposing data content to the various uses that digitized lexica may have.
In the lexicon of pidgin and creole languages we can see an important part of these languages’ history of origin and of language contact. The current paper deals with the lexical sources of Tok Pisin and, more specifically, with words of German origin found in this language. During the period of German colonial domination of New Guinea and a number of insular territories in the Pacific (ca. 1885–1915), German words entered the emerging Tok Pisin lexicon. Based on a broad range of lexical and lexicographic data from the early 20th century up until today, we investigate the actual or presumed German origin of a number of Tok Pisin words and trace different lexical processes of integration that are linked to various, often though not always colonially determined, contact settings and sociocultural interactions.
Languages employ different strategies to transmit structural and grammatical information. While, for example, grammatical dependency relationships in sentences are mainly conveyed by the ordering of the words for languages like Mandarin Chinese, or Vietnamese, the word ordering is much less restricted for languages such as Inupiatun or Quechua, as these languages (also) use the internal structure of words (e.g. inflectional morphology) to mark grammatical relationships in a sentence. Based on a quantitative analysis of more than 1,500 unique translations of different books of the Bible in almost 1,200 different languages that are spoken as a native language by approximately 6 billion people (more than 80% of the world population), we present large-scale evidence for a statistical trade-off between the amount of information conveyed by the ordering of words and the amount of information conveyed by internal word structure: languages that rely more strongly on word order information tend to rely less on word structure information and vice versa. Or put differently, if less information is carried within the word, more information has to be spread among words in order to communicate successfully. In addition, we find that–despite differences in the way information is expressed–there is also evidence for a trade-off between different books of the biblical canon that recurs with little variation across languages: the more informative the word order of the book, the less informative its word structure and vice versa. We argue that this might suggest that, on the one hand, languages encode information in very different (but efficient) ways. On the other hand, content-related and stylistic features are statistically encoded in very similar ways.
We present a major step towards the creation of the first high-coverage lexicon of polarity shifters. In this work, we bootstrap a lexicon of verbs by exploiting various linguistic features. Polarity shifters, such as ‘abandon’, are similar to negations (e.g. ‘not’) in that they move the polarity of a phrase towards its inverse, as in ‘abandon all hope’. While there exist lists of negation words, creating comprehensive lists of polarity shifters is far more challenging due to their sheer number. On a sample of manually annotated verbs we examine a variety of linguistic features for this task. Then we build a supervised classifier to increase coverage. We show that this approach drastically reduces the annotation effort while ensuring a high-precision lexicon. We also show that our acquired knowledge of verbal polarity shifters improves phrase-level sentiment analysis.
Multinomial processing tree (MPT) models are a class of measurement models that account for categorical data by assuming a finite number of underlying cognitive processes. Traditionally, data are aggregated across participants and analyzed under the assumption of independently and identically distributed observations. Hierarchical Bayesian extensions of MPT models explicitly account for participant heterogeneity by assuming that the individual parameters follow a continuous hierarchical distribution.We provide an accessible introduction to hierarchical MPT modeling and present the user-friendly and comprehensive R package TreeBUGS, which implements the two most important hierarchical MPT approaches for participant heterogeneity—the beta-MPT approach (Smith & Batchelder, Journal of Mathematical Psychology 54:167-183, 2010) and the latent-trait MPT approach (Klauer, Psychometrika 75:70-98, 2010). TreeBUGS reads standard MPT model files and obtains Markov-chain Monte Carlo samples that approximate the posterior distribution. The functionality and output are tailored to the specific needs of MPT modelers and provide tests for the homogeneity of items and participants, individual and group parameter estimates, fit statistics, and within- and between-subjects comparisons, as well as goodness-of-fit and summary plots. We also propose and implement novel statistical extensions to include continuous and discrete predictors (as either fixed or random effects) in the latent-trait MPT model.
Universal Dependency (UD) annotations, despite their usefulness for cross-lingual tasks and semantic applications, are not optimised for statistical parsing. In the paper, we ask what exactly causes the decrease in parsing accuracy when training a parser on UD-style annotations and whether the effect is similarly strong for all languages. We conduct a series of experiments where we systematically modify individual annotation decisions taken in the UD scheme and show that this results in an increased accuracy for most, but not for all languages. We show that the encoding in the UD scheme, in particular the decision to encode content words as heads, causes an increase in dependency length for nearly all treebanks and an increase in arc direction entropy for many languages, and evaluate the effect this has on parsing accuracy.
Lexicographic meaning descriptions of German lexical items which are formally and semantically similar and therefore easily confused (so-called paronyms) often do not reflect their current usage of lexical items. They can even contradict one’s personal intuition or disagree with lexical usage as observed in public discourse. The reasons are manifold. Language data used for compiling dictionaries is either outdated, or lexicographic practice is rather conventional and does not take advantage of corpus-assisted approaches to semantic analysis. Despite of various modern electronic or online reference works speakers face uncertainties when dealing with easily confusable words. These are for example sensibel/sensitiv (sensitive) or kindisch/kindlich (childish/childlike). Existing dictionaries often do not provide satisfactory answers as to how to use these sets correctly. Numerous questions addressed in online forums show where uncertainties with paronyms are and why users demand further assistance concerning proper contextual usage (cf. Storjohann 2015). There are different reasons why users misuse certain items or mix up words which are similar in form and meaning. As data from written and more spontaneous language resources suggest, some confusions arise due to ongoing semantic change in the current use of some paronyms. This paper identifies shortcomings of contemporary German Dictionaries and discusses innovative ways of empirical lexicographic work that might pave the way for a new data-driven, descriptive reference work of confusable German terms. Currently, such a guide is being developed at the Institute for German Language in Mannheim implementing corpora and diverse corpus-analytical methods. Its objective is to compile a dictionary with contrastive entries which is a useful reference tool in situation of language doubt. At the same time, it aims at sensitizing users of context dependency and language change.
We propose a new type of subword embedding designed to provide more information about unknown compounds, a major source for OOV words in German. We present an extrinsic evaluation where we use the compound embeddings as input to a neural dependency parser and compare the results to the ones obtained with other types of embeddings. Our evaluation shows that adding compound embeddings yields a significant improvement of 2% LAS over using word embeddings when no POS information is available. When adding POS embeddings to the input, however, the effect levels out. This suggests that it is not the missing information about the semantics of the unknown words that causes problems for parsing German, but the lack of morphological information for unknown words. To augment our evaluation, we also test the new embeddings in a language modelling task that requires both syntactic and semantic information.
Sound units play a pivotal role in cognitive models of auditory comprehension. The general consensus is that during perception listeners break down speech into auditory words and subsequently phones. Indeed, cognitive speech recognition is typically taken to be computationally intractable without phones. Here we present a computational model trained on 20 hours of conversational speech that recognizes word meanings within the range of human performance (model 25%, native speakers 20–44%), without making use of phone or word form representations. Our model also generates successfully predictions about the speed and accuracy of human auditory comprehension. At the heart of the model is a ‘wide’ yet sparse two-layer artificial neural network with some hundred thousand input units representing summaries of changes in acoustic frequency bands, and proxies for lexical meanings as output units. We believe that our model holds promise for resolving longstanding theoretical problems surrounding the notion of the phone in linguistic theory.
Zur Einführung
(2017)
Der vorliegende Beitrag beschäftigt sich mit Imperativen, die nicht oder nicht nur für Handlungsaufforderungen, sondern auch für gesprächsorganisatorische Zwecke eingesetzt werden. Einschlägige Vertreter wie guck mal, hör mal, komm oder geh wurden in der Literatur meist als Interjektionen, aber auch als Diskursmarker klassifiziert. Anhand einer explorativen Korpusrecherche wird zunächst ein Überblick über die Häufigkeit und einige distributionelle Eigenschaften gesprächsorganisatorischer Imperative im gesprochenen Deutsch gegeben. Anschließend wird ein bisher nicht empirisch untersuchter Vertreter, warte (mal), anhand einer Kollektion von 190 Belegen im Hinblick auf seine Semantik und Funktion untersucht. In turninitialer und syntaktisch vorangestellter Position wird warte (mal) zur Markierung von Unterbrechungen der Progressivität und von Aktivitätswechseln verwendet, z.B. um Verstehensprobleme zu klären oder Argumente in eine Diskussion einzubringen. Tritt es satzmedial auf, markiert es Selbstreparaturen und Häsi-tationen. Es wird argumentiert, dass die Distribution und Funktionen es nicht rechtfertigen, warte (mal) als Diskursmarker zu bezeichnen.
Este artículo expone a partir de una serie de ejemplos diferentes situaciones de uso del diccionario bilingüe que evidencian la importancia de llevar a cabo una adecuada adquisición y desarrollo de las competencias lexicográficas en el contexto de enseñanza-aprendizaje de lenguas extranjeras y, en este caso en concreto, del alemán como lengua extranjera. Con este propósito se parte de tres competencias básicas: la selección de la obra lexicográfica adecuada según la situación comunicativa, la desambiguación pertinente en el contexto de la recepción en L2 y traducción de L2 a L1 y la selección y uso del equivalente en el contexto de la producción y traducción en la L2. El objetivo de esta aportación es poner de manifiesto la necesidad de identificar adecuadamente por parte del usuario de un recurso lexicográfico bilingüe la información lexicológica pertinente a la forma, contenido y uso de los lemas consultados tanto en la situación de recepción y producción en L2 como en el contexto de la traducción de y a L2.