Refine
Year of publication
- 2017 (370) (remove)
Document Type
- Part of a Book (161)
- Article (101)
- Conference Proceeding (43)
- Book (33)
- Part of Periodical (13)
- Other (7)
- Working Paper (6)
- Report (4)
- Doctoral Thesis (2)
Keywords
- Deutsch (154)
- Korpus <Linguistik> (64)
- Gesprochene Sprache (30)
- Grammatik (22)
- Sprachvariante (22)
- Englisch (14)
- Linguistik (14)
- Sprache (14)
- Diskursanalyse (13)
- Interaktion (13)
Publicationstate
- Veröffentlichungsversion (163)
- Zweitveröffentlichung (87)
- Postprint (20)
- Erstveröffentlichung (1)
- Preprint (1)
Reviewstate
- (Verlags)-Lektorat (135)
- Peer-Review (114)
- Peer-review (12)
- (Verlags-)Lektorat (2)
- Peer-Revied (2)
- (Verlags-)lektorat (1)
- Peer Review (1)
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (1)
Publisher
- Institut für Deutsche Sprache (56)
- de Gruyter (50)
- Narr Francke Attempto (39)
- Narr (19)
- De Gruyter (17)
- Verlag für Gesprächsforschung (11)
- Stauffenburg (10)
- Hempen (9)
- Springer (6)
- TUDpress (6)
Der vorliegende Beitrag beschreibt auf der Basis authentischer Alltagsinteraktionen das Formen- und Funktionsspektrum der äußerungsmodalisierenden Kommen-tarphrase ohne Scheiß im gesprochenen Deutsch. Die Konstruktion wird von Inter-agierenden insbesondere als Ressource zur Steigerung des Geltungsanspruchs einer Bezugsäußerung genutzt, wodurch diese als wahr und/oder ernstgemeint modali-siert wird. Damit leistet ohne Scheiß einen wichtigen Beitrag zur Bearbeitung des Erwartungsmanagements durch den/die SprecherIn sowie zur Herstellung von In-tersubjektivität. Die Konstruktion ist syntaktisch variabel und kann somit Äußerun-gen sowohl prospektiv als auch retraktiv modalisieren. Zudem wird mit der Wahl des Lexem Scheiß ein nähesprachliches Register aktiviert, was in Verbindung mit weiteren (prosodischen und/oder lexikalischen) Elementen zu affektiver Aufladung führen kann. Eine abschließende Darstellung häufiger lexikalischer Kookkurrenz-partner und deren funktionaler Bedeutung sowie ein Abgleich zu intrakonstruktio-nalen Varianten wie ohne Witz/ohne Spaß zeigt die Produktivität der Konstruktion im alltäglichen Sprachgebrauch auf.
"What makes this so complicated?" On the value of disorienting dilemmas in language instruction
(2017)
In recent years, formal semantic research on the meaning of tense and aspect has benefited from a number of studies investigating languages with graded tense systems. This paper contributes a first sketch of the temporal marking system of Awing (Grassfields Bantu), focusing on two varieties of remote past and remote future. We argue that the data support a "symmetric" analysis of past and future tense in Awing. In our specific proposal, Awing temporal remoteness markers are uniformly analyzed as quantificational tense operators, and both the past and the future paradigm include a form that prevents contextual restriction of this temporal quantifier.
Fast 20 Jahre sind vergangen, seit ich für meine Dissertation Untersuchungen über Ein- und Verkaufsgespräche von Deutschen und Japanern in Deutschland und Japan durchführte. Dort wurden konkrete verbale und nonverbale Handlungen zwischen deutschen bzw. japanischen Verkäufern und deutschen bzw. japanischen Kunden beim Ein- und Verkaufen untersucht. Untersuchungsorte waren dabei Düsseldorf, wo die meisten Japaner in Deutschland ansässig sind, Tokio, wo die meisten Deutschen in Japan ansässig sind, Heidelberg, das von vielen japanischen Touristen besucht wird, und Nagano, wo deutsche Touristen damals bei der Olympiade waren. Anlässlich dieser Festschrift für meinen Doktorvater Prof. Dr. Gerhard Stickel versuchte ich, eine kleine Untersuchung durchzuführen, um sprachliche Veränderungen im Verlauf der Zeit und der sozialen Veränderung zu beobachten. In dieser Abhandlung werden die Veränderung der Gesellschaft und ihr Einfluss auf die Sprache behandelt. Im folgenden zweiten Abschnitt werden soziale Veränderungen in Düsseldorf thematisiert, im dritten Abschnitt werden die Ergebnisse der zwei Befragungen analysiert und zum Schluss wird eine Möglichkeit der Sprachverbreitung im Zusammenhang mit der heutigen Gesellschaft dargestellt.
In the management of cooperation, the fit of a requested action with what the addressee is presently doing is a pervasively relevant consideration. We present evidence that imperative turns are adapted to, and reflexively create, contexts in which the other person is committed to the course of action advanced by the imperative. This evidence comes from systematic variation in the design of imperative turns, relative to the fittedness of the imperatively mandated action to the addressee’s ongoing trajectory of actions, what we call the “dine of commitment”. We present four points on this dine: Responsive imperatives perform an operation on the deontic dimension of what the addressee has announced or already begun to do (in particular its permissibility); local-project imperatives formulate a new action advancing a course of action in which the addressee is already actively engaged; global-project-imperatives target a next task for which the addressee is available on the grounds of their participation in the overall event, and in the absence of any competing work; and competitive imperatives draw on a presently otherwise engaged addressee on the grounds of their social commitment to the relevant course of actions. These four turn shapes are increasingly complex, reflecting the interactional work required to bridge the increasing distance between what the addressee is currently doing, and what the imperative mandates. We present data from German and Polish informal and institutional settings.
In this paper, we will present a first attempt to classify commonly confused words in German by consulting their communicative functions in corpora. Although the use of so-called paronyms causes frequent uncertainties due to similarities in spelling, sound and semantics, up until now the phenomenon has attracted little attention either from the perspective of corpus linguistics or from cognitive linguistics. Existing investigations rely on structuralist models, which do not account for empirical evidence. Still, they have developed an elaborate model based on formal criteria, primarily on word formation (cf. Lăzărescu 1999). Looking from a corpus perspective, such classifications are incompatible with language in use and cognitive elements of misuse.
This article sketches first lexicological insights into a classification model as derived from semantic analyses of written communication. Firstly, a brief description of the project will be provided. Secondly, corpus-assisted paronym detection will be focused. Thirdly, in the main section the paper concerns the description of the datasets for paronym classification and the classification procedures. As a work in progress, new insights will continually be extended once spoken and CMC data are added to the investigations.
This paper presents a short insight into a new project at the "Institute for the German Language” (IDS) (Mannheim). It gives an insight into some basic ideas for a corpus-based dictionary of spoken German, which will be developed and compiled by the new project "The Lexicon of spoken German” (Lexik des gesprochenen Deutsch, LeGeDe). The work is based on the "Research and Teaching Corpus of Spoken German” (Forschungs- und Lehrkorpus Gesprochenes Deutsch, FOLK), which is implemented in the "Database for Spoken German” (Datenbank für Gesprochenes Deutsch, DGD). Both resources, the database and the corpus, have been developed at the IDS.
In this paper, an exploratory data-driven method is presented that extracts word-types from diachronic corpora that have undergone the most pronounced change in frequency of occurrence in a given period of time. Combined with statistical methods from time series analysis, the method is able to find meaningful patterns and relationships in diachronic corpora, an idea that is still uncommon in linguistics. This indicates that the approach can facilitate an improved understanding of diachronic processes.
This paper presents a survey on hate speech detection. Given the steadily growing body of social media content, the amount of online hate speech is also increasing. Due to the massive scale of the web, methods that automatically detect hate speech are required. Our survey describes key areas that have been explored to automatically recognize these types of utterances using natural language processing. We also discuss limits of those approaches.
Im September 1522 erschien in Wittenberg „Das newe Testament Deutzsch“ mit einer Auflage von über 3.000 Stück und war binnen einer Woche ausverkauft. Martin Luther, der auf dem Titelblatt auf eigenen Wunsch nicht erwähnt wird, hatte die Übersetzung auf der Wartburg in nur elf Wochen angefertigt und wenig später fünf Wochen lang mit seinem Kollegen und Freund, dem Gräzisten Philipp Melanchthon, insbesondere im Hinblick auf die griechische Urfassung bearbeitet. Die Geschichte der Revisionen der Lutherbibel beginnt im gleichen Jahr – schon für den Nachdruck im Dezember hat Luther dieses so genannte „Septemberevangelium“ an vielen Stellen revidiert. In Teilen erschien danach seine Übersetzung des Alten Testaments, 1534 die vollständige Übersetzung der Bibel. Luther korrigierte den Bibeltext unablässig weiter bis zur Ausgabe von 1545, der Lutherbibel „letzter Hand“.
Qualifizierungsmaßnahmen wie „Perspektive für Flüchtlinge Plus“ (PerFPlus) können als wichtige Bestandteile der neuen Willkommenskultur in Deutschland betrachtet werden. Deutschland als Einwanderungsland kann mit Hilfe solcher Initiativen gezielt für Arbeitsbereiche und Berufsgruppen werben, in denen es an Nachwuchs mangelt. Den Neuzugewanderten bieten sie die eine Chance sich in der hiesigen Arbeitswelt zu orientieren und Berufsfelder zu erkunden, die ihnen bislang noch nicht oder nur in anderer Form bekannt waren. Auf der anderen Seite bergen solche Maßnahmen aber auch ihr Risiko: Wenn sie ihr Ziel verfehlen und Frustrationen auf beiden Seiten erzeugen, sind lange Warteschleifen, Arbeitslosigkeit und möglicherweise politische Polarisierung und Radikalisierung die Folge. Insofern ist eine schnelle Intervention hinsichtlich der Verbesserung solcher Maßnahmen essentiell. Der vorliegende Bericht soll die konzeptionell-arbeitenden Teams bei der Bundesagentur für Arbeit (BA) sowie bei Bildungsanbietern die mit der BA kooperieren bei ihren wichtigen Aufgaben unterstützen. Alle Partner bleiben im Bericht anonym.
Deutschland sieht sich in den nächsten Jahren vor enormen Herausforderungen gegen-übergestellt. Mit der Fluchtmigration von knapp 1,5 Mio. Menschen alleine zwischen 2014 und 2017 stehen nahezu in jedem gesellschaftlichen Bereich und hier insbesonde-re in den Sektoren Bildung und Arbeit große Integrationsaufgaben an. Steven Vertovec, der Leiter des Max-Planck-Instituts zur Erforschung multireligiöser und multiethnischer Gesellschaften bezeichnet die Fluchtmigration von 2015 auch deshalb als die „zweite Wende“ (Vertovec 2015) für Deutschland, die das Land nachhaltig verändern wird. Nach seiner Einschätzung werden die gesellschaftlichen Transformationen dermaßen tiefgrei-fend sein, dass die Formulierung „seit der Flüchtlingskrise“ eine ebenso geläufige Rede-wendung sein wird wie die Formulierung „seit der Wende“.
Berufliche Qualifizierungsmaßnahmen wie „GASTRO“ im Rhein-Neckar-Raum sind in diesem Kontext sehr wichtige Anstrengungen im Hinblick auf die strukturelle Integrati-on der Fluchtmigranten. Im gesamtgesellschaftlichen Kontext sind sie unverzichtbare Bestandteile der neuen Willkommenskultur, die seit den 2010ern versucht wird, in Deutschland zu etablieren. Als Einwanderungsland kann Deutschland mit Hilfe solcher Initiativen gezielt für Arbeitsbereiche und Berufsgruppen werben, in denen es an Nach-wuchs mangelt. Den Neuzugewanderten bieten sie die Chance sich in der hiesigen Ar-beitswelt zu orientieren und möglicherweise Berufsfelder zu erkunden, die ihnen bis-lang noch nicht oder nur in anderer Form bekannt waren.
Modalverben gehören zu den hochfrequenten Verben des Deutschen und weisen in der gesprochenen Sprache eine hohe grammatische, semantische und funktionale Flexibilität auf. Die Studie befasst sich aus interaktionslinguistischer Sicht mit dem Verwendungsspektrum von Konstruktionen, in denen Modalverben “absolut”, das heißt hier: ohne infinites Vollverb, gebraucht werden. Es wird untersucht, welche Bedeutungen die Modalverben in Interaktionen haben bzw. welche Faktoren ihre Interpretation beeinflussen und inwiefern die jeweiligen Konstruktionen für spezifische sprachliche Handlungen und in speziellen interaktiven Kontexten verwendet werden.
Als entscheidend für die Analyse zeigen sich neben der signifikanten Medialitätsdifferenz auch Interaktivität, Online-Produktion und Gattungs- bzw. Registermerkmale wie Informalität. Die Studie demonstriert außerdem, dass die Modalverbkonstruktionen sehr unterschiedliche Grade von Schematizität, Spezifizität und (Nicht-) Kompositionalität aufweisen.
The Manatee corpus management system on which the Sketch Engine is built is efficient, but unable to harness the power of today’s multiprocessor machines. We describe a new, compatible implementation of Manatee which we develop in the Go language and report on the performance gains that we obtained.
In German there are about twenty-five elements (like gemäß, nahe, voll) that seem to be used as a preposition along with their use as an adjective. In former approaches the preposition is interpreted as the product of grammaticalizing (and/or reanalyzing) the adjective. It is argued that the two criteria these approaches rely on, namely change of linear position and change of case government, are insufficient. In this paper, seven criteria for distinguishing adjectives form prepositions in German are put forward. What is most important is that these criteria have to be evaluated on the token level as well as on the level of type and word class/syntactic category. It can be shown that the individual ‘adjective-prepositions' as types possess a specific mixture of adjective-like and preposition-like features. On the token level, occurring as part of a postnominal restrictive attribute is indicative for preposition-like status in German. The comparison of German with English and Italian adjective-prepositions (like near, far, due and vicino, lontano) reveals a lot of differences, which counts as evidence for the language-specific nature of word classes. Nevertheless, Lehmanns functional-typological approach uncovers a fundamental functional similarity between complement governing adjectives and prepositions: the primary function of the phrases, i.e., adjective/preposition + complement, is to modify a nominal or a verbal concept, respectively. This insight explains why adjective-prepositions can be found cross-linguistically. The question whether we should propose one type or two types for gemäß and its cognates is of minor importance only.
In the first volume of Corpus Linguistics and Linguistic Theory, Gries (2005. Null-hypothesis significance testing of word frequencies: A follow-up on Kilgarriff. Corpus Linguistics and Linguistic Theory 1(2). doi:10.1515/ cllt.2005.1.2.277. http://www.degruyter.com/view/j/cllt.2005.1.issue-2/cllt.2005. 1.2.277/cllt.2005.1.2.277.xml: 285) asked whether corpus linguists should abandon null-hypothesis significance testing. In this paper, I want to revive this discussion by defending the argument that the assumptions that allow inferences about a given population – in this case about the studied languages – based on results observed in a sample – in this case a collection of naturally occurring language data – are not fulfilled. As a consequence, corpus linguists should indeed abandon null-hypothesis significance testing.
Der vorliegende Artikel untersucht die Frage, wie sich die Angebote im Bereich von Social Media heute darstellen und wie sie sich in den nächsten Jahren voraussichtlich entwickeln werden. Der Fokus liegt dabei auf der Entwicklung der technischen Infrastruktur und deren Einfluss auf die verschiedenen Aspekte wissenschaftlicher Kommunikation. Einen Schwerpunkt bilden dabei einerseits die Auswirkungen der Automatisierung, im Bereich der Wissenschaftskommunikation die Entwicklung von spezifischen Scores und Altmetriken, andererseits die Etablierung neuartiger Vermittlungskanäle für wissenschaftliche Themen.
Alles verstehen heißt alles verzeihen ist ein Satz, der im Deutschen den Charakter eines Spruchs, eines geflügelten Wortes angenommen hat, und der wahrscheinlich auf einem Zitat aus „Corinne ou l‘Italie“ von Madame de Staël (1807) (tout) comprendre c‘est (tout) pardonner basiert. Dieser Satz wurde ins Deutsche übersetzt und als Alles verstehen heißt alles verzeihen tradiert. Die Form eines Spruchs, eines geflügelten Wortes ist im Allgemeinen sehr konstant. Die Tendenz zur grammatischen Variation ist auch dann gering, wenn sie nach gängigen grammatischen Regeln möglich wäre.
Am Anfang ist das Wort
(2017)
Analepses with topic-drop are frequent structures in German interaction. While hitherto the focus on analepses was a rather syntactic one, this paper deals with analeptic structures from a semantic perspective. It particularly concentrates on the semantic relations between the referents of the analepses and the prior interactional context. This analysis shows that even for rather simple analepses which just omit a constituent from the prior utterance, conceptual processes are more decisive for its interpretation than syntactic features of the antecedent constituents. This is even more the case for complex analepses that are only indirectly linked to the prior context, and for the interpretation of which hearers need to draw inferences. The paper argues that theoretical approaches like Conversation Analysis and Interactional Linguistics can profit from adopting a semantic and conceptual perspective for the interpretation of interactional structures.
As a consequence of a recent curation project, the Dortmund Chat Corpus is available in CLARIN-D research infrastructures for download and querying. In a legal expertise it had been recommended that standard measures of anonymisation be applied to the corpus before its republication. This paper reports about the anonymisation campaign that was conducted for the corpus. Anonymisation has been realised as categorisation, and the taxonomy of anonymisation categories applied is introduced and the method of applying it to the TEI files is demonstrated. The results of the anonymisation campaign as well as issues of quality assessment are discussed. Finally, pseudonymisation as an alternative to categorisation as a method of the anonymisation of CMC data is discussed, as well as possibilities of an automatisation of the process.
Theateraufführungen sind ohne Zuschauer nicht denkbar. Zugleich erweisen sich Proben aber als öffentlichkeitsabgeschirmte und intime Vorgänge, da eine (zu frühe) Orientierung an möglichen Publikums-Effekten den kreativen Prozess stört. Auf der Grundlage von über 30 Stunden Videoaufnahmen von Theaterproben zeige ich an ausgewählten Ausschnitten, wie Theatermachende sich sprachlich und körperlich im Probenprozess auf das Publikum beziehen, wie dies interaktiv realisiert wird und welche Rückschlüsse das auf die Weisen der Publikumskonstruktion im Kontext von Proben zulässt.
Our paper describes an experiment aimed to assessment of lexical coverage in web corpora in comparison with the traditional ones for two closely related Slavic languages from the lexicographers’ perspective. The preliminary results show that web corpora should not be considered ― inferior, but rather ― different.
Der Beitrag thematisiert einen in der Forschung bislang kaum beachteten Parameter für grammatische Variation im Standard: die Arealität. Im ersten Teil folgen Begriffsklärungen, zunächst zum Terminus areal (mit einer Stellungnahme zur Debatte um das Deutsche als plurizentrische bzw. pluriareale Sprache), dann zu der Frage, wie Standard als Gebrauchsstandard definiert werden kann und in welcher Relation dazu der Terminus Kodex steht. Danach wird mit Blick auf das Projekt „Variantengrammatik des Deutschen“ aufgezeigt, wie areale grammatische Variation im Deutschen empirisch zu beschreiben ist. Der letzte Teil präsentiert Fallbeispiele, anhand derer sich das Erfassen von Varianten - von der Recherche in einem areal ausgewogenen Korpus bis zu ihrer Kodifikation in den Gebrauchsstandards des Deutschen - nachzeichnen lässt.
Argumentation nicht erwünscht – Einstellungen zum Argumentativen im Japanischen und Deutschen
(2017)
Dieser Beitrag behandelt Erscheinungsweisen des Argumentativen im Japanischen und Deutschen. Diesbezügliche Unterschiede und ihre Hintergründe werden je nach alltäglichen und institutionalisierten Situationen dargestellt. Im ersten teil werden Relationen von schwer bemerkbaren Normalitäten verbaler Interaktion und Kooperationsstilen dargestellt. Unterschiedliche Orientierung an Gleichheit bzw. Andersartigkeit entspricht jeweils positiver oder negativer Einstellung zur Argumentation. Die Grundzüge argumentativer Handlungen im Japanischen und Deutschen, die sich vorwiegend in Alltagsinteraktionen manifestieren, werden skizziert. Anhand deutschsprachiger Beispiele wird gezeigt, wie in (halb-)öffentlichen Diskursen eine positive Einstellung zur Argumentation reflexiv ausgedrückt wird. Krasse Differenzen zum Japanischen sind zu erwarten. Im zweiten Teil werden zuerst Hinweise auf historische Prozesse der Modernisierung Japans als Hintergrund der negativen Einstellung zur Argumentation gegeben. Anschließend werden in Anlehnung an kritische Untersuchungen öffentlicher Diskurse Beobachtungen über die gegenwärtige Situation vorgestellt. Der dritte Teil behandelt zur Erörterung der oben erwähnten Umstände sprachlich- interaktionale Eigenschaften des stigmatisierenden Worts hühyö ('Gerücht'). Dabei geht es um eine Herausarbeitung von Strategien zum Vorbeugen und Außerkraftsetzen der prototypischen Form der Argumentation. Zum Schluss wird nach der Zusammenfassung der Ausführungen auf den Sinn der Argumentation als allgemeines Werkzeug der Konfliktbewältigung hingewiesen.
Das von der Leibniz-Gemeinschaft geförderte Projekt „Lexik des gesprochenen Deutsch“(LeGeDe, Leibniz-Wettbewerb 2016, Förderlinie I: „Innovative Vorhaben“) nahm im September 2016 am Institut für Deutsche Sprache (IDS) seine Arbeit auf.1 Das Hauptziel ist die Erstellung einer korpusbasierten lexikografischen Online-Ressource zur Lexik des gesprochenen Deutsch auf der Grundlage von lexikologischen und gesprächsanalytischen Untersuchungen authentischer gesprochensprachlicher Daten. Als Kooperationsprojekt der Abteilungen Lexik und Pragmatik arbeiten Mitarbeiter/innen aus der Lexikologie, Lexikografie, Interaktionalen bzw. Gesprächslinguistik, Korpus- und Computerlinguistik und den Empirischen Methoden zusammen, wodurch sowohl aus der Sicht der Gesprochene- Sprache-Forschung als auch aus lexikografischer Perspektive eine innovative Form der Sprachbeschreibung entstehen soll.
We use a convolutional neural network to perform authorship identification on a very homogeneous dataset of scientific publications. In order to investigate the effect of domain biases, we obscure words below a certain frequency threshold, retaining only their POS-tags. This procedure improves test performance due to better generalization on unseen data. Using our method, we are able to predict the authors of scientific publications in the same discipline at levels well above chance.
In this paper we present the results of an automatic classification of Russian texts into three levels of difficulty. Our aim is to build a study corpus of Russian, in which a L2 student is able to select texts of a desired complexity. We are building on a pilot study, in which we classified Russian texts into two levels of difficulty. In the current paper, we apply the classification to an extended corpus of 577 labelled texts. The best-performing combination of features achieves an accuracy of 0,74 within at most one level difference.
Begegnungen mit neuen Wörtern: Zu lexikografischen Praktiken im Neologismenwörterbuch des IDS
(2017)
Der Auftaktworkshop "Lexik des gesprochenen Deutsch: Forschungsstand, Erwartungen und Anforderungen an die Entwicklung einer innovativen lexikografischen Ressource" fand am 16. und 17. Februar 2017 am Institut fur Deutsche Sprache (IDS) in Mannheim statt. Das von der Leibniz-Gemeinschaft geforderte Projekt "Lexik des gesprochenen Deutsch" (=LeGeDe, Leibniz-Wettbewerb 2016, Forderlinie "Innovative Vorhaben") nahm im September 2016 am IDS seine Arbeit auf. Das Hauptziel ist die Erstellung einer korpusbasierten elektronischen Ressource zur Lexik des gesprochenen Deutsch auf der Grundlage von lexikologischen und gesprachsanalytischen Untersuchungen authentischer gesprochensprachlicher Daten.
Harold Garfinkel, Begründer der Ethnomethodologie, wäre dieses Jahr 100 Jahre alt geworden, seine Studies in Ethnomethodology werden 50 Jahre. Grund genug diesen doppelten Geburtstag mit einer Tagung zur "deutschsprachigen Vorge-schichte, Wirkung und Rezeption des Werkes und der Person zu würdigen" (so der Ankündigungstext zur Tagung), die nicht ganz zufällig in Konstanz stattfand, lange Zeit und nach wie vor eine Hochburg rekonstruktiver Sozialforschung (auch) ethnomethodologischer Prägung. Die Tagung Harold Garfinkel's 'Studies in Ethnomethodolgy' – Fifty Years After vom 26.-28.10.2017 an der Universität Konstanz, ausgerichtet vom Lehrstuhl für Allgemeine Soziologie und Kultursoziologie und organisiert von Jörg Bergmann, Christian Meyer und Erhard Schüttpelz, tat dies in einer gebührlichen und beson-deren Weise: Die acht Kapitel der Studies in Ethnomethodology (im Folgenden kurz Studies), ein Konvolut aus Essays und Artikeln, die 1967 erschienen sind, dienten als Grundlage zur Strukturierung der Tagung und als Ausgangspunkt der einzelnen Vorträge.
We present an event-related potentials (ERP) study that addresses the question of how pieces of information pertaining to semantic roles and event structure interact with each other and with the verb’s meaning. Specifically, our study investigates German verb-final clauses with verbs of motion such as fliegen ‘fly’ and schweben ‘float, hover,’ which are indeterminate with respect to agentivity and event structure. Agentivity was tested by manipulating the animacy of the subject noun phrase and event structure by selecting a goal adverbial, which makes the event telic, or a locative adverbial, which leads to an atelic reading. On the clause-initial subject, inanimates evoked an N400 effect vis-à-vis animates. On the adverbial phrase in the atelic (locative) condition, inanimates showed an N400 in comparison to animates. The telic (goal) condition exhibited a similar amplitude like the inanimate-atelic condition. Finally, at the verbal lexeme, the inanimate condition elicited an N400 effect against the animate condition in the telic (goal) contexts. In the atelic (locative) condition, items with animates evoked an N400 effect compared to inanimates. The combined set of findings suggest that clause-initial animacy is not sufficient for agent identification in German, which seems to be completed only at the verbal lexeme in our experiment. Here non-agents (inanimates) changing their location in a goal-directed way and agents (animates) lacking this property are dispreferred and this challenges the assumption that change of (locational) state is generally a defining characteristic of the patient role. Besides this main finding that sheds new light on role prototypicality, our data seem to indicate effects that, in our view, are related to complexity, i.e., minimality. Inanimate subjects or goal arguments increase processing costs since they have role or event structure restrictions that animate subjects or locative modifiers lack.
Catching the common cause: extraction and annotation of causal relations and their participants
(2017)
In this paper, we present a simple, yet effective method for the automatic identification and extraction of causal relations from text, based on a large English-German parallel corpus. The goal of this effort is to create a lexical resource for German causal relations. The resource will consist of a lexicon that describes constructions that trigger causality as well as the participants of the causal event, and will be augmented by a corpus with annotated instances for each entry, that can be used as training data to develop a system for automatic classification of causal relations. Focusing on verbs, our method harvested a set of 100 different lexical triggers of causality, including support verb constructions. At the moment, our corpus includes over 1,000 annotated instances. The lexicon and the annotated data will be made available to the research community.
Für die sprachbasierte Forschung in den Geistes- und Sozialwissenschaften stellt CLARIN eine Forschungsinfrastruktur bereit, die auf die hochgradig heterogenen Forschungsdaten in diesen Wissenschaftsbereichen angepasst ist. Mit Werkzeugen zum Auffinden, zur standardkonformen Aufbereitung und zur nachhaltigen Aufbewahrung von Daten sowie mit der Bereitstellung von virtuellen Forschungsumgebungen zur kollaborativen Erstellung und Auswertung von Forschungsdaten unterstützt CLARIN alle wesentlichen Aspekte des Datenmanagements und der Datenarchivierung. Diese CLARIN-Angebote werden durch Beratungs- und Schulungsmaßnahmen begleitet.
The paper presents best practices and results from projects dedicated to the creation of corpora of computer-mediated communication and social media interactions (CMC) from four different countries. Even though there are still many open issues related to building and annotating corpora of this type, there already exists a range of tested solutions which may serve as a starting point for a comprehensive discussion on how future standards for CMC corpora could (and should) be shaped like.
CMC Corpora in DeReKo
(2017)
We introduce three types of corpora of computer-mediated communication that have recently been compiled at the Institute for the German Language or curated from an external project and included in DeReKo, the German Reference Corpus, namely Wikipedia (discussion) corpora, the Usenet news corpus, and the Dortmund Chat Corpus. The data and corpora have been converted to I5, the TEI customization to represent texts in DeReKo, and are researchable via the web-based IDS corpus research interfaces and in the case of Wikipedia and chat also downloadable from the IDS repository and download server, respectively.
This paper discusses changes of lexicographic traditions with respect to approaches to meaning descriptions towards more cognitive perspectives. I will uncover how cognitive aspects can be incorporated into meaning descriptions based on corpus-driven analysis. The new German Online dictionary “Paronyme − Dynamisch im Kontrast” (Storjohann 2014; 2016) is concerned with easily confused words such as effektiv/effizient, sensibel/sensitiv. It is currently in the process of being developed and it aims at adopting a more conceptual and encyclopaedic approach to meaning by incorporating cognitive features. As a corpus-guided reference work it strives to adequately reflect ideas such as conceptual structure, categorisation and knowledge. Contrastive entries emphasise aspects of usage, comparing conceptual categories and indicate the (metonymic) mapping of knowledge. Adaptable access to lexicographic details and variable search options offer different foci and perspectives on linguistic information, and authentic examples reflect prototypical structures. Some of the cognitive features are demonstrated with the help of examples. Firstly, I will outline how patterns of usage imply conceptual categories as central ideas instead of sufficiently logical criteria of semantic distinction. In this way, linguistic findings correlate better with how users conceptualise language. Secondly, it is pointed out how collocates are treated as family members and fillers in contexts. Thirdly, I will demonstrate how contextual structure and functions are included summarising referential information. Details are drawn from corpus data, they are usage-based linguistic patterns illustrating conversational interaction and semantic negotiations in contemporary public discourse. Finally, I will outline consultation routines which activate different facets of structural knowledge, e.g. through changes of the ordering of information or through the visualisation of semantic networks.
This paper discusses how cognitive aspects can be incorporated into lexicographic meaning descriptions based on corpus-driven analysis. The new German Online dictionary “Paronyme − Dynamisch im Kontrast” is concerned with easily confused words such as effektiv/effizient, sensibel/sensitiv. It is currently in the process of being developed and it aims at adopting a more conceptual and encyclopedic approach to meaning. Contrastive entries emphasize usage, comparing conceptual categories and indicating the mapping of knowledge. Adaptable access to lexicographic details offers different perspectives on information, and authentic examples reflect prototypical structures.
Some of the cognitive features are demonstrated with the help of examples. Firstly, I will outline how patterns of usage imply conceptual categories as central ideas instead of sufficiently logical criteria of semantic distinction. In this way, linguistic findings correlate better with how users conceptualize language. Secondly, it is pointed out how collocates are family members and fillers in contexts. Thirdly, I will demonstrate how contextual structure and function are included by summarizing referential information. Details are drawn from corpus data; they are usage-based patterns illustrating conversational interaction and semantic negotiation in contemporary public discourse. Finally, I will show flexible consultation routines where the focus on structural knowledge changes.
Most research on ethnicity has focused on visual cues. However, accents are strong social cues that can match or contradict visual cues. We examined understudied reactions to people whose one cue suggests one ethnicity, whereas the other cue contradicts it. In an experiment conducted in Germany, job candidates spoke with an accent either congruent or incongruent with their (German or Turkish) appearance. Based on ethnolinguistic identity theory, we predicted that accents would be strong cues for categorization and evaluation. Based on expectancy violations theory we expected that incongruent targets would be evaluated more extremely than congruent targets. Both predictions were confirmed: accents strongly influenced perceptions and Turkish-looking German-accented targets were perceived as most competent of all targets (and additionally most warm). The findings show that bringing together visual and auditory information yields a more complete picture of the processes underlying impression formation.
The paper reports on the results of a scientific colloquium dedicated to the creation of standards and best practices which are needed to facilitate the integration of language resources for CMC stemming from different origins and the linguistic analysis of CMC phenomena in different languages and genres. The key issue to be solved is that of interoperability – with respect to the structural representation of CMC genres, linguistic annotations metadata, and anonymization/pseudonymization schemas. The objective of the paper is to convince more projects to partake in a discussion about standards for CMC corpora and for the creation of a CMC corpus infrastructure across languages and genres. In view of the broad range of corpus projects which are currently underway all over Europe, there is a great window of opportunity for the creation of standards in a bottom-up approach.
We present an approach to making existing CLARIN web services usable for spoken language transcriptions. Our approach is based on a new TEI-based ISO standard for such transcriptions. We show how existing tool formats can be transformed to this standard, how an encoder/decoder pair for the TCF format enables users to feed this type of data through a WebLicht tool chain, and why and how web services operating directly on the standard format would be useful.
In my talk, I present an empirical approach to detecting and describing proverbs as frozen sentences with specific functions in current language use. We have developed this approach in the EU project ‘SprichWort’ (based on the German Reference Corpus). The first chapter illustrates selected aspects of our complex, iterative procedure to validate proverb candidates. Based on our corpus-driven lexpan methodology of slot analysis I then discuss semantic restrictions of proverb patterns. Furthermore, I show different degrees of proverb quality ranging from genuine proverbs to non-proverb realizations of the same abstract pattern. On the one hand, the corpus validation reveals that proverbs are definitely perceived and used as relatively fixed entities and often as sentences. On the other hand, proverbs are not only interpreted as an interesting unique phenomenon but also as part of the whole lexicon, embedded in networks of different lexical items.
Creating CorCenCC (Corpws Cenedlaethol Cymraeg Cyfoes - The National Corpus of Contemporary Welsh)
(2017)
CorCenCC is an interdisciplinary and multiinstitutional project that is creating a large-scale, open-source corpus of contemporary Welsh. CorCenCC will be the first ever large-scale corpus to represent spoken, written and electronicallymediated Welsh (compiling an initial data set of 10 million Welsh words), with a functional design informed, from the outset, by representatives of all anticipated academic and community user groups.
Ein Teildiskurs der Digital Humanities dreht sich um die Frage, wie tradierte Wissensressourcen der Geisteswissenschaften sinnvoll mit digitalen Technologien und Tools verbunden werden können. Auch bei der Neubearbeitung des Deutschen Wörterbuchs von Jacob Grimm und Wilhelm Grimm (DWB) ist dieser Diskurs spürbar, denn mit der Ende 2016 abgeschlossenen Arbeit des traditionsreichen Unternehmens liegt ein konzeptuell einzigartiges Referenzwerk der historischen Lexikografie des Deutschen vor, das in ‘traditioneller’ Printform entstanden, dessen Umsetzung in ein digitales Format jedoch bereits beschlossen ist. Im Laufe der Arbeit am DWB sind überdies zwei Datensammlungen entstanden, die mittlerweile digitalisiert wurden und öffentlich zugänglich sind: das (digitale) Quellenverzeichnis und die Kartei Literatur zur Wortforschung (LW-Kartei). Ihre Einbindung in die Wörterbucharbeit und -benutzung trägt auf unterschiedliche Weise zum Verständnis des DWB bei; weiterhin verweisen sie als digitale Werkzeuge auf grundlegende Möglichkeiten zur Aufbereitung von lexikografischen Daten. Im Folgenden werden beide Projekte, die sich ursprünglich als innerbetriebliche lexikografische Werkzeuge aus der Wörterbuchpraxis ergaben, vorgestellt. Anschließend wird anhand mehrerer ausgewählter Beispielwörter demonstriert, inwiefern sich die LW-Kartei und das Quellenverzeichnis für ein breites Spektrum von Forschungsfragen nutzen lassen. Am Ende werden Überlegungen zur Erweiterung der Datenbanken, d. h. der jeweiligen Systeme zur elektronischen Datenverwaltung, und ihrer Vernetzung mit den jeweiligen DWB-Artikeln diskutiert – Themen, denen u. a. bei der anstehenden Retrodigitalisierung des DWB besondere Beachtung zukommen sollte.
Ein Teildiskurs der Digital Humanities dreht sich um die Frage, wie tradierte Wissensressourcen der Geisteswissenschaften sinnvoll mit digitalen Technologien und Tools verbunden werden können. Auch bei der Neubearbeitung des Deutschen Wörterbuchs von Jacob Grimm und Wilhelm Grimm (DWB) ist dieser Diskurs spürbar, denn mit der Ende 2016 abgeschlossenen Arbeit des traditionsreichen Unternehmens liegt ein konzeptuell einzigartiges Referenzwerk der historischen Lexikografie des Deutschen vor, das in ‘traditioneller’ Printform entstanden, dessen Umsetzung in ein digitales Format jedoch bereits beschlossen ist. Im Laufe der Arbeit am DWB sind überdies zwei Datensammlungen entstanden, die mittlerweile digitalisiert wurden und öffentlich zugänglich sind: das (digitale) Quellenverzeichnis und die Kartei Literatur zur Wortforschung (LW-Kartei). Ihre Einbindung in die Wörterbucharbeit und -benutzung trägt auf unterschiedliche Weise zum Verständnis des DWB bei; weiterhin verweisen sie als digitale Werkzeuge auf grundlegende Möglichkeiten zur Aufbereitung von lexikografischen Daten.
Im Folgenden werden beide Projekte, die sich ursprünglich als innerbetriebliche lexikografische Werkzeuge aus der Wörterbuchpraxis ergaben, vorgestellt. Anschließend wird anhand mehrerer ausgewählter Beispielwörter demonstriert, inwiefern sich die LW-Kartei und das Quellenverzeichnis für ein breites Spektrum von Forschungsfragen nutzen lassen. Am Ende werden Überlegungen zur Erweiterung der Datenbanken, d. h. der jeweiligen Systeme zur elektronischen Datenverwaltung, und ihrer Vernetzung mit den jeweiligen DWB-Artikeln diskutiert – Themen, denen u. a. bei der anstehenden Retrodigitalisierung des DWB besondere Beachtung zukommen sollte.
Skatesticker sind grafisch gestaltete Aufkleber, die von Skatelabels – den Herstellern von Skateboards und Zubehör – distribuiert werden. Ursprünglich zu reinen Werbezwecken produziert, haben sich Skatesticker als Symbole der Szene etabliert: Befragte Skater bekennen, dass Skatesticker ein „Ausdruck eines Lebensgefühls“, ein „visueller Eindruck unserer Gefühle“ und eine „[e]infache Möglichkeit[,] sich einer Gruppe zuzuordnen“ sind. Sie werden von Skatern gesammelt, gehandelt und wertgeschätzt. Die vorliegende Arbeit verfolgt einen bildwissenschaftlich orientierten Forschungsansatz, der es ermöglicht, die komplexen – oftmals bildende Kunst adaptierenden – Bildmotive dieser Grafikdesignobjekte und ihre zunehmend autonomisierten Funktionen als visuelle Medien einer Szene zu analysieren und anzuerkennen.
Das Verb machen im gesprochenen Deutsch. Bedeutungskonstitution und interaktionale Funktionen
(2017)
Die Arbeit untersucht unter anderem sowohl die semantischen Interpretationen von machen als auch seine pragmatischen Funktionen in der Interaktion, diskutiert die Behandlung von machen in der Lexikographie und liefert dazu einen Vergleich mit der Bedeutung und Funktion des Verbs tun in der gesprochenen Sprache. Außerdem wird die Konstitution von Bedeutung am Beispiel von machen anhand eines eigens entwickelten Ebenenmodells dargestellt, durch welches sich die einzelnen (außer-)sprachlichen Ebenen jeweils abgrenzen und einzeln beschreiben lassen. Die Analysen basieren dabei auf der Grundlage aktueller und spontansprachlicher Interaktionen unterschiedlicher Gesprächstypen.
Die Diskurslinguistik als relativ neue Teildisziplin der germanistischen Linguistik beschäftigt sich mit der Frage, wie soziale Wirklichkeiten in transtextuell organisierten Einheiten konstruiert werden. Bisher finden dabei noch kaum Texte aus digitalen Medien (z. B. aus Facebook, Twitter oder Wikipedia) Berücksichtigung. Das Netzwerk vereint die unten genannten WissenschaftlerInnen, die in ihren Projekten an der Analyse digitaler Diskurse arbeiten und dabei digitale Methoden der Korpuslinguistik bzw. Digital Methods nutzen.
In the NLP literature, adapting a parser to new text with properties different from the training data is commonly referred to as domain adaptation. In practice, however, the differences between texts from different sources often reflect a mixture of domain and genre properties, and it is by no means clear what impact each of those has on statistical parsing. In this paper, we investigate how differences between articles in a newspaper corpus relate to the concepts of genre and domain and how they influence parsing performance of a transition-based dependency parser. We do this by applying various similarity measures for data point selection and testing their adequacy for creating genre-aware parsing models.
In the NLP literature, adapting a parser to new text with properties different from the training data is commonly referred to as domain adaptation. In practice, however, the differences between texts from different sources often reflect a mixture of domain and genre properties, and it is by no means clear what impact each of those has on statistical parsing. In this paper, we investigate how differences between articles in a newspaper corpus relate to the concepts of genre and domain and how they influence parsing performance of a transition-based dependency parser. We do this by applying various similarity measures for data point selection and testing their adequacy for creating genre-aware parsing models.
Data sets of publication meta data with manually disambiguated author names play an important role in current author name disambiguation (AND) research. We review the most important data sets used so far, and compare their respective advantages and shortcomings. From the results of this review, we derive a set of general requirements to future AND data sets. These include both trivial requirements, like absence of errors and preservation of author order, and more substantial ones, like full disambiguation and adequate representation of publications with a small number of authors and highly variable author names. On the basis of these requirements, we create and make publicly available a new AND data set, SCAD-zbMATH. Both the quantitative analysis of this data set and the results of our initial AND experiments with a naive baseline algorithm show the SCAD-zbMATH data set to be considerably different from existing ones. We consider it a useful new resource that will challenge the state of the art in AND and benefit the AND research community.
We present a method to identify and document a phenomenon on which there is very little empirical data: German phrasal compounds occurring in the form of as a single token (without punctuation between their components). Relying on linguistic criteria, our approach implies to have an operational notion of compounds which can be systematically applied as well as (web) corpora which are large and diverse enough to contain rarely seen phenomena. The method is based on word segmentation and morphological analysis, it takes advantage of a data-driven learning process. Our results show that coarse-grained identification of phrasal compounds is best performed with empirical data, whereas fine-grained detection could be improved with a combination of rule-based and frequency-based word lists. Along with the characteristics of web texts, the orthographic realizations seem to be linked to the degree of expressivity.
Das Konzept De-facto-Didaktik ist der theoretische Rahmen, in dem wir aus multimodal-interaktionsanalytischer Sicht Unterrichtskommunikation analysieren. Es integriert neue Entwicklungen im Bereich Interaktionstheorie, empirische Interaktionsanalyse und Raumlinguistik. Aus einer dezidiert interaktionistischen Perspektive fokussiert das Konzept zunächst bewusst allgemeine Anforderungen der Interaktionskonstitution, um spezifische Aspekte der Unterrichtskommunikation - im konkreten Fall primär das didaktische Handeln der Lehrer - neu perspektivieren zu können. Wie immer man das Geschehen im Unterricht auch konzeptualisieren mag, es ist und bleibt in seiner grundlegenden Struktur und - jenseits seiner institutionellen Prägung und Bedingtheit - ein Ereignis, das in der konkreten Interaktionsarchitektur des Klassenraums, sequenziell-simultan durch das multimodale Verhalten aller Anwesenden gemeinsam hervorgebracht wird. Dabei unterliegen alle Beteiligten ungeachtet ihrer besonderen Beteiligungsrolle den Bedingungen der Interaktionskonstitution.
Wir werden nachfolgend die interaktionstheoretischen Grundlagen skizzieren, auf der unsere Methode der de-facto-didaktisehen Analyse basiert, und führen dann an einem ausgewählten Beispiel vor, wodurch sich dieser analytische Zugang auszeichnet. Zum Abschluss weisen wir nach einem fallspezifischen Resümee auf die anwendungsbezogene Relevanz de-facto-didaktischer Analysen hin.
In den letzten Jahren ist der konzessive Konnektor verstärkt in den Fokus der Gesprochene-Sprache-Forschung (GSF) geraten. Diese hat an authentischen Hörbeispielen eine Grammatikalisierungstendenz von dessen konzessiver, einräumender Bedeutung zur korrektiven Diskursmarkierung nachgewiesen. Im Anschluss insbesondere an die Forschungsergebnisse von Günthner (1999, 2000a, 2002, 2005, 2008) hat dann Moraldo (2012a, 2012b) zum einen versucht nachzuweisen, dass auch in schriftbasierten neumedialen Kommunikationsplattformen (z.B. Twitter) diese Hauptsatzwortstellung nach obwohl mittlerweile vorkommt. Zum anderen, dass Korrektivsätze vereinzelt auch in standardschriftsprachlichen Texten auftreten. (vgl. Moraldo 2012c). Der folgende Beitrag will nun die Entwicklung der Subjunktion obwohl zum Diskursmarker nachvollziehen. Ausgehend von seiner konzessiven Bedeutung (Kap. 2) soll korrektives obwohl zuerst anhand gesprochensprachlicher Beispiele illustriert, dann in konzeptionell mündlichen aber medial schriftlichen Kontexten analysiert und schließlich in standardschriftsprachlichen Texten nachgewiesen werden (Kap. 3), bevor abschließend seine Mutation von subordinierendem Konnektor zum Diskursmarker (Kap. 4) diskutiert wird.
Die pfälzische Sprachinsel am Niederrhein, deren Gründung auf das Jahr 1641 zurückgeht, ist die letzte deutsche Binnensprachinsel. Sie steht unter einem akuten Assimilationsdruck, der sich im funktionellen Wandel des autochthonen dialektalen Systems bemerkbar macht; verstärkt wird dieser Prozess durch den deutschlandweit vielerorts beobachtbaren Rückgang der Dialektkompetenz auf basisdialektaler Ebene. In der vorliegenden Arbeit werden einerseits die Entwicklung in der Struktur des Sprachinseldialekts und andererseits die Rolle des Gebrauchs von sprachlichen Varianten als identitätsmarkierende Mittel untersucht. Dazu werden Sprachproben aus zwei Generationen variablenanalytisch ausgewertet und die Ergebnisse gegenübergestellt. Dabei zeigt sich, dass die dialektkompetenten Sprecher der jüngeren Generation einzelne (ehemals) dialektale Merkmale verstärkt realisieren, um ihre Identität als pfälzische Sprachinsulaner zu markieren.
We introduce a method for error detection in automatically annotated text, aimed at supporting the creation of high-quality language resources at affordable cost. Our method combines an unsupervised generative model with human supervision from active learning. We test our approach on in-domain and out-of-domain data in two languages, in AL simulations and in a real world setting. For all settings, the results show that our method is able to detect annotation errors with high precision and high recall.
The modernization of society and changing norms are reflected in linguistic developments. This leads to an enlargement of vocabulary as well as to the emergence of new ways of linguistic acting. In grammar, in addition to longer-term developments, the current changes in the media situation play an important role.
Dieser Beitrag vergleicht die Ansätze ,Linguistic Landscapes' (LL) und ,Spot German' (SG) in Hinblick auf ihr Potenzial für die Untersuchung des Vorkommens und der Funktionen der deutschen Sprache in Regionen außerhalb des deutschsprachigen Kerngebietes. Als Beispiele wurden eine LL-Studie im Baltikum sowie eine SG-Untersuchung auf Zypern gewählt. Der Vergleich zeigt, dass beide Methoden - trotz ihrer unterschiedlichen Präzision - ähnliche Aussagen zur Rolle des Deutschen erlauben: In beiden Ländern erscheint Deutsch als „Ergänzungssprache“ zu den gesellschaftlichen Hauptsprachen in bestimmten Nischen, z.B. im Tourismus und in Verbindung mit bestimmten Firmen und Produkten.
In der vorliegenden Studie wird der Versuch unternommen, diese Kriterienkomplexität auf das Problem der Stellung der deutschen Sprache unter anderen Sprachen zu applizieren. Dieses Ziel ist mit der Würdigung des Beitrags des Geehrten zur Popularisierung der deutschen Sprache und Bewusstmachung ihrer Weltgeltung im internationalen Ausmaß durchaus affin. Dabei werden sprachinterne („organologische") und sprachexterne (soziokulturelle) Faktoren nach Möglichkeit in ihrer Wechselbeziehung bzw. Wechselwirkung dargestellt. Das Hauptziel dieser Darstellung besteht in einer Modellierung von linguistisch relevanten Parametern, die eine wissenschaftlich angemessene Basis für die adäquate Zuordnung der deutschen Sprache unter definitivem Ausschluss vor- bzw. pseudowissenschaftlicher Kriterien wie die subjektiven, wissenschaftsfernen Axiologien und Präferenzen schaffen können.
Deutsch in Finnland
(2017)
In meinem Artikel behandele ich den Umfang des Deutschunterrichtes an Schulen und Universitäten sowie die Verwendung des Deutschen in Wissenschaft und Wirtschaft in Finnland, vor allem im 20. und 21. Jahrhundert. Zunächst aber will ich die Geschichte der deutschen Kontakte und die Rolle der deutschen Sprache in bestimmten finnischen Städten sowie den Anteil Deutschsprachiger in der modernen finnischen Gesellschaft beleuchten. Nicht behandelt werden kann in diesem Zusammenhang die Lektüre und Übersetzung deutscher Belletristik, obwohl beide bedeutenden Einfluss auf die finnische Gedankenwelt und die literarische Bildung gehabt haben.
Die Migration in die Türkei stellt für viele junge Menschen einen Wendepunkt in ihrem Leben dar. Sie kann verschiedene Gründe haben.
In der biografie- und interaktionsanalystischen Pilotstudie wird die Darstellung der narrativen Identitätsentwürfe von drei deutsch-türkischen Germanistikstudentinnen in Instanbul untersucht. Sie zeigt, wie die Informantinnen aus der Retrospektive ihre sprachlichen und sozialen Erfahrungen in Deutschland und nach der Migration in die Türkei konstituieren und welche Rolle ihre sprachlichen Ressourcen beim Ausdruck von sozialer Zugehörigkeit spielen.
Der Themenkreis dieses Bandes umfasst Fragen der system- und normbezogenen Deskription des Gegenwartsdeutschen unter Berücksichtigung seiner Variierung und Dynamik, darunter insbesondere in den Bereichen des Wortschatzes, der Grammatik, der Textlinguistik und der kontrastiven Sprachforschung, der Sprachpolitik, der Sprachkultur sowie der Sprachdidaktik und des Faches “;Deutsch als Fremdsprache”. Die einzelnen Beiträge können vier zentralen und miteinander verschränkten Arbeitsfeldern zugeordnet werden: “Das Deutsche in der Welt”, “Der Wortschatz in Bewegung”, “In den Tiefen der Grammatik” und “Blicke auf den Sprachgebrauch”.
Das Archiv für Gesprochenes Deutsch (AGD, Stift/Schmidt 2014) am Institut für Deutsche Sprache ist die zentrale Sammelstelle für Korpora des Gesprochenen Deutsch. Gegründet als Deutsches Spracharchiv (DSAv) im Jahre 1932 hat es über Eigenprojekte, Kooperationen und Übernahmen von Daten aus abgeschlossenen Forschungsprojekten einen Bestand von etwa 50 Variations- und Gesprächskorpora aufgebaut. Heute ist dieser Bestand fast vollständig digitalisiert und wird zu einem großen Teil der wissenschaftlichen Gemeinschaft über die Datenbank für Gesprochenes Deutsch (DGD) im Internet zur Nutzung in Forschung und Lehre angeboten.
In diesem Beitrag wird die phonologische Variation angesprochen. Ein großer Teil des Artikels widmet sich der Allophonie der Frikative in den hessischen Dialekten. Es wird gezeigt, dass die standarddeutsche Allophonie zwischen den beiden dorsalen Frikativen - der palatalen Variante [c] und der velaren Variante [x] - durch eine Allophonie der alveo-palatalen Varianten ersetzt wird. Hier alterniert die gerundete Variante [∫] mit der ungerundeten Variante [ɕ]. Die palatale Variante [ç] ist weitgehend verschwunden, und der dorsale Frikativ [x] hat dieselbe Distribution wie in der Standardsprache.
Am 1. September 2016 hat das Forschungsprojekt „Lexik des gesprochenen Deutsch“ (= LeGeDe) am Institut für Deutsche Sprache in Mannheim als Kooperationsprojekt der Abteilungen Pragmatik und Lexik seine Arbeit aufgenommen. Dieses drittmittelgeförderte Projekt der Leibniz-Gemeinschaft (Leibniz-Wettbewerb 2016; Förderlinie 1: Innovative Vorhaben) hat eine Laufzeit von drei Jahren (1.9.2016-31.8.2019) und besteht aus einem Team von Mitarbeiterinnen und Mitarbeitern aus den Bereichen Lexikologie, Lexikografie, Gesprächsforschung, Korpus- und Computerlinguistik sowie Empirische Methoden. Im folgenden Beitrag werden neben Informationen zu den Eckdaten des Projekts, zu den unterschiedlichen Ausgangspunkten, dem Gegenstandsbereich, den Zielen sowie der LeGeDe-Datengrundlage vor allem einige grundlegende Forschungsfragen und methodologische Ansätze aufgezeigt sowie erste Vorschläge zur Gewinnung, Analyse und Strukturierung der Daten präsentiert. Zur lexikografischen Umsetzung werden verschiedene Möglichkeiten skizziert und im Ausblick einige Herausforderungen zusammengefasst.
Die Behandlung der Euro-Krise in der deutschen Presse ist typisch für die Art und Weise, wie sich die Beschreibung komplexer Phänomene der Wirtschaft im letzten Jahrzehnt entwickelt hat: Fachberichte schwinden allmählich zugunsten von neuen Erzählformen, in denen rhetorische Figuren die Oberhand gewinnen. Darunter sind vor allem Metaphern zu finden, die hauptsächlich konventioneller Natur sind, aber auch gern kreativ fortgesetzt werden. Sie spielen meist eine zentrale Rolle auf der Textebene, indem sie wesentlich zur Kohärenz eines Abschnitts bzw. eines ganzen Artikels beitragen. Diese innovativen Kommunikationsformen mögen zwar das Interesse des breiten Publikums an wirtschaftlichen Debatten wecken, aber sie führen oft zu einer groben Vereinfachung, die den technischen Aspekt der Euro-Krise völlig beiseite lässt. Außerdem sind die benutzten Bilder in der Regel sehr negativ gefärbt, was die Angst der Öffentlichkeit vor einem weltweiten Zusammenbruch der Finanzmärkte sicherlich noch verstärkt und dem Vertrauen der Bürger in Europa nicht gerade dient. Die Vorliebe der Massenmedien für düstere Szenarien enthüllt somit eine bewusste Strategie der Dramatisierung, die immer mehr zum „Storytelling“ tendiert.
Wie die meisten westgermanischen Varietäten kennen auch die niederdeutschen Dialekte eine Konstruktion, in der das Verb 'tun' (niederdeutsch meist 'doon') als Hilfsverb fungiert und einen Infinitiv regiert - die sog. 'tun'-Periphrase ('Lesen tut sie gerne', 'Sie tut gerne lesen'). Allerdings weicht die niederdeutsche 'tun'-Periphrase sehr deutlich von den aus anderen Sprachen bekannten Mustern ab: Viele niederdeutsche Dialekte zeigen eine auffällige und erklärungsbedürftige Tendenz, die Periphrase auf Nebensätze mit Verbletztstellung zu beschränken ('dass sie lesen tut'). Zudem unterscheiden sich niederdeutsche Dialekte z.T. erheblich darin, wie weit die Periphrase obligatorisiert ist bzw. welche Faktoren bei der Variation zwischen der Periphrase und der einfachen Form ('dass sie liest') ausschlaggebend sind.
In dieser Monographie werden diese und andere grammatische Eigenschaften der Konstruktion auf der Grundlage von umfangreichen Korpusrecherchen und eigenen Erhebungen herausgearbeitet. Die Befunde werden mit dem Instrumentarium der Grammatiktheorie erklärt und in einen typologischen und diachronen Zusammenhang gestellt.
Die Beiträge dieses Tagungsbandes thematisieren die Erstellung digitaler historischer Zeitungskorpora, Merkmale und Entwicklungstendenzen der Sprache der Zeitungen auf verschiedenen Ebenen und auf der Grundlage einzelner Korpora sowie die Bewertung der Zeitungssprache aus zeitgenössischer Sicht.
Die Vorträge gehen zurück auf den Workshop "Die Zeitung als das Medium der neueren Sprachgeschichte? Korpora, Analyse und Wirkung" am Institut für Deutsche Sprache (IDS) - in Zusammenarbeit mit dem Europäischen Zentrum für Sprachwissenschaften (EZS) - am 20./21.11.2014 in Mannheim.
Der Band enthält Beiträge, die auf der 4. Jahrestagung des Netzwerks 'Diskurs – interdisziplinär' 2014 gehalten wurden. Der Fokus der Beiträge ist auf Diskurs als ein semiotisches Kohärenzphänomen gerichtet. Komplexe von Zeichensystemen, die aufeinander verweisen und miteinander Sinn konstituieren, werden in ihrer diskursiven Geprägtheit beschrieben. Im Sinn einer Diskurssemiotik werden diskursive Kodierungen und ihre mutuellen Beziehungen als Bedeutung schaffende Instanzen dargestellt. Diese werden beispielhaft in Bereichen wie der Ess-, Körper-, Bild- und Filmsemiotik, der Semiotik der Kleidung und des Internets, der Raum- und der Geosemiotik sowie der Musiksemiotik exemplifiziert. Der Betrachtung des multimodalen Zusammenhangs von Text, Bild und Ton kommt dabei ein hoher Stellenwert zu. Damit präsentiert der Band Beispiele interdisziplinärer Ansätze und gibt den aktuellen Forschungsstand diskurssemiotischer Diskussionen wieder.
Am Institut für Deutsche Sprache in Mannheim fand vom 17. bis 19.11.2016 die sechste Tagung des Netzwerks „Diskurs – interdisziplinär“ statt, diesmal zum Thema „Diskurs – kontrastiv“. An der Tagung nahmen Teilnehmerinnen und Teilnehmer aus Bosnien-Herzegowina, Deutschland, England, Polen, Serbien, Schweiz, Schweden, der Slowakei und Slowenien teil. Die 18 Vorträge waren fünf Sektionen zugeordnet: Prinzipien des Kontrastiven, Internationale Vergleiche, Metaphorik im internationalen Vergleich, kontrastive Semantik, Kulturen und Stereotype – transnational. Die Beiträge fokussierten dabei immer wieder folgende Fragestellungen: Wie werden gleiche Themen in unterschiedlichen Gesellschaften konstituiert und erörtert? Welche sprachlichen Auswirkungen haben die jeweiligen gesellschaftlichen und politischen Bedingungen, unter denen formal gleichwertige Diskursbeteiligte (z. B. außerparlamentarische Opposition, Bürgerinitiativen, Interessengruppen) in Bezug auf identische Diskursgegenstände sprachlich agieren? Inwiefern lassen sich ähnliche Diskurse als je spezifische Zeitphänomene darstellen? Inwiefern besteht strukturelle Identität/Similarität bzw. Differenz z. B. hinsichtlich der Verwendung vergleichbarer bzw. abweichender Leit- und Schlüsselwörter, Metaphern, Argumentationsmuster etc.? Neben Vorträgen, die sich derlei Fragestellungen widmeten, gab es zudem Beiträge, die sich auf empirischer Basis mit Methoden kontrastiver Diskursforschung auseinandersetzten.
Wie können Diskursmarker in einem Korpus gesprochener Sprache auffindbar gemacht werden? Was ist Part-of-Speech-Tagging und wie funktioniert es? In diesem Artikel soll anhand der POS-Kategorie Diskursmarker dargestellt werden, wie für das Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) ein Part-of-Speech-Tagging entwickelt wurde, das auf die Annotation typisch gesprochen-sprachlicher Phänomene ausgerichtet ist. Diskursmarker sollen dafür aus der Sicht maschineller Sprachverarbeitung dargestellt werden, d. h. wie eine POS-Kategorie Diskursmarker so definiert werden kann, dass sie automatisch annotiert werden kann. Schließlich soll gezeigt werden, wie man auch weitere Diskursmarker in der Datenbank auffinden kann