Refine
Year of publication
Document Type
- Part of a Book (54)
- Article (19)
- Book (12)
- Review (6)
Has Fulltext
- yes (91) (remove)
Is part of the Bibliography
- yes (91) (remove)
Keywords
- Korpus <Linguistik> (27)
- Deutsch (21)
- Kommunikation (10)
- Konversationsanalyse (8)
- Lexikografie (8)
- Linguistik (8)
- Diskursanalyse (7)
- Pragmatik (7)
- Interaktion (6)
- Rezension (6)
Publicationstate
- Veröffentlichungsversion (91) (remove)
Reviewstate
- (Verlags)-Lektorat (67)
- Peer-Review (20)
- Verlags-Lektorat (2)
- Peer-review (1)
- Verlagslektorat (1)
Publisher
- de Gruyter (91) (remove)
Dieses Gespräch wurde am 6. Februar 2023 in den Räumlichkeiten des Marsilius-Kollegs der Universität Heidelberg aufgenommen. Es spiegelt den Austausch zwischen den beteiligten Wissenschaftlerinnen und Wissenschaftlern wider und gibt einen ersten Einblick in die Themen und Fragen, die in diesem Sammelband eine Rolle spielen. Das Gespräch wurde transkribiert und an denjenigen Stellen sprachlich überarbeitet, die es aus Gründen der Verständlich- und Lesbarkeit erforderten. Der mündliche, im Nachdenken begriffene Charakter des Gesprächs wurde gewahrt.
In diesem Beitrag beschäftigen wir uns mit moralisierenden Sprachhandlungen, worunter wir diskursstrategische Verfahren verstehen, in denen die Beschreibung von Streitfragen und erforderlichen Handlungen mit moralischen Begriffen enggeführt werden. Auf moralische Werte verweisendes Vokabular (wie beispielsweise „Freiheit“, „Sicherheit“ oder „Glaubwürdigkeit“) wird dabei verwendet, um eine Forderung durchzusetzen, die auf diese Weise unhintergehbar erscheint und keiner weiteren Begründung oder Rechtfertigung bedarf. Im Fokus unserer Betrachtungen steht dementsprechend das aus pragma-linguistischer Sicht auffällige Phänomen einer spezifischen Redepraxis der Letztbegründung oder Unhintergehbarkeit, die wir als Pragmem auffassen und beschreiben. Hierfür skizzieren wir zunächst den in der linguistischen Pragmatik verorteten Zugang zu Praktiken der Moralisierung, betrachten sprachliche Formen des Moralisierens und deren strukturelle Einbettung in den Satz oder den Text (also kotextuelle und pragmasyntaktischen Struktureinbettungen), um anschließend Hypothesen zu kontextuellen Wirkungsfunktionen aufzustellen. Darauf basierend leiten wir schließlich anhand von exemplarischen Korpusbelegen Strukturmuster des Moralisierens ab, die wir in dem philosophisch-linguistischen Fachterminus ‚Pragmem‘ verdichten und mittels qualitativer und quantitativer Analysen operationalisieren.
Comprehending conditional statements is fundamental for hypothetical reasoning about situations. However, the online comprehension of conditional statements containing different conditional connectives is still debated. We report two self-paced reading experiments on German conditionals presenting the conditional connectives wenn (‘if’) and nur wenn (‘only if’) in identical discourse contexts. In Experiment 1, participants read a conditional sentence followed by the confirmed antecedent p and the confirmed or negated consequent q. The final, critical sentence was presented word by word and contained a positive or negative quantifier (ein/kein ‘one/no’). Reading times of the two quantifiers did not differ between the two conditional connectives. In Experiment 2, presenting a negated antecedent, reading times for the critical positive quantifier (ein) did not differ between conditional connectives, while reading times for the negative quantifier (kein) were shorter for nur wenn than for wenn. The results show that comprehenders form distinct predictions about discourse continuations due to differences in the lexical semantics of the tested conditional connectives, shedding light on the role of conditional connectives in the online interpretation of conditionals in general.
We investigate the optional omission of the infinitival marker in a Swedish future tense construction. During the last two decades the frequency of omission has been rapidly increasing, and this process has received considerable attention in the literature. We test whether the knowledge which has been accumulated can yield accurate predictions of language variation and change. We extracted all occurrences of the construction from a very large collection of corpora. The dataset was automatically annotated with language-internal predictors which have previously been shown or hypothesized to affect the variation. We trained several models in order to make two kinds of predictions: whether the marker will be omitted in a specific utterance and how large the proportion of omissions will be for a given time period. For most of the approaches we tried, we were not able to achieve a better-than-baseline performance. The only exception was predicting the proportion of omissions using autoregressive integrated moving average models for one-step-ahead forecast, and in this case time was the only predictor that mattered. Our data suggest that most of the language-internal predictors do have some effect on the variation, but the effect is not strong enough to yield reliable predictions.
The question of whether a letter is a grapheme or not is a perennial issue in writing research. The answer depends on which criteria are used to differentiate between letters and graphemes and, ultimately,how the unit ‘grapheme’ is defined. This problem is particularly relevant to complex graphemes, i.e. sequences of letters that behave like a single grapheme in certain respects. Typical for German is the ‹ch›. This paper argues for a scalar concept of graphemes, which compares the grapheme status of each of the units under investigation. For this purpose, new criteria for the identification of complex graphemes are used, which originate from handwriting analysis. There, it is shown that complex graphemes are connected with each other disproportionately often and also have deviating letter forms disproportionately often.
Die Rationale der psychodynamischen Psychotherapie (und anderer Therapieformate) besteht darin, belastende und teils der bewussten Reflexion unzugängliche Erfahrungen der PatientInnen aufzuklären, ihre Ursachen zu identifizieren und alternative Wahrnehmungs- und Handlungsweisen zu ermöglichen. Dazu bedient sie sich eines bestimmten Settings: der Therapie über mehrere Sitzungen hinweg, in denen PatientInnen ihre Beschwerden und Erfahrungen berichten und TherapeutInnen mithilfe kommunikativer Praktiken gemeinsam mit den PatientInnen die Beschwerden aufzuklären, die Erfahrungen zu vertiefen und die Probleme zu lösen suchen. In der konversationsanalytischen Psychotherapieforschung (Peräkylä et al. 2008) werden dazu vier Grundtypen verständigungsbegünstigender kommunikativer Praktiken der Psychotherapie identifiziert: äußerungsfortführende Extensionen, Musterhaftigkeit herstellende Interpretationen, reformulierende formulations und Fragen (Weiste & Peräkylä 2015). Der vorliegende Beitrag widmet sich der Untersuchung von drei Fragetypen: Beispielnachfrage, Kollaborative Erklärungsfindungsfrage und Lösungsorientierte Frage und deren sequenzieller Organisation in psychodiagnostischen Gesprächen. Ziel ist es, deren unterschiedliche produktive Potenziale hinsichtlich der Handlungsrationale diagnostischer und therapeutischer Aufgabenstellungen herauszuarbeiten.
The article investigates the hypothesis that prominence phenomena on different levels of linguistic structure are systematically related to each other. More specifically, it is hypothesized that prominence relations in morphosyntax reflect, and contribute to, prominence management in discourse. This hypothesis is empirically based on the phenomenon of agentivity clines, i.e. the observation that the relevance of agentivity features such as volition or sentience is variable across different constructions. While some constructions, including German DO-clefts, show a strong preference for highly agentive verbs, other constructions, including German basic active constructions, have no particular requirements regarding the agentivity of the verb, except that at least one agentivity feature should be present. Our hypothesis predicts that this variable relevance of agentivity features is related to the discourse constraints on the felicitous use of a given construction, which in turn, of course, requires an explicit statement of such constraints. We propose an original account of the discourse constraints on DO-clefts in German using the ‘Question Under Discussion’ framework. Here, we hypothesize that DO-clefts render prominent one implicit question from a set of alternative questions available at a particular point in the developing discourse. This then yields a prominent question-answer pair that changes the thematic structure of the discourse. We conclude with some observations on the possibility of relating morphosyntactic prominence (high agentivity) to discourse prominence (making a Question Under Discussion prominent by way of clefting).
Between January 2020 and July 2021, many new words and phrases contributed to the expansion of the German vocabulary to enable communication under the new conditions that evolved during the Covid-19 pandemic. Medical and epidemiological vocabulary was integrated into the general language to a large extent. Suddenly, some lexemes from general language were used with very high frequency, while other words were used less often than before. These processes of language change can be studied in various ways, for example, in corpus linguistics with respect to the frequency or emergence of certain words in certain types of texts (e.g. press releases vs. posts in social media), in critical discourse analysis with respect to certain participants of the discourse (e.g. vocabulary of Covid-19 pandemic deniers), or in conversation analysis (e.g. with respect to new verbal interactions in greetings and farewells). The rapid expansion of vocabulary has notably affected also lexicography as a discipline of applied linguistics.
This article will focus on the ways in which a German neologism dictionary project has chosen to capture and document lexicographic information in a timely manner. Both challenges and advantages arise from lexicographic practice “at the pulse of time”. The Neologismenwörterbuch is presented as an example that lends itself well to such a discussion because its subject (neologisms) is characterized as new, innovative, and constantly changing.
This volume of Lexicographica : Series Maior focuses on lexicographic neology and neological lexicography concerning COVID-19 neologisms, featuring papers originally presented at the third Globalex Workshop on Lexicography and Neology (GWLN 2021).
The thirteen papers in this volume focus on ten languages: one Altaic (Korean), one Finno-Ugric (Hungarian), two Germanic (English and German), four Romance (French, Italian, [Brazilian and European] Portuguese and [Pan-American and European] Spanish), and one Slavic (Croatian), as well as the Sign Language of New Zealand. Specialized dictionaries of neologisms are discussed as well as general language ones, monolingual, bilingual and multilingual lexical resources, print and electronic dictionaries. Questions regarding terminology as well as general language and standard and norm regarding COVID-19 neologisms are raised and different methods of detecting candidates in media corpora, as well as by user contributions, are discussed.
This volume brings together contributions by international experts reflecting on Covid19-related neologisms and their lexicographic processing and representation. The papers analyze new words, new meanings of existing words, and new multiword units, where they come from, how they are transmitted (or differ) across languages, and how their use and meaning are reflected in dictionaries of all sorts. Recent trends in as many as ten languages are considered, including general and specialized language, monolingual as well as bilingual and printed as well as online dictionaries.
This chapter will present lessons learned from CLARIN-D, the German CLARIN national consortium. Members of the CLARIN-D communities and of the CLARIN-D consortium have been engaged in innovative, data-driven, and community-based research, using language resources and tools in the humanities and neigh-bouring disciplines. We will present different use cases and users’ stories that demonstrate the innovative research potential of large digital corpora and lexical resources for the study of language change and variation, for language documentation, for literary studies, and for the social sciences. We will emphasize the added value of making language resources and tools available in the CLARIN distributed research infrastructure and will discuss legal and ethical issues that need to be addressed in the use of such an infrastructure. Innovative technical solutions for accessing digital materials still under copyright and for data mining such materials will be presented. We will outline the need for close interaction with communities of interest in the areas of curriculum development, data management, and training the next generation of digital humanities scholars. The importance of community-supported standards for encoding language resources and the practice of community-based quality control for digital research data will be presented as a crucial step toward the provisioning of high quality research data. The chapter will conclude with a discussion of impor-tant directions for innovative research and for supporting infrastructure development over the next decade and beyond.
Standards in CLARIN
(2022)
This chapter looks at a fragment of the ongoing work of the CLARIN Standards Committee (CSC) on producing a shared set of recommendations on standards, formats, and related best practices supported by the CLARIN infrastructure and its participating centres. What might at first glance seem to be a straightforward goal has over the years proven to be rather complex, reflecting the robustness and heterogeneity of the emerging distributed digital research infrastructure and the various disciplines and research traditions of the language-based humanities that it serves and represents, and therefore part of the chapter reviews the various initiatives and proposals that strove to produce helpful standards-related guidance. The focus turns next to a subtask initiated in late 2019, its scope narrowed to one of the core activities and responsibilities of CLARIN backbone centres, namely the provision of data deposition services. Centres are obligated to publish their recom-mendations concerning the repertoire of data formats that are best suited for their research profiles. We look at how this requirement has been met by the particular centres and suggest that having centres maintain their information in the Standards Information System (SIS) is the way to improve on the current state of affairs.
Preface
(2022)
Enabling appropriate access to linguistic research data, both for many researchers and for innovative research applications, is a challenging task. In this chapter, we describe how we address this challenge in the context of the German Reference Corpus DeReKo and the corpus analysis platform KorAP. The core of our approach, which is based on and tightly integrated into the CLARIN infrastructure, is to offer access at different levels. The graduated access levels make it possible to find a low-loss compromise between the possibilities opened up and the costs incurred by users and providers for each individual use case, so that, viewed over many applications, the ratio between effort and results achieved can be effectively optimized. We also report on experiences with the current state of this approach.
CLARIN stands for “Common Language Resources and Technology Infrastructure”. In 2012 CLARIN ERIC was established as a legal entity with the mission to create and maintain a digital infrastructure to support the sharing, use, and sustainability of language data (in written, spoken, or multimodal form) available through repositories from all over Europe, in support of research in the humanities and social sciences and beyond. Since 2016 CLARIN has had the status of Landmark research infrastructure and currently it provides easy and sustainable access to digital language data and also offers advanced tools to discover, explore, exploit, annotate, analyse, or combine such datasets, wherever they are located. This is enabled through a networked federation of centres: language data repositories, service centres, and knowledge centres with single sign-on access for all members of the academic community in all participating countries. In addition, CLARIN offers open access facilities for other interested communities of use, both inside and outside of academia. Tools and data from different centres are interoperable, so that data collections can be combined and tools from different sources can be chained to perform operations at different levels of complexity. The strategic agenda adopted by CLARIN and the activities undertaken are rooted in a strong commitment to the Open Science paradigm and the FAIR data principles. This also enables CLARIN to express its added value for the European Research Area and to act as a key driver of innovation and contributor to the increasing number of industry programmes running on data-driven processes and the digitalization of society at large.
CLARIN, the "Common Language Resources and Technology Infrastructure", has established itself as a major player in the field of research infrastructures for the humanities. This volume provides a comprehensive overview of the organization, its members, its goals and its functioning, as well as of the tools and resources hosted by the infrastructure. The many contributors representing various fields, from computer science to law to psychology, analyse a wide range of topics, such as the technology behind the CLARIN infrastructure, the use of CLARIN resources in diverse research projects, the achievements of selected national CLARIN consortia, and the challenges that CLARIN has faced and will face in the future.
The book will be published in 2022, 10 years after the establishment of CLARIN as a European Research Infrastructure Consortium by the European Commission (Decision 2012/136/EU).
Fragen der Verdatung sind Bestandteil der digitalen Diskursanalyse und keine Vorarbeiten. Die Analyse digital(isiert)er Diskurse setzt im Unterschied zur Auswertung nicht-digital repräsentierter Sprache und Kommunikation notwendig technische Verfahren und Praktiken, Algorithmen und Software voraus, die den Untersuchungsgegenstand als digitales Datum konstituieren. Die nachfolgenden Abschnitte beschreiben kurz und knapp wiederkehrende Aspekte dieser Verdatungstechniken und -praktiken, insbesondere mit Blick auf Erhebung und Transformation (Abschnitt 2), Korpuskompilierung (Abschnitt 3), Annotation (Abschnitt 4) und Wege der analytischen Datenerschließung (Abschnitt 5). Im Fazit wird die Relevanz der Verdatungsarbeit für den Analyseprozess zusammengefasst (6).
Die Integration englischer er-Personenbezeichnungen ins System der deutschen Nomina agentis geht aufgrund struktureller Parallelen scheinbar schnell vonstatten. Auffällig, aber in bestehenden Untersuchungen unberücksichtigt, ist jedoch die (Nicht-)Movierung der Entlehnungen (Sharon ist Manager neben Managerin). Eine Fragebogenstudie mit zwölf prädikativen Konstruktionen, die sich auf weibliche Individuen beziehen, zeigt zunächst, dass Movierung für die meisten Teilnehmenden (ca. ¾) der Normalfall ist. Nur zwei Personen movieren nie. Bei den Teilnehmenden mit schwankender Movierung lässt sich kein Einfluss der Faktoren Geschlecht, Alter und Herkunft der Teilnehmenden sowie Geschlechterstereotyp des Lexems nachweisen. Einfluss auf die Variation haben dagegen der Fremdwortstatus (native Lexeme werden tendenziell eher moviert als Anglizismen), die Gebrauchsfrequenz (frequentere Lexeme werden tendenziell eher moviert als weniger frequente) und die Länge des Lexems (kürzere Lexeme werden tendenziell eher moviert als längere). Die statistische Untersuchung wird von kleineren qualitativen Beobachtungen aus den erhobenen Antworten und aus anderen Datenquellen (v.a. Korpora) ergänzt.
Wissenschaftlich basierte allgemeine Wörterbücher des Deutschen werden heute meist korpusbasiert erarbeitet, d. h. die in ihnen beschriebene Sprache wird vor der lexikografischen Beschreibung empirisch erforscht. Diese Korpora sind allerdings, wie die großen linguistischen Textsammlungen zum Deutschen allgemein, durch Zeitungstexte dominiert. Daher beruhen die in Wörterbüchern beschriebenen Kollokationen und typischen Verwendungskontexte zumindest teilweise auf dieser Textsorte. Wir untersuchen in unserem Beitrag anhand einer Fallstudie zu Mann und Frau, wie stark sich die Beschreibung solcher Kollokationssets ändern würde, wenn als Korpusgrundlage nicht Zeitungen, sondern Publikumszeitschriften oder belletristische Texte herangezogen würden und wie unterschiedlich demnach Geschlechterstereotype dargestellt würden. Damit diskutieren wir auch die Frage, ob Zeitungstexte in diesem Fall ein adäquates und vielseitiges Abbild des Gebrauchsstandards zeigen. Auf einer allgemeineren Ebene wird dadurch ein grundlegendes Problem korpuslinguistischer Forschungsarbeiten tangiert, nämlich die Frage, inwieweit durch Korpora überhaupt ein ‚objektives‘ Bild der sprachlichen Wirklichkeit gezeichnet werden kann.
Dieses Kapitel lotet Möglichkeiten und Methoden aus, digitale Diskursanalysen nationalsozialistischer Quellentexte durchzuführen. Digitale Technologie wird dabei als heuristisches Werkzeug betrachtet, mit dem der Sprachgebrauch während des Nationalsozialismus im Rahmen größerer Quellenkorpora untersucht werden kann. In einem theoretischen Abschnitt wird grundsätzlich dafür plädiert, während des Analyseprozesses hermeneutisches Sinnverstehen mit breitflächigen korpusbasierten Abfragen zu kombinieren. Verdeutlicht wird diese Herangehensweise an zwei empirischen Beispielen: Anhand eines Korpus von Hitler- und Goebbels-Reden wird dem Auftauchen und der diskursiven Ausgestaltung des nationalsozialistischen Konzepts „Lebensraum“ nachgespürt. Schritt für Schritt wird offengelegt, welche Analysewege durch das Abfragen von Schlüsseltexten, Keywords, Konkordanzen und Kollokationen verfolgt werden können. Das zweite Beispiel zeigt anhand von Eingaben, die aus der Bevölkerung an Staats- und Parteiinstanzen gerichtet wurden, wie solche Quellen mithilfe eines digitalen Tools manuell annotiert werden können, um sie danach auf Musterhaftigkeiten im Sprachgebrauch hin auswerten zu können.
Das Buch präsentiert die ersten Arbeitsergebnisse des wissenschaftlichen Netzwerks >Linguistik und Medizin< Patho- und Salutodiskurse im Spannungsfeld von objektivierter Diagnose, interaktiver Vermittlung und medialer Konstitution, gegründet 2017 und finanziert von der Deutschen Forschungsgemeinschaft. Aus unterschiedlichen linguistischen, medizinischen, historischen und soziologischen Perspektiven werden Prozesse der Wissenskonstitution, -aushandlung und des -transfers in Bezug auf Gesundheit und (psychische wie somatische) Krankheiten thematisiert. Mit Daten und Methoden der Gesprächs-, Korpus- und Diskurslinguistik, der Medizin und der Soziologie werden aktuelle und gesellschaftsrelevante Fragestellungen in der Arzt-Patienten-Kommunikation, den ö̈ffentlichen massenmedialen Diskursen und in der Fachkommunikation in einem interdisziplinären Dialog bearbeitet. Im Fokus stehen einzelne Krankheitsbilder und deren semiotische Konstruktion wie Schizophrenie, HIV/AIDS, Alzheimer, Depression; mannigfaltige interaktive Praktiken z.B. der Empathiebekundung, der Aufklärung, der Emotionalisierung in Arzt-Patienten-Gesprächen; Prozesse der gemeinsamen Wissensaushandlung in Online-Foren; fachliche Konstruktionen von Vorstellungen zu Normalität und Abweichung.
Der vorliegende Band geht aus der Arbeit des DFG-Netzwerks >Linguistik und Medizin< – Patho- und Saluto-Diskurse im Spannungsfeld von objektivierter Diagnose, interaktiver Vermittlung und medialer Konstitution (vgl. Iakushevich, Ilg & Schnedermann 2017) hervor, das Forscherinnen und Forscher aus Deutschland, der Schweiz, Österreich und Ungarn vereint (www.linguistik-medizin.net). Das Netzwerk wurde 2017 gegründet, um die Forschungstätigkeiten der verschiedenen linguistischen Disziplinen, die an den Verbindungslinien von „Sprache – Wissen – Medizin“ arbeiten, zu bündeln und die interdisziplinäre Anschlussfähigkeit zwischen linguistischen und medizinischen, psychiatrischen und salutogenetischen Forschungsbereichen auf- und auszubauen.
Im Beitrag werden drei sprachwissenschaftliche Zugänge zu Diagnosen vorgestellt: In der Gesprächsanalyse wird die Diagnoseherstellung in der mündlichen Arzt-Patienten-Interaktion beleuchtet. Diagnosen entstehen kollaborativ,indem Gesprächsphasen durchlaufen und charakteristische Handlungen in bestimmten Äußerungsformaten vollzogen werden. Im Blickpunkt der Text- und Kommunikationsgeschichte steht hingegen das schriftsprachliche Handeln. Das Herstellen einer Diagnose erfordert hier die nachträgliche Bearbeitung vorgängiger mündlicher Interaktionen gemäß einer etablierten Textsorte: dem Erhebungsbogen. Von diesen Formen der Diagnoseherstellung unterscheidet sich, wie ein diskurslinguistischer Zugriff zeigt, die massenmediale Faktizitätsherstellung in Diskursen wie dem Impfdiskurs, die auch für ein medizinisches Laienpublikum relevant sind. Mit dem Beitrag soll nicht nur deutlich gemacht werden, in welchengem Zusammenhang mündliche Interaktion und schriftliche Fixierung stehen, sondern auch betont werden, dass das massenmedial vermittelte medizinische Lai*innen in relative Expert*innen verwandeln kann.
The term “pivot” usually refers to two overlapping syntactic units such that the completion of the first unit simultaneously launches the second. In addition, pivots are generally said to be characterized by the smooth prosodic integration of their syntactic parts. This prosodic integration is typically achieved by prosodic-phonetic matching of the pivot components. As research on such turns in a range of languages has illustrated, speakers routinely deploy pivots so as to be able to continue past a point of possible turn completion, in the service of implementing some additional or revised action. This article seeks to build on, and complement, earlier research by exploring two issues in more detail as follows: (1) what exactly do pivotal turn extensions accomplish on the action dimension, and (2) what role does prosodic-phonetic packaging play in this? We will show that pivot constructions not only exhibit various degrees of prosodic-phonetic (non-)integration, i.e., differently strong cesuras, but that they can be ordered on a continuum, and that this cline maps onto the relationship of the actions accomplished by the components of the pivot construction. While tighter prosodic-phonetic integration, i.e., weak(er) cesuring, co-occurs with post-pivot actions whose relationship to that of the pre-pivot tends to be rather retrospective in character, looser prosodic-phonetic integration, i.e., strong(er) cesuring, is associated with a more prospective orientation of the post-pivot’s action. These observations also raise more general questions with regard to the analysis of action.
Die Macht des Definierens. Eine diskurslinguistische Typologie am Beispiel des Burnout-Phänomens
(2021)
Wo verläuft die Grenze zwischen psychischer Gesundheit und Krankheit, und wie wird diese im öffentlichen und fachlichen Diskurs ausgehandelt und definiert? Die vorliegende Arbeit untersucht am Beispiel des Burnout-Diskurses, mit welchen Sprachgebrauchsformen und kommunikativen Praktiken in Fach-, Medien- und Vermittlungstexten ein spezifikationsbedürftiges Phänomen des Bereichs psychischer Gesundheit und Krankheit definiert wird. Im Mittelpunkt der Analyse steht die Macht diskursiver Praktiken des Definierens und die These, dass sich diese Praktiken nicht nur punktuell in bewussten Definitionshandlungen einzelner Textautor/-innen zeigen, sondern dass Definieren in einem Diskurs auch als teilweise unbewusster, überindividueller, transtextueller Prozess begriffen und analysiert werden muss. Die Exemplifizierung dieser These mündet in ein 11-Punkte-Modell der diskursiven Praxis des Definierens. Durch den diskurslinguistisch-praxeologischen Ansatz eröffnet die Arbeit neue Perspektiven für die linguistische Terminologie- und Definitionsforschung.
Das 1901er-Regelwerk wird in einem direkten Vergleich mit dem geltenden amtlichen Regelwerk gemeinhin als defizitär eingestuft. Diese Einschätzung basiert auf der Annahme eines Primats des Regelteils. Der vorliegende Beitrag setzt hieran an und bestimmt auf der Basis der Festlegungen zur Getrennt- und Zusammenschreibung Funktion und Verhältnis von Regelteil und Wörterverzeichnis des ersten gesamtdeutschen Regelwerks in seinem historischen Entstehungskontext. Dabei zeigt sich, dass das Regelwerk von 1901 einen anderen Weg in der Kodifikation beschreitet; während im Regelteil Regularitäten aufgezeigt und Kriterien zur Schreibungsfindung an die Hand gegeben werden, erfolgt die Kodifikation rechtschreibschwieriger Fälle über das Wörterverzeichnis.
Öffentliche Sprachdiskurse, wie sie beispielsweise in den Medien stattfinden, werden typischerweise aus einer sprachkritischen Haltung heraus geführt. Inwieweit diese veröffentlichte Meinung tatsächlich die Mehrheitsmeinung der Sprecherinnen und Sprecher widerspiegelt, ist durchaus eine offene Frage. In diesem Beitrag berichten wir aus einer rezenten Erhebung über Spracheinstellungen in Deutschland. Wir zeigen, dass die Art der Frageformulierung einen starken Einfluss auf die Ergebnisse hat, und berichten, welche sprachlichen Veränderungen die Befragten in jüngerer Zeit angeben, wahrgenommen zu haben.
This contribution presents a quantitative approach to speech, thought and writing representation (ST&WR) and steps towards its automatic detection. Automatic detection is necessary for studying ST&WR in a large number of texts and thus identifying developments in form and usage over time and in different types of texts. The contribution summarizes results of a pilot study: First, it describes the manual annotation of a corpus of short narrative texts in relation to linguistic descriptions of ST&WR. Then, two different techniques of automatic detection – a rule-based and a machine learning approach – are described and compared. Evaluation of the results shows success with automatic detection, especially for direct and indirect ST&WR.
Psychotherapy talk is characterized by epistemic, emotional and professional asymmetries of knowledge, which are continuously adjusted to by the participants in joint process of negotiation. Adjustment is based on structural features of communication: the fundamental sequentiality of verbal interaction, i.e. interrelated succession of utterances of at least two interlocutors, provides for and guarantees the achievement of intersubjectivity and therapeutic efficiency. Solution-oriented questions as a rhetorical practice serve to produce forward-looking awareness, expansion of knowledge and reorganization of knowledge on the patient’s side as well as an increased ability to act. These processes become apparent not only locally in the immediate context of solution-oriented questions but also globally in the course of the interaction as a whole. The data for this research consists of psychodiagnostic interviews conducted according to the concept and manual of the Operationalized Psychodynamic Diagnostics (OPD Task Force 2009).
Das hier zu besprechende Buch, das Ergebnisse einer gleichnamigen Tagung zusammenfasst, die im Juni 2013 in Zürich stattfand, macht eines offenkundig: Wer in jenem Sommer nicht dabei war, hat etwas verpasst. Umso glücklicher darf man sein, dass Angelika Linke und Juliane Schröter die Arbeit, die mit der Herausgabe eines Sammelbandes verbunden ist, auf sich genommen haben. Mehr noch: In einem programmatischen ersten Kapitel geben sie einen systematischen Einblick in das tragfähige Forschungsfeld „Sprachliche Relationalität“ (vgl. S. 1–6), das ganz im Sinne der emotiven Wende in der Sprachwissenschaft konkrete theoretische Anschlussfähigkeit signalisiert, wo bislang eine „fast unübersehbare Menge an Veröffentlichungen“ (Schwarz-Friesel 2013: 16) zwar zeigte, wie attraktiv die Thematik ist, aber auch wie unstrukturiert sich die Zuwendung dazu gestaltet. Dass der Band nun weitere „exemplarische Besetzungen“ (S. 21) des Forschungsfeldes zur Diskussion stellt, wird hier keinesfalls als Nachteil angesehen, sondern als methodisch folgerichtiger empirischer Zugang zur Erschließung eines Forschungsfeldes unter den zielsetzenden Leitfragen „Wie werden im Medium von Sprachgebrauch und Sprache Konzeptualisierungen, Kategorisierungen und Differenzierungen menschlicher Beziehungen ausgebildet, verfestigt und auch wieder verändert?“ und „Welche sprachgeformten Beziehungskonzepte, -kategorien und -unterschiede sind typisch für bestimmte historische Epochen bzw. für bestimmte soziale Gruppierungen?“
Die Analyse sprachlicher Massendaten zeigt, wie zentral mehr oder weniger feste Wortverbindungen als Lexikoneinheiten für die Sprachkompetenz sind. Der Beitrag geht zunächst kurz auf aktuelle Entwicklungen in der Phraseologie ein: eine Abkehr von der starken Betonung des Idiosynkratischen einerseits und die Hinwendung zum Vorgeprägten andererseits. Wir führen hierzu den Terminus‚ lexikalisch geprägte Muster‘ (LGM) ein. In einer Detailanalyse beschäftigen wir uns mit satzwertigen Wortverbindungen im Spannungsfeld zwischen ausgeprägter Lexikalisierung, die auf eine gesonderte kognitive Verankerung hindeutet, und der Konstitution abstrakter Spruchmuster als LGM-Subtyp. Im zweiten Teil zeigen wir, wie usuelle Wortverbindungen innerhalb von Phrasenkomposita zur Lexembildung beitragen.
Quantitativ ausgerichtete empirische Linguistik hat in der Regel das Ziel, grose Mengen sprachlichen Materials auf einmal in den Blick zu nehmen und durch geeignete Analysemethoden sowohl neue Phanomene zu entdecken als auch bekannte Phanomene systematischer zu erforschen. Das Ziel unseres Beitrags ist es, anhand zweier exemplarischer Forschungsfragen methodisch zu reflektieren, wo der quantitativ-empirische Ansatz fur die Analyse lexikalischer Daten wirklich so funktioniert wie erhofft und wo vielleicht sogar systembedingte Grenzen liegen. Wir greifen zu diesem Zweck zwei sehr unterschiedliche Forschungsfragen heraus: zum einen die zeitnahe Analyse von produktiven Wortschatzwandelprozessen und zum anderen die Ausgleichsbeziehung von Wortstellungsvs. Wortstrukturregularitat in den Sprachen der Welt. Diese beiden Forschungsfragen liegen auf sehr unterschiedlichen Abstraktionsebenen. Wir hoffen aber, dass wir mit ihnen in groser Bandbreite zeigen konnen, auf welchen Ebenen die quantitative Analyse lexikalischer Daten stattfinden kann. Daruber hinaus mochten wir anhand dieser sehr unterschiedlichen Analysen die Moglichkeiten und Grenzen des quantitativen Ansatzes reflektieren und damit die Interpretationskraft der Verfahren verdeutlichen.
Wie nun bereits seit einigen Jahren üblich, wurde die IDS-Jahrestagung auch dieses Jahr wieder von einer Methodenmesse begleitet, auf der sich passend zum Tagungsthema anwendungsorientierte Projekte mit Bezug zur Lexikonforschung präsentierten. Die Bandbreite der dargebotenen Themen war sehr groß: innovative methodische Ansätze im Bereich der Translationswissenschaft, Tools zur Analyse und Beschreibung lexikalischer Muster oder zur Detektion von Neologismen, neue lexikografische Ressourcen bis hin zu Infrastrukturaktivitäten und einem Kooperationsprojekt zwischen Schüler/innen und Wissenschaftler/innen zur Wortschatzanalyse. Im Folgenden sollen die einzelnen Projekte, die sich auf der Messe präsentiert haben, auf der Basis der eingereichten Abstracts der Messeteilnehmer/innen kurz vorgestellt werden.
In der Geschichte der Sprachwissenschaft hat das Lexikon in unterschiedlichem Maße Aufmerksamkeit erfahren. In jüngerer Zeit ist es vor allem durch die Verfügbarkeit sprachlicher Massendaten und die Entwicklung von Methoden zu ihrer Analyse wieder stärker ins Zentrum des Interesses gerückt. Dies hat aber nicht nur unseren Blick für lexikalische Phänomene geschärft, sondern hat gegenwärtig auch einen profunden Einfluss auf die Entstehung neuer Sprachtheorien, beginnend bei Fragen nach der Natur lexikalischen Wissens bis hin zur Auflösung der Lexikon-Grammatik-Dichotomie. Das Institut für Deutsche Sprache hat diese Entwicklungen zum Anlass genommen, sein aktuelles Jahrbuch in Anknüpfung an die Jahrestagung 2017 – „Wortschätze: Dynamik, Muster, Komplexität“ – der Theorie des Lexikons und den Methoden seiner Erforschung zu widmen.
Vorwort
(2018)
Wissen im Gespräch
(2018)
Dieser Artikel gibt einen Überblick darüber, wie grundlegend Wissen als Voraussetzung, Gegenstand und Produkt von Verständigungsprozessen für die Organisation von Gesprächen ist. Zunächst wird ein kognitivistischer Zugang zu Wissen mit einem sozialkonstruktivistischen kontrastiert. Es werden zum einen kommunikative Gattungen, die auf die Kommunikation von Wissen spezialisiert sind, dargestellt; zum anderen wird gezeigt, wie Wissen auch dann die Gestaltung der Interaktion bestimmt, wenn der primäre Gesprächszweck nicht in Wissensvermittlung besteht. Vier Dimensionen werden angesprochen: a) Das mit dem Adressaten geteilte Wissen (common ground) ist Grundlage des Adressatenzuschnitts von Äußerungen (recipient design); b) geteiltes Wissen wird in Verständigungsprozessen konstituiert; c) der relative epistemische Status der Gesprächspartner zueinander wird durch Praktiken des epistemic stance-taking verdeutlicht und bestimmt selbst die Interpretation von Äußerungsformaten; d) epistemischer Status, soziale Identität und Beziehungskonstitution sind eng miteinander durch moralische Anspruchs- und Erwartungsstrukturen verknüpft.
Der Korpuslinguistik begegneten überwiegend introspektiv arbeitende Grammatiktheoretiker lange mit Misstrauen. Dabei kann sie, auch wenn sie selbst kein bestimmtes theoretisches Paradigma vorgibt, in sehr vielfältiger Weise zur Theoriebildung beitragen. Zum einen können mithilfe von Korpora theoretische Aussagen exemplifiziert und validiert werden. Zum anderen liefert die Korpuslinguistik große Mengen differenzierter Sprachdaten sowie Methoden, mit denen sie überschaut und analysiert werden können. Neue Daten müssen theoretisch in neuen Generalisierungen aufgearbeitet werden und auch die Datenvielfalt selbst rückt in den theoretischen Fokus. Die Grammatikforschung erfährt so eine empirische Wende, in der die Variation grammatischer Strukturen zu einem der zentralen Themen wird. Die theoretische Erfassung dieser Variation geht dabei weit über die Grenzen einer klassischen Theorie der Sprachkompetenz hinaus. Immer dringlicher wird damit eine neue wissenschaftliche Grammatik des Deutschen, die diese Entwicklung aufnimmt, sich den neuen Forschungsfragen stellt, sie mit modernen korpuslinguistischen Methoden untersucht und damit die Grundlagen für eine umfassende Theorie schafft, in der Kompetenz und Performanz (wie auch Synchronie und Diachronie) näher aneinanderrücken.
Zur Aussprache nicht haupttoniger Vorsilben mit <e> in Lehnwörtern im deutschen Gebrauchsstandard
(2018)
Vortoniges <e> in Lehnwörtern in offenen Silben (demonstrieren, Elefant) ist in den traditionellen deutschen Aussprachewörterbüchern durchgängig mit gespanntem/geschlossenem [e] kodifiziert. Die Auswertung von insgesamt 17 entsprechenden Belegwörtern aus dem Korpus „Deutsch heute“ zeigt für den deutschen Gebrauchsstandard jedoch eine ausgeprägte Variation zwischen den Lauttypen [e], [ɛ] und [ə], die je nach Lexem in ganz unterschiedlichen Anteilen vorkommen. Als Erklärungsansätze für das differierende Variationsverhalten lassen sich Faktoren wie Wortakzentmuster, Folgekonsonanz, Formalitätsgrad und semantisch-morphologische Durchsichtigkeit der Wortbildung anführen. Außerdem zeigt die Variation auch eine ausgeprägte diatopische Dimension: Während im Norden Deutschlands, aber auch im mittelbairisch geprägten Sprachraum und in der Ostschweiz die [e]-Aussprache dominiert, überwiegen in der südlichen Mitte und im Südwesten Deutschlands, im südbairisch geprägten Sprachraum und vor allem in der Westschweiz Belege mit [ɛ]-Aussprache. Die Ergebnisse von „Deutsch heute“ zeigen sich in ähnlicher Weise auch in zusätzlich ausgewerteten Sprachdaten (Nachrichtensendungen, FOLK-Korpus).
Einleitung
(2018)
Sprecher haben (oft unbewusste) Meinungen und Einstellungen zu Sprachen und Varietäten. Ein Weg, solche Spracheinstellungen zu erfassen, führt über quantitative Verfahren (Fragebogen mit offenen und geschlossenen Fragen), mit denen man Daten großer Gruppen – im Idealfall repräsentativ – erheben kann. Im Beitrag werden solche Erhebungen, die am Institut für Deutsche Sprache durchgeführt wurden, vorgestellt, und es werden zwei Instrumente der Spracheinstellungsforschung, die dabei zum Einsatz kamen, naher erläutert: das Allgemeine Sprachbewertungsinstrument (ASBI) und die Attitudes-Towards-Languages-Skala (AToL). Außerdem wird gezeigt, wie dialektometrische Auswertungs- und Visualisierungsverfahren auf Einstellungsdaten angewendet werden können.
Dieser Beitrag setzt sich mit Gesprächskorpora als einem besonderen Typus von Korpora gesprochener Sprache auseinander. Es werden zunächst wesentliche Eigenschaften solcher Korpora herausgearbeitet und einige der wichtigsten deutschsprachigen Gesprächskorpora vorgestellt. Der zweite Teil des Beitrags setzt sich dann mit dem Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) auseinander. FOLK hat sich zum Ziel gesetzt, ein wissenschaftsöffentliches Korpus von Interaktionsdaten aufzubauen, das methodisch und technisch dem aktuellen Forschungsstand entspricht. Die Herausforderungen, die sich beim Aufbau von FOLK in methodischer und korpustechnologischer Hinsicht stellen, werden in abschließenden Abschnitt diskutiert.
Einleitung
(2018)
Symbolische Repräsentation sprachlicher Lautstruktur beinhaltet die Zergliederung kontinuierlicher Rede in diskrete Einheiten, die mit einem finiten Inventar von Zeichen assoziiert werden. Die Grundidee hinter dieser Abstraktion ist, „wiederkehrendes“ Material, das trotz phonetischer Unterschiede als gleich aufgefasst wird, mit jeweils gleichen Zeichen zu assoziieren. Die Entwicklung geeigneter Verfahren zur Ermittlung einheitlicher und empirisch adäquater Abstraktionsgrade wurde in strukturalistischen Arbeiten vehement diskutiert, scheint aber allgemein seltsam vernachlässigt. In vorliegendem Beitrag wird ein solches im Rahmen der Optimalitätstheorie entwickeltes Verfahren anhand der sogenannten Vokalopposition im Deutschen vorgestellt. Verschiedene Typen konvergierender empirischer Evidenz untermauern die Annahme einer einzigen phonologisch relevanten Abstraktionsebene mit fünfzehn qualitativ unterschiedlichen Vollvokalen.
Sprachliche Variation
(2018)
Der Beitrag diskutiert anhand von Kongruenzschwankungen im Zusammenhang mit Subjektreihungen verschiedene Aspekte sprachlicher Variation. Es wird gezeigt, wie mithilfe einer Korpusstudie grammatische Faktoren ermittelt werden können, die die Verteilung der Varianten steuern. Im Anschluss wird eine Analyse vorgestellt, die Variation darauf zurückführt, dass syntaktische Strukturen, die an der Schnittstelle zur Morphologie/Phonologie nicht vollständig interpretierbar sind, auf verschiedene Arten repariert werden können.