Refine
Year of publication
Document Type
- Part of a Book (35)
- Article (21)
- Conference Proceeding (5)
- Review (2)
- Book (1)
- Master's Thesis (1)
- Working Paper (1)
Has Fulltext
- yes (66) (remove)
Keywords
- Gesprochene Sprache (66) (remove)
Publicationstate
- Zweitveröffentlichung (66) (remove)
Reviewstate
Publisher
- de Gruyter (15)
- Narr (4)
- Narr Francke Attempto (4)
- Erich Schmidt (3)
- European Language Resources Association (3)
- Verlag für Gesprächsforschung (3)
- Wilhelm Fink (3)
- Benjamins (2)
- Springer (2)
- Stauffenburg (2)
Das Werk versteht sich als eine Darstellung der wichtigsten syntaktischen, prosodischen, semantischen und pragmatischen Eigenschaften kausaler und konditionaler Konnektoren des gesprochenen Deutsch.
Die Untersuchung formuliert notwendige theoretische Grundlagen und zeigt die komplexe Interaktion mehrerer Faktoren, die sich auf die Interpretation einer Äußerung auswirken. Empirische Daten belegen, dass die kontextuelle und pragmatische Interpretation der untersuchten Relationen stark mit ihren syntaktischen und prosodischen Mustern korreliert. Jedoch handelt es sich nicht um eine Eins-zu-eins-Beziehung, denn gleiche Lesarten können von kausalen und konditionalen Relationen unterschiedlich markiert sein. Anhand der Ergebnisse wird das Verhältnis zwischen Konditionalität und Kausalität diskutiert.
Conversation is usually considered to be grammatically simple, while academic writing is often claimed to be structurally complex, associated primarily with a greater use of dependent clauses. Our goal in the present paper is to challenge these stereotypes, based on the results of large-scale corpus investigations. We argue that both conversation and professional academic writing are grammatically complex but that their complexities are dramatically different. Surprisingly, the traditional view that complexity is realized through extensive clausal embedding leads to the conclusion that conversation is more complex than academic writing. In contrast, written academic discourse is actually much more ‘compressed’ than elaborated, and the complexities of academic writing are realized mostly as phrasal embedding rather than embedded clauses.
Metadaten zu Gesprächen und den beteiligten Sprecher/-innen enthalten Informationen, die für die Beschreibung, Erschließung und Analyse von Korpora wichtig sind. Bisher werden sie jedoch in der Konversationsanalyse und der Interaktionalen Linguistik so gut wie nicht genutzt. Dieser Beitrag zeigt exemplarisch, wie Metadaten des Gesprächskorpus „Forschungs- und Lehrkorpus Gesprochenes Deutsch“ (FOLK) im Rahmen einer interaktionslinguistischen Untersuchung verwendet werden können, um Regularitäten der Verwendung einer untersuchten Gesprächspraktik zu identifizieren und ihren Zusammenhang mit den Eigenschaften von Aktivitäten und Sprecherrollen zu klären. In allgemeinerer Perspektive diskutiert der Beitrag, wie und an welchen Stellen einer interaktionslinguistischen Untersuchung Metadaten von Nutzen sein können und wie ihr Stellenwert im Rahmen dieser Methodologie kritisch reflektiert werden muss.
Der vorliegende Beitrag beschäftigt sich mit dem Gebrauch von konnektintegrierbaren Konnektoren im gesprochenen Deutsch. Die Analyse wird am Beispiel der Adverbkonnektoren deshalb und deswegen als Korrelate zum Subjunktor weil und ausgehend von theoretischen Prämissen aus der traditionellen Grammatik und aus der Gesprächsforschung durchgeführt. Der Gebrauch der genannten Konnektoren wird innerhalb einer Auswahl von Korpusdaten gesprochener Sprache beobachtet, die mehrere verschiedene Gattungen der alltäglichen bzw. der institutionellen Kommunikation umfasst.
Dieser Beitrag skizziert einen paradoxen Wandelprozess, den wir „Denaturierung" nennen: Ursprünglich natürlichsprachige, orale, ersterworbene Varietäten werden durch sprachplanerische Maßnahmen zu literalen, nicht ersterworbenen Systemen. Wir diskutieren zunächst die Grundlagen dieses Prozesses: Die Literalisierung von Sprachsystemen und Gesellschaften bringt orale Non-Standard-Varietäten in funktionale Konkurrenzsituationen mit Standardvarietäten. Der Wunsch nach Bewahrung und (Re-)Vitalisierung dieser Varietäten erzwingt - um ihre funktionale Leistungsfähigkeit auszubauen - Standardisierungsprozesse der betroffenen Varietäten, wodurch in ihren Systemen Elemente auftreten, die nicht durch L1-Erwerb weitergegeben werden (können). Paradoxerweise soll also das Verschwinden natürlicher Sprachen (der muttersprachlich erworbenen Dialekte), die sich definitorisch gerade durch die funktionale Distanz zur Standardsprache auszeichnen, durch Eingriffe unterbunden werden, die ihrem Status als natürliche Sprachen entgegenwirken. Wir postulieren, dass diese Denaturierung eine Konsequenz der Faktoren Attrition und Standardisierung ist. Dazu illustrieren und kontrastieren wir den Verlauf dieses Prozesses anhand von drei germanischen Varietäten: Während das Bairische noch am Anfang einer möglichen Denaturierung steht, kann das sowohl von starker Attrition als auch gezielter Standardisierung betroffene Niederdeutsche in dieser Hinsicht bereits als fortgeschritten angesehen werden. Im modernen Färöischen, wo bei bewahrter hoher mündlicher Variation eine stark historisierende, unifizierende Schriftvarietät installiert wurde, fällt die Denaturierung mangels Attrition dagegen nur schwach aus.
This paper presents observations on the phonetic realisations of the German particles ja – ‘yes’ and naja – approximately ‘well’. As part of a large-scale study on the particle ja, we identified numerous instances in the dataset that had been orthographically transcribed as ja, but were phonetically realised as [nja]. Using phonetic and functional parameters, we explore the question whether these instances can be attributed to either the lexeme ja or naja. While phonetic measurements yield ambivalent results, analyses of pragmatic parameters such as function and turn position seem to indicate that [nja] was predominantly intended to be ja, although some functional differences between ja and [nja] could also be identified.
Auch Linguist*innen, die gesprochene Sprache untersuchen, kommen schon seit längerem nicht mehr ohne digitale Infrastrukturen aus. Seit Beginn der Gesprochene-Sprache-Forschung werden Gespräche aufgezeichnet und anschließend transkribiert, da die flüchtigen, innerhalb von Bruchteilen von Sekunden stattfindenden Feinheiten des Gesprochenen paradoxerweise nur durch Verschriftung im Detail untersucht werden können. Diese Detailuntersuchungen beschränkten sich im vergangenen Jahrhundert meist auf wenige Einzelbelege für ein untersuchtes Phänomen. Das heißt, die Forschenden hatten den unmittelbaren Überblick über ihre Datenkollektionen und benötigten keine elaborierten digitalen Methoden zu deren Aufbereitung, Annotation und Analyse. Dies hat sich in den letzten beiden Jahrzehnten stark geändert: Es wurden vermehrt gezielt große Datenmengen gesammelt, in Datenbanken organisiert und der Forschungsgemeinschaft zur Nutzung zur Verfügung gestellt. An erster Stelle muss hier das Forschungs- und Lehrkorpus gesprochenes Deutsch (FOLK) genannt werden (vgl. Schmidt 2014). Dieses wird seit 2008 am Leibniz-Institut für Deutsche Sprache (IDS) aufgebaut und ist heute das größte Referenzkorpus für das gesprochene Deutsch.
Spontan kreierte Okkasionalismen sind rekurrenter Bestandteil verbaler Interaktionen. Vor dem Hintergrund, dass die Bedeutung von Okkasionalismen nicht konventionalisiert und damit potenziell unbekannt ist, untersucht der vorliegende Beitrag aus gesprächsanalytischer Perspektive die Frage, unter welchen Bedingungen die Bedeutung okkasioneller Ausdrücke in Folgeäußerungen selbstinitiiert oder fremdinitiiert erklärt wird und wann dies nicht der Fall ist. Es zeigt sich, dass die überwältigende Mehrheit der 1.068 analysierten Okkasionalismen aus verschiedenen Gründen kein Verstehensproblem darstellt. Wird die Bedeutung eines Okkasionalismus dennoch selbstinitiiert erklärt, dient dies oft anderen Zwecken als der Verstehenssicherung. Wird dagegen die Bedeutung eines nicht problemlos erschließbaren Okkasionalismus nicht unmittelbar selbstinitiiert erläutert, dient der ‚rätselhafte‘ Ausdruck als interaktive Ressource dazu, Rezipient/-innen neugierig zu machen, Nachfragen zu elizitieren und damit Folgeäußerungen zu lizenzieren.
Transkriptionswerkzeuge sind spezialisierte Softwaretools für die Transkription und Annotation von Audio- oder Videoaufzeichnungen gesprochener Sprache. Dieses Kapitel erklärt einleitend, worin der zusätzliche Nutzen solcher Werkzeuge gegenüber einfacher Textverarbeitungssoftware liegt, und gibt dann einen Überblick über grundlegende Prinzipien und einige weitverbreitete Tools dieser Art. Am Beispiel der Editoren FOLKER und OrthoNormal wird schließlich der praktische Einsatz zweier Werkzeuge in den Arbeitsabläufen eines Korpusprojekts illustriert.
Korpora gesprochener Sprache
(2022)
Korpora gesprochener Sprache bestehen aus Audio- oder Videoaufnahmen sprachlicher Produktionen, die über eine Transkription einer linguistischen Analyse zugänglich gemacht werden. Sie kommen zur Untersuchung unterschiedlichster sprachwissenschaftlicher Fragestellungen unter anderem in der Gesprächsforschung, der Dialektologie und der Phonetik zum Einsatz. Dieser Beitrag diskutiert die wichtigsten Eigenschaften von Korpora gesprochener Sprache und stellt einige Vertreter der verschiedenen Kategorien vor.
Daten und Metadaten
(2022)
In diesem Kapitel werden Metadaten als Daten definiert, die der Dokumentation und/oder Beschreibung empirischer Sprachdaten dienen. Einleitend werden die verschiedenen Funktionen von Metadaten im Forschungsprozess und ihre Bedeutung für die Konzepte der Ausgewogenheit und Repräsentativität diskutiert. Anhand des Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) werden dann Metadaten eines konkreten Korpus vorgestellt, und es wird gezeigt, wie diese bei Korpusanalysen zum Einsatz kommen.
Mehrsprachigkeit in linguistischen Daten. Theoretische und praktische Aspekte ihrer Erfassung
(2008)
FAIR-Prinzipien und Qualitätskriterien für Transkriptionsdaten. Empfehlungen und offene Fragen
(2022)
Dieser Beitrag behandelt die mittlerweile als Bestandteil guter wissenschaftlicher Praxis anerkannten FAIR-Prinzipien in Bezug auf die Transkription und Annotation gesprochener Sprache und multimodaler Interaktion. Forschungsdaten - und somit Transkriptionsdaten - sollen heute Findable, Accessible, Interoperable und Reusable sein. Der Beitrag versucht dementsprechend, empirische Methoden im Prozess der Digitalisierung und generische Prinzipien des digitalen Forschungsdatenmanagements zusammenzubringen, um für diesen Kontext einem operationalisierten Begriff der „FAIRness“ näher zu kommen und möglichst konkrete Empfehlungen aufzustellen. Der Beitrag sollte aber gleichzeitig zur Diskussion anregen, denn konkrete Anforderungen in Bezug auf das Forschungsdatenmanagement und die Datenqualität müssen auch im Rahmen der FAIR-Prinzipien von den Fachgemeinschaften selbst herausgearbeitet werden.
Genau tritt im aktuellen Sprachgebrauch nicht nur in seiner klassischen Bedeutung als Adjektiv oder Adverb auf, sondern wird auch als Fokus- bzw. Gradpartikel sowie Gesprächspartikel verwendet. Bisherige Beschreibungen haben sich nur in geringem Maße und unter Verwendung heterogener Begriffe mit seinem interaktionalen Gebrauch auseinandergesetzt. In diesem Beitrag werden mit Hilfe eines sequenziellen und multimodalen Ansatzes verschiedene interaktionale Verwendungen von genau in Videoaufnahmen deutscher Alltagsgespräche untersucht. Ausgehend von seiner Funktion als Gradpartikel wird genau sowohl als redebeitragsinterne Bestätigungspartikel in Wortfindungsprozessen als auch als responsive Bestätigungspartikel eingesetzt. Da genau häufig das Ende eines Verstehensprozesses bzw. einer Wissensverhandlung markiert, könnte allgemeiner die Bezeichnung des Intersubjektivitätsmarkers in Erwägung gezogen werden. Aus dem responsiven, bestätigenden Gebrauch heraus entsteht eine stärker sequenzschließende und sequenzstrukturierende Funktion von genau, woraus sich auch der zunehmende Gebrauch dieses Lexems als rein diskursstrukturierende Partikel innerhalb eines Redezugs erklären könnte.
Since Lerner coined the notion of delayed completion in 1989, this recurrent social practice of continuing one’s speaking turn while disregarding an intermediate co-participant’s utterance has not been investigated with regard to embodied displays and actions. A sequential approach to videotaped mundane conversations in German will explain the occurrence and use of delayed completions. First, especially in multi-party and multi-activity settings, delayed completions can result from reduced monitoring and coordinating activities. Second, recipients can use intra-turn response slots for more extended responsive actions than the current speaker initially projected, leading to delayed completion sequences. Finally, delayed completions are used for blocking possibly misaligned co-participant actions. The investigation of visible action illustrates that delayed completions are a basic practice for retrospectively managing co-participant response slots.
The use of digital resources and tools across humanities disciplines is steadily increasing, giving rise to new research paradigms and associated methods that are commonly subsumed under the term digital humanities. Digital humanities does not constitute a new discipline in itself, but rather a new approach to humanities research that cuts across different existing humanities disciplines. While digital humanities extends well beyond language-based research, textual resources and spoken language materials play a central role in most humanities disciplines.
Das Archiv für Gesprochenes Deutsch und das Forschungs- und Lehrkorpus für Gesprochenes Deutsch
(2022)
Der Beitrag stellt das Archiv für Gesprochenes Deutsch (AGD) und das
Forschungs- und Lehrkorpus für Gesprochenes Deutsch (FOLK) als Ressourcen für die sprachwissenschaftliche Forschung vor. Besonderes Augenmerk liegt dabei auf deren Potenzial für die sprachwissenschaftliche Forschung zu Sprachgebrauch in Gesellschaft und Politik.
In this paper, we present an overview of freely available web applications providing online access to spoken language corpora. We explore and discuss various solutions with which the corpus providers and corpus platform developers address the needs of researchers who are working with spoken language. The paper aims to contribute to the long-overdue exchange and discussion of methods and best practices in the design of online access to spoken language corpora.
The main aim of this contribution is to present the range of lexicographic information from LeGeDe, an electronic prototype for lexical and interactional features of spoken German. The focus lies on the detailed description of the different lexicographical information classes using illustrative examples and figures from the resource. In addition to highlighting the lexicographic microstructure and providing an overview of the outer texts and the multimedia information offer, the contribution also presents detailed background data on the conception of the LeGeDe resource. Innovative aspects and possible applications are outlined and forward-looking desiderata are offered.
In this paper, the basic assumptions are presented against the background of the development of a corpus-based method to determine suitable headword candidates for the LeGeDe-prototype (LeGeDe= Lexik des gesprochenen Deutsch), a lexicographical resource on spoken German. In a first quantitatively oriented step, potential one-word headword candidates are identified with the help of frequency class comparisons from a corpus for spoken (FOLK) and a subset from a corpus for written German (DEREKO). Qualitative analyses based on a project-specifically defined sample of data from the FOLK corpus lead to multi-word headword candidates. The results of the qualitative analyses were also compared with the results of studies from the research literature as well as (quantitative-orientated) bi- and trigram analyses. In their multi-word form, these candidates are particularly characterized by the fact that they assume a very special interactional function in the (authentic) interaction and have to be described as a whole unit. The paper explains this combined procedure, which was extracted in the LeGeDe-project for the appointment of headword candidates.
Older adults are often exposed to elderspeak, a specialized speech register linked with negative outcomes. However, previous research has mainly been conducted in nursing homes without considering multiple contextual conditions. Based on a novel contextually-driven framework, we examined elderspeak in an acute general versus geriatric German hospital setting. Individuallevel information such as cognitive impairment (CI) and audio-recorded data from care interactions between 105 older patients (M = 83.2 years; 49% with severe CI) and 34 registered nurses (M = 38.9 years) were assessed. Psycholinguistic analyses were based on manual coding (k = .85 to k = .97) and computer-assisted procedures. First, diminutives (61%), collective pronouns (70%), and tag questions (97%) were detected. Second, patients’ functional impairment emerged as an important factor for elderspeak. Our study suggests that functional impairment may be a more salient trigger of stereotype activation than CI and that elderspeak deserves more attention in acute hospital settings.
Lean syntax: how argument structure is adapted to its interactive, material, and temporal ecology
(2020)
It has often been argued that argument structure in spoken discourse is less complex than in written discourse. This paper argues that lean argument structure, in particular, argument omission, gives evidence of how the production and understanding of linguistic structures is adapted to the interactive, material, and temporal ecology of talk-in-interaction. It is shown how lean argument structure builds on participants' ongoing bodily conduct, joint perceptual salience, joint attention, and their Orientation to expectable next actions within a joint project. The phenomena discusscd in this paper are verb-derived discourse markers and tags, analepsis in responsive actions, and ellipsis in first actions, such as requests and instructions. The study draws from transcripts and audio- and video-recordings of naturally occurring interaction in German from the Research and Teaching Corpus of Spoken German (FOLK).
This paper describes the development of a systematic approach to the creation, management and curation of linguistic resources, particularly spoken language corpora. It also presents first steps towards a framework for continuous quality control to be used within external research projects by non-technical users, and discuss various domain and discipline specific problems and individual solutions. The creation of spoken language corpora is not only a time-consuming and costly process, but the created resources often represent intangible cultural heritage, containing recordings of, for example, extinct languages or historical events. Since high quality resources are needed to enable re-use in as many future contexts as possible, researchers need to be provided with the necessary means for quality control. We believe that this includes methods and tools adapted to Humanities researchers as non-technical users, and that these methods and tools need to be developed to support existing tasks and goals of research projects.
Aufgrund der Tatsache, dass wir häufig Zweifel an Behauptungen von Gesprächspartnern, an Sachverhalten, an Wahrheitsgehalten von Aussagen etc. hegen, ist davon auszugehen, dass wir entsprechend über mehr oder weniger stark verfestigte interaktionale Praktiken des Anzeigens und des Behebens von Zweifeln verfügen, die Problemlösungsroutinen für die Bearbeitung von Zweifeln bereitstellen. Anhand einer empirischen Untersuchung von gesprochenem Alltagsdeutsch (ca. dreieinhalb Stunden Audiomaterial) soll versucht werden, exemplarisch solche Praktiken des Zweifelns im Deutschen zu beschreiben.
This paper studies practices of indexing discrepant assumptions accomplished by turn-constructional units with ich dachte ('I thought') in German talk-in-interaction. Building on the analysis of 141 instances from the corpus FOLK, we identify three sequential environments in which ich dachte is used to index that an assumption which a speaker (has) held contrasts with some other, contextually salient assumption. We show that practices which have been studied for English I thought are also routinely used in German: ich dachte is a means to manage epistemic incongruencies and to contrast an incorrect with a correct assumption in narratives. In addition, ich dachte is also used to account for the speaker's own prior actions which may have looked problematic because they built on misunderstandings which the speaker only discovered later. Moreover, ich dachte-practices may also be used to create comic effects by reporting an earlier, absurd assumption. The practices are discussed with regard to their role in regaining common ground, in managing relationships, in maintaining the identity of a rational actor, and in terms of their exploitation for other conversational interests. Special attention is paid to how co-occurring linguistic features, and sequential and pragmatic factors, account for local interpretations of ich dachte.
The newest generation of speech technology caused a huge increase of audio-visual data nowadays being enhanced with orthographic transcripts such as in automatic subtitling in online platforms. Research data centers and archives contain a range of new and historical data, which are currently only partially transcribed and therefore only partially accessible for systematic querying. Automatic Speech Recognition (ASR) is one option of making that data accessible. This paper tests the usability of a state-of-the-art ASR-System on a historical (from the 1960s), but regionally balanced corpus of spoken German, and a relatively new corpus (from 2012) recorded in a narrow area. We observed a regional bias of the ASR-System with higher recognition scores for the north of Germany vs. lower scores for the south. A detailed analysis of the narrow region data revealed – despite relatively high ASR-confidence – some specific word errors due to a lack of regional adaptation. These findings need to be considered in decisions on further data processing and the curation of corpora, e.g. correcting transcripts or transcribing from scratch. Such geography-dependent analyses can also have the potential for ASR-development to make targeted data selection for training/adaptation and to increase the sensitivity towards varieties of pluricentric languages.
We present a fine-grained NER annotations scheme with 30 labels and apply it to German data. Building on the OntoNotes 5.0 NER inventory, our scheme is adapted for a corpus of transcripts of biographic interviews by adding categories for AGE and LAN(guage) and also adding label classes for various numeric and temporal expressions. Applying the scheme to the spoken data as well as a collection of teaser tweets from newspaper sites, we can confirm its generality for both domains, also achieving good inter-annotator agreement. We also show empirically how our inventory relates to the well-established 4-category NER inventory by re-annotating a subset of the GermEval 2014 NER coarse-grained dataset with our fine label inventory. Finally, we use a BERT-based system to establish some baselines for NER tagging on our two new datasets. Global results in in-domain testing are quite high on the two datasets, near what was achieved for the coarse inventory on the CoNLLL2003 data. Cross-domain testing produces much lower results due to the severe domain differences.
This paper presents experiments on sentence boundary detection in transcripts of spoken dialogues. Segmenting spoken language into sentence-like units is a challenging task, due to disfluencies, ungrammatical or fragmented structures and the lack of punctuation. In addition, one of the main bottlenecks for many NLP applications for spoken language is the small size of the training data, as the transcription and annotation of spoken language is by far more time-consuming and labour-intensive than processing written language. We therefore investigate the benefits of data expansion and transfer learning and test different ML architectures for this task. Our results show that data expansion is not straightforward and even data from the same domain does not always improve results. They also highlight the importance of modelling, i.e. of finding the best architecture and data representation for the task at hand. For the detection of boundaries in spoken language transcripts, we achieve a substantial improvement when framing the boundary detection problem as a sentence pair classification task, as compared to a sequence tagging approach.
Interaktionale Semantik
(2020)
This paper discusses the technological and methodological challenges in creating and sharing HAMATAC, the Hamburg Map Task Corpus. The first version of the corpus, consisting of 24 recordings with orthographic transcriptions and metadata, is publicly available. A second version featuring different types of linguistic annotation is in progress. I will describe how the various software tools and data formats of the EXMARaLDA system were used for transcription and multi-level annotation, to compile recordings and transcriptions into a corpus and manage metadata, to publish the corpus, and how they can be used for carrying out corpus queries (KWIC) and analyses. Some recurrent issues in corpus building and sharing and the interaction of technological and methodological aspects will be illustrated using HAMATAC.
Der Beitrag stellt die wissenschaftlichen und methodologischen Herausforderungen für die Erstellung einer innovativen, korpusbasierten lexikografischen Ressource zur Lexik des gesprochenen Deutsch in der Interaktion vor und zeigt neue Wege für lexikografische Arbeiten auf. Neben allgemeinen Projektinformationen zu den Ausgangspunkten, der Datengrundlage, den Methoden, Zielen und dem konkreten Gegenstandsbereich werden ausgewählte Ergebnisse von zwei projektbezogenen empirischen Studien zu Erwartungshaltungen an eine lexikografische Ressource des gesprochenen Deutsch präsentiert. Für korpusbasierte quantitative Informationen werden die Möglichkeiten eines Tools, welches im Rahmen des Projekts entwickelt wurde, aufgezeigt. Außerdem wird ein Einblick in die konzeptionellen und methodologischen Überlegungen zur Mikrostruktur der geplanten Ressource gegeben.
We present web services implementing a workflow for transcripts of spoken language following TEI guidelines, in particular ISO 24624:2016 "Language resource management - Transcription of spoken language". The web services are available at our website and will be available via the CLARIN infrastructure, including the Virtual Language Observatory and WebLicht.
This paper investigates emergent pseudo-coordination in spoken German. In a corpus-based study, seven verbs in the first conjunct are analyzed regarding the degree of semantic bleaching and the development of subjective or aspectual meaning components. Moreover, it is shown that each verb shows distinct tendencies for co-ocurrences, especially with deictic adverbs in the first conjunct and with specific verbs and verb classes in the second conjunct. It is argued that pseudo-coordination is originally motivated by the need for ‘chunking’ in unplanned speech and that it is still prominently used in this function in German, in contrast to languages in which pseudo-coordination is grammaticalized further.
Die Textproduktion unter Bedingungen konzeptioneller Mündlichkeit basiert - nicht nur im bevorzugt untersuchten Alltagsgespräch - auf einer ganzen Reihe von Routinen: Kompetente Sprecher können ohne größeren Verbrauch von Planungsressourcen auf mehr oder weniger feste Äußerungsteile und -strukturen zurückgreifen, um bestimmte kommunikative Aufgaben und Handlungen (wie Eröffnung und Beendigung von Gesprächen, Themenbearbeitung und Themenwechsel, Durchführung von Korrekturen/Reparaturen, Kommentierung von Äußerungen usw.) auf bewährte und angemessene Weise zu bewältigen. Ausgehend von einer Diskussion des Konzepts sprachlicher Formelhaftigkeit verfolgt der Beitrag das Ziel, anhand ausgewählter authentischer Beispieltexte zu zeigen, welche Rolle die entsprechenden sprachlichen Mittel und Strukturen auf den verschiedenen Ebenen mündlicher Kommunikation spielen.
Kultur ist nicht nur zu einem Schlüsselbegriff der Geisteswissenschaften geworden, sondern wird auch entterminologisiert als Alltagsbegriff benutzt. In diesem Beitrag wird untersucht, wie der Ausdruck Kultur (einschließlich Derivationen und Komposita) in der mündlichen Interaktion verwendet wird. Auf Basis von 82 Instanzen im Korpus FOLK des IDS Mannheim wurde festgestellt, dass der Ausdruck von SprecherInnen in zumeist semiformellen bis formellen Interaktionstypen benutzt wird. Es findet sich ein breites Spektrum unterschiedlicher, teils ineinander übergehender Bedeutungen, welches dem der wissenschaftlichen Literatur der Kulturtheorie ähnlich ist. Dabei lassen sich jeweils relevante Kernbedeutungen identifizieren, mit denen mehr oder weniger vage assoziierte Bedeutungen verbunden sind. Kultur zeigt sich als kontroverser Begriff: Die Referenz von Kultur, die Wertung und seine Relevanz als Erklärungsressource sind häufig umstritten.
Die 21. Arbeitstagung zur Gesprächsforschung mit dem Rahmenthema „Vergleichende Gesprächsforschung“ fand vom 21.–23. März 2018 am Institut für Deutsche Sprache in Mannheim statt. Das Ziel der Tagung war es, Forscherinnen und Forscher zusammenzubringen, die authentische Interaktionsdaten aus vergleichender Perspektive untersuchen. Das Rahmenthema der Tagung ergab sich aus dem steigenden Interesse an vergleichenden Fragestellungen innerhalb konversations- und gesprächsanalytischer Untersuchungen. Die Tagung nahm gezielt Vorgehensweisen und Methoden bei der Durchführung vergleichender Untersuchungen in den Blick. Die Vorträge, Projektpräsentationen und Datensitzungen erörterten 1. das Vergleichen als analytische Grundoperation der Konversations- und Gesprächsanalyse, 2. Vergleiche alternativer Ressourcen und Praktiken für spezifische Handlungen und Aktivitäten in der Interaktion sowie 3. methodologische Herausforderungen einer vergleichenden Gesprächsforschung.
In recent decades, the investigation of spoken language has become increasingly important in linguistic research. However, the spoken word is a fleeting phenomenon which is difficult to analyse and which requires an elaborate process of examination and appraisal. The Institute for the German Language (Institut für Deutsche Sprache) has the largest collection of recordings of spoken German, the German Speech Archive (Deutsches Spracharchiv [DSAv]). Up to now, the inadequate processing and accessibility of the valuable material held by the DSAv has been regarded as its major shortcoming. A solution to this problem is at hand now that a start has been made with the systematic modernization of the DSAv and, in particular, with the digitalization of its material. In recent years, we have been able to systematically exploit the unique opportunities provided by a new and easier form of access to the spoken language via the recorded sound signal, which can be realized digitally in the computer, and its linkage to the corresponding texts and documentary data. Through the integration of the existing data about the corpora and of the written versions of the texts into an information and full text database and through the linking of these data with the acoustic signal itself, it is now possible for us to construct a data pool which allows a better documentation of the material and provides rapid internal and external access to the sound recordings. Processed in such a way, the material of the German Speech Archive can now be regarded as having been saved for posterity. As a result, entirely new areas of inquiry and entirely new research perspectives have been opened up. This is true both for the work of the Institute itself and for linguistic research in German as a whole.
In the project LeGeDe („Lexik des gesprochenen Deutsch”), we are developing a corpus-based lexicographical resource focusing on features of the lexicon of spoken German. To investigate the expectations of future users, two studies were conducted: interviews with a smaller group of experts and a large-scale online survey. We report on selected results, mainly from the online survey and with a focus on the learning perspective. We want to show if and to which extent the L2-learners’
expectations differ from those of native speakers and in which aspects the two groups agree. We also want to give an outlook on the possibilities that will be available to learners in the planned lexicographical resource.
Dieser Beitrag soll auf einen Verknüpfungsbereich von Grammatik und Pragmatik, speziell Gesprächsanalyse hinweisen, der sich in der Forschung der letzten fünfzehn Jahre als sehr fruchtbar erwiesen hat, zumindest für die Pragmatik und eine kommunikativ-funktional orientierte Grammatikkonzeption (vgl. dazu auch Zifonun et al. 1997). Äußerungsstrukturelle, insbesondere grammatische Gesichtspunkte spielen für die Verfahren des gesprächsanalytischen Spurenlesens im Umgang mit Dokumenten der Kommunikationswirklichkeit eine große Rolle, und die Systematisierung der dabei anfallenden Befunde macht Fortschritte. Für die folgenden Überlegungen beziehe ich mich auf die Verteilung von Redebeiträgen, das zentrale Arbeitsfeld der klassischen Konversationsanalyse. Dabei spielt die Frage der Vollständigkeit von Redebeiträgen bzw. Äußerungsstrukturen eine wichtige Rolle. Und hier gibt es eine fruchtbare Verknüpfungsstelle zwischen Gesprächsanalyse und Grammatik.