Refine
Year of publication
- 2010 (205) (remove)
Document Type
- Part of a Book (83)
- Article (55)
- Conference Proceeding (39)
- Book (13)
- Part of Periodical (5)
- Contribution to a Periodical (4)
- Other (2)
- Working Paper (2)
- Doctoral Thesis (1)
- Review (1)
Keywords
- Deutsch (88)
- Korpus <Linguistik> (23)
- Computerlinguistik (15)
- Konversationsanalyse (15)
- Interaktion (12)
- Semantik (9)
- Computerunterstützte Lexikographie (8)
- Sprachgeschichte (8)
- Wörterbuch (7)
- Annotation (6)
Publicationstate
- Veröffentlichungsversion (84)
- Postprint (17)
- Zweitveröffentlichung (17)
- (Verlags)-Lektorat (1)
- Preprint (1)
- Verlags-Lektorat (1)
Reviewstate
Publisher
- de Gruyter (29)
- Institut für Deutsche Sprache (22)
- Benjamins (10)
- Narr (10)
- European Language Resources Association (6)
- Lang (6)
- Winter (5)
- Association for Computational Linguistics (4)
- Springer (4)
- De Gruyter (3)
In der vorliegenden Arbeit wird mit ethnografischen, gesprächsanalytischen und gesprächsrhetorischen Methoden der kommunikative Sozialstil der "emanzipatorischen Migranten" untersucht. Ein wesentliches Kennzeichen dieses Milieus von Migranten der zweiten Generation ist, dass seine Akteure offensiv und provokativ mit Rassismen umgehen und sich nicht ethnisch (als "Türken", "Italiener", "Griechen" etc.) definieren. Des Weiteren betrachten sie - neben der dominanten Verwendung des Deutschen als gruppeninterner Kommunikationssprache - (deutschtürkisches) Code-switching und Code-mixing als wichtigen Ausdruck ihrer migrantischen Identität.
Da Potenziale und Konturen von Stilen erst im Kontrast eindeutig hervortreten, werden diese Befunde mit der kommunikativen Praxis einer anderen Sozialwelt von Migranten der zweiten Generation verglichen, derjenigen der "akademischen Europatürken". Hierbei zeigt sich, dass dieses sich ethnisch und als "Elite" der türkischen Migranten definierende Milieu moderat auf Diskriminierungen reagiert und deutsch-türkische Sprachvariation als Ausdruck von "Halbsprachigkeit" ablehnt.
This paper describes general requirements for evaluating and documenting NLP tools with a focus on morphological analysers and the design of a Gold Standard. It is argued that any evaluation must be measurable and documentation thereof must be made accessible for any user of the tool. The documentation must be of a kind that it enables the user to compare different tools offering the same service, hence the descriptions must contain measurable values. A Gold Standard presents a vital part of any measurable evaluation process, therefore, the corpus-based design of a Gold Standard, its creation and problems that occur are reported upon here. Our project concentrates on SMOR, a morphological analyser for German that is to be offered as a web-service. We not only utilize this analyser for designing the Gold Standard, but also evaluate the tool itself at the same time. Note that the project is ongoing, therefore, we cannot present final results.
Corpus-based identification and disambiguation of reading indicators for German nominalizations
(2010)
Corpus data is often structurally and lexically ambiguous; corpus extraction methodologies thus must be made aware of ambiguities. Therefore, given an extraction task, all relevant ambiguities must be identified. To resolve these ambiguities, contextual data responsible for one or another reading is to be considered. In the context of our present work, German -ung-nominalizations and their sortal readings are under examination. A number of these nominalizations may be read as an event or a result, depending on the semantic group they belong to. Here, we concentrate on nominalizations of verbs of saying (henceforth: "verba dicendi"), identify their context partners and their influence on the sortal reading of the nominalizations in question. We present a tool which calculates the sortal reading of such nominalizations and thus may improve not only corpus extraction, but also e.g. machine translation. Lastly, we describe successful attempts to identify the correct sortal reading, conclusions and future work.
So far, comprehensive grammar descriptions of Northern Sotho have only been available in the form of prescriptive books aiming at teaching the language. This paper describes parts of the first morpho-syntactic description of Northern Sotho from a computational perspective (Faaß, 2010a). Such a description is necessary for implementing rule based, operational grammars. It is also essential for the annotation of training data to be utilised by statistical parsers. The work that we partially present here may hence provide a resource for computational processing of the language in order to proceed with producing linguistic representations beyond tagging, may it be chunking or parsing. The paper begins with describing significant Northern Sotho verbal morpho-syntactics (section 2). It is shown that the topology of the verb can be depicted as a slot system which may form the basis for computational processing (section 3). Note that the implementation of the described rules (section 4) and also coverage tests are ongoing processes upon that we will report in more detail at a later stage.
This chapter will present results of a linguistic landscape (LL) project in the regional centre of Rēzekne in the region of Latgale in Eastern Latvia. Latvia was de facto a part of the Soviet Union until 1991, and this has given it a highly multilingual society. In the essentially post-colonial situation since 1991, strict language policies have been in place, which aim to reverse the language shift from Russian, the dominant language of Soviet times, back to Latvian. Thus, the main interests of the research were how the complex pattern of multilingualism in Latvia is reflected in the LL; how people relate to current language legislation; and what motivations, attitudes and emotions inform their behaviour.
This paper describes the application of probabilistic part of speech taggers to the Dzongkha language. A tag set containing 66 tags is designed, which is based on the Penn Treebank. A training corpus of 40,247 tokens is utilized to train the model. Using the lexicon extracted from the training corpus and lexicon from the available word list, we used two statistical taggers for comparison reasons. The best result achieved was 93.1% accuracy in a 10-fold cross validation on the training set. The winning tagger was thereafter applied to annotate a 570,247 token corpus.
Nach einem kurzen Überblick über die heutige sprachökologische Situation in Lettland möchte ich dabei auf die Rolle der deutschen Sprache in verschiedenen Bereichen der lettischen Gesellschaft eingehen. Komplettiert wird der Überblick über die deutsche Sprache im heutigen Lettland durch einige Überlegungen zu Maßnahmen, die die Situation zugunsten des Deutschen ändern könnten.
L’équipe de Lyon étudie la façon dont les ressources plurilingues sont mobilisées dans des activités collaboratives au sein du travail d’équipe. La démarche analytique est inspirée de l’Analyse Conversationnelle d’emprunte ethnomethodologique, et considère comme centrale la relation entre ressources plurilingues et organisation située des usages linguistiques et des pratiques sociales. Ces deux aspects sont réflexivement articulés, les ressources plurilingues étant modelées par leur contexte d’utilisation, et les activités étant mutuellement contraintes et structurées par les ressources disponibles.
Dieser Artikel analysiert am Beispiel eines Racletteessens unter Freunden, wie innerhalb einer langen Sequenz das Warten auf den Beginn des Essens strukturiert wird. Während der fast 50 Minuten, die zwischen der Ankunft der ersten Gäste sowie dem Beginn des Essens vergehen, orientieren sich die Teilnehmer auf unterschiedliche Weise zum Warten als Aktivität. Das sukzessive Eintreffen der Gäste führt jeweils zu Eröffnungssequenzen innerhalb dieser Wartezeit. Anhand von Auszügen dieser Zeitspanne verfolgt die Analyse, wie sich die Teilnehmer zu dieser Zeitlichkeit des Wartens und (Noch-nicht-)Beginnens orientieren und wie sie den Anfang des Essens gemeinsam konstruieren.
On the basis of a single case analysis of the emergence of an ethnic joke, this paper explores issues related to laughter in international business meetings. More particularly, it deals with ways in which a person's name is correctly pronounced. Speakers and co-participants seem to orient towards ‘proper’ ways of vocalizing names and to consequent ‘variations’ or ‘deviations’ from them, making different ways of pronunciation available as a laughable. In making such pronunciation variations available, accountable and recognizable, participants reflexively establish as relevant the multilingual character of the activity, of the participants’ competences and of the setting; conversely, they exploit these multilingual features within specific social practices, leading to laughter.
Our analysis focuses on the contexts of action, the sequential environments and the interactional practices by which the uttering of a name becomes a ‘laughable’ and then a resource for an ethnic joke. Moreover, it explores the implications of transforming the pronunciation into a laughable in terms of the organization of the ongoing activity, changing participation frameworks and membership categorizations. In this sense, it highlights the flexible structure of groups and the way in which laughter reconfigures them through local affiliating and disaffiliating moves, and by making various national categories available and relevant.
The chapter on formats and models for lexicons deals with different available data formats of lexical resources. It elaborates on their structure and possible uses. Motivated by the restrictions in merging different lexical resources based on widely spread formalisms and international standards, a formal lexicon model for lexical resources is developed which is related to graph structures in annotations. For lexicons this model is termed the Lexicon Graph. Within this model the concepts of lexicon entries and lexical structures frequently described in the literature are formally defined and examples are given. The article addresses the problem of ambiguity in those formal terms. An implementation based on XML and XML technology such as XQuery for the defined structures is given. The relation to international standards is included as well.
This paper represents a report on an e-tandem project conducted at Freiburg University (Germany) from the winter term 2009/2010 on. It started with a German-ltalian pilot course organised in cooperation with Pavia University (Italy). In order to promote autonomous language learning, the authors used several web-based applications, relying on Skype to enable full (i.e. visual, auditive) interaction between learning partners and on e-mails to let participants practise writing and reading in the respective foreign language. Additionally, participants were asked to compile a weekly electronic portfolio (EPOS) to record their improvements as well as their difficulties. In the paper, the structure of the pilot course will be described and a first balance will be drawn.
Die Beiträge dieses Heftes gehen zurück auf einen Workshop des Arbeitskreises Hyper-media der Gesellschaft für Computerlinguistik und Sprachtechnologie (GSCL). Der Workshop fand im Rahmen der GSCL-Tagung 2009 in Potsdam statt und sollte den aktuellen Stand der Überlegungen zur Nutzbarkeit hypermedialer Systeme in den E-Humanities beleuchten.
Seit Jakob Nielsen Mitte der Neunzigerjahre die Kriterien für anwenderfreundliche Hypermediasysteme – Easy to learn, efficient to use, easy to remember, few errors, pleasant to use – dargelegt hat, beschäftigt sich die Usability-Forschung mit empirisch verifizierbaren Beurteilungskriterien und Erhebungsmethoden. Ziel ist die Steigerung der Nutzungsqualität hypermedialer Angebote, häufig mit den Schwerpunkten Internet/WWW bzw. Web 2.0 sowie in letzter Zeit verstärkt unter Berücksichtigung multimodaler Schnittstellen.
Die in diesem Heft zusammengestellten Beiträge beleuchten eine Reihe sehr unter-schiedlicher Aspekte von Nutzungsqualität an konkreten Anwendungen und aus theo-retischer Perspektive.
Dieser Beitrag gibt einen Überblick über CoDII, die Collection of Distributionally Idiosyncratic Items. CoDII ist eine elektronische Sammlung verschiedener Untergruppen lexikalischer Elemente, die sich durch idiosynkratische Distribution auszeichnen. Das bedeutet, dass sich die Verteilung dieser Lexeme im Text nicht alleine aufgrund ihrer syntaktischen Kategorie Vorhersagen lässt. Die Methoden, die in der Entwicklung von CoDII angewandt werden, greifen über traditionelle Fachgrenzen hinaus und umfassen Korpuslinguistik, Computerlinguistik, Phraseologie und theoretische Sprachwissenschaft. Ein wichtiger Schwerpunkt unserer Diskussion liegt auf der Darstellung, inwiefern die in CoDII gesammelten, annotierten und unter anderem mit Suchwerkzeugen abfragbaren Daten dazu beitragen können, die linguistische Theoriebildung durch die Bereitstellung sorgfältig aufbereiteter Datensammlungen bei der Überprüfung ihrer Datengrundlage zu unterstützen.
A central question in psycholinguistics is how the human brain processes language in real time. To answer this question, the differences between auditory and visual processing have to be considered. The present dissertation examines the extent to which event-related potentials (ERPs) in the human electroencephalogram (EEG) interact with different modes of presentation during sentence comprehension. Besides the two classical modalities, auditory and rapid serial visual presentation (RSVP), the monitoring of readers’ eye movements was chosen as a new mode of presentation. Here, the temporal paradox between neuronal ERP effects and behavioral effects in the eye movement record were of particular interest. Specifically, by concurrently measuring ERPs and eye movements in natural reading, the dissertation aimed to shed light on the counterintuitive fact that difficulties in sentence comprehension arise earlier in eye movement measures than in the corresponding neuronal ERP effects. In contrast to RSVP and the auditory modality, reading offers a parafoveal preview of upcoming words (Rayner 1998), which enables the brain to process information of words before these are fixated for the first time (in foveal vision). When the word Gegenteil in example (1) below is fixated and processed, the brain concurrently processes some information of the upcoming parafoveal words von and weiß. (1) Schwarz ist das Gegenteil von weiß. (2) Schwarz […] blau. (3) Schwarz […] nett. The parafoveal preview mostly provides orthographic (word form) information, while semantic information is not conveyed (Inhoff & Starr 2004; White 2008). Whereas word form and lexical meaning are processed simultaneously with RSVP and auditory presentation, the parafoveal preview in natural reading allows for a temporal decoupling such that word forms are processed before meaning. This is one reason for the faster information uptake in reading. The present dissertation is the first to systematically investigate the influence of the parafoveal preview in sentence processing. Participants read sentences such as in (1)-(3), in which two adjectives were either antonyms (1), semantically related non-antonyms (2), or semantically unrelated non-antonyms (3). ERPs were computed for the last fixation before the target word (the sentence-final word in 1-3), which was assumed to capture parafoveal processing, and for the first fixation on the target, that should reflect foveal processing. The results were compared to two experiments using identical stimuli with auditory and RSVP presentation, and the parafoveal preview clearly led to different ERP results. While the RSVP and auditory presentations replicated the finding of a P300 to the second antonym in (1) (Kutas & Iragui 1998; Roehm et al. 2007), there was no P300 in response to antonyms at any fixation position in natural reading. However, the dissociation of parafoveal and foveal processing in reading also made it possible to disentangle different processes underlying the N400. There was a reduced parafoveal N400 for (1,2) compared with (3), which could be attributed to the preactivation of the word forms of the expected antonyms and of semantically related non-antonyms. In foveal vision, all non-antonyms (2,3) showed an enhanced N400 compared with (1) because they were unexpected and implausible in the sentence context. This dissociation between the preactivation of a word-form and the contextual fit of a word’s meaning is impossible with the other two modes of presentation, because orthographic and semantic information become available almost at the same time and are thus processed simultaneously. Furthermore, the parafoveal N400 effect was not accompanied by changes in the duration of the corresponding fixation, whereas the foveal N400 was. Similarly, with the concurrent measurement of ERPs and eye movements, the temporal paradox described above remained, as effects in the eye movement record preceded the neuronal ERP effects. Further support for these central findings came from two additional experiments that investigated different stimuli with concurrent ERP-eye tracking measures. Altogether, the experiments revealed that the previous findings on the language-related N400 can be replicated with natural reading, but they can also be differentiated qualitatively by virtue of the characteristics of natural reading. Although the behavioral and neuronal effects mirrored one another, not every neuronal effect necessarily translates into a behavioral output. Finally, even concurrent ERP-eye tracking measures cannot resolve the temporal paradox.
Authors like Fillmore 1986 and Goldberg 2006 have made a strong case for regarding argument omission in English as a lexical and construction-based affordance rather than one based on general semantico-pragmatic constraints. They do not, however, address the question of how grammatical restrictions on null complementation might interact with broader narrative conventions, in particular those of genre. In this paper, we attempt to remedy this oversight by presenting a comprehensive overview of genre-based argument omissions and offering a construction-based analysis of genre-based omission conventions. We consider five genre-based omission types: instructional imperatives (Culy 1996, Bender 1999), labelese, diary style (Haegeman 1990), match reports (Ruppenhofer 2004) and quotative clauses. We show that these omission types share important traits; all, for example, have anaphoric rather than indefinite construals. We also show, however, that the omission types differ from each other in idiosyncratic ways. We then address several interrelated representational problems posed by the grammatical treatment of genre-based omissions. For example, the constructions that represent genre-based omission conventions must interact with the lexical entries of verbs, many of which do not generally permit omitted arguments. Accordingly, we offer constructional analyses of genre-based omissions that allow constructions to override lexical valence constraints.
Preface
(2010)
Conventional descriptions of synonymous items often concentrate on common semantic traits and the degree of semantic overlap they exhibit. Their aim is to offer classifications of synonymy rather than elucidating ways of establishing contextual meaning equivalence and the cognitive prerequisites for this. Generally, they lack explanations as to how synonymy is construed in actual language use. This paper investigates principles and cognitive devices of synonymy construction as they appear in corpus data, and focuses on questions of how meaning equivalence might be conceptualised by speakers.
To reach even language users not acquainted to the use of grammars the Institut für Deutsche Sprache in Mannheim (Germany) looked for new ways to handle grammatical problems. Instead of confronting users with abstractions frequent difficulties of German grammar are introduced in form of exemplary questions like „Which form should be used or preferred: Anfang dieses Jahre or Anfang diesen Jahres? Looking through the long list of such questions even laymen may find solutions of grammatical problems they might not be able to formulate as such.
This paper provides a general overview of the treatment of lexico-semantic relations in different fields of research including theoretical and application-oriented disciplines. At the same time, it sketches the development of the descriptions and explanations of sense relations in various approaches as well as some methodologies which have been used to retrieve and analyse paradigmatic patterns.
Grammatiktheoretische Forschung, das hat die jüngste IDS-Jahrestagung wieder einmal plastisch vor Augen geführt, muss gedacht werden als zähes Ringen zweier grundsätzlich antagonistischer Prinzipien: Der reichhaltigen Fülle sprachlicher Okkurrenzen, deren gründlicher Auslotung ein beträchtlicher Teil der gegenwärtigen sprachtheoretisch und sprachtechnologisch ausgerichteten Anstrengung gewidmet ist, muss stets der Versuch gegenüberstehen, diese überbordende Varianz abstrahierend und generalisierend einzudämmen – ohne dabei die empirischen Befunde übermäßig und unzulässig zu nivellieren.
Perhaps the biggest challenge in derivational morphology is to reconcile morphological idiosyncrasy with semantic regularity. How can it be explained that words with dead affixes and irregulär allomorphy can nonetheless exhibit straightforward and stable semantic relations to their etymological bases (cf. strength ‘property of being strong’, obedience ‘act of obeying’, ‘property of being obedient’)? Theories based on the idea of capturing regularity in terms of synthetic rules for building up complex words out of morphemes along with rules for interpreting such structures in a compositional fashion have not made - and arguably cannot make - sense of this phenomenon. Taking the perspective of the learner in acquisition, I propose an alternative approach to meaning assignment based, not on syntagmatic relations among their constituent morphemes, but on paradigmatic relations between whole words. This approach not only explains the conditions under which meaning relations between words are expected to be stable but also accounts for another notorious mystery in derivational morphology, the frequent occurrence of total synonymy among affixes, as opposed to words.
DIL is a bilingual (German-Italian) online dictionary of linguistics. It is still under construction and contains 240 lemmas belonging to the subfield of “German as a Foreign Language”, but other subfields are in preparation. DIL is an open dictionary; participation of experts from various subfields is welcome. The dictionary is intended for a user group with different levels of knowledge, therefore it is a multifunctional dictionary. An analysis of existing dictionaries, either in their online or written form, was essential in order to make important decisions for the macro- or microstructure of DIL; the results are discussed. Criteria for the selection of entries and an example of an entry conclude the article.
Grammars even trying to be as comprehensible as possible hardly avoid using technical terms unknown to novices. To overcome these inconveniencies, the grammatical information system grammis of the Institut für Deutsche Sprache incorporated a glossary specialized on terms used within the system. This glossary - actually named Grammatische Grundbegriffe (elementary terms of grammar) and tied by hyperlinks to technical terms in the core grammar' of grammis - offers short and simple explanations mainly by means of exemplification. The idea is to provide the users with provisional understanding to get along while following the main themes they are interested in. Explicitly, the glossary is not a stand-alone dictionary of grammatical terms, and it should not be regarded as one.
This paper discusses the semi-formal language of mathematics and presents the Naproche CNL, a controlled natural language for mathematical authoring. Proof Representation Structures, an adaptation of Discourse Representation Structures, are used to represent the semantics of texts written in the Naproche CNL. We discuss how the Naproche CNL can be used in formal mathematics, and present our prototypical Naproche system, a computer program for parsing texts in the Naproche CNL and checking the proofs in them for logical correctness.
Positioning analysis, a variant of discourse analysis, was used to explore the narratives of 40 psychiatric patients (11 females and 29 males; mean age = 40 years) who had manifest difficulties with engagement with statutory mental health services. Positioning analysis is a qualitative method that captures how people linguistically position the roles and identities of themselves and others in their day-to-day lives and narratives. The language of disengagement incorporated the passive positioning of self in relation to their lives and treatment through the use of metaphor, the passive voice and them and us attribution, while the discourse of engagement incorporated more active positioning of self, achieved through the use of the personal pronoun we and metaphoric references to balanced relationships. The findings corroborate previous thematic analysis that highlighted the importance of identity and agency in the ‘making or breaking’ of therapeutic relationships (Priebe et al. 2005). Implications are discussed in relation to how positioning analysis may help signal and emphasize important life and therapeutic experiences in spoken narratives as well as clinical consultations.
Introduction
(2010)
This paper presents a survey on the role of negation in sentiment analysis. Negation is a very common linguistic construction that affects polarity and, therefore, needs to be taken into consideration in sentiment analysis.
We will present various computational approaches modeling negation in sentiment analysis. We will, in particular, focus on aspects such as level of representation used for sentiment analysis, negation word detection and scope of negation. We will also discuss limits and challenges of negation modeling on that task.
In recent years, text classification in sentiment analysis has mostly focused on two types of classification, the distinction between objective and subjective text, i.e. subjectivity detection, and the distinction between positive and negative subjective text, i.e. polarity classification. So far, there has been little work examining the distinction between definite polar subjectivity and indefinite polar subjectivity. While the former are utterances which can be categorized as either positive or negative, the latter cannot be categorized as either of these two categories. This paper presents a small set of domain independent features to detect indefinite polar sentences. The features reflect the linguistic structure underlying these types of utterances. We give evidence for the effectiveness of these features by incorporating them into an unsupervised rule-based classifier for sentence-level analysis and compare its performance with supervised machine learning classifiers, i.e. Support Vector Machines (SVMs) and Nearest Neighbor Classifier (kNN). The data used for the experiments are web-reviews collected from three different domains.
Bootstrapping Supervised Machine-learning Polarity Classifiers with Rule-based Classification
(2010)
In this paper, we explore the effectiveness of bootstrapping supervised machine-learning polarity classifiers using the output of domain-independent rule-based classifiers. The benefit of this method is that no labeled training data are required. Still, this method allows to capture in-domain knowledge by training the supervised classifier on in-domain features, such as bag of words.
We investigate how important the quality of the rule-based classifier is and what features are useful for the supervised classifier. The former addresses the issue in how far relevant constructions for polarity classification, such as word sense disambiguation, negation modeling, or intensification, are important for this self-training approach. We not only compare how this method relates to conventional semi-supervised learning but also examine how it performs under more difficult settings in which classes are not balanced and mixed reviews are included in the dataset.
Opinion holder extraction is one of the important subtasks in sentiment analysis. The effective detection of an opinion holder depends on the consideration of various cues on various levels of representation, though they are hard to formulate explicitly as features. In this work, we propose to use convolution kernels for that task which identify meaningful fragments of sequences or trees by themselves. We not only investigate how different levels of information can be effectively combined in different kernels but also examine how the scope of these kernels should be chosen. In general relation extraction, the two candidate entities thought to be involved in a relation are commonly chosen to be the boundaries of sequences and trees. The definition of boundaries in opinion holder extraction, however, is less straightforward since there might be several expressions beside the candidate opinion holder to be eligible for being a boundary.
Accentuation, Uncertainty and Exhaustivity - Towards a Model of Pragmatic Focus Interpretation
(2010)
This paper presents a model of pragmatic focus interpretation that is assumed to be part of a complete language comprehension model and that is inspired by Levelt's language processing model. The model is derived from our empirical data on the role of accentuation, prosodic indicators of uncertainty and context for pragmatic focus interpretation. In its present state, the model is restricted to these data, but nevertheless generates predictions.
This article evaluates the terminological component (TC) of the grammis portal on German grammar developed by the Institut für Deutsche Sprache. The TC is included into grammis to facilitate nonlinguists‘ access to the main components of the portal: Grammar in questions and answers, and the Systematic Grammar. The TC thus has the potential to be an extremely useful and important grammis component. We discuss to what extend the TC achieves its goals, and make some suggestions how it could be improved. The most important aspects considered in the evaluation are: (a) TC completeness and consistency, (b) accessibility and usability of definitions and index, (c) integration of the TC with the overall system.
Im Kontext von Notfalleinsätzen (z.B. der Feuerwehr) müssen vielfältige raumbezogene Kommunikationsaufgaben bearbeitet werden. Bei der Verständigung zum Zweck kollektiver Orientierung und Navigation greifen die Beteiligten auf ein Ensemble technischer Medien zurück: Über etablierte Ressourcen – wie Funkgeräte und Mobiltelefone, Karten und Lagepläne, Kreide und Tafeln – hinaus werden heute in Übungs- und Schulungskontexten neuartige Steuerungs-, Lokalisierungs- und Referenzierungshilfen auf der Basis elektronischer Geräte und Computernetze erprobt. Derartige Medien können hilfreich sein, wenn es um die sprachliche Artikulierbarkeit und die technische Visualisierung, Speicherung und Übermittlung von raumbezogener Bedeutung über raumzeitliche Distanzen hinweg geht. Gleichwohl treten in derart komplexen medialen Konstellationen unvermeidlich technisch-kommunikative Störungen auf, die ihrerseits durch die Beteiligten „in situ“ sprachlich artikuliert und bearbeitet werden müssen. In solchen Störungsfällen werden Medialität und Intermedialität – als im Regelfall transparente Kommunikationsgrundlagen – interaktiv relevant und zum Thema der Kommunikation: Aus einem „Looking through“ wird ein semantisiertes „Looking at“ (Ludwig Jäger). Anhand audiovisueller Daten, die im Kontext von Notfallübungen erhoben wurden, wird ein Forschungsansatz vorgestellt, der darauf zielt, den Status sprachlicher Artikulationsarbeit für eine technisierte Interaktion im Rahmen kollektiver Ortserkundung und Navigation zu spezifizieren. Unter dem Aspekt der Anwendung wird auch die Frage erörtert, welche Relevanz derartigen Erkenntnissen für die Gestaltung medientechnischer Ressourcen für kritische Situationen zukommt.
Es ist nicht zu übersehen, dass die neuere Gesprächsforschung der Zeitlichkeit der Interaktion, also der Organisation von Nacheinander und Reihenfolge, viel mehr Aufmerksamkeit geschenkt hat als der Räumlichkeit der Interaktion, also der Organisation der Verortung und Platzierung Anwesender im Raum. Für Zeitlichkeit haben wir mit dem Konzept der Sequentialität eine methodologische Leitorientierung, die sich in unzähligen Analysen empirisch bewährt hat und theoretisch explizierbar ist. Für Räumlichkeit gilt das (trotz der Pionierarbeiten von Goffman, Hall, Birdwhistell, Kendon und anderen) offenkundig nicht, obwohl man mit Fug und Recht behaupten kann, dass Raum und Räumlichkeit – genauso wie Zeit und Zeitlichkeit – interaktiv in Anspruch genommen und interaktiv hergestellt werden. Kann man daraus schließen, dass der Raum für die Interaktion weniger wichtig ist als die Zeit? Oder hat es damit zu tun, dass Raum und Räumlichkeit für eine an sprachlichen Erscheinungsformen orientierte linguistische Gesprächsforschung empirisch und methodisch schwerer zu fassen sind? Und welcher Art sind die Phänomene, die man zu sehen bekommt, und die Konzepte, die man braucht, wenn man Räumlichkeit als Aspekt von Anwesenheit zu thematisieren versucht? Was schließlich leistet Sprache für die interaktive Inanspruchnahme von Raum und Räumlichkeit?
Diesen und ähnlichen Fragen geht der folgende Beitrag am Beispiel einer Interaktionsepisode in einer Kunstausstellung nach.
Als eine wichtige Form der intermedialen Einbindung von Sprache wird technisch kombinierte („sekundäre“) Audiovisualität beschrieben, wie sie prototypisch im Fernsehen vorkommt. Nach allgemeinen Strukturen von sekundärer Audiovisualität wird der Begriff der Transkriptivität (nach Jäger) kurz dargestellt: das „Anders- Lesbar-Machen“ von Zeichen im gleichen oder einem anderen Zeichensystem. Danach werden zwei Spielarten von Fernsehaudiovisualität behandelt: Nachrichtenfilme als Zusammenspiel von Sprechertext mit vorgefertigten Bildsequenzen, nach bestimmten Mustern von wechselseitiger Transkription, die Anforderungen der Darstellbarkeit und Glaubwürdigkeit genügen sollen. In Polit-Talkshows werden die Sprecherbeiträge von Kamerainszenierungen mit drei Funktionen transkribiert: (a) Abwechslung und Gliederung, (b) Sprecherprofilierung und (c) Profilierung von Beteiligungsrollen anderer Teilnehmer.
Der Musikclip gehört seit den 1980er Jahren zum Forschungsbereich diverser Disziplinen und gilt Vielen als intermediales Phänomen schlechthin. Als problematisch erweist sich allerdings nach wie vor, dass das klangliche Material des Clips, populäre Musik, eine Herausforderung nicht nur für die Musikwissenschaften darstellt – greifbar wird dies mit Blick auf die anhaltenden Diskussionen um einen adäquaten Begriff der populären Musik. Darüber hinaus gilt Musik allgemein als ‚Sonderfall‘ für den Bereich der Medien-, Sprach- und Kulturwissenschaften, da an ihr weder rein medienästhetische noch kommunikations- und informationstheoretische Begriffe in ausreichender Weise greifen. Die Entwicklung eines transdisziplinär nachvollziehbaren Objektverständnisses des Musikclips bleibt daher desiderabel.
Der Beitrag zum Thema „Bild-Text-Ton-Analysen“ resultiert aus einer intensivierten Begegnung von Medienwissenschaft und Musikwissenschaft. Im Artikel wird die Konstitution von Bedeutung im intermedialen Zusammenspiel von Sprache/Text, Stimme und Musik fokussiert. Dies geschieht auf Grundlage einer näheren Bestimmung der Analysekriterien, die im Hinblick auf den speziellen Fall des popmusikalischen Umgangs mit Sprache erforderlich sind. Ziel ist es, die Bedeutungssedimente von vokaler Performanz im Kontext von populärer Musik offenzulegen. Für die Betrachtung des Musikclips ist dies ein wesentlicher Zwischenschritt. Anhand der Darstellung der klanglich-materiellen Vorprägungen gilt es, die Möglichkeitsbedingungen der (nachträglichen) intermedialen Transformation von Sprache auf die Bildebene auszuloten. In finaler Wendung ist es dann möglich, das inter- bzw. plurimediale Amalgam von Text-Stimme-Musik als Generator von Bedeutungsüberschüssen einzufassen.
Es scheint eine Selbstverständlichkeit zu sein, dass Bild und Text sowie Bild und Klang einander in den audiovisuellen Prozessen filmischer Produkte wechselseitig konturieren. Dieser geläufige Befund jedoch bedarf weiterer Klärung. Vor allem die wissenschaftliche Analyse von Sendungen des Fernsehens operiert nicht selten weiterhin mit irreführenden Hierarchien zumal zwischen Text und Bild, so als würde der Bildverlauf eine weitgehend autonome Bedeutung des im sprachlichen Text Gesagten lediglich modifizieren oder transformieren. Demgegenüber vertritt der Beitrag die These, dass Bild und Text in filmischen Erzeugnissen jeglicher Art gleichursprünglich an der Konstitution der in ihnen präsentierten Gehalte beteiligt sind. Es wird gezeigt, dass dieser basale audiovisuelle Zusammenhang auch dort besteht, wo eines dieser Elemente – etwa der mündliche Dialog oder ein verbaler Kommentar – den Verlauf eines Films oder einer Filmsequenz zu dominieren scheint, und folglich, dass er alle filmischen Genres einschließlich der Sendetypen des Fernsehens gleichermaßen prägt. Eine Interpretation ausgewählter Beispiele stützt das Plädoyer für ein nichthierarchisches Verständnis der Bedeutungsdimensionen in den Produktionen von Film und Fernsehen.
Die zeichentheoretische Entgegensetzung von Sprache und Bild ist überaus geläufig. Die hier zu entwickelnde These ist jedoch, dass medial verkörperte Sprache eine implizite Ikonizität zukommt: Sprachlichkeit kommt nicht ohne Bildlichkeit, das Sagen nicht ohne das Zeigen aus. Was dies bedeutet, wird in einer Betrachtung der Performanz des Lautlichen sowie des Phänomens der Schriftbildlichkeit erläutert. Sowohl bezüglich der Stimme wie auch der Schrift, zeigt sich eine intrinsische ‚Intermedialität‘ der Sprache. Die Wirksamkeit der Stimme beruht auf ihrer Vereinigung von Somatik und Semantik, eines physiognomischen und propositionalen Aspektes. Die Leistungskraft von Schriften besteht in der Verschränkung von diskursiven und visuellen, von linguistischen und graphischen Aspekten. Friedrich Nietzsche hat auf überraschende Weise eine der Sprache inhärente Intermedialität reflektiert, insofern er die Lautsprache hervorgehen lässt aus der Vereinigung von Musik und Bild.
Die Wahrnehmung menschlicher Kommunikation ist historisch geprägt; entsprechend veränderlich sind die Normen und Werte, an denen kommunikatives Verhalten zu unterschiedlichen Zeiten gemessen wird. So führt die „Entdeckung“ der Multimodalität menschlicher Kommunikation in der gegenwärtigen Gesprächsforschung und die damit verbundene neue Aufmerksamkeit auf die Zeichenhaftigkeit des Körpers wie auf die Dimension des Raumes zu einem neuen Verständnis von Kommunikation und zu einer veränderten Beurteilung sprachlicher Phänomene.
Doch schon in frühmoderner Zeit war der gesellschaftliche Blick auf den kommunizierenden Menschen in einer für heutige Maßstäbe bemerkenswerten Weise auf die „Beredsamkeit des Leibes“ (Kemp 1975, S. 111) gerichtet. Sprachlichkeit wird als an Leiblichkeit gebunden wahrgenommen, als Teil eines komplexen, raumbezogenen kommunikativen Auftritts, der ständisch geregelt und normiert ist. Dies gilt für das 17. und auf weite Strecken auch noch für das 18. Jahrhundert – erst das bürgerliche Sprachprojekt löst in der Wahrnehmung die Sprache zunehmend vom Leib.
Vom 17. ins 18. Jahrhundert hinein lassen sich allerdings Veränderungen im Beschreibungsvokabular für den körperlich-sprachlichen Auftritt beobachten, und in Text- wie Bildzeugnissen zeigt sich ein Wandel in diesem Auftritt bzw. im Blick der Zeitgenossen darauf. Diese Veränderungen werden im Folgenden als (kollektiv) stilistischer Wandel beschrieben und der Zeichenwert dieses Wandels wird als ,Verschlankung‘ und ,Dynamisierung‘ bestimmt. Und insofern diese (kollektiv) stilistischen Veränderungen als Medium der Selbstformierung der tragenden Sozialformation der Zeit, d.h. der Adelsgesellschaft um 1800, verstanden werden, wird der beobachtete Stilwandel als Prozess der Selbst-Dynamisierung der gesellschaftlichen Leitformation der Epoche gedeutet.
Seit einigen Jahren befassen sich zahlreiche geisteswissenschaftliche Arbeiten verstärkt mit der Stimme in ihrer Bedeutung für die menschliche Kommunikation. Aufgrund der Vielschichtigkeit und Ambivalenz des Phänomens wird oft von einem sehr weiten, eher metaphorischen Begriff von Stimme ausgegangen. In der Sprechwissenschaft, die traditionell einen vor allem empirischen und didaktischen Zugriff auf die Sprechstimme hat, wird dagegen mit einem vergleichsweise engen, physiologischen Begriff von Stimme operiert, im Sinne einer Körperfunktion, als Muskelaktivitätsmuster unterschiedlicher Ausprägung, Gestalt und Funktion. In engem Bezug zur klinischen Sprechstimmdiagnostik und Phoniatrie wird Stimme betrachtet als Organ, dessen Anatomie und Physiologie zu beschreiben ist. In engem Bezug zur Phonetik werden Stimmgebung und -wirkung, stimmlich-artikulatorische Ausdrucksformen merkmalsanalytisch auditiv und akustisch beschrieben. In engem Bezug zur Linguistik, Rhetorik und Soziophonetik wird Stimme betrachtet als Resultat der Stimmgebung; Gegenstand sind Sprechwirkung und interaktive Ausarbeitung der Stimme in ihrer Verwobenheit mit sprachlichen und körperlichen Ausdrucksformen. Hierbei wird die Stimme als Bestandteil des stimmlich-artikulatorischen Ausdrucks aufgefasst, insofern als Teil von persönlicher und sozialer Identität, als Trägerin von ästhetisch-künstlerischem und emotionalem Ausdruck.
Methoden zur empirischen Beschreibung des sprechstimmlichen Ausdrucks werden exemplarisch vorgestellt, sowohl anhand von Arbeiten, in denen stimmlich-artikulatorische Merkmale beschrieben und klassifiziert werden (Stimmphysiologie-, Emotionsforschung), als auch anhand von Arbeiten, in denen der stimmlich-artikulatorische Ausdruck in seiner Wirkung auf Hörer (Sprechwirkungsforschung) und in seiner interaktiven Ausarbeitung (Gesprächsforschung) betrachtet wird. Aus den Ergebnissen der empirischen Studien wird deutlich, inwieweit stimmlich-artikulatorische Ausdrucksformen als Bedeutungsträger fungieren und zur Vereindeutigung der Verständigung beitragen können.
Anstelle der herkömmlichen Wortklasse Interjektion plädiert dieser Beitrag für eine erweiterte Auffassung von Lautobjekten (hier auch ‚Vokalisierungen‘ genannt), wie sie von tatsächlichen Sprechern in konkreten Interaktionszusammenhängen produziert werden. Fokussiert wird der Gebrauch von Lautobjekten als affektgeladene Reaktion auf eine Mitteilung im Gespräch. Anhand eines Korpus von natürlich vorkommenden englischen Alltagsgesprächen werden drei Thesen erläutert: (1) Manche Lautobjekte bilden Lexeme, deren Form eine konventionalisierte prosodische Lautgestalt einschließt, (2) Lautobjekte werden als Teil einer körperlichen Gestalt produziert und (3) manche nicht-lexikalisierten Lautobjekte können ähnliche Funktionen wie lexikalisierte Lautobjekte übernehmen. Zum Schluss wird auf die sprachtheoretische Relevanz von Lautobjekten eingegangen.