Refine
Year of publication
- 2010 (205) (remove)
Document Type
- Part of a Book (83)
- Article (55)
- Conference Proceeding (39)
- Book (13)
- Part of Periodical (5)
- Contribution to a Periodical (4)
- Other (2)
- Working Paper (2)
- Doctoral Thesis (1)
- Review (1)
Keywords
- Deutsch (88)
- Korpus <Linguistik> (23)
- Computerlinguistik (15)
- Konversationsanalyse (15)
- Interaktion (12)
- Semantik (9)
- Computerunterstützte Lexikographie (8)
- Sprachgeschichte (8)
- Wörterbuch (7)
- Annotation (6)
Publicationstate
- Veröffentlichungsversion (84)
- Postprint (17)
- Zweitveröffentlichung (17)
- (Verlags)-Lektorat (1)
- Preprint (1)
- Verlags-Lektorat (1)
Reviewstate
Publisher
- de Gruyter (29)
- Institut für Deutsche Sprache (22)
- Benjamins (10)
- Narr (10)
- European Language Resources Association (6)
- Lang (6)
- Winter (5)
- Association for Computational Linguistics (4)
- Springer (4)
- De Gruyter (3)
In der vorliegenden Arbeit wird mit ethnografischen, gesprächsanalytischen und gesprächsrhetorischen Methoden der kommunikative Sozialstil der "emanzipatorischen Migranten" untersucht. Ein wesentliches Kennzeichen dieses Milieus von Migranten der zweiten Generation ist, dass seine Akteure offensiv und provokativ mit Rassismen umgehen und sich nicht ethnisch (als "Türken", "Italiener", "Griechen" etc.) definieren. Des Weiteren betrachten sie - neben der dominanten Verwendung des Deutschen als gruppeninterner Kommunikationssprache - (deutschtürkisches) Code-switching und Code-mixing als wichtigen Ausdruck ihrer migrantischen Identität.
Da Potenziale und Konturen von Stilen erst im Kontrast eindeutig hervortreten, werden diese Befunde mit der kommunikativen Praxis einer anderen Sozialwelt von Migranten der zweiten Generation verglichen, derjenigen der "akademischen Europatürken". Hierbei zeigt sich, dass dieses sich ethnisch und als "Elite" der türkischen Migranten definierende Milieu moderat auf Diskriminierungen reagiert und deutsch-türkische Sprachvariation als Ausdruck von "Halbsprachigkeit" ablehnt.
This paper describes general requirements for evaluating and documenting NLP tools with a focus on morphological analysers and the design of a Gold Standard. It is argued that any evaluation must be measurable and documentation thereof must be made accessible for any user of the tool. The documentation must be of a kind that it enables the user to compare different tools offering the same service, hence the descriptions must contain measurable values. A Gold Standard presents a vital part of any measurable evaluation process, therefore, the corpus-based design of a Gold Standard, its creation and problems that occur are reported upon here. Our project concentrates on SMOR, a morphological analyser for German that is to be offered as a web-service. We not only utilize this analyser for designing the Gold Standard, but also evaluate the tool itself at the same time. Note that the project is ongoing, therefore, we cannot present final results.
Corpus-based identification and disambiguation of reading indicators for German nominalizations
(2010)
Corpus data is often structurally and lexically ambiguous; corpus extraction methodologies thus must be made aware of ambiguities. Therefore, given an extraction task, all relevant ambiguities must be identified. To resolve these ambiguities, contextual data responsible for one or another reading is to be considered. In the context of our present work, German -ung-nominalizations and their sortal readings are under examination. A number of these nominalizations may be read as an event or a result, depending on the semantic group they belong to. Here, we concentrate on nominalizations of verbs of saying (henceforth: "verba dicendi"), identify their context partners and their influence on the sortal reading of the nominalizations in question. We present a tool which calculates the sortal reading of such nominalizations and thus may improve not only corpus extraction, but also e.g. machine translation. Lastly, we describe successful attempts to identify the correct sortal reading, conclusions and future work.
So far, comprehensive grammar descriptions of Northern Sotho have only been available in the form of prescriptive books aiming at teaching the language. This paper describes parts of the first morpho-syntactic description of Northern Sotho from a computational perspective (Faaß, 2010a). Such a description is necessary for implementing rule based, operational grammars. It is also essential for the annotation of training data to be utilised by statistical parsers. The work that we partially present here may hence provide a resource for computational processing of the language in order to proceed with producing linguistic representations beyond tagging, may it be chunking or parsing. The paper begins with describing significant Northern Sotho verbal morpho-syntactics (section 2). It is shown that the topology of the verb can be depicted as a slot system which may form the basis for computational processing (section 3). Note that the implementation of the described rules (section 4) and also coverage tests are ongoing processes upon that we will report in more detail at a later stage.
This chapter will present results of a linguistic landscape (LL) project in the regional centre of Rēzekne in the region of Latgale in Eastern Latvia. Latvia was de facto a part of the Soviet Union until 1991, and this has given it a highly multilingual society. In the essentially post-colonial situation since 1991, strict language policies have been in place, which aim to reverse the language shift from Russian, the dominant language of Soviet times, back to Latvian. Thus, the main interests of the research were how the complex pattern of multilingualism in Latvia is reflected in the LL; how people relate to current language legislation; and what motivations, attitudes and emotions inform their behaviour.
This paper describes the application of probabilistic part of speech taggers to the Dzongkha language. A tag set containing 66 tags is designed, which is based on the Penn Treebank. A training corpus of 40,247 tokens is utilized to train the model. Using the lexicon extracted from the training corpus and lexicon from the available word list, we used two statistical taggers for comparison reasons. The best result achieved was 93.1% accuracy in a 10-fold cross validation on the training set. The winning tagger was thereafter applied to annotate a 570,247 token corpus.
Nach einem kurzen Überblick über die heutige sprachökologische Situation in Lettland möchte ich dabei auf die Rolle der deutschen Sprache in verschiedenen Bereichen der lettischen Gesellschaft eingehen. Komplettiert wird der Überblick über die deutsche Sprache im heutigen Lettland durch einige Überlegungen zu Maßnahmen, die die Situation zugunsten des Deutschen ändern könnten.
L’équipe de Lyon étudie la façon dont les ressources plurilingues sont mobilisées dans des activités collaboratives au sein du travail d’équipe. La démarche analytique est inspirée de l’Analyse Conversationnelle d’emprunte ethnomethodologique, et considère comme centrale la relation entre ressources plurilingues et organisation située des usages linguistiques et des pratiques sociales. Ces deux aspects sont réflexivement articulés, les ressources plurilingues étant modelées par leur contexte d’utilisation, et les activités étant mutuellement contraintes et structurées par les ressources disponibles.
Dieser Artikel analysiert am Beispiel eines Racletteessens unter Freunden, wie innerhalb einer langen Sequenz das Warten auf den Beginn des Essens strukturiert wird. Während der fast 50 Minuten, die zwischen der Ankunft der ersten Gäste sowie dem Beginn des Essens vergehen, orientieren sich die Teilnehmer auf unterschiedliche Weise zum Warten als Aktivität. Das sukzessive Eintreffen der Gäste führt jeweils zu Eröffnungssequenzen innerhalb dieser Wartezeit. Anhand von Auszügen dieser Zeitspanne verfolgt die Analyse, wie sich die Teilnehmer zu dieser Zeitlichkeit des Wartens und (Noch-nicht-)Beginnens orientieren und wie sie den Anfang des Essens gemeinsam konstruieren.
On the basis of a single case analysis of the emergence of an ethnic joke, this paper explores issues related to laughter in international business meetings. More particularly, it deals with ways in which a person's name is correctly pronounced. Speakers and co-participants seem to orient towards ‘proper’ ways of vocalizing names and to consequent ‘variations’ or ‘deviations’ from them, making different ways of pronunciation available as a laughable. In making such pronunciation variations available, accountable and recognizable, participants reflexively establish as relevant the multilingual character of the activity, of the participants’ competences and of the setting; conversely, they exploit these multilingual features within specific social practices, leading to laughter.
Our analysis focuses on the contexts of action, the sequential environments and the interactional practices by which the uttering of a name becomes a ‘laughable’ and then a resource for an ethnic joke. Moreover, it explores the implications of transforming the pronunciation into a laughable in terms of the organization of the ongoing activity, changing participation frameworks and membership categorizations. In this sense, it highlights the flexible structure of groups and the way in which laughter reconfigures them through local affiliating and disaffiliating moves, and by making various national categories available and relevant.
The chapter on formats and models for lexicons deals with different available data formats of lexical resources. It elaborates on their structure and possible uses. Motivated by the restrictions in merging different lexical resources based on widely spread formalisms and international standards, a formal lexicon model for lexical resources is developed which is related to graph structures in annotations. For lexicons this model is termed the Lexicon Graph. Within this model the concepts of lexicon entries and lexical structures frequently described in the literature are formally defined and examples are given. The article addresses the problem of ambiguity in those formal terms. An implementation based on XML and XML technology such as XQuery for the defined structures is given. The relation to international standards is included as well.
This paper represents a report on an e-tandem project conducted at Freiburg University (Germany) from the winter term 2009/2010 on. It started with a German-ltalian pilot course organised in cooperation with Pavia University (Italy). In order to promote autonomous language learning, the authors used several web-based applications, relying on Skype to enable full (i.e. visual, auditive) interaction between learning partners and on e-mails to let participants practise writing and reading in the respective foreign language. Additionally, participants were asked to compile a weekly electronic portfolio (EPOS) to record their improvements as well as their difficulties. In the paper, the structure of the pilot course will be described and a first balance will be drawn.
Die Beiträge dieses Heftes gehen zurück auf einen Workshop des Arbeitskreises Hyper-media der Gesellschaft für Computerlinguistik und Sprachtechnologie (GSCL). Der Workshop fand im Rahmen der GSCL-Tagung 2009 in Potsdam statt und sollte den aktuellen Stand der Überlegungen zur Nutzbarkeit hypermedialer Systeme in den E-Humanities beleuchten.
Seit Jakob Nielsen Mitte der Neunzigerjahre die Kriterien für anwenderfreundliche Hypermediasysteme – Easy to learn, efficient to use, easy to remember, few errors, pleasant to use – dargelegt hat, beschäftigt sich die Usability-Forschung mit empirisch verifizierbaren Beurteilungskriterien und Erhebungsmethoden. Ziel ist die Steigerung der Nutzungsqualität hypermedialer Angebote, häufig mit den Schwerpunkten Internet/WWW bzw. Web 2.0 sowie in letzter Zeit verstärkt unter Berücksichtigung multimodaler Schnittstellen.
Die in diesem Heft zusammengestellten Beiträge beleuchten eine Reihe sehr unter-schiedlicher Aspekte von Nutzungsqualität an konkreten Anwendungen und aus theo-retischer Perspektive.
Dieser Beitrag gibt einen Überblick über CoDII, die Collection of Distributionally Idiosyncratic Items. CoDII ist eine elektronische Sammlung verschiedener Untergruppen lexikalischer Elemente, die sich durch idiosynkratische Distribution auszeichnen. Das bedeutet, dass sich die Verteilung dieser Lexeme im Text nicht alleine aufgrund ihrer syntaktischen Kategorie Vorhersagen lässt. Die Methoden, die in der Entwicklung von CoDII angewandt werden, greifen über traditionelle Fachgrenzen hinaus und umfassen Korpuslinguistik, Computerlinguistik, Phraseologie und theoretische Sprachwissenschaft. Ein wichtiger Schwerpunkt unserer Diskussion liegt auf der Darstellung, inwiefern die in CoDII gesammelten, annotierten und unter anderem mit Suchwerkzeugen abfragbaren Daten dazu beitragen können, die linguistische Theoriebildung durch die Bereitstellung sorgfältig aufbereiteter Datensammlungen bei der Überprüfung ihrer Datengrundlage zu unterstützen.
A central question in psycholinguistics is how the human brain processes language in real time. To answer this question, the differences between auditory and visual processing have to be considered. The present dissertation examines the extent to which event-related potentials (ERPs) in the human electroencephalogram (EEG) interact with different modes of presentation during sentence comprehension. Besides the two classical modalities, auditory and rapid serial visual presentation (RSVP), the monitoring of readers’ eye movements was chosen as a new mode of presentation. Here, the temporal paradox between neuronal ERP effects and behavioral effects in the eye movement record were of particular interest. Specifically, by concurrently measuring ERPs and eye movements in natural reading, the dissertation aimed to shed light on the counterintuitive fact that difficulties in sentence comprehension arise earlier in eye movement measures than in the corresponding neuronal ERP effects. In contrast to RSVP and the auditory modality, reading offers a parafoveal preview of upcoming words (Rayner 1998), which enables the brain to process information of words before these are fixated for the first time (in foveal vision). When the word Gegenteil in example (1) below is fixated and processed, the brain concurrently processes some information of the upcoming parafoveal words von and weiß. (1) Schwarz ist das Gegenteil von weiß. (2) Schwarz […] blau. (3) Schwarz […] nett. The parafoveal preview mostly provides orthographic (word form) information, while semantic information is not conveyed (Inhoff & Starr 2004; White 2008). Whereas word form and lexical meaning are processed simultaneously with RSVP and auditory presentation, the parafoveal preview in natural reading allows for a temporal decoupling such that word forms are processed before meaning. This is one reason for the faster information uptake in reading. The present dissertation is the first to systematically investigate the influence of the parafoveal preview in sentence processing. Participants read sentences such as in (1)-(3), in which two adjectives were either antonyms (1), semantically related non-antonyms (2), or semantically unrelated non-antonyms (3). ERPs were computed for the last fixation before the target word (the sentence-final word in 1-3), which was assumed to capture parafoveal processing, and for the first fixation on the target, that should reflect foveal processing. The results were compared to two experiments using identical stimuli with auditory and RSVP presentation, and the parafoveal preview clearly led to different ERP results. While the RSVP and auditory presentations replicated the finding of a P300 to the second antonym in (1) (Kutas & Iragui 1998; Roehm et al. 2007), there was no P300 in response to antonyms at any fixation position in natural reading. However, the dissociation of parafoveal and foveal processing in reading also made it possible to disentangle different processes underlying the N400. There was a reduced parafoveal N400 for (1,2) compared with (3), which could be attributed to the preactivation of the word forms of the expected antonyms and of semantically related non-antonyms. In foveal vision, all non-antonyms (2,3) showed an enhanced N400 compared with (1) because they were unexpected and implausible in the sentence context. This dissociation between the preactivation of a word-form and the contextual fit of a word’s meaning is impossible with the other two modes of presentation, because orthographic and semantic information become available almost at the same time and are thus processed simultaneously. Furthermore, the parafoveal N400 effect was not accompanied by changes in the duration of the corresponding fixation, whereas the foveal N400 was. Similarly, with the concurrent measurement of ERPs and eye movements, the temporal paradox described above remained, as effects in the eye movement record preceded the neuronal ERP effects. Further support for these central findings came from two additional experiments that investigated different stimuli with concurrent ERP-eye tracking measures. Altogether, the experiments revealed that the previous findings on the language-related N400 can be replicated with natural reading, but they can also be differentiated qualitatively by virtue of the characteristics of natural reading. Although the behavioral and neuronal effects mirrored one another, not every neuronal effect necessarily translates into a behavioral output. Finally, even concurrent ERP-eye tracking measures cannot resolve the temporal paradox.
Authors like Fillmore 1986 and Goldberg 2006 have made a strong case for regarding argument omission in English as a lexical and construction-based affordance rather than one based on general semantico-pragmatic constraints. They do not, however, address the question of how grammatical restrictions on null complementation might interact with broader narrative conventions, in particular those of genre. In this paper, we attempt to remedy this oversight by presenting a comprehensive overview of genre-based argument omissions and offering a construction-based analysis of genre-based omission conventions. We consider five genre-based omission types: instructional imperatives (Culy 1996, Bender 1999), labelese, diary style (Haegeman 1990), match reports (Ruppenhofer 2004) and quotative clauses. We show that these omission types share important traits; all, for example, have anaphoric rather than indefinite construals. We also show, however, that the omission types differ from each other in idiosyncratic ways. We then address several interrelated representational problems posed by the grammatical treatment of genre-based omissions. For example, the constructions that represent genre-based omission conventions must interact with the lexical entries of verbs, many of which do not generally permit omitted arguments. Accordingly, we offer constructional analyses of genre-based omissions that allow constructions to override lexical valence constraints.
Preface
(2010)
Conventional descriptions of synonymous items often concentrate on common semantic traits and the degree of semantic overlap they exhibit. Their aim is to offer classifications of synonymy rather than elucidating ways of establishing contextual meaning equivalence and the cognitive prerequisites for this. Generally, they lack explanations as to how synonymy is construed in actual language use. This paper investigates principles and cognitive devices of synonymy construction as they appear in corpus data, and focuses on questions of how meaning equivalence might be conceptualised by speakers.
To reach even language users not acquainted to the use of grammars the Institut für Deutsche Sprache in Mannheim (Germany) looked for new ways to handle grammatical problems. Instead of confronting users with abstractions frequent difficulties of German grammar are introduced in form of exemplary questions like „Which form should be used or preferred: Anfang dieses Jahre or Anfang diesen Jahres? Looking through the long list of such questions even laymen may find solutions of grammatical problems they might not be able to formulate as such.
This paper provides a general overview of the treatment of lexico-semantic relations in different fields of research including theoretical and application-oriented disciplines. At the same time, it sketches the development of the descriptions and explanations of sense relations in various approaches as well as some methodologies which have been used to retrieve and analyse paradigmatic patterns.
Grammatiktheoretische Forschung, das hat die jüngste IDS-Jahrestagung wieder einmal plastisch vor Augen geführt, muss gedacht werden als zähes Ringen zweier grundsätzlich antagonistischer Prinzipien: Der reichhaltigen Fülle sprachlicher Okkurrenzen, deren gründlicher Auslotung ein beträchtlicher Teil der gegenwärtigen sprachtheoretisch und sprachtechnologisch ausgerichteten Anstrengung gewidmet ist, muss stets der Versuch gegenüberstehen, diese überbordende Varianz abstrahierend und generalisierend einzudämmen – ohne dabei die empirischen Befunde übermäßig und unzulässig zu nivellieren.
Perhaps the biggest challenge in derivational morphology is to reconcile morphological idiosyncrasy with semantic regularity. How can it be explained that words with dead affixes and irregulär allomorphy can nonetheless exhibit straightforward and stable semantic relations to their etymological bases (cf. strength ‘property of being strong’, obedience ‘act of obeying’, ‘property of being obedient’)? Theories based on the idea of capturing regularity in terms of synthetic rules for building up complex words out of morphemes along with rules for interpreting such structures in a compositional fashion have not made - and arguably cannot make - sense of this phenomenon. Taking the perspective of the learner in acquisition, I propose an alternative approach to meaning assignment based, not on syntagmatic relations among their constituent morphemes, but on paradigmatic relations between whole words. This approach not only explains the conditions under which meaning relations between words are expected to be stable but also accounts for another notorious mystery in derivational morphology, the frequent occurrence of total synonymy among affixes, as opposed to words.
DIL is a bilingual (German-Italian) online dictionary of linguistics. It is still under construction and contains 240 lemmas belonging to the subfield of “German as a Foreign Language”, but other subfields are in preparation. DIL is an open dictionary; participation of experts from various subfields is welcome. The dictionary is intended for a user group with different levels of knowledge, therefore it is a multifunctional dictionary. An analysis of existing dictionaries, either in their online or written form, was essential in order to make important decisions for the macro- or microstructure of DIL; the results are discussed. Criteria for the selection of entries and an example of an entry conclude the article.
Grammars even trying to be as comprehensible as possible hardly avoid using technical terms unknown to novices. To overcome these inconveniencies, the grammatical information system grammis of the Institut für Deutsche Sprache incorporated a glossary specialized on terms used within the system. This glossary - actually named Grammatische Grundbegriffe (elementary terms of grammar) and tied by hyperlinks to technical terms in the core grammar' of grammis - offers short and simple explanations mainly by means of exemplification. The idea is to provide the users with provisional understanding to get along while following the main themes they are interested in. Explicitly, the glossary is not a stand-alone dictionary of grammatical terms, and it should not be regarded as one.
This paper discusses the semi-formal language of mathematics and presents the Naproche CNL, a controlled natural language for mathematical authoring. Proof Representation Structures, an adaptation of Discourse Representation Structures, are used to represent the semantics of texts written in the Naproche CNL. We discuss how the Naproche CNL can be used in formal mathematics, and present our prototypical Naproche system, a computer program for parsing texts in the Naproche CNL and checking the proofs in them for logical correctness.
Positioning analysis, a variant of discourse analysis, was used to explore the narratives of 40 psychiatric patients (11 females and 29 males; mean age = 40 years) who had manifest difficulties with engagement with statutory mental health services. Positioning analysis is a qualitative method that captures how people linguistically position the roles and identities of themselves and others in their day-to-day lives and narratives. The language of disengagement incorporated the passive positioning of self in relation to their lives and treatment through the use of metaphor, the passive voice and them and us attribution, while the discourse of engagement incorporated more active positioning of self, achieved through the use of the personal pronoun we and metaphoric references to balanced relationships. The findings corroborate previous thematic analysis that highlighted the importance of identity and agency in the ‘making or breaking’ of therapeutic relationships (Priebe et al. 2005). Implications are discussed in relation to how positioning analysis may help signal and emphasize important life and therapeutic experiences in spoken narratives as well as clinical consultations.
Introduction
(2010)
This paper presents a survey on the role of negation in sentiment analysis. Negation is a very common linguistic construction that affects polarity and, therefore, needs to be taken into consideration in sentiment analysis.
We will present various computational approaches modeling negation in sentiment analysis. We will, in particular, focus on aspects such as level of representation used for sentiment analysis, negation word detection and scope of negation. We will also discuss limits and challenges of negation modeling on that task.
In recent years, text classification in sentiment analysis has mostly focused on two types of classification, the distinction between objective and subjective text, i.e. subjectivity detection, and the distinction between positive and negative subjective text, i.e. polarity classification. So far, there has been little work examining the distinction between definite polar subjectivity and indefinite polar subjectivity. While the former are utterances which can be categorized as either positive or negative, the latter cannot be categorized as either of these two categories. This paper presents a small set of domain independent features to detect indefinite polar sentences. The features reflect the linguistic structure underlying these types of utterances. We give evidence for the effectiveness of these features by incorporating them into an unsupervised rule-based classifier for sentence-level analysis and compare its performance with supervised machine learning classifiers, i.e. Support Vector Machines (SVMs) and Nearest Neighbor Classifier (kNN). The data used for the experiments are web-reviews collected from three different domains.
Bootstrapping Supervised Machine-learning Polarity Classifiers with Rule-based Classification
(2010)
In this paper, we explore the effectiveness of bootstrapping supervised machine-learning polarity classifiers using the output of domain-independent rule-based classifiers. The benefit of this method is that no labeled training data are required. Still, this method allows to capture in-domain knowledge by training the supervised classifier on in-domain features, such as bag of words.
We investigate how important the quality of the rule-based classifier is and what features are useful for the supervised classifier. The former addresses the issue in how far relevant constructions for polarity classification, such as word sense disambiguation, negation modeling, or intensification, are important for this self-training approach. We not only compare how this method relates to conventional semi-supervised learning but also examine how it performs under more difficult settings in which classes are not balanced and mixed reviews are included in the dataset.
Opinion holder extraction is one of the important subtasks in sentiment analysis. The effective detection of an opinion holder depends on the consideration of various cues on various levels of representation, though they are hard to formulate explicitly as features. In this work, we propose to use convolution kernels for that task which identify meaningful fragments of sequences or trees by themselves. We not only investigate how different levels of information can be effectively combined in different kernels but also examine how the scope of these kernels should be chosen. In general relation extraction, the two candidate entities thought to be involved in a relation are commonly chosen to be the boundaries of sequences and trees. The definition of boundaries in opinion holder extraction, however, is less straightforward since there might be several expressions beside the candidate opinion holder to be eligible for being a boundary.
Accentuation, Uncertainty and Exhaustivity - Towards a Model of Pragmatic Focus Interpretation
(2010)
This paper presents a model of pragmatic focus interpretation that is assumed to be part of a complete language comprehension model and that is inspired by Levelt's language processing model. The model is derived from our empirical data on the role of accentuation, prosodic indicators of uncertainty and context for pragmatic focus interpretation. In its present state, the model is restricted to these data, but nevertheless generates predictions.
This article evaluates the terminological component (TC) of the grammis portal on German grammar developed by the Institut für Deutsche Sprache. The TC is included into grammis to facilitate nonlinguists‘ access to the main components of the portal: Grammar in questions and answers, and the Systematic Grammar. The TC thus has the potential to be an extremely useful and important grammis component. We discuss to what extend the TC achieves its goals, and make some suggestions how it could be improved. The most important aspects considered in the evaluation are: (a) TC completeness and consistency, (b) accessibility and usability of definitions and index, (c) integration of the TC with the overall system.
Im Kontext von Notfalleinsätzen (z.B. der Feuerwehr) müssen vielfältige raumbezogene Kommunikationsaufgaben bearbeitet werden. Bei der Verständigung zum Zweck kollektiver Orientierung und Navigation greifen die Beteiligten auf ein Ensemble technischer Medien zurück: Über etablierte Ressourcen – wie Funkgeräte und Mobiltelefone, Karten und Lagepläne, Kreide und Tafeln – hinaus werden heute in Übungs- und Schulungskontexten neuartige Steuerungs-, Lokalisierungs- und Referenzierungshilfen auf der Basis elektronischer Geräte und Computernetze erprobt. Derartige Medien können hilfreich sein, wenn es um die sprachliche Artikulierbarkeit und die technische Visualisierung, Speicherung und Übermittlung von raumbezogener Bedeutung über raumzeitliche Distanzen hinweg geht. Gleichwohl treten in derart komplexen medialen Konstellationen unvermeidlich technisch-kommunikative Störungen auf, die ihrerseits durch die Beteiligten „in situ“ sprachlich artikuliert und bearbeitet werden müssen. In solchen Störungsfällen werden Medialität und Intermedialität – als im Regelfall transparente Kommunikationsgrundlagen – interaktiv relevant und zum Thema der Kommunikation: Aus einem „Looking through“ wird ein semantisiertes „Looking at“ (Ludwig Jäger). Anhand audiovisueller Daten, die im Kontext von Notfallübungen erhoben wurden, wird ein Forschungsansatz vorgestellt, der darauf zielt, den Status sprachlicher Artikulationsarbeit für eine technisierte Interaktion im Rahmen kollektiver Ortserkundung und Navigation zu spezifizieren. Unter dem Aspekt der Anwendung wird auch die Frage erörtert, welche Relevanz derartigen Erkenntnissen für die Gestaltung medientechnischer Ressourcen für kritische Situationen zukommt.
Es ist nicht zu übersehen, dass die neuere Gesprächsforschung der Zeitlichkeit der Interaktion, also der Organisation von Nacheinander und Reihenfolge, viel mehr Aufmerksamkeit geschenkt hat als der Räumlichkeit der Interaktion, also der Organisation der Verortung und Platzierung Anwesender im Raum. Für Zeitlichkeit haben wir mit dem Konzept der Sequentialität eine methodologische Leitorientierung, die sich in unzähligen Analysen empirisch bewährt hat und theoretisch explizierbar ist. Für Räumlichkeit gilt das (trotz der Pionierarbeiten von Goffman, Hall, Birdwhistell, Kendon und anderen) offenkundig nicht, obwohl man mit Fug und Recht behaupten kann, dass Raum und Räumlichkeit – genauso wie Zeit und Zeitlichkeit – interaktiv in Anspruch genommen und interaktiv hergestellt werden. Kann man daraus schließen, dass der Raum für die Interaktion weniger wichtig ist als die Zeit? Oder hat es damit zu tun, dass Raum und Räumlichkeit für eine an sprachlichen Erscheinungsformen orientierte linguistische Gesprächsforschung empirisch und methodisch schwerer zu fassen sind? Und welcher Art sind die Phänomene, die man zu sehen bekommt, und die Konzepte, die man braucht, wenn man Räumlichkeit als Aspekt von Anwesenheit zu thematisieren versucht? Was schließlich leistet Sprache für die interaktive Inanspruchnahme von Raum und Räumlichkeit?
Diesen und ähnlichen Fragen geht der folgende Beitrag am Beispiel einer Interaktionsepisode in einer Kunstausstellung nach.
Als eine wichtige Form der intermedialen Einbindung von Sprache wird technisch kombinierte („sekundäre“) Audiovisualität beschrieben, wie sie prototypisch im Fernsehen vorkommt. Nach allgemeinen Strukturen von sekundärer Audiovisualität wird der Begriff der Transkriptivität (nach Jäger) kurz dargestellt: das „Anders- Lesbar-Machen“ von Zeichen im gleichen oder einem anderen Zeichensystem. Danach werden zwei Spielarten von Fernsehaudiovisualität behandelt: Nachrichtenfilme als Zusammenspiel von Sprechertext mit vorgefertigten Bildsequenzen, nach bestimmten Mustern von wechselseitiger Transkription, die Anforderungen der Darstellbarkeit und Glaubwürdigkeit genügen sollen. In Polit-Talkshows werden die Sprecherbeiträge von Kamerainszenierungen mit drei Funktionen transkribiert: (a) Abwechslung und Gliederung, (b) Sprecherprofilierung und (c) Profilierung von Beteiligungsrollen anderer Teilnehmer.
Der Musikclip gehört seit den 1980er Jahren zum Forschungsbereich diverser Disziplinen und gilt Vielen als intermediales Phänomen schlechthin. Als problematisch erweist sich allerdings nach wie vor, dass das klangliche Material des Clips, populäre Musik, eine Herausforderung nicht nur für die Musikwissenschaften darstellt – greifbar wird dies mit Blick auf die anhaltenden Diskussionen um einen adäquaten Begriff der populären Musik. Darüber hinaus gilt Musik allgemein als ‚Sonderfall‘ für den Bereich der Medien-, Sprach- und Kulturwissenschaften, da an ihr weder rein medienästhetische noch kommunikations- und informationstheoretische Begriffe in ausreichender Weise greifen. Die Entwicklung eines transdisziplinär nachvollziehbaren Objektverständnisses des Musikclips bleibt daher desiderabel.
Der Beitrag zum Thema „Bild-Text-Ton-Analysen“ resultiert aus einer intensivierten Begegnung von Medienwissenschaft und Musikwissenschaft. Im Artikel wird die Konstitution von Bedeutung im intermedialen Zusammenspiel von Sprache/Text, Stimme und Musik fokussiert. Dies geschieht auf Grundlage einer näheren Bestimmung der Analysekriterien, die im Hinblick auf den speziellen Fall des popmusikalischen Umgangs mit Sprache erforderlich sind. Ziel ist es, die Bedeutungssedimente von vokaler Performanz im Kontext von populärer Musik offenzulegen. Für die Betrachtung des Musikclips ist dies ein wesentlicher Zwischenschritt. Anhand der Darstellung der klanglich-materiellen Vorprägungen gilt es, die Möglichkeitsbedingungen der (nachträglichen) intermedialen Transformation von Sprache auf die Bildebene auszuloten. In finaler Wendung ist es dann möglich, das inter- bzw. plurimediale Amalgam von Text-Stimme-Musik als Generator von Bedeutungsüberschüssen einzufassen.
Es scheint eine Selbstverständlichkeit zu sein, dass Bild und Text sowie Bild und Klang einander in den audiovisuellen Prozessen filmischer Produkte wechselseitig konturieren. Dieser geläufige Befund jedoch bedarf weiterer Klärung. Vor allem die wissenschaftliche Analyse von Sendungen des Fernsehens operiert nicht selten weiterhin mit irreführenden Hierarchien zumal zwischen Text und Bild, so als würde der Bildverlauf eine weitgehend autonome Bedeutung des im sprachlichen Text Gesagten lediglich modifizieren oder transformieren. Demgegenüber vertritt der Beitrag die These, dass Bild und Text in filmischen Erzeugnissen jeglicher Art gleichursprünglich an der Konstitution der in ihnen präsentierten Gehalte beteiligt sind. Es wird gezeigt, dass dieser basale audiovisuelle Zusammenhang auch dort besteht, wo eines dieser Elemente – etwa der mündliche Dialog oder ein verbaler Kommentar – den Verlauf eines Films oder einer Filmsequenz zu dominieren scheint, und folglich, dass er alle filmischen Genres einschließlich der Sendetypen des Fernsehens gleichermaßen prägt. Eine Interpretation ausgewählter Beispiele stützt das Plädoyer für ein nichthierarchisches Verständnis der Bedeutungsdimensionen in den Produktionen von Film und Fernsehen.
Die zeichentheoretische Entgegensetzung von Sprache und Bild ist überaus geläufig. Die hier zu entwickelnde These ist jedoch, dass medial verkörperte Sprache eine implizite Ikonizität zukommt: Sprachlichkeit kommt nicht ohne Bildlichkeit, das Sagen nicht ohne das Zeigen aus. Was dies bedeutet, wird in einer Betrachtung der Performanz des Lautlichen sowie des Phänomens der Schriftbildlichkeit erläutert. Sowohl bezüglich der Stimme wie auch der Schrift, zeigt sich eine intrinsische ‚Intermedialität‘ der Sprache. Die Wirksamkeit der Stimme beruht auf ihrer Vereinigung von Somatik und Semantik, eines physiognomischen und propositionalen Aspektes. Die Leistungskraft von Schriften besteht in der Verschränkung von diskursiven und visuellen, von linguistischen und graphischen Aspekten. Friedrich Nietzsche hat auf überraschende Weise eine der Sprache inhärente Intermedialität reflektiert, insofern er die Lautsprache hervorgehen lässt aus der Vereinigung von Musik und Bild.
Die Wahrnehmung menschlicher Kommunikation ist historisch geprägt; entsprechend veränderlich sind die Normen und Werte, an denen kommunikatives Verhalten zu unterschiedlichen Zeiten gemessen wird. So führt die „Entdeckung“ der Multimodalität menschlicher Kommunikation in der gegenwärtigen Gesprächsforschung und die damit verbundene neue Aufmerksamkeit auf die Zeichenhaftigkeit des Körpers wie auf die Dimension des Raumes zu einem neuen Verständnis von Kommunikation und zu einer veränderten Beurteilung sprachlicher Phänomene.
Doch schon in frühmoderner Zeit war der gesellschaftliche Blick auf den kommunizierenden Menschen in einer für heutige Maßstäbe bemerkenswerten Weise auf die „Beredsamkeit des Leibes“ (Kemp 1975, S. 111) gerichtet. Sprachlichkeit wird als an Leiblichkeit gebunden wahrgenommen, als Teil eines komplexen, raumbezogenen kommunikativen Auftritts, der ständisch geregelt und normiert ist. Dies gilt für das 17. und auf weite Strecken auch noch für das 18. Jahrhundert – erst das bürgerliche Sprachprojekt löst in der Wahrnehmung die Sprache zunehmend vom Leib.
Vom 17. ins 18. Jahrhundert hinein lassen sich allerdings Veränderungen im Beschreibungsvokabular für den körperlich-sprachlichen Auftritt beobachten, und in Text- wie Bildzeugnissen zeigt sich ein Wandel in diesem Auftritt bzw. im Blick der Zeitgenossen darauf. Diese Veränderungen werden im Folgenden als (kollektiv) stilistischer Wandel beschrieben und der Zeichenwert dieses Wandels wird als ,Verschlankung‘ und ,Dynamisierung‘ bestimmt. Und insofern diese (kollektiv) stilistischen Veränderungen als Medium der Selbstformierung der tragenden Sozialformation der Zeit, d.h. der Adelsgesellschaft um 1800, verstanden werden, wird der beobachtete Stilwandel als Prozess der Selbst-Dynamisierung der gesellschaftlichen Leitformation der Epoche gedeutet.
Seit einigen Jahren befassen sich zahlreiche geisteswissenschaftliche Arbeiten verstärkt mit der Stimme in ihrer Bedeutung für die menschliche Kommunikation. Aufgrund der Vielschichtigkeit und Ambivalenz des Phänomens wird oft von einem sehr weiten, eher metaphorischen Begriff von Stimme ausgegangen. In der Sprechwissenschaft, die traditionell einen vor allem empirischen und didaktischen Zugriff auf die Sprechstimme hat, wird dagegen mit einem vergleichsweise engen, physiologischen Begriff von Stimme operiert, im Sinne einer Körperfunktion, als Muskelaktivitätsmuster unterschiedlicher Ausprägung, Gestalt und Funktion. In engem Bezug zur klinischen Sprechstimmdiagnostik und Phoniatrie wird Stimme betrachtet als Organ, dessen Anatomie und Physiologie zu beschreiben ist. In engem Bezug zur Phonetik werden Stimmgebung und -wirkung, stimmlich-artikulatorische Ausdrucksformen merkmalsanalytisch auditiv und akustisch beschrieben. In engem Bezug zur Linguistik, Rhetorik und Soziophonetik wird Stimme betrachtet als Resultat der Stimmgebung; Gegenstand sind Sprechwirkung und interaktive Ausarbeitung der Stimme in ihrer Verwobenheit mit sprachlichen und körperlichen Ausdrucksformen. Hierbei wird die Stimme als Bestandteil des stimmlich-artikulatorischen Ausdrucks aufgefasst, insofern als Teil von persönlicher und sozialer Identität, als Trägerin von ästhetisch-künstlerischem und emotionalem Ausdruck.
Methoden zur empirischen Beschreibung des sprechstimmlichen Ausdrucks werden exemplarisch vorgestellt, sowohl anhand von Arbeiten, in denen stimmlich-artikulatorische Merkmale beschrieben und klassifiziert werden (Stimmphysiologie-, Emotionsforschung), als auch anhand von Arbeiten, in denen der stimmlich-artikulatorische Ausdruck in seiner Wirkung auf Hörer (Sprechwirkungsforschung) und in seiner interaktiven Ausarbeitung (Gesprächsforschung) betrachtet wird. Aus den Ergebnissen der empirischen Studien wird deutlich, inwieweit stimmlich-artikulatorische Ausdrucksformen als Bedeutungsträger fungieren und zur Vereindeutigung der Verständigung beitragen können.
Anstelle der herkömmlichen Wortklasse Interjektion plädiert dieser Beitrag für eine erweiterte Auffassung von Lautobjekten (hier auch ‚Vokalisierungen‘ genannt), wie sie von tatsächlichen Sprechern in konkreten Interaktionszusammenhängen produziert werden. Fokussiert wird der Gebrauch von Lautobjekten als affektgeladene Reaktion auf eine Mitteilung im Gespräch. Anhand eines Korpus von natürlich vorkommenden englischen Alltagsgesprächen werden drei Thesen erläutert: (1) Manche Lautobjekte bilden Lexeme, deren Form eine konventionalisierte prosodische Lautgestalt einschließt, (2) Lautobjekte werden als Teil einer körperlichen Gestalt produziert und (3) manche nicht-lexikalisierten Lautobjekte können ähnliche Funktionen wie lexikalisierte Lautobjekte übernehmen. Zum Schluss wird auf die sprachtheoretische Relevanz von Lautobjekten eingegangen.
Nachdem sich verschiedene linguistische Teildisziplinen in den vergangenen Jahren der Medialität, Materialität und ‚Multimodalität‘ von Kommunikation zugewandt haben, hat zuletzt auch die typografische Gestaltung von Texten als spezifischer Aspekt dieses Komplexes verstärkte Aufmerksamkeit im Fach gefunden. Das Thema wurde, mit entsprechend unterschiedlichen Erkenntnisinteressen, in mehreren Fachbereichen (z.B. in der Text- und Graphostilistik, der Sozialsemiotik, der Werbesprachforschung, der Schriftlinguistik, der Verständlichkeitsforschung, der Metalexikographie und der Historischen Linguistik) aufgegriffen, darüber hinaus wird es mittlerweile auch in Nachbardisziplinen wie der Literatur- und Editionswissenschaft verstärkt diskutiert. Dabei wurde gezeigt, dass paraskripturale Phänomene in mehrfacher Hinsicht (etwa als Aufmerksamkeits- und Lesesteuerungssignal, als Emblem oder als Kontextualisierungshinweis) kommunikativ relevant werden können.
Der Beitrag gibt erstens einen Einblick in dieses heterogene Feld linguistischer Forschung und versucht, die kommunikative Relevanz skripturaler Sichtbarkeit und damit auch die Relevanz des Gegenstandsbereichs für das Fach zu begründen. Zweitens diskutiert er mit Blick auf das Rahmenthema des vorliegenden Bandes die Frage, inwiefern sich (Inter-)Medialität und Visualität gegenseitig bedingen. Dabei soll weniger die kaum zu bestreitende These im Mittelpunkt stehen, dass sich die Medialität des Kommunikats in deren visueller Gestaltung niederschlägt (bzw. den Gestaltungsrahmen vorgibt), sondern es soll umgekehrt vor allem danach gefragt werden, ob und inwiefern Medialität durch (typo-)grafische Variation mitkonstruiert wird, inwiefern die Medialität also selbst das Produkt sozial verankerter kommunikativer Praktiken wie der Textgestaltung ist.
Wie wirkt sich die je spezifische Materialität von Sprache auf die Gestalt unserer Zeichen und damit auf die Bildung unserer Vorstellungen aus? Das wird hier am Beispiel von Schrift im World Wide Web untersucht. Unter dem Einfluss technisierter Materialität, Medialität und Multimodalität bildet sich eine Schriftlichkeit aus, deren Erscheinungsform und Bedeutung aus dem semiotischen Zusammenspiel von Sehflächen-Design, Bild und Text erwächst. Vor dem Hintergrund einer medial gestützten Geschichte kommunikativer Abstraktion, in deren Verlauf Leib und Seele im Bewusstsein auseinander traten, und anhand charakteristischer Beispiele aus dem WWW werden Entstehungsbedingungen, Eigenschaften und Leistungen solch ,tertiärer Schriftlichkeit‘ erläutert.
Der Beitrag nimmt die verbreitete Annahme einer besonderen Überzeugungskraft von Bildern zum Anlass, nach dem Ort einer solchen medienspezifischen Wirkungsweise im Rahmen einer pragmatischen Linguistik zu fragen. In exemplarischen Analysen wird gezeigt, wie Fotografien in journalistischen Printmedien eingesetzt werden, um Bedeutungen, die ihnen durch die umstehenden Texte ‚zugeschrieben‘ und so stabilisiert werden, ein besonderes Maß an Plausibilität zu verleihen. Dieser intermediale Evidenzeffekt wird als Prägnanz bezeichnet. Zu seiner theoretischen Begründung wird der Peircesche Begriff der Ikonizität mit dem Konzept der ‚ikonischen Differenz‘ aus der phänomenologischen Bildtheorie Gottfried Boehms verbunden. Denn beide stellen heraus, dass die wahrnehmbaren Eigenschaften der Zeichenform ein notwendiges Komplement zu symbolischen Schematisierungen im Prozess der Sinnkonstitution bilden. Diese Verschränkung zwischen Ikonizität und Symbolizität prägt sowohl die Konstitution dessen, was ein gegenständliches Bild in seinen Teilen wiedererkennbar zeigt, als auch dessen, was es als Ganzes – durch die Anordnung von Elementen auf einer begrenzten Fläche – darstellt. Die sichtbare Form dieser Anordnung wird als Grundlage für das besondere Prägnanzpotenzial von Bildern in der Zusammenstellung mit Texten identifiziert. Gestützt auf Beispiele wird zwischen einer schematischen und ikonischen Variante der Prägnanz unterschieden und das methodische Vorgehen reflektiert. Die pragmatische ‚Effektivität‘ der wahrnehmbaren Zeichenform, die in den Varianten der Prägnanz fassbar wird, ist allerdings nicht auf die intermediale Konstellation von Text und Bild beschränkt, weswegen der Beitrag mit dem Ausblick auf eine linguistische Phänomenologie der Textgestalt schließt.
In den unterschiedlichsten disziplinären Kontexten der Kultur- und Medienwissenschaften findet in den beiden letzten Jahrzehnten der Befund große theoretische Aufmerksamkeit, dass Medien intermedial aufeinander Bezug nehmen (Bolter/Grusin 2001) und dass sie sich intramedial in rekursiven Schleifen auf sich selbst beziehen. Die kulturelle Semiosis wird – folgt man diesen Studien – auf einem Feld generiert, konserviert, gestört und fortgeschrieben, auf dem sich Kommunikation als semiologisches Spiel interagierender und miteinander verwobener Medien, als ein Ensemble von Praktiken „kultureller Rekonzeptualisierung“ (Manovich 2001) entfaltet. Der Beitrag vertritt die These, dass sich hinter der Vielfalt dieser kommunikativen Prozeduren in den Sprach-, Schrift- und Bildmedien, so unterschiedlich sie auch in medialer und ästhetischer Hinsicht sind, ein grundlegendes Verfahren der kulturellen Semiosis verbirgt, das sich als ein Verfahren transkriptiver Bezugnahme beschreiben lässt. Die Annahme, dass Transkription eine grundlegende Operation der kulturellen Semiosis, d.h. der Prozeduren kultureller (intra- und intermedialer) Rekonzeptualisierung, darstellt, soll anhand einiger epistemologischer und zeichentheoretischer Prinzipien erläutert und theoretisch verständlich gemacht werden.
Sprachliche Landschaften. Die Strukturierung des öffentlichen Raums durch die geschriebene Sprache
(2010)
Es gehört zu den Gemeinplätzen der Linguistik, dass gesprochene Sprache situationsgebunden, geschriebene Sprache aber zumindest tendenziell situationsgelöst sei und sich über Orte und Zeitpunkte hinweg transportieren lässt, ohne ihre Bedeutung wesentlich zu verändern. Eine große Menge von schriftlichen Zeichen ist allerdings genau durch das umgekehrte Phänomen gekennzeichnet: sie sind ortsstabil und in ihrer Bedeutung von ihrem lokalen Kontext abhängig. Die Schrift auf Schildern, Plakaten und anderen öffentlichen Zeichen ist eine spezifische Form von Sprache, die den gängigen Stereotypen von Schriftlichkeit widerspricht, weil sie „ding“- bzw. „ortsfest“ ist und funktional wie auch formal anderen Regelmäßigkeiten folgt als die meist betrachtete Schrift der Texte auf transportablen Trägern wie Buch, Zeitung, elektronischem Textdokument oder E-mail. Solche Funktionen von Schrift (wie Wegweisen, Orientierung geben, Erinnern und Appellieren, Zugehörigkeit Signalisieren) sind seit deren Erfindung relevant gewesen; erst in jüngster Zeit werden aber orts- und dingfesten Zeichen unter dem Begriff der linguistic landscapes ins Blickfeld der Linguistik gerückt und systematisch untersucht. Das Forschungsinteresse liegt vor allem in der Beantwortung der Frage, wie öffentliche Zeichen Sprach-Räume konstituieren, und zwar insbesondere monolinguale oder bilinguale Räume in mehrsprachigen Gesellschaften. Der folgende Beitrag geht aber nur nebenbei auf solche Sprach-Räume ein; sein primäres Interesse gilt der Art und Weise, wie öffentliche, orts- und dingfeste Zeichen überhaupt Raum konstituieren, d.h. wie wir semiotisch dicht organisierte Räume ,lesen‘, um uns in ihnen zu orientieren.
Web-Umgebungen wie virtuelle soziale Netzwerke und Videoportale sind von Tendenzen der Partizipation, Konvergenz und Multimedialität gekennzeichnet. Diese bedeuten eine Herausforderung für sprachanalytische Zugänge, die digitale Kommunikationsformen separat voneinander untersuchen und auf mikrolinguistische Phänomene bei nur geringer Beachtung ihrer komplexen soziomedialen Rahmenbedingungen abheben. Im Beitrag wird ein bildschirm-basierter Ansatz entworfen, der Web-Umgebungen als semiotische Räume begreift, die von Nutzern in ihren spezifischen soziokulturellen Umständen und vor der Folie technologischer Potenziale und Grenzen aufgefüllt und ausgestaltet werden. Sprache ist eine wesentliche, aber nicht die einzige Ressource dieses digitalen kommunikativen Handelns, und ihre Verwendung ist in der Spannung zwischen technologischer Vorprägung und situierter Medienaneignung zu untersuchen. Im Kern des Ansatzes liegt die Unterscheidung von zwei analytischen Dimensionen. Die erste unterscheidet vier Leistungen von Sprache in Web-Umgebungen: Organisation, Selbstdarstellung, Spektakel und Interaktion. Die zweite erfasst drei für Web 2.0 charakteristische Prozesse der Sprach- und Textgestaltung: Multimodalität, Intertextualität und Heteroglossie. Wie diese beiden Kategorienbündel eine Grundlage für weiterführende Fragestellungen bilden können, wird am Beispiel des Dialektgebrauchs auf einer Videoplattform diskutiert.
Consistency of reference structures is an important issue in lexicography and dictionary research, especially with respect to information on sense-related items. In this paper, the systematic challenges of this area (e.g. ‘non-reversed reference’, bidirectional linking being realised as unidirectional structures) will be outlined, and the problems which can be caused by these challenges for both lexicographers and dictionary users will be discussed. The paper also discusses how text-technological Solutions may help to provide Support for the consistency of sense-related pairings during the process of compiling a dictionary.
This study examines what kind of cues and constraints for discourse interpretation can be derived from the logical and generic document structure of complex texts by the example of scientific journal articles. We performed statistical analysis on a corpus of scientific articles annotated on different annotations layers within the framework of XML-based multi-layer annotation. We introduce different discourse segment types that constrain the textual domains in which to identify rhetorical relation spans, and we show how a canonical sequence of text type structure categories is derived from the corpus annotations. Finally, we demonstrate how and which text type structure categories assigned to complex discourse segments of the type “block” statistically constrain the occurrence of rhetorical relation types.
Dieser Band greift erstmals das Thema ‚Intermedialität‘, das seit einigen Jahren zu einem Leitbegriff der Kulturwissenschaften geworden ist, aus Sicht der Sprachwissenschaft auf. Er zeigt auf, wie tief medienspezifische Gegebenheiten und intermediale Bezüge die Gebrauchsformen von Sprache prägen. Sprache wird in den Beiträgen des Bandes als Spannungsphänomen theoretisiert, für das sowohl die Materialität seiner Erscheinungsformen wie seine medialen und kommunikativen Bezüge auf Nichtsprachliches konstitutiv sind. Zusammenhänge und Konkurrenzen, Eigenart und Austauschbarkeit dieser Formen und Bezüge werden in drei Themenkomplexen diskutiert:
- Die Materialität von Sprache als Stimme und Schrift
- Intermediale Relationen zwischen Text, Bild und Ton in Druckmedien, Film und Internet
- Multimodale und leibvermittelte Kommunikation im Raum.
Die Beiträge des Bandes führen grundlegend in die verschiedenen Facetten der Intermedialität von Sprache ein, diskutieren deren sprachtheoretische Implikationen und präsentieren neueste Forschungsergebnisse.
Computerlinguistik (die Verarbeitung von Sprache mit dem Computer) und Texttechnologie (die automatisierte Handhabung elektronischer Texte) haben im letzten Jahrzehnt unterschiedliche Richtungen eingeschlagen. Beide Disziplinen speisen sich jedoch aus der gleichen Quelle: der formalen Grammatik. Deshalb ist eine gemeinsame Darstellung sinnvoll. Der Bezug auf die gemeinsamen Grundlagen und die kontrastierende Gegenüberstellung einzelner Teilbereiche fördern das Verständnis der jeweils anderen Disziplin und eröffnen interessante Querbezüge. Erstmals wird die Verknüpfung von Computerlinguistik und Texttechnologie mit dieser Einführung in knapper Form systematisch vollzogen, was sie insbesodere für Module im Bachelor-Studium geeignet macht.
Knowledge in textual form is always presented as visually and hierarchically structured units of text, which is particularly true in the case of academic texts. One research hypothesis of the ongoing project Knowledge ordering in texts - text structure and structure visualisations as sources of natural ontologies1 is that the textual structure of academic texts effectively mirrors essential parts of the knowledge structure that is built up in the text. The structuring of a modern dissertation thesis (e.g. in the form of an automatically generated table of contents - toes), for example, represents a compromise between requirements of the text type and the methodological and conceptual structure of its subject-matter. The aim of the project is to examine how visual-hierarchical structuring systems are constructed, how knowledge structures are encoded in them, and how they can be exploited to automatically derive ontological knowledge for navigation, archiving, or search tasks. The idea to extract domain concepts and semantic relations mainly from the structural and linguistic information gathered from tables of contents represents a novel approach to ontology learning.
Präsentationstechnologien bedingen Konvergenzprozesse verschiedener Kommunikationsmodi. In wissenschaftlichen Präsentationen werden unterschiedliche kommunikative Elemente (unter anderem Text, Bild und redebegleitende Gesten) miteinander verbunden, wodurch eine komplexe, mehrdimensionale Form der Multimodalität entsteht Die multimodale Struktur von Präsentationen kann durch eine neuartige Betrachtungsweise mit linguistischem Instrumentarium beschrieben und analysiert werden. Die Grundlage eines solchen linguistischen Ansatzes bildet die Annahme, dass Präsentationen als komplexe, multimodale Texte verstanden werden können. Der Beitrag zeigt, wie auf Basis dieser Annahme die Funktionsweise wissenschaftlicher Präsentationen theoretisch modelliert werden kann.
„An den Ufern der Havel lebte, um die Mitte des sechzehnten Jahrhunderts, ein Roßhändler, namens Michael Kohlhaas, Sohn eines Schulmeisters, einer der rechtschaffensten zugleich und entsetzlichsten Menschen seiner Zeit.“
So beginnt einer der besten Meister der deutschen Syntax Heinrich von Kleist vor zweihundert Jahren seine berühmte Novelle „Michael Kohlhaas“, die ihren Ursprung nach Angaben des Autors in einer alten Chronik aus dem 16. Jh. hat. Dieser Satz besteht aus dem zweiwertigen Verb „leben“ und drei Satzgliedern: Lokalbestimmung „An den Ufern der Havel“, Temporalbestimmung „um die Mitte des sechzehnten Jahrhunderts“ und Subjekt „ein Roßhändler, namens Michael Kohlhaas, Sohn eines Schulmeisters, einer der rechtschaffensten zugleich und entsetzlichsten Menschen seiner Zeit“. Da der Autor über ein Ereignis aus der Vergangenheit berichtet, nennt er, wie heute in der Zeitung üblich, gleich am Anfang den Ort, den Zeitpunkt und den Hauptakteur des Geschehens. Wir erfahren, dass der Hauptakteur „ein Roßhändler, namens Michael Kohlhaas“ ist und dazu noch einige Informationen aus seiner Biografie, mit denen bei den Lesern das Interesse an der Novelle erweckt werden sollte: „einer der rechtschaffensten zugleich und entsetzlichsten Menschen seiner Zeit“. Dass der „Roßhändler“ „Michael Kohlhaas“ heißt, wissen wir aufgrund der Bedeutung des Wörtchens namens, das diese zwei Nominalphrasen verbindet (oder auch trennt). Und um dieses Wörtchen geht es in diesem Text.
The possibility to search electronically very large corpora of texts has opened up ways in which we can truly evaluate the rules through which grammarians have tried and continue to try to simulate natural languages. However, the possibility to handle incredibly large amounts of texts might lead to problems with the assessment of certain phenomena that are hardly ever represented in those corpora and yet, have always been regarded as grammatically correct elements of a given language. In German, typical phenomena of this kind are forms like betrögest or erwögest, i.e. second person singular of the so-called strong verbs in the subjunctive mood. Should we see them merely as grammarians’ inventions? Before doing so, we should reconsider the nature of these phenomena. They may appear to be isolated word forms but, in fact, are compact realizations of syntactic constructions, and it is the frequency of these constructions that should be evaluated, not the frequency of their specific realizations.
Der Beitrag beschäftigt sich aus einer linguistisch-gesprächsanalytischen Sicht mit einem in Beratungsgesprächen und verwandten Formen helfender Interaktionen strukturell verankerten Interaktionsproblem. Es geht um sprachlich-interaktive Verfahren der Überwindung von Perspektivendivergenzen zwischen Ratgebern und Ratsuchenden. Anhand eines Beispielfalles soll analysiert werden, wie in der Phase der Sondierung und Entwicklung einer Problemsicht durch die professionelle Beraterin bei ihrer Adressatin Widerstand gegen eine Perspektivenübernahme deutlich wird, den die Beraterin wiederum mit manifester Perspektivenarbeit zu überwinden versucht. Es gelingt ihr, mit relativ eindringlichen Mitteln die Ratsuchende dazu zu bringen, sich zumindest situativ auf die suggestiv und nachdrücklich angebotene Perspektive einzulassen. Kernstück dieses Vorgehens der Beraterin ist das Einführen und Durchspielen eines in der Erlebniswelt der Ratsuchenden verankerten kritischen Szenarios. Dabei agiert die Beraterin zunächst selber in der Rolle der Ratsuchenden, lässt dann diese fortsetzen und gibt ihr eine Fokussierung des „wunden Punkts“ vor. Dieser Vorgang ist aufschlussreich für Perspektivenarbeit im Gespräch und liefert wichtige Beobachtungen für eine Typologie von Perspektivierungsverfahren.
Der Beitrag gibt einen Überblick über die Entwicklung und die Aufgaben des Fachverbandes Deutsch als Fremdsprache (FaDaF) seit seiner Gründung 1989/90. Er zeigt dabei die Entwicklungslinien des Verbandes auf, der als Nachfolge-Organisation des Arbeitskreises Deutsch als Fremdsprache beim DAAD (AkDaF) dessen Aufgaben übernommen, fortgeführt und weiter entwickelt hat.
We present a method and a software tool, the FrameNet Transformer, for deriving customized versions of the FrameNet database based on frame and frame element relations. The FrameNet Transformer allows users to iteratively coarsen the FrameNet sense inventory in two ways. First, the tool can merge entire frames that are related by user-specified relations. Second, it can merge word senses that belong to frames related by specified relations. Both methods can be interleaved. The Transformer automatically outputs format-compliant FrameNet versions, including modified corpus annotation files that can be used for automatic processing. The customized FrameNet versions can be used to determine which granularity is suitable for particular applications. In our evaluation of the tool, we show that our method increases accuracy of statistical semantic parsers by reducing the number of word-senses (frames) per lemma, and increasing the number of annotated sentences per lexical unit and frame. We further show in an experiment on the FATE corpus that by coarsening FrameNet we do not incur a significant loss of information that is relevant to the Recognizing Textual Entailment task.
We describe the SemEval-2010 shared task on “Linking Events and Their Participants in Discourse”. This task is an extension to the classical semantic role labeling task. While semantic role labeling is traditionally viewed as a sentence-internal task, local semantic argument structures clearly interact with each other in a larger context, e.g., by sharing references to specific discourse entities or events. In the shared task we looked at one particular aspect of cross-sentence links between argument structures, namely linking locally uninstantiated roles to their co-referents in the wider discourse context (if such co-referents exist). This task is potentially beneficial for a number of NLP applications, such as information extraction, question answering or text summarization.
Neben kurzen Bestandsaufnahmen vom Status der Prosodie in Grammatiken und in DaF-Didaktiken und -Lehrwerken wird Prosodie näher bestimmt und ihre wichtigsten Eigenschaften und Funktionen in Wort, Ausspruch und Gespräch beschrieben. Im Weiteren wird vor allem die bedeutungsgestaltende Funktion der Prosodie herausgearbeitet. Aus phonologischer Sicht sehen wir die Informationsstruktur als zentral für die Vermittlung der Prosodie an. Anhand von Akzentgruppe und Intonationsphrase wird ihre Rolle bei der rhythmischen Gliederung von Aussprüchen vorgestellt. Als weiteres Beispiel für die kommunikative Funktion von Prosodie wird ihre Rolle beim Ausdruck von Emotion behandelt.
In the paper we investigate the impact of data size on a Word Sense Disambiguation task (WSD). We question the assumption that the knowledge acquisition bottleneck, which is known as one of the major challenges for WSD, can be solved by simply obtaining more and more training data. Our case study on 1,000 manually annotated instances of the German verb drohen (threaten) shows that the best performance is not obtained when training on the full data set, but by carefully selecting new training instances with regard to their informativeness for the learning process (Active Learning). We present a thorough evaluation of the impact of different sampling methods on the data sets and propose an improved method for uncertainty sampling which dynamically adapts the selection of new instances to the learning progress of the classifier, resulting in more robust results during the initial stages of learning. A qualitative error analysis identifies problems for automatic WSD and discusses the reasons for the great gap in performance between human annotators and our automatic WSD system.
Within cognitive linguistics, there is an increasing awareness that the study of linguistic phenomena needs to be grounded in usage. Ideally, research in cognitive linguistics should be based on authentic language use, its results should be replicable, and its claims falsifiable. Consequently, more and more studies now turn to corpora as a source of data. While corpus-based methodologies have increased in sophistication, the use of corpus data is also associated with a number of unresolved problems. The study of cognition through off-line linguistic data is, arguably, indirect, even if such data fulfils desirable qualities such as being natural, representative and plentiful. Several topics in this context stand out as particularly pressing issues. This discussion note addresses (1) converging evidence from corpora and experimentation, (2) whether corpora mirror psychological reality, (3) the theoretical value of corpus linguistic studies of ‘alternations’, (4) the relation of corpus linguistics and grammaticality judgments, and, lastly, (5) the nature of explanations in cognitive corpus linguistics. We do not claim to resolve these issues nor to cover all possible angles; instead, we strongly encourage reactions and further discussion.
How (and when) do speakers generalise from memorised exemplars of a construction to a productive schema? The present paper presents a novel take on this issue by offering a corpus-based approach to semantic extension processes. Focusing on clusters of German ADJ N expressions involving the heavily polysemous adjective tief ‚deep’, it is shown that type frequency (a commonly used measure of productivity) needs to be relativised to distinct semantic classes within the overall usage spectrum of a given construction in order to predict the occurrence of novel types within a particular region of this spectrum. Some methodological and theoretical implications for usage-based linguistic model building are considered.
Taking a usage-based perspective, lexical-semantic relations and other aspects of lexical meaning are characterised as emerging from language use. At the same time, they shape language use and therefore become manifest in corpus data. This paper discusses how this mutual influence can be taken into account in the study of these relations. An empirically driven methodology is proposed that is, as an initial step, based on self-organising clustering of comprehensive collocation profiles. Several examples demonstrate how this methodology may guide linguists in explicating implicit knowledge of complex semantic structures. Although these example analyses are conducted for written German, the overall methodology is language-independent.
Connectives are conjunctions, prepositions, adverbs and other particles which share the function of encoding semantic relations between sentences, or rather, between semantic objects some of which can be meanings of sentences. The relata linked by any such relation will fall into one of four distinct categories: they will be physical objects, states of affairs, propositions, or pragmatic options (the atoms of human interaction). Physical objects constitute the conceptual domain of space, states of affairs the domain of time, propositions the epistemic domain, and pragmatic options the deontic domain. The relations encodable in any of these domains can be divided into four basic types: similarity relations, situating relations, conditional relations, and causal relations. Conceptual domains and types of relations define the universe of possible connections between semantic objects.
Connectives differ as to the interpretations they permit in terms of conceptual domains and types of relations. Very few connectives are specialized on relata of one certain category and relations of one certain type. Possible examples in German are später (‘later on’) and zwischenzeitlich (‘in the meantime’), which encode situating relations between states of affairs. Other connectives are specialized on relata of one certain category, but are underspecified with respect to the type of relation. An example is German sobald (‘as soon as’), which can only connect states of affairs, but accepts situating, conditional and causal readings. Connectives of a third group are specialized on relations of a certain type, but are underspecified with respect to the category of the relata. Examples of this kind are German weil (‘because’) and trotzdem (‘nevertheless’), which encode causal relations, but accept states of affairs, propositions and pragmatic options as their relata. Connectives of a fourth group are underspecified both for the category of relata and the type of relation. An example is German da (‘there’), which accepts relata of any category and allows for situating, conditional and causal readings. Connectives like und (‘and’) and oder (‘or’) exhibit an even higher degree of under specification, in that they allow for all kinds of relations and relata.
For languages with (semi-) free word order (such as German), labelling grammatical functions on top of phrase-structural constituent analyses is crucial for making them interpretable. Unfortunately, most statistical classifiers consider only local information for function labelling and fail to capture important restrictions on the distribution of core argument functions such as subject, object etc., namely that there is at most one subject (etc.) per clause. We augment a statistical classifier with an integer linear program imposing hard linguistic constraints on the solution space output by the classifier, capturing global distributional restrictions. We show that this improves labelling quality, in particular for argument grammatical functions, in an intrinsic evaluation, and, importantly, grammar coverage for treebankbased (Lexical-Functional) grammar acquisition and parsing, in an extrinsic evaluation.
Abertura/Opening
(2010)
This paper discusses work on the sustainability of linguistic resources as it was conducted in various projects, including the work of a three year project Sustainability of Linguistic Resources which finished in December 2008, a follow-up project, Sustainable linguistic data, and initiatives related to the work of the International Organization of Standardization (ISO) on developing standards for linguistic resources. The individual projects have been conducted at German collaborative research centres at the Universities of Potsdam, Hamburg and Tübingen, where the sustainability work was coordinated.
In previous research we showed that the priming paradigm can be used to significantly alter the prominence ratings of subjects. In that study we only looked at the changes in the subjects’ ratings. In the present study, we analyzed the acoustic parameters of the stimuli used in the priming study and investigated the correlation between prominence ratings and acoustic parameters. The results show that priming has a significant effect on these correlations. The contribution of acoustic features on perceived prominence was found to depend on the prominence pattern. If a dominantly prominent syllable is present in a given utterance, f0 and intensity contribute most to the perceived prominence, while duration contributes most when no syllable is dominantly prominent.
This paper describes work directed towards the development of a syllable prominence-based prosody generation functionality for a German unit selection speech synthesis system. A general concept for syllable prominence-based prosody generation in unit selection synthesis is proposed. As a first step towards its implementation, an automated syllable prominence annotation procedure based on acoustic analyses has been performed on the BOSS speech corpus. The prominence labeling has been evaluated against an existing annotation of lexical stress levels and manual prominence labeling on a subset of the corpus. We discuss methods and results and give an outlook on further implementation steps.
This paper provides a new generation of a markup language by introducing the Freestyle Markup Language (FML). Demands placed on the language are elaborated, considering current standards and discussions. Conception, a grammatical definition, a corresponding object graph and the bi-directional unambiguous transformation between these two congruent representation forms are set up. The result of this paper is a fundamental definition of a completely new markup language, consolidating many deficiency-discourses and experiences into one particular implementation concept, encouraging the evolution of markup.
Das kontrastive Verbvalenzwörterbuch Spanisch - Deutsch (Diccionario contrastivo de valencias verbales español - alemán DCVVEA) liefert eine Beschreibung der kombinatorischen Möglichkeiten von über hundert hochfrequenten Verben des Spanischen und ihrer deutschen Äquivalente und macht präzise Angaben zu ihren semantischen und syntagmatischen Eigenschaften. Die Abgrenzung von Bedeutungsvarianten für die polysemen spanischen Lemmata geht zum einen von vorliegenden lexikographische Beschreibungen aus, die an die Zielsetzungen des DCVVEA angepasst wurden, und stützt sich zum anderen auf das empirische Datenmaterial, das die syntaktische Datenbank Base de datos sintácticos del español actual (BDS) zur Verfügung stellt. Die BDS wurde von WissenschaftlerInnen der USC unter der Leitung von Guillermo Rojo erstellt und enthält die Ergebnisse der syntaktischen Analyse von etwa 160.000 Sätzen aus einem Textkorpus der spanischen Gegenwartssprache, ARTHUS (Archivo de textos hispánicos de la Universidad de Santiago de Compostela).
Das DCVVEA ist ein syntagmatisches Wörterbuch mit alphabetischer Struktur und Spanisch als Metasprache. Die Einträge beziehen sich auf die einzelnen Bedeutungsvarianten eines spanischen Verbs und werden mit authentischen Beispielen belegt. Den spanischen Verbvarianten werden deutsche Verben zugeordnet, die zu ihnen in einer vollständigen oder partiellen Äquivalenzrelation stehen. Die Ermittlung dieser Äquivalente stützt sich auf die Übersetzung der Korpusbeispiele. Die Valenzbeschreibung der spanischen und der deutschen Verbvarianten enthält funktionale, kategoriale und semantische Angaben zu den einzelnen Verbaktanten und explizite Hinweise auf kontrastiv relevante Unterschiede zwischen den Einheiten beider Sprachen.
Moderm European Science and culture evolved in the process of emancipation of various national languages from medieval Latin. At present, this development from monolingualism to multilingualism seems to be reversed in several scientific disciplines and in higher education. The former linguistic diversity turns gradually into a modern monolingualism of scientific English, especially in the natural and some social sciences. A short-term consequence is that researchers and Professors with other first languages need extra time and sometimes money to prepare their publications and lectures in English. Long-term consequences are, among others, that all languages exept English are devaluated as media of science and learning and, thus, a diglossia might develop if only English be used for the important domains and other languages be limited to the domains of private communication and folklore. The way out can only be through a cultivation of at least bilingualism of researchers, Professors, and their students in the natural sciences and trilingualism in social sciences and the humanities.
This study investigated whether an analysis of narrative style (word use and cross-clausal syntax) of patients with symptoms of generalised anxiety and depression disorders can help predict the likelihood of successful participation in guided self-help. Texts by 97 people who had made contact with a primary care mental health service were analysed. Outcome measures were completion of the guided self-help programme, and change in symptoms assessed by a standardised scale (CORE-OM). Regression analyses indicated that some aspects of participants' syntax helped to predict completion of the programme, and that aspects of syntax and word use helped to predict improvement of symptoms. Participants using non-finite complement clauses with above-average frequency were four times more likely to complete the programme (95% confidence interval 1.4 to 11.7) than other participants. Among those who completed, the use of causation words and complex syntax (adverbial clauses) predicted improvement, accounting for 50% of the variation in well-being benefit. These results suggest that the analysis of narrative style can provide useful information for assessing the likelihood of success of individuals participating in a mental health guided self-help programme.
In 1959, Lucien Tesnière wrote his main work Éléments de syntaxe structurale. While the impact on theoretical linguistics was not very strong at first, 50 years later there exist a variety of linguistic theories based on Tesnière's work. In computational linguistics, as in theoretical linguistics, dependency grammar was not very influential at first. The last 10–15 years, however, have brought a noticeable change and dependency grammar has found its way into computational linguistics. Syntactically annotated corpora based on dependency representations are available for a variety of languages, as well as statistical parsers which give a syntactic analysis of running text describing the underlying dependency relations between word tokens in the text. This article gives an overview of relevant areas of computational linguistics which have been influenced by dependency grammar. It discusses the pros and cons of different types of syntactic representation used in natural language processing and their suitability as representations of meaning. Finally, an attempt is made to give an outlook on the future impact of dependency grammar on computational linguistics.
Historical cabinet protocols are a useful resource which enable historians to identify the opinions expressed by politicians on different subjects and at different points of time. While cabinet protocols are often available in digitized form, so far the only method to access their information content is by keyword-based search, which often returns sub-optimal results. We present a method for enriching German cabinet protocols with information about the originators of statements. This requires automatic speaker attribution. In order to avoid costly manual annotation of training data, we design a rule-based system which exploits morpho-syntactic cues. Unlike many other approaches, our method can also deal with cases in which the speaker is not explicitly identified in the sentence itself. This is an important capability as 45% of all sentences in the data constitute reported speech whose speakers are not explicitly marked. Our system is able to detect implicit speakers by taking into account signals of speaker continuity. We show that such a system obtains good results, especially with respect to recall which is particularly important for information access.
Active learning has been applied to different NLP tasks, with the aim of limiting the amount of time and cost for human annotation. Most studies on active learning have only simulated the annotation scenario, using prelabelled gold standard data. We present the first active learning experiment for Word Sense Disambiguation with human annotators in a realistic environment, using fine-grained sense distinctions, and investigate whether AL can reduce annotation cost and boost classifier performance when applied to a real-world task.
Aktuelle Regionalsprachforschung zum Deutschen. Das IDS-Projekt Variation des gesprochenen Deutsch
(2010)
This paper shows how corpora and related tools can be used to analyse and present significant colligational patterns lexicographically. In German, patterns such as das nötige Wissen vermitteln and sein Wissen unter Beweis stellen play a vital role when learning the language, as they exhibit relevant idiomatic usage and lexical and syntactic rules of combination. Each item has specific semantic and grammatical functions and particular preferences with respect to position and distribution. An analysis of adjectives, for example, identifies preferences in adverbial, attributive, or predicative functions.
Traditionally, corpus analyses of syntagmatic constructions have not been conducted for lexicographic purposes. This paper shows how to utilise corpora to extract and examine typical syntagms and how the results of such an analysis are documented systematically in ELEXIKO, a large-scale corpus-based Internet reference work of German. It also demonstrates how this dictionary accounts for the lexical and grammatical interplay between units in a syntagm and how authentic corpus material and complementary prose-style usage notes are a useful guide to text production or reception.
Der Beitrag stellt Arbeiten des Projekts Usuelle Wortverbindungen am Institut für Deutsche Sprache (IDS) in Mannheim vor. Im Mittelpunkt stehen dabei neue Perspektiven, die sich für die elektronische Phraseographie aus der korpusanalytischen Auswertung sprachlicher Massendaten ergeben. Eine wichtige Methode ist die statistische Kookkurrenzanalyse, die u.a. dazu dient, feste Wortverbindungen zu extrahieren und typische Kontexte vorzustrukturieren. Auf dieser Basis lässt sich der tatsächliche Gebrauch fester Wortverbindungen in einer quantitativ und qualitativ neuen Dimension erfassen und lexikografisch beschreiben. Die heutigen technologischen Möglichkeiten können des Weiteren für neue und differenziertere Präsentationsformen angepasst an unterschiedliche Rezeptionsbedürfnisse genutzt werden. Das UWV-Projekt beschreitet auch im Bereich der Internet-Lexikografie neue Wege, was anhand ausgewählter Beispiele gezeigt wird.