Refine
Year of publication
- 2010 (84) (remove)
Document Type
- Part of a Book (42)
- Article (19)
- Conference Proceeding (19)
- Book (1)
- Doctoral Thesis (1)
- Other (1)
- Working Paper (1)
Is part of the Bibliography
- no (84)
Keywords
- Deutsch (30)
- Korpus <Linguistik> (12)
- Computerlinguistik (6)
- Computerunterstützte Lexikographie (6)
- Konversationsanalyse (5)
- Interaktionsanalyse (4)
- Intermedialität (4)
- Lexikographie (4)
- Annotation (3)
- Automatische Sprachanalyse (3)
Publicationstate
- Veröffentlichungsversion (84) (remove)
Reviewstate
Publisher
- de Gruyter (21)
- European Language Resources Association (5)
- Lang (4)
- Association for Computational Linguistics (3)
- Narr (3)
- University of Liverpool (3)
- Winter (3)
- Institut für Deutsche Sprache (2)
- Presses Universitaires (2)
- Saxa (2)
Positioning analysis, a variant of discourse analysis, was used to explore the narratives of 40 psychiatric patients (11 females and 29 males; mean age = 40 years) who had manifest difficulties with engagement with statutory mental health services. Positioning analysis is a qualitative method that captures how people linguistically position the roles and identities of themselves and others in their day-to-day lives and narratives. The language of disengagement incorporated the passive positioning of self in relation to their lives and treatment through the use of metaphor, the passive voice and them and us attribution, while the discourse of engagement incorporated more active positioning of self, achieved through the use of the personal pronoun we and metaphoric references to balanced relationships. The findings corroborate previous thematic analysis that highlighted the importance of identity and agency in the ‘making or breaking’ of therapeutic relationships (Priebe et al. 2005). Implications are discussed in relation to how positioning analysis may help signal and emphasize important life and therapeutic experiences in spoken narratives as well as clinical consultations.
Connectives are conjunctions, prepositions, adverbs and other particles which share the function of encoding semantic relations between sentences, or rather, between semantic objects some of which can be meanings of sentences. The relata linked by any such relation will fall into one of four distinct categories: they will be physical objects, states of affairs, propositions, or pragmatic options (the atoms of human interaction). Physical objects constitute the conceptual domain of space, states of affairs the domain of time, propositions the epistemic domain, and pragmatic options the deontic domain. The relations encodable in any of these domains can be divided into four basic types: similarity relations, situating relations, conditional relations, and causal relations. Conceptual domains and types of relations define the universe of possible connections between semantic objects.
Connectives differ as to the interpretations they permit in terms of conceptual domains and types of relations. Very few connectives are specialized on relata of one certain category and relations of one certain type. Possible examples in German are später (‘later on’) and zwischenzeitlich (‘in the meantime’), which encode situating relations between states of affairs. Other connectives are specialized on relata of one certain category, but are underspecified with respect to the type of relation. An example is German sobald (‘as soon as’), which can only connect states of affairs, but accepts situating, conditional and causal readings. Connectives of a third group are specialized on relations of a certain type, but are underspecified with respect to the category of the relata. Examples of this kind are German weil (‘because’) and trotzdem (‘nevertheless’), which encode causal relations, but accept states of affairs, propositions and pragmatic options as their relata. Connectives of a fourth group are underspecified both for the category of relata and the type of relation. An example is German da (‘there’), which accepts relata of any category and allows for situating, conditional and causal readings. Connectives like und (‘and’) and oder (‘or’) exhibit an even higher degree of under specification, in that they allow for all kinds of relations and relata.
This paper presents a survey on the role of negation in sentiment analysis. Negation is a very common linguistic construction that affects polarity and, therefore, needs to be taken into consideration in sentiment analysis.
We will present various computational approaches modeling negation in sentiment analysis. We will, in particular, focus on aspects such as level of representation used for sentiment analysis, negation word detection and scope of negation. We will also discuss limits and challenges of negation modeling on that task.
Abertura/Opening
(2010)
Aktuelle Regionalsprachforschung zum Deutschen. Das IDS-Projekt Variation des gesprochenen Deutsch
(2010)
Altern ist eine Aufgabe, die von allen Menschen - durchaus auf unterschiedliche Weise - zu bewältigen ist und an der sie aktiv teilhaben. Altern ist demnach nicht etwas, was Personen nur passiert bzw. widerfährt, sondern es erfolgt in einem sozialen Prozess, in dem sich die Beteiligten mit dem Altern auseinandersetzen und es interaktiv gestalten. Altern impliziert so als Aufgabe auch die Reflexion der lebensgeschichtlich eintretenden Veränderungen und ihre interaktive und kommunikative Be- und Verarbeitung. In der kommunikativen Bewältigung dieser Veränderungen wird zugleich Identitätsarbeit geleistet und werden Aspekte von Altersidentität ausgebildet. Dabei spielt die Auseinandersetzung mit Identitätsmerkmalen der mittleren Generation eine zentrale Rolle. Der Beitrag modelliert diese Wechselwirkungen zwischen Altern, Kommunikation und Identitätsarbeit.
Bestimmte adsubstantivisch verwendete Demonstrativa verfügen – über die deiktische und phorische hinaus – über eine so genannte anamnestische Gebrauchsweise. Diese Verwendung wird in der Literatur häufig vernachlässigt, obwohl sie nach mehreren Autoren (z.B. Diessel, Himmelmann) den Ausgangspunkt der Grammatikalisierung der Demonstrativa bildet. Im vorliegenden Aufsatz wird einerseits nachgeprüft, ob und inwieweit die in der einschlägigen Literatur beschriebenen allgemeinen Charakteristika der anamnestischen Demonstrativa für das Deutsche und das Ungarische zutreffen. Andererseits werden auch die Eigenschaften der indefiniten Gegenstücke der anamnestischen Demonstrativa in beiden Vergleichssprachen anhand von Korpusbeispielen untersucht. Zum Schluss wird auch auf die möglichen Grammatikalisierungswege der Demonstrativa eingegangen.
Im Kontext von Notfalleinsätzen (z.B. der Feuerwehr) müssen vielfältige raumbezogene Kommunikationsaufgaben bearbeitet werden. Bei der Verständigung zum Zweck kollektiver Orientierung und Navigation greifen die Beteiligten auf ein Ensemble technischer Medien zurück: Über etablierte Ressourcen – wie Funkgeräte und Mobiltelefone, Karten und Lagepläne, Kreide und Tafeln – hinaus werden heute in Übungs- und Schulungskontexten neuartige Steuerungs-, Lokalisierungs- und Referenzierungshilfen auf der Basis elektronischer Geräte und Computernetze erprobt. Derartige Medien können hilfreich sein, wenn es um die sprachliche Artikulierbarkeit und die technische Visualisierung, Speicherung und Übermittlung von raumbezogener Bedeutung über raumzeitliche Distanzen hinweg geht. Gleichwohl treten in derart komplexen medialen Konstellationen unvermeidlich technisch-kommunikative Störungen auf, die ihrerseits durch die Beteiligten „in situ“ sprachlich artikuliert und bearbeitet werden müssen. In solchen Störungsfällen werden Medialität und Intermedialität – als im Regelfall transparente Kommunikationsgrundlagen – interaktiv relevant und zum Thema der Kommunikation: Aus einem „Looking through“ wird ein semantisiertes „Looking at“ (Ludwig Jäger). Anhand audiovisueller Daten, die im Kontext von Notfallübungen erhoben wurden, wird ein Forschungsansatz vorgestellt, der darauf zielt, den Status sprachlicher Artikulationsarbeit für eine technisierte Interaktion im Rahmen kollektiver Ortserkundung und Navigation zu spezifizieren. Unter dem Aspekt der Anwendung wird auch die Frage erörtert, welche Relevanz derartigen Erkenntnissen für die Gestaltung medientechnischer Ressourcen für kritische Situationen zukommt.
This paper describes work directed towards the development of a syllable prominence-based prosody generation functionality for a German unit selection speech synthesis system. A general concept for syllable prominence-based prosody generation in unit selection synthesis is proposed. As a first step towards its implementation, an automated syllable prominence annotation procedure based on acoustic analyses has been performed on the BOSS speech corpus. The prominence labeling has been evaluated against an existing annotation of lexical stress levels and manual prominence labeling on a subset of the corpus. We discuss methods and results and give an outlook on further implementation steps.
Nach einem kurzen Überblick über die heutige sprachökologische Situation in Lettland möchte ich dabei auf die Rolle der deutschen Sprache in verschiedenen Bereichen der lettischen Gesellschaft eingehen. Komplettiert wird der Überblick über die deutsche Sprache im heutigen Lettland durch einige Überlegungen zu Maßnahmen, die die Situation zugunsten des Deutschen ändern könnten.
Als eine wichtige Form der intermedialen Einbindung von Sprache wird technisch kombinierte („sekundäre“) Audiovisualität beschrieben, wie sie prototypisch im Fernsehen vorkommt. Nach allgemeinen Strukturen von sekundärer Audiovisualität wird der Begriff der Transkriptivität (nach Jäger) kurz dargestellt: das „Anders- Lesbar-Machen“ von Zeichen im gleichen oder einem anderen Zeichensystem. Danach werden zwei Spielarten von Fernsehaudiovisualität behandelt: Nachrichtenfilme als Zusammenspiel von Sprechertext mit vorgefertigten Bildsequenzen, nach bestimmten Mustern von wechselseitiger Transkription, die Anforderungen der Darstellbarkeit und Glaubwürdigkeit genügen sollen. In Polit-Talkshows werden die Sprecherbeiträge von Kamerainszenierungen mit drei Funktionen transkribiert: (a) Abwechslung und Gliederung, (b) Sprecherprofilierung und (c) Profilierung von Beteiligungsrollen anderer Teilnehmer.
Der Musikclip gehört seit den 1980er Jahren zum Forschungsbereich diverser Disziplinen und gilt Vielen als intermediales Phänomen schlechthin. Als problematisch erweist sich allerdings nach wie vor, dass das klangliche Material des Clips, populäre Musik, eine Herausforderung nicht nur für die Musikwissenschaften darstellt – greifbar wird dies mit Blick auf die anhaltenden Diskussionen um einen adäquaten Begriff der populären Musik. Darüber hinaus gilt Musik allgemein als ‚Sonderfall‘ für den Bereich der Medien-, Sprach- und Kulturwissenschaften, da an ihr weder rein medienästhetische noch kommunikations- und informationstheoretische Begriffe in ausreichender Weise greifen. Die Entwicklung eines transdisziplinär nachvollziehbaren Objektverständnisses des Musikclips bleibt daher desiderabel.
Der Beitrag zum Thema „Bild-Text-Ton-Analysen“ resultiert aus einer intensivierten Begegnung von Medienwissenschaft und Musikwissenschaft. Im Artikel wird die Konstitution von Bedeutung im intermedialen Zusammenspiel von Sprache/Text, Stimme und Musik fokussiert. Dies geschieht auf Grundlage einer näheren Bestimmung der Analysekriterien, die im Hinblick auf den speziellen Fall des popmusikalischen Umgangs mit Sprache erforderlich sind. Ziel ist es, die Bedeutungssedimente von vokaler Performanz im Kontext von populärer Musik offenzulegen. Für die Betrachtung des Musikclips ist dies ein wesentlicher Zwischenschritt. Anhand der Darstellung der klanglich-materiellen Vorprägungen gilt es, die Möglichkeitsbedingungen der (nachträglichen) intermedialen Transformation von Sprache auf die Bildebene auszuloten. In finaler Wendung ist es dann möglich, das inter- bzw. plurimediale Amalgam von Text-Stimme-Musik als Generator von Bedeutungsüberschüssen einzufassen.
Bootstrapping Supervised Machine-learning Polarity Classifiers with Rule-based Classification
(2010)
In this paper, we explore the effectiveness of bootstrapping supervised machine-learning polarity classifiers using the output of domain-independent rule-based classifiers. The benefit of this method is that no labeled training data are required. Still, this method allows to capture in-domain knowledge by training the supervised classifier on in-domain features, such as bag of words.
We investigate how important the quality of the rule-based classifier is and what features are useful for the supervised classifier. The former addresses the issue in how far relevant constructions for polarity classification, such as word sense disambiguation, negation modeling, or intensification, are important for this self-training approach. We not only compare how this method relates to conventional semi-supervised learning but also examine how it performs under more difficult settings in which classes are not balanced and mixed reviews are included in the dataset.
Active learning has been applied to different NLP tasks, with the aim of limiting the amount of time and cost for human annotation. Most studies on active learning have only simulated the annotation scenario, using prelabelled gold standard data. We present the first active learning experiment for Word Sense Disambiguation with human annotators in a realistic environment, using fine-grained sense distinctions, and investigate whether AL can reduce annotation cost and boost classifier performance when applied to a real-world task.
This paper describes the application of probabilistic part of speech taggers to the Dzongkha language. A tag set containing 66 tags is designed, which is based on the Penn Treebank. A training corpus of 40,247 tokens is utilized to train the model. Using the lexicon extracted from the training corpus and lexicon from the available word list, we used two statistical taggers for comparison reasons. The best result achieved was 93.1% accuracy in a 10-fold cross validation on the training set. The winning tagger was thereafter applied to annotate a 570,247 token corpus.
Eine der linguistischen Teildisziplinen, in der schon seit vielen Jahren korpusgestützt gearbeitet wird, ist die Lexikografie. Wörterbücher sind lange vor der Entstehung großer elektronischer Textsammlungen mit den entsprechenden Korpusrecherche- und -analysewerkzeugen auf der Basis von umfänglichen Belegsammlungen entstanden, die nach dem Verständnis vieler Lexikografen das Korpus (bzw. die Primärquelle) des Wörterbuches darstellen. Noch heute arbeiten verschiedene Großwörterbücher (z. B. das Oxford English Dictionary) am Ausbau ihrer Belegsammlungen und benutzen diese neben zum Teil eigens aufgebauten elektronischen Wörterbuchkorpora im engeren Sinn. Welche Chancen und Probleme sich bei korpusgestützter Arbeit an Wörterbücher ergeben, wird in diesem Beitrag an deutschsprachigen Online-Wörterbüchern aufgezeigt, wobei zunächst einige Definitionen erarbeitet werden müssen. Ein kurzer Ausblick auf die Auswirkungen korpusgestützter Arbeit an Online-Nachschlagewerken auf den lexikografischen Prozess schließt diesen Beitrag ab.
This paper shows how corpora and related tools can be used to analyse and present significant colligational patterns lexicographically. In German, patterns such as das nötige Wissen vermitteln and sein Wissen unter Beweis stellen play a vital role when learning the language, as they exhibit relevant idiomatic usage and lexical and syntactic rules of combination. Each item has specific semantic and grammatical functions and particular preferences with respect to position and distribution. An analysis of adjectives, for example, identifies preferences in adverbial, attributive, or predicative functions.
Traditionally, corpus analyses of syntagmatic constructions have not been conducted for lexicographic purposes. This paper shows how to utilise corpora to extract and examine typical syntagms and how the results of such an analysis are documented systematically in ELEXIKO, a large-scale corpus-based Internet reference work of German. It also demonstrates how this dictionary accounts for the lexical and grammatical interplay between units in a syntagm and how authentic corpus material and complementary prose-style usage notes are a useful guide to text production or reception.
Opinion holder extraction is one of the important subtasks in sentiment analysis. The effective detection of an opinion holder depends on the consideration of various cues on various levels of representation, though they are hard to formulate explicitly as features. In this work, we propose to use convolution kernels for that task which identify meaningful fragments of sequences or trees by themselves. We not only investigate how different levels of information can be effectively combined in different kernels but also examine how the scope of these kernels should be chosen. In general relation extraction, the two candidate entities thought to be involved in a relation are commonly chosen to be the boundaries of sequences and trees. The definition of boundaries in opinion holder extraction, however, is less straightforward since there might be several expressions beside the candidate opinion holder to be eligible for being a boundary.
Corpus-based identification and disambiguation of reading indicators for German nominalizations
(2010)
Corpus data is often structurally and lexically ambiguous; corpus extraction methodologies thus must be made aware of ambiguities. Therefore, given an extraction task, all relevant ambiguities must be identified. To resolve these ambiguities, contextual data responsible for one or another reading is to be considered. In the context of our present work, German -ung-nominalizations and their sortal readings are under examination. A number of these nominalizations may be read as an event or a result, depending on the semantic group they belong to. Here, we concentrate on nominalizations of verbs of saying (henceforth: "verba dicendi"), identify their context partners and their influence on the sortal reading of the nominalizations in question. We present a tool which calculates the sortal reading of such nominalizations and thus may improve not only corpus extraction, but also e.g. machine translation. Lastly, we describe successful attempts to identify the correct sortal reading, conclusions and future work.
This paper represents a report on an e-tandem project conducted at Freiburg University (Germany) from the winter term 2009/2010 on. It started with a German-ltalian pilot course organised in cooperation with Pavia University (Italy). In order to promote autonomous language learning, the authors used several web-based applications, relying on Skype to enable full (i.e. visual, auditive) interaction between learning partners and on e-mails to let participants practise writing and reading in the respective foreign language. Additionally, participants were asked to compile a weekly electronic portfolio (EPOS) to record their improvements as well as their difficulties. In the paper, the structure of the pilot course will be described and a first balance will be drawn.
In 1959, Lucien Tesnière wrote his main work Éléments de syntaxe structurale. While the impact on theoretical linguistics was not very strong at first, 50 years later there exist a variety of linguistic theories based on Tesnière's work. In computational linguistics, as in theoretical linguistics, dependency grammar was not very influential at first. The last 10–15 years, however, have brought a noticeable change and dependency grammar has found its way into computational linguistics. Syntactically annotated corpora based on dependency representations are available for a variety of languages, as well as statistical parsers which give a syntactic analysis of running text describing the underlying dependency relations between word tokens in the text. This article gives an overview of relevant areas of computational linguistics which have been influenced by dependency grammar. It discusses the pros and cons of different types of syntactic representation used in natural language processing and their suitability as representations of meaning. Finally, an attempt is made to give an outlook on the future impact of dependency grammar on computational linguistics.
This paper describes general requirements for evaluating and documenting NLP tools with a focus on morphological analysers and the design of a Gold Standard. It is argued that any evaluation must be measurable and documentation thereof must be made accessible for any user of the tool. The documentation must be of a kind that it enables the user to compare different tools offering the same service, hence the descriptions must contain measurable values. A Gold Standard presents a vital part of any measurable evaluation process, therefore, the corpus-based design of a Gold Standard, its creation and problems that occur are reported upon here. Our project concentrates on SMOR, a morphological analyser for German that is to be offered as a web-service. We not only utilize this analyser for designing the Gold Standard, but also evaluate the tool itself at the same time. Note that the project is ongoing, therefore, we cannot present final results.
Es scheint eine Selbstverständlichkeit zu sein, dass Bild und Text sowie Bild und Klang einander in den audiovisuellen Prozessen filmischer Produkte wechselseitig konturieren. Dieser geläufige Befund jedoch bedarf weiterer Klärung. Vor allem die wissenschaftliche Analyse von Sendungen des Fernsehens operiert nicht selten weiterhin mit irreführenden Hierarchien zumal zwischen Text und Bild, so als würde der Bildverlauf eine weitgehend autonome Bedeutung des im sprachlichen Text Gesagten lediglich modifizieren oder transformieren. Demgegenüber vertritt der Beitrag die These, dass Bild und Text in filmischen Erzeugnissen jeglicher Art gleichursprünglich an der Konstitution der in ihnen präsentierten Gehalte beteiligt sind. Es wird gezeigt, dass dieser basale audiovisuelle Zusammenhang auch dort besteht, wo eines dieser Elemente – etwa der mündliche Dialog oder ein verbaler Kommentar – den Verlauf eines Films oder einer Filmsequenz zu dominieren scheint, und folglich, dass er alle filmischen Genres einschließlich der Sendetypen des Fernsehens gleichermaßen prägt. Eine Interpretation ausgewählter Beispiele stützt das Plädoyer für ein nichthierarchisches Verständnis der Bedeutungsdimensionen in den Produktionen von Film und Fernsehen.
Moderm European Science and culture evolved in the process of emancipation of various national languages from medieval Latin. At present, this development from monolingualism to multilingualism seems to be reversed in several scientific disciplines and in higher education. The former linguistic diversity turns gradually into a modern monolingualism of scientific English, especially in the natural and some social sciences. A short-term consequence is that researchers and Professors with other first languages need extra time and sometimes money to prepare their publications and lectures in English. Long-term consequences are, among others, that all languages exept English are devaluated as media of science and learning and, thus, a diglossia might develop if only English be used for the important domains and other languages be limited to the domains of private communication and folklore. The way out can only be through a cultivation of at least bilingualism of researchers, Professors, and their students in the natural sciences and trilingualism in social sciences and the humanities.
How (and when) do speakers generalise from memorised exemplars of a construction to a productive schema? The present paper presents a novel take on this issue by offering a corpus-based approach to semantic extension processes. Focusing on clusters of German ADJ N expressions involving the heavily polysemous adjective tief ‚deep’, it is shown that type frequency (a commonly used measure of productivity) needs to be relativised to distinct semantic classes within the overall usage spectrum of a given construction in order to predict the occurrence of novel types within a particular region of this spectrum. Some methodological and theoretical implications for usage-based linguistic model building are considered.
This paper provides a new generation of a markup language by introducing the Freestyle Markup Language (FML). Demands placed on the language are elaborated, considering current standards and discussions. Conception, a grammatical definition, a corresponding object graph and the bi-directional unambiguous transformation between these two congruent representation forms are set up. The result of this paper is a fundamental definition of a completely new markup language, consolidating many deficiency-discourses and experiences into one particular implementation concept, encouraging the evolution of markup.
We present a method and a software tool, the FrameNet Transformer, for deriving customized versions of the FrameNet database based on frame and frame element relations. The FrameNet Transformer allows users to iteratively coarsen the FrameNet sense inventory in two ways. First, the tool can merge entire frames that are related by user-specified relations. Second, it can merge word senses that belong to frames related by specified relations. Both methods can be interleaved. The Transformer automatically outputs format-compliant FrameNet versions, including modified corpus annotation files that can be used for automatic processing. The customized FrameNet versions can be used to determine which granularity is suitable for particular applications. In our evaluation of the tool, we show that our method increases accuracy of statistical semantic parsers by reducing the number of word-senses (frames) per lemma, and increasing the number of annotated sentences per lexical unit and frame. We further show in an experiment on the FATE corpus that by coarsening FrameNet we do not incur a significant loss of information that is relevant to the Recognizing Textual Entailment task.
Grammars even trying to be as comprehensible as possible hardly avoid using technical terms unknown to novices. To overcome these inconveniencies, the grammatical information system grammis of the Institut für Deutsche Sprache incorporated a glossary specialized on terms used within the system. This glossary - actually named Grammatische Grundbegriffe (elementary terms of grammar) and tied by hyperlinks to technical terms in the core grammar' of grammis - offers short and simple explanations mainly by means of exemplification. The idea is to provide the users with provisional understanding to get along while following the main themes they are interested in. Explicitly, the glossary is not a stand-alone dictionary of grammatical terms, and it should not be regarded as one.
Die Wahrnehmung menschlicher Kommunikation ist historisch geprägt; entsprechend veränderlich sind die Normen und Werte, an denen kommunikatives Verhalten zu unterschiedlichen Zeiten gemessen wird. So führt die „Entdeckung“ der Multimodalität menschlicher Kommunikation in der gegenwärtigen Gesprächsforschung und die damit verbundene neue Aufmerksamkeit auf die Zeichenhaftigkeit des Körpers wie auf die Dimension des Raumes zu einem neuen Verständnis von Kommunikation und zu einer veränderten Beurteilung sprachlicher Phänomene.
Doch schon in frühmoderner Zeit war der gesellschaftliche Blick auf den kommunizierenden Menschen in einer für heutige Maßstäbe bemerkenswerten Weise auf die „Beredsamkeit des Leibes“ (Kemp 1975, S. 111) gerichtet. Sprachlichkeit wird als an Leiblichkeit gebunden wahrgenommen, als Teil eines komplexen, raumbezogenen kommunikativen Auftritts, der ständisch geregelt und normiert ist. Dies gilt für das 17. und auf weite Strecken auch noch für das 18. Jahrhundert – erst das bürgerliche Sprachprojekt löst in der Wahrnehmung die Sprache zunehmend vom Leib.
Vom 17. ins 18. Jahrhundert hinein lassen sich allerdings Veränderungen im Beschreibungsvokabular für den körperlich-sprachlichen Auftritt beobachten, und in Text- wie Bildzeugnissen zeigt sich ein Wandel in diesem Auftritt bzw. im Blick der Zeitgenossen darauf. Diese Veränderungen werden im Folgenden als (kollektiv) stilistischer Wandel beschrieben und der Zeichenwert dieses Wandels wird als ,Verschlankung‘ und ,Dynamisierung‘ bestimmt. Und insofern diese (kollektiv) stilistischen Veränderungen als Medium der Selbstformierung der tragenden Sozialformation der Zeit, d.h. der Adelsgesellschaft um 1800, verstanden werden, wird der beobachtete Stilwandel als Prozess der Selbst-Dynamisierung der gesellschaftlichen Leitformation der Epoche gedeutet.
Der Beitrag gibt einen Überblick über die Entwicklung und die Aufgaben des Fachverbandes Deutsch als Fremdsprache (FaDaF) seit seiner Gründung 1989/90. Er zeigt dabei die Entwicklungslinien des Verbandes auf, der als Nachfolge-Organisation des Arbeitskreises Deutsch als Fremdsprache beim DAAD (AkDaF) dessen Aufgaben übernommen, fortgeführt und weiter entwickelt hat.
Es ist nicht zu übersehen, dass die neuere Gesprächsforschung der Zeitlichkeit der Interaktion, also der Organisation von Nacheinander und Reihenfolge, viel mehr Aufmerksamkeit geschenkt hat als der Räumlichkeit der Interaktion, also der Organisation der Verortung und Platzierung Anwesender im Raum. Für Zeitlichkeit haben wir mit dem Konzept der Sequentialität eine methodologische Leitorientierung, die sich in unzähligen Analysen empirisch bewährt hat und theoretisch explizierbar ist. Für Räumlichkeit gilt das (trotz der Pionierarbeiten von Goffman, Hall, Birdwhistell, Kendon und anderen) offenkundig nicht, obwohl man mit Fug und Recht behaupten kann, dass Raum und Räumlichkeit – genauso wie Zeit und Zeitlichkeit – interaktiv in Anspruch genommen und interaktiv hergestellt werden. Kann man daraus schließen, dass der Raum für die Interaktion weniger wichtig ist als die Zeit? Oder hat es damit zu tun, dass Raum und Räumlichkeit für eine an sprachlichen Erscheinungsformen orientierte linguistische Gesprächsforschung empirisch und methodisch schwerer zu fassen sind? Und welcher Art sind die Phänomene, die man zu sehen bekommt, und die Konzepte, die man braucht, wenn man Räumlichkeit als Aspekt von Anwesenheit zu thematisieren versucht? Was schließlich leistet Sprache für die interaktive Inanspruchnahme von Raum und Räumlichkeit?
Diesen und ähnlichen Fragen geht der folgende Beitrag am Beispiel einer Interaktionsepisode in einer Kunstausstellung nach.
Anstelle der herkömmlichen Wortklasse Interjektion plädiert dieser Beitrag für eine erweiterte Auffassung von Lautobjekten (hier auch ‚Vokalisierungen‘ genannt), wie sie von tatsächlichen Sprechern in konkreten Interaktionszusammenhängen produziert werden. Fokussiert wird der Gebrauch von Lautobjekten als affektgeladene Reaktion auf eine Mitteilung im Gespräch. Anhand eines Korpus von natürlich vorkommenden englischen Alltagsgesprächen werden drei Thesen erläutert: (1) Manche Lautobjekte bilden Lexeme, deren Form eine konventionalisierte prosodische Lautgestalt einschließt, (2) Lautobjekte werden als Teil einer körperlichen Gestalt produziert und (3) manche nicht-lexikalisierten Lautobjekte können ähnliche Funktionen wie lexikalisierte Lautobjekte übernehmen. Zum Schluss wird auf die sprachtheoretische Relevanz von Lautobjekten eingegangen.
In den unterschiedlichsten disziplinären Kontexten der Kultur- und Medienwissenschaften findet in den beiden letzten Jahrzehnten der Befund große theoretische Aufmerksamkeit, dass Medien intermedial aufeinander Bezug nehmen (Bolter/Grusin 2001) und dass sie sich intramedial in rekursiven Schleifen auf sich selbst beziehen. Die kulturelle Semiosis wird – folgt man diesen Studien – auf einem Feld generiert, konserviert, gestört und fortgeschrieben, auf dem sich Kommunikation als semiologisches Spiel interagierender und miteinander verwobener Medien, als ein Ensemble von Praktiken „kultureller Rekonzeptualisierung“ (Manovich 2001) entfaltet. Der Beitrag vertritt die These, dass sich hinter der Vielfalt dieser kommunikativen Prozeduren in den Sprach-, Schrift- und Bildmedien, so unterschiedlich sie auch in medialer und ästhetischer Hinsicht sind, ein grundlegendes Verfahren der kulturellen Semiosis verbirgt, das sich als ein Verfahren transkriptiver Bezugnahme beschreiben lässt. Die Annahme, dass Transkription eine grundlegende Operation der kulturellen Semiosis, d.h. der Prozeduren kultureller (intra- und intermedialer) Rekonzeptualisierung, darstellt, soll anhand einiger epistemologischer und zeichentheoretischer Prinzipien erläutert und theoretisch verständlich gemacht werden.
Das kontrastive Verbvalenzwörterbuch Spanisch - Deutsch (Diccionario contrastivo de valencias verbales español - alemán DCVVEA) liefert eine Beschreibung der kombinatorischen Möglichkeiten von über hundert hochfrequenten Verben des Spanischen und ihrer deutschen Äquivalente und macht präzise Angaben zu ihren semantischen und syntagmatischen Eigenschaften. Die Abgrenzung von Bedeutungsvarianten für die polysemen spanischen Lemmata geht zum einen von vorliegenden lexikographische Beschreibungen aus, die an die Zielsetzungen des DCVVEA angepasst wurden, und stützt sich zum anderen auf das empirische Datenmaterial, das die syntaktische Datenbank Base de datos sintácticos del español actual (BDS) zur Verfügung stellt. Die BDS wurde von WissenschaftlerInnen der USC unter der Leitung von Guillermo Rojo erstellt und enthält die Ergebnisse der syntaktischen Analyse von etwa 160.000 Sätzen aus einem Textkorpus der spanischen Gegenwartssprache, ARTHUS (Archivo de textos hispánicos de la Universidad de Santiago de Compostela).
Das DCVVEA ist ein syntagmatisches Wörterbuch mit alphabetischer Struktur und Spanisch als Metasprache. Die Einträge beziehen sich auf die einzelnen Bedeutungsvarianten eines spanischen Verbs und werden mit authentischen Beispielen belegt. Den spanischen Verbvarianten werden deutsche Verben zugeordnet, die zu ihnen in einer vollständigen oder partiellen Äquivalenzrelation stehen. Die Ermittlung dieser Äquivalente stützt sich auf die Übersetzung der Korpusbeispiele. Die Valenzbeschreibung der spanischen und der deutschen Verbvarianten enthält funktionale, kategoriale und semantische Angaben zu den einzelnen Verbaktanten und explizite Hinweise auf kontrastiv relevante Unterschiede zwischen den Einheiten beider Sprachen.
Der Beitrag stellt Arbeiten des Projekts Usuelle Wortverbindungen am Institut für Deutsche Sprache (IDS) in Mannheim vor. Im Mittelpunkt stehen dabei neue Perspektiven, die sich für die elektronische Phraseographie aus der korpusanalytischen Auswertung sprachlicher Massendaten ergeben. Eine wichtige Methode ist die statistische Kookkurrenzanalyse, die u.a. dazu dient, feste Wortverbindungen zu extrahieren und typische Kontexte vorzustrukturieren. Auf dieser Basis lässt sich der tatsächliche Gebrauch fester Wortverbindungen in einer quantitativ und qualitativ neuen Dimension erfassen und lexikografisch beschreiben. Die heutigen technologischen Möglichkeiten können des Weiteren für neue und differenziertere Präsentationsformen angepasst an unterschiedliche Rezeptionsbedürfnisse genutzt werden. Das UWV-Projekt beschreitet auch im Bereich der Internet-Lexikografie neue Wege, was anhand ausgewählter Beispiele gezeigt wird.
Im Mittelpunkt des Beitrags steht eine Person, deren Identität wesentlich durch ihre Mehrsprachigkeit und Mehrkulturalität unter Dominanz des Deutsch-Russischen und ihren Beruf als Integrationsarbeiterin geprägt ist. Die lebenslange Entwicklung dieser Identität und ihre interpersonalen Bedingungen werden auf der Grundlage von sprachbiografischen Interviews und Proben deutsch- und russischsprachiger Kommunikation rekonstruiert. Die Diskussion dieser Entwicklung nimmt Bezug auf aktuelle Fragen der Vermittlung früher kindlicher Zweisprachigkeit und der gesellschaftlichen Gestaltung der sprachlichen Integration von Zuwanderern.
Web-Umgebungen wie virtuelle soziale Netzwerke und Videoportale sind von Tendenzen der Partizipation, Konvergenz und Multimedialität gekennzeichnet. Diese bedeuten eine Herausforderung für sprachanalytische Zugänge, die digitale Kommunikationsformen separat voneinander untersuchen und auf mikrolinguistische Phänomene bei nur geringer Beachtung ihrer komplexen soziomedialen Rahmenbedingungen abheben. Im Beitrag wird ein bildschirm-basierter Ansatz entworfen, der Web-Umgebungen als semiotische Räume begreift, die von Nutzern in ihren spezifischen soziokulturellen Umständen und vor der Folie technologischer Potenziale und Grenzen aufgefüllt und ausgestaltet werden. Sprache ist eine wesentliche, aber nicht die einzige Ressource dieses digitalen kommunikativen Handelns, und ihre Verwendung ist in der Spannung zwischen technologischer Vorprägung und situierter Medienaneignung zu untersuchen. Im Kern des Ansatzes liegt die Unterscheidung von zwei analytischen Dimensionen. Die erste unterscheidet vier Leistungen von Sprache in Web-Umgebungen: Organisation, Selbstdarstellung, Spektakel und Interaktion. Die zweite erfasst drei für Web 2.0 charakteristische Prozesse der Sprach- und Textgestaltung: Multimodalität, Intertextualität und Heteroglossie. Wie diese beiden Kategorienbündel eine Grundlage für weiterführende Fragestellungen bilden können, wird am Beispiel des Dialektgebrauchs auf einer Videoplattform diskutiert.
Some grammatical phenomena that only seldom appear in the corpora of written language often coincide with Speakers' uncertainty about a given form's grammatical Status. Such display of uncertainty is often subject to prescriptive criticism, which pays little attention to actual usage. However, thorough and discriminating corpus analyses can help in a proper description of various low-frequency phenomena and in situating them more adequately in the grammatical System, against the background of different contexts, communicative situations, and language varieties. To exemplify this potential, this study examines three linguistic phenomena in German, using a corpus-based approach: the dative singular ending -e, the construction aus aller Herren Länder, which lacks the dative plural ending -t and the non-standard preterite form frug. The results can be seen as a contribution to a more precise grammatical description on the one hand and, on the other, as a basis for an improved, more usage-oriented approach in providing practical advice to language users.
This paper discusses the advantages and disadvantages of the combination of automated information and lexicographically interpreted information in online dictionaries, namely elexiko, a hypertext dictionary and lexical data information system of contemporary German (http://www.owid.de/ elexiko_/index.html), and DWDS, a digital dictionary of 20,h century German (http://www.dwds.de). Examples of automatically derived information (e.g. automatically extracted citations from the underlying corpus, lists on paradigmatic relations) and lexicographically compiled information (e.g. information on paradigmatic partners) are provided and evaluated, reflecting on the need to develop guidelines as to how computerised information and lexicographically interpreted information may be combined profitably in online reference works.
The Online-Wortschatz-Informationssystem Deutsch (OWID Online German Lexical Information System) is a lexicographic Internet portal for various electronic dictionary resources that are being compiled at the Institute for the German Language (Institut für Deutsche Sprache, IDS). The main emphasis of OWID is on academic lexicographic resources of contemporary German. Presently, the following dictionaries are included in OWID: a dictionary of contemporary German called elexiko, a dictionary of neologisms, a small dictionary of collocations, and a discourse dictionary covering the lexemes that establish the discourse about “guilt” in the early post-war era 1945-1955. In the near future (2010/2011), several additional dictionaries will be published in OWID: a Textbook of German Communication Verbs, a Valency Dictionary of German Verbs, two further discourse dictionaries – one about the “democracy” discourse around 1968, the other covering the keywords of the German reunification 1989/1990. Moreover, 300 entries from a corpus-based project on proverbs will be integrated into OWID. Thereby, OWID is a constantly growing resource for academic lexicographic work of the German language.
Altogether, OWID is a special kind of dictionary portal owing to its content and its design, namely the integration of the various dictionaries, the access possibilities and the presentation features. With OWID, we try to establish a dictionary net where the different resources are jointly accessible not only by headwords, but also on the microstructural level. Prerequisite for these common access- and navigation-possibilities across the various dictionaries is the same concept for the lexicographic data model which we put into practice in OWID. Data from all dictionaries in OWID are structured according to a tailor-made, fine-granular, XML-based data model. In this data model, similar content is modelled similarly, dictionary related differences are preserved.
The main tasks for the future are to enhance OWID with further dictionary resources, to improve the inner access structures so that they exhaust the possibilities of the data model, and to customize the layout of the dictionaries as well as the search options according to the user’s needs