Refine
Year of publication
- 2010 (205) (remove)
Document Type
- Part of a Book (83)
- Article (55)
- Conference Proceeding (39)
- Book (13)
- Part of Periodical (5)
- Contribution to a Periodical (4)
- Other (2)
- Working Paper (2)
- Doctoral Thesis (1)
- Review (1)
Keywords
- Deutsch (88)
- Korpus <Linguistik> (23)
- Computerlinguistik (15)
- Konversationsanalyse (15)
- Interaktion (12)
- Semantik (9)
- Computerunterstützte Lexikographie (8)
- Sprachgeschichte (8)
- Wörterbuch (7)
- Annotation (6)
Publicationstate
- Veröffentlichungsversion (84)
- Postprint (17)
- Zweitveröffentlichung (17)
- (Verlags)-Lektorat (1)
- Preprint (1)
- Verlags-Lektorat (1)
Reviewstate
Publisher
- de Gruyter (29)
- Institut für Deutsche Sprache (22)
- Benjamins (10)
- Narr (10)
- European Language Resources Association (6)
- Lang (6)
- Winter (5)
- Association for Computational Linguistics (4)
- Springer (4)
- De Gruyter (3)
This study investigated whether an analysis of narrative style (word use and cross-clausal syntax) of patients with symptoms of generalised anxiety and depression disorders can help predict the likelihood of successful participation in guided self-help. Texts by 97 people who had made contact with a primary care mental health service were analysed. Outcome measures were completion of the guided self-help programme, and change in symptoms assessed by a standardised scale (CORE-OM). Regression analyses indicated that some aspects of participants' syntax helped to predict completion of the programme, and that aspects of syntax and word use helped to predict improvement of symptoms. Participants using non-finite complement clauses with above-average frequency were four times more likely to complete the programme (95% confidence interval 1.4 to 11.7) than other participants. Among those who completed, the use of causation words and complex syntax (adverbial clauses) predicted improvement, accounting for 50% of the variation in well-being benefit. These results suggest that the analysis of narrative style can provide useful information for assessing the likelihood of success of individuals participating in a mental health guided self-help programme.
Temporal frames of reference
(2010)
Von Bush administration zu Kohl-Regierung: Englische Einflüsse auf deutsche Nominalkonstruktionen?
(2010)
In diesem Beitrag wird eine neue, funktional motivierte Systematik für den adnominalen Genitiv und entsprechende von-Phrasen, die zusammenfassend als ‘possessive Attribute’ bezeichnet werden, entwickelt. Sie beruht auf Erkenntnissen aus der sprachtypologischen Forschung und dem Vergleich mit anderen, vor allem germanischen Sprachen. Der Beschreibungsrahmen für die NP mit der übergreifenden ‘funktionalen Domäne’ der Referenz und den zugehörigen Subdomänen wird vorgestellt. Possessive Attribute können als eine Ausdrucksform der Subdomäne Modifikation bestimmt werden. Es wird gezeigt, dass possessive Attribute verschiedene funktionale Typen der Modifikation realisieren können: referentiell-verankernde (der Hut meiner Schwester), qualitative (ein Autor deutscher Herkunft) und klassifikatorische (ein Mann der Tat). Auch randständige possessive Attribute wie der ‘Teilungsgenitiv’ (eine Tasse heißen Tees) und der Identitätsgenitiv (das Laster der Unbescheidenheit) werden berücksichtigt. Die neue Ordnung possessiver Attribute nach funktionalen Subdomänen ist der traditionellen Einteilung vorzuziehen, insofern als sie lediglich Grundunterscheidungen gemäß dem referenzsemantischen Status des Modifikators (begrifflich versus referentiell) und nach dem Beitrag des Modifikators zur Bedeutungskomposition der NP (verankernd versus qualitativ bzw. klassifikatorisch) berücksichtigt. Zudem ist sie durch Testverfahren wie den Pronominalisierungstest abgesichert.
Within cognitive linguistics, there is an increasing awareness that the study of linguistic phenomena needs to be grounded in usage. Ideally, research in cognitive linguistics should be based on authentic language use, its results should be replicable, and its claims falsifiable. Consequently, more and more studies now turn to corpora as a source of data. While corpus-based methodologies have increased in sophistication, the use of corpus data is also associated with a number of unresolved problems. The study of cognition through off-line linguistic data is, arguably, indirect, even if such data fulfils desirable qualities such as being natural, representative and plentiful. Several topics in this context stand out as particularly pressing issues. This discussion note addresses (1) converging evidence from corpora and experimentation, (2) whether corpora mirror psychological reality, (3) the theoretical value of corpus linguistic studies of ‘alternations’, (4) the relation of corpus linguistics and grammaticality judgments, and, lastly, (5) the nature of explanations in cognitive corpus linguistics. We do not claim to resolve these issues nor to cover all possible angles; instead, we strongly encourage reactions and further discussion.
How (and when) do speakers generalise from memorised exemplars of a construction to a productive schema? The present paper presents a novel take on this issue by offering a corpus-based approach to semantic extension processes. Focusing on clusters of German ADJ N expressions involving the heavily polysemous adjective tief ‚deep’, it is shown that type frequency (a commonly used measure of productivity) needs to be relativised to distinct semantic classes within the overall usage spectrum of a given construction in order to predict the occurrence of novel types within a particular region of this spectrum. Some methodological and theoretical implications for usage-based linguistic model building are considered.
Standardly, verb-first (V1) conditionals are considered to be mere variants of wenn-conditionals; accordingly, left-peripheral V1-clauses are analyzed as embedded into the prefields of declarative apodosis clauses, just like their V-end counterparts. We challenge this view, proposing instead that dependent V1-clauses are syntactically unembedded/unintegrated, and, consequently, that postposed declarative apodosis clauses are either V2-declaratives with prefield ellipsis or V1-declaratives. We argue our case by presenting evidence that (i) wenn-clauses differ considerably from V1-clauses in semantic distribution, (ii) unlike wenn-clauses, V1-clauses do not meet the criteria for syntactic embedding, (iii) the alternatives entailed by (ii) for the structural analysis of a postposed apodosis both have empirical support. As for a syntactic analysis of V1-structures suited to these findings, we argue that a CP adjunction analysis is currently the best option available. We also point out connections between the semantic restrictions on V1-conditionals and the semantics of V1-interrogatives that are suggestive of a common semantic core, which raises hope that our background vision (ultimately, all dependent V-to-C clauses are semantically licensed substitutes for genuine subordinates) may also be true for V1-clauses.
Accentuation, Uncertainty and Exhaustivity - Towards a Model of Pragmatic Focus Interpretation
(2010)
This paper presents a model of pragmatic focus interpretation that is assumed to be part of a complete language comprehension model and that is inspired by Levelt's language processing model. The model is derived from our empirical data on the role of accentuation, prosodic indicators of uncertainty and context for pragmatic focus interpretation. In its present state, the model is restricted to these data, but nevertheless generates predictions.
This paper describes work directed towards the development of a syllable prominence-based prosody generation functionality for a German unit selection speech synthesis system. A general concept for syllable prominence-based prosody generation in unit selection synthesis is proposed. As a first step towards its implementation, an automated syllable prominence annotation procedure based on acoustic analyses has been performed on the BOSS speech corpus. The prominence labeling has been evaluated against an existing annotation of lexical stress levels and manual prominence labeling on a subset of the corpus. We discuss methods and results and give an outlook on further implementation steps.
In recent years, text classification in sentiment analysis has mostly focused on two types of classification, the distinction between objective and subjective text, i.e. subjectivity detection, and the distinction between positive and negative subjective text, i.e. polarity classification. So far, there has been little work examining the distinction between definite polar subjectivity and indefinite polar subjectivity. While the former are utterances which can be categorized as either positive or negative, the latter cannot be categorized as either of these two categories. This paper presents a small set of domain independent features to detect indefinite polar sentences. The features reflect the linguistic structure underlying these types of utterances. We give evidence for the effectiveness of these features by incorporating them into an unsupervised rule-based classifier for sentence-level analysis and compare its performance with supervised machine learning classifiers, i.e. Support Vector Machines (SVMs) and Nearest Neighbor Classifier (kNN). The data used for the experiments are web-reviews collected from three different domains.
Bootstrapping Supervised Machine-learning Polarity Classifiers with Rule-based Classification
(2010)
In this paper, we explore the effectiveness of bootstrapping supervised machine-learning polarity classifiers using the output of domain-independent rule-based classifiers. The benefit of this method is that no labeled training data are required. Still, this method allows to capture in-domain knowledge by training the supervised classifier on in-domain features, such as bag of words.
We investigate how important the quality of the rule-based classifier is and what features are useful for the supervised classifier. The former addresses the issue in how far relevant constructions for polarity classification, such as word sense disambiguation, negation modeling, or intensification, are important for this self-training approach. We not only compare how this method relates to conventional semi-supervised learning but also examine how it performs under more difficult settings in which classes are not balanced and mixed reviews are included in the dataset.
Opinion holder extraction is one of the important subtasks in sentiment analysis. The effective detection of an opinion holder depends on the consideration of various cues on various levels of representation, though they are hard to formulate explicitly as features. In this work, we propose to use convolution kernels for that task which identify meaningful fragments of sequences or trees by themselves. We not only investigate how different levels of information can be effectively combined in different kernels but also examine how the scope of these kernels should be chosen. In general relation extraction, the two candidate entities thought to be involved in a relation are commonly chosen to be the boundaries of sequences and trees. The definition of boundaries in opinion holder extraction, however, is less straightforward since there might be several expressions beside the candidate opinion holder to be eligible for being a boundary.
This paper presents a survey on the role of negation in sentiment analysis. Negation is a very common linguistic construction that affects polarity and, therefore, needs to be taken into consideration in sentiment analysis.
We will present various computational approaches modeling negation in sentiment analysis. We will, in particular, focus on aspects such as level of representation used for sentiment analysis, negation word detection and scope of negation. We will also discuss limits and challenges of negation modeling on that task.
Der Beitrag gibt einen Überblick über die Entwicklung und die Aufgaben des Fachverbandes Deutsch als Fremdsprache (FaDaF) seit seiner Gründung 1989/90. Er zeigt dabei die Entwicklungslinien des Verbandes auf, der als Nachfolge-Organisation des Arbeitskreises Deutsch als Fremdsprache beim DAAD (AkDaF) dessen Aufgaben übernommen, fortgeführt und weiter entwickelt hat.
Die wissenschaftliche Beschäftigung mit der Kempelen'schen Sprechmaschine erfolgt zumeist aus wissenschaftshistorischen Motiven heraus. Der vorliegende Aufsatz widmet sich der Frage, welche Bedeutung der Sprechmaschine heutzutage zukommt. Neben möglichen Erklärungen, weswegen die Sprechmaschine auf Wissenschaftler wie Nicht-Wissenschaftler faszinierend wirkt, beschreiben wir den Einsatz von Nachbauten als Instrument zur Demonstration und auch zur Erforschung der Erzeugung von Sprachschall.
The chapter on formats and models for lexicons deals with different available data formats of lexical resources. It elaborates on their structure and possible uses. Motivated by the restrictions in merging different lexical resources based on widely spread formalisms and international standards, a formal lexicon model for lexical resources is developed which is related to graph structures in annotations. For lexicons this model is termed the Lexicon Graph. Within this model the concepts of lexicon entries and lexical structures frequently described in the literature are formally defined and examples are given. The article addresses the problem of ambiguity in those formal terms. An implementation based on XML and XML technology such as XQuery for the defined structures is given. The relation to international standards is included as well.
To reach even language users not acquainted to the use of grammars the Institut für Deutsche Sprache in Mannheim (Germany) looked for new ways to handle grammatical problems. Instead of confronting users with abstractions frequent difficulties of German grammar are introduced in form of exemplary questions like „Which form should be used or preferred: Anfang dieses Jahre or Anfang diesen Jahres? Looking through the long list of such questions even laymen may find solutions of grammatical problems they might not be able to formulate as such.
The possibility to search electronically very large corpora of texts has opened up ways in which we can truly evaluate the rules through which grammarians have tried and continue to try to simulate natural languages. However, the possibility to handle incredibly large amounts of texts might lead to problems with the assessment of certain phenomena that are hardly ever represented in those corpora and yet, have always been regarded as grammatically correct elements of a given language. In German, typical phenomena of this kind are forms like betrögest or erwögest, i.e. second person singular of the so-called strong verbs in the subjunctive mood. Should we see them merely as grammarians’ inventions? Before doing so, we should reconsider the nature of these phenomena. They may appear to be isolated word forms but, in fact, are compact realizations of syntactic constructions, and it is the frequency of these constructions that should be evaluated, not the frequency of their specific realizations.
Grammars even trying to be as comprehensible as possible hardly avoid using technical terms unknown to novices. To overcome these inconveniencies, the grammatical information system grammis of the Institut für Deutsche Sprache incorporated a glossary specialized on terms used within the system. This glossary - actually named Grammatische Grundbegriffe (elementary terms of grammar) and tied by hyperlinks to technical terms in the core grammar' of grammis - offers short and simple explanations mainly by means of exemplification. The idea is to provide the users with provisional understanding to get along while following the main themes they are interested in. Explicitly, the glossary is not a stand-alone dictionary of grammatical terms, and it should not be regarded as one.
Conventional descriptions of synonymous items often concentrate on common semantic traits and the degree of semantic overlap they exhibit. Their aim is to offer classifications of synonymy rather than elucidating ways of establishing contextual meaning equivalence and the cognitive prerequisites for this. Generally, they lack explanations as to how synonymy is construed in actual language use. This paper investigates principles and cognitive devices of synonymy construction as they appear in corpus data, and focuses on questions of how meaning equivalence might be conceptualised by speakers.
This paper provides a general overview of the treatment of lexico-semantic relations in different fields of research including theoretical and application-oriented disciplines. At the same time, it sketches the development of the descriptions and explanations of sense relations in various approaches as well as some methodologies which have been used to retrieve and analyse paradigmatic patterns.
Introduction
(2010)
Preface
(2010)
This paper shows how corpora and related tools can be used to analyse and present significant colligational patterns lexicographically. In German, patterns such as das nötige Wissen vermitteln and sein Wissen unter Beweis stellen play a vital role when learning the language, as they exhibit relevant idiomatic usage and lexical and syntactic rules of combination. Each item has specific semantic and grammatical functions and particular preferences with respect to position and distribution. An analysis of adjectives, for example, identifies preferences in adverbial, attributive, or predicative functions.
Traditionally, corpus analyses of syntagmatic constructions have not been conducted for lexicographic purposes. This paper shows how to utilise corpora to extract and examine typical syntagms and how the results of such an analysis are documented systematically in ELEXIKO, a large-scale corpus-based Internet reference work of German. It also demonstrates how this dictionary accounts for the lexical and grammatical interplay between units in a syntagm and how authentic corpus material and complementary prose-style usage notes are a useful guide to text production or reception.
Is it possible to undo or reverse language attrition? In other words, has there been, in the case of attrition, a permanent change with respect to the speaker's L1 knowledge, or do we only see temporary effects on the control of that knowledge? It is proposed here that the concept of attrition should include the temporary loss of language skills since it is, so far, not clear whether or to what extent once-acquired linguistic abilities can be permanently lost at all, particularly with respect to an L1. A reversal in the development of attrition after renewed contact with the L1 can support the claim that a decrease in L1 proficiency can be TEMPORARY, and that it is the ACCESSIBILITY of items and structures that is affected by attrition rather than the L1 knowledge (competence) itself. Our primary research interest in the present study is to analyze what skills and features are recoverable and what phenomena persist, (possibly) indicating permanent loss.
Moderm European Science and culture evolved in the process of emancipation of various national languages from medieval Latin. At present, this development from monolingualism to multilingualism seems to be reversed in several scientific disciplines and in higher education. The former linguistic diversity turns gradually into a modern monolingualism of scientific English, especially in the natural and some social sciences. A short-term consequence is that researchers and Professors with other first languages need extra time and sometimes money to prepare their publications and lectures in English. Long-term consequences are, among others, that all languages exept English are devaluated as media of science and learning and, thus, a diglossia might develop if only English be used for the important domains and other languages be limited to the domains of private communication and folklore. The way out can only be through a cultivation of at least bilingualism of researchers, Professors, and their students in the natural sciences and trilingualism in social sciences and the humanities.
Abertura/Opening
(2010)
Der Beitrag stellt Arbeiten des Projekts Usuelle Wortverbindungen am Institut für Deutsche Sprache (IDS) in Mannheim vor. Im Mittelpunkt stehen dabei neue Perspektiven, die sich für die elektronische Phraseographie aus der korpusanalytischen Auswertung sprachlicher Massendaten ergeben. Eine wichtige Methode ist die statistische Kookkurrenzanalyse, die u.a. dazu dient, feste Wortverbindungen zu extrahieren und typische Kontexte vorzustrukturieren. Auf dieser Basis lässt sich der tatsächliche Gebrauch fester Wortverbindungen in einer quantitativ und qualitativ neuen Dimension erfassen und lexikografisch beschreiben. Die heutigen technologischen Möglichkeiten können des Weiteren für neue und differenziertere Präsentationsformen angepasst an unterschiedliche Rezeptionsbedürfnisse genutzt werden. Das UWV-Projekt beschreitet auch im Bereich der Internet-Lexikografie neue Wege, was anhand ausgewählter Beispiele gezeigt wird.
Der Beitrag nimmt die verbreitete Annahme einer besonderen Überzeugungskraft von Bildern zum Anlass, nach dem Ort einer solchen medienspezifischen Wirkungsweise im Rahmen einer pragmatischen Linguistik zu fragen. In exemplarischen Analysen wird gezeigt, wie Fotografien in journalistischen Printmedien eingesetzt werden, um Bedeutungen, die ihnen durch die umstehenden Texte ‚zugeschrieben‘ und so stabilisiert werden, ein besonderes Maß an Plausibilität zu verleihen. Dieser intermediale Evidenzeffekt wird als Prägnanz bezeichnet. Zu seiner theoretischen Begründung wird der Peircesche Begriff der Ikonizität mit dem Konzept der ‚ikonischen Differenz‘ aus der phänomenologischen Bildtheorie Gottfried Boehms verbunden. Denn beide stellen heraus, dass die wahrnehmbaren Eigenschaften der Zeichenform ein notwendiges Komplement zu symbolischen Schematisierungen im Prozess der Sinnkonstitution bilden. Diese Verschränkung zwischen Ikonizität und Symbolizität prägt sowohl die Konstitution dessen, was ein gegenständliches Bild in seinen Teilen wiedererkennbar zeigt, als auch dessen, was es als Ganzes – durch die Anordnung von Elementen auf einer begrenzten Fläche – darstellt. Die sichtbare Form dieser Anordnung wird als Grundlage für das besondere Prägnanzpotenzial von Bildern in der Zusammenstellung mit Texten identifiziert. Gestützt auf Beispiele wird zwischen einer schematischen und ikonischen Variante der Prägnanz unterschieden und das methodische Vorgehen reflektiert. Die pragmatische ‚Effektivität‘ der wahrnehmbaren Zeichenform, die in den Varianten der Prägnanz fassbar wird, ist allerdings nicht auf die intermediale Konstellation von Text und Bild beschränkt, weswegen der Beitrag mit dem Ausblick auf eine linguistische Phänomenologie der Textgestalt schließt.
Nachdem sich verschiedene linguistische Teildisziplinen in den vergangenen Jahren der Medialität, Materialität und ‚Multimodalität‘ von Kommunikation zugewandt haben, hat zuletzt auch die typografische Gestaltung von Texten als spezifischer Aspekt dieses Komplexes verstärkte Aufmerksamkeit im Fach gefunden. Das Thema wurde, mit entsprechend unterschiedlichen Erkenntnisinteressen, in mehreren Fachbereichen (z.B. in der Text- und Graphostilistik, der Sozialsemiotik, der Werbesprachforschung, der Schriftlinguistik, der Verständlichkeitsforschung, der Metalexikographie und der Historischen Linguistik) aufgegriffen, darüber hinaus wird es mittlerweile auch in Nachbardisziplinen wie der Literatur- und Editionswissenschaft verstärkt diskutiert. Dabei wurde gezeigt, dass paraskripturale Phänomene in mehrfacher Hinsicht (etwa als Aufmerksamkeits- und Lesesteuerungssignal, als Emblem oder als Kontextualisierungshinweis) kommunikativ relevant werden können.
Der Beitrag gibt erstens einen Einblick in dieses heterogene Feld linguistischer Forschung und versucht, die kommunikative Relevanz skripturaler Sichtbarkeit und damit auch die Relevanz des Gegenstandsbereichs für das Fach zu begründen. Zweitens diskutiert er mit Blick auf das Rahmenthema des vorliegenden Bandes die Frage, inwiefern sich (Inter-)Medialität und Visualität gegenseitig bedingen. Dabei soll weniger die kaum zu bestreitende These im Mittelpunkt stehen, dass sich die Medialität des Kommunikats in deren visueller Gestaltung niederschlägt (bzw. den Gestaltungsrahmen vorgibt), sondern es soll umgekehrt vor allem danach gefragt werden, ob und inwiefern Medialität durch (typo-)grafische Variation mitkonstruiert wird, inwiefern die Medialität also selbst das Produkt sozial verankerter kommunikativer Praktiken wie der Textgestaltung ist.
As the nature of negative polarity items (NPIs) and their licensing contexts is still under much debate, a broad empirical basis is an important cornerstone to support further insights in this area of research. The work discussed in this paper is intended as a contribution to realizing this objective. The authors briefly introduce the phenomenon of NPIs and outline major theories about their licensing and also various licensing contexts before discussing our major topics: Firstly, a corpus-based retrieval method for NPI candidates is described that ranks the candidates according to their distributional dependence on the licensing contexts. Our method extracts single-word candidates and is extended to also capture multi-word candidates. The basic idea for automatically collecting NPI candidates from a large corpus is that an NPI behaves like a kind of collocate to its licensing contexts. Manual inspection and interpretation of the candidate lists identify the actual NPIs. Secondly, an online repository for NPIs and other items that show distributional idiosyncrasies is presented, which offers an empirical database for further (theoretical) research on these items in a sustainable way.
„An den Ufern der Havel lebte, um die Mitte des sechzehnten Jahrhunderts, ein Roßhändler, namens Michael Kohlhaas, Sohn eines Schulmeisters, einer der rechtschaffensten zugleich und entsetzlichsten Menschen seiner Zeit.“
So beginnt einer der besten Meister der deutschen Syntax Heinrich von Kleist vor zweihundert Jahren seine berühmte Novelle „Michael Kohlhaas“, die ihren Ursprung nach Angaben des Autors in einer alten Chronik aus dem 16. Jh. hat. Dieser Satz besteht aus dem zweiwertigen Verb „leben“ und drei Satzgliedern: Lokalbestimmung „An den Ufern der Havel“, Temporalbestimmung „um die Mitte des sechzehnten Jahrhunderts“ und Subjekt „ein Roßhändler, namens Michael Kohlhaas, Sohn eines Schulmeisters, einer der rechtschaffensten zugleich und entsetzlichsten Menschen seiner Zeit“. Da der Autor über ein Ereignis aus der Vergangenheit berichtet, nennt er, wie heute in der Zeitung üblich, gleich am Anfang den Ort, den Zeitpunkt und den Hauptakteur des Geschehens. Wir erfahren, dass der Hauptakteur „ein Roßhändler, namens Michael Kohlhaas“ ist und dazu noch einige Informationen aus seiner Biografie, mit denen bei den Lesern das Interesse an der Novelle erweckt werden sollte: „einer der rechtschaffensten zugleich und entsetzlichsten Menschen seiner Zeit“. Dass der „Roßhändler“ „Michael Kohlhaas“ heißt, wissen wir aufgrund der Bedeutung des Wörtchens namens, das diese zwei Nominalphrasen verbindet (oder auch trennt). Und um dieses Wörtchen geht es in diesem Text.
For languages with (semi-) free word order (such as German), labelling grammatical functions on top of phrase-structural constituent analyses is crucial for making them interpretable. Unfortunately, most statistical classifiers consider only local information for function labelling and fail to capture important restrictions on the distribution of core argument functions such as subject, object etc., namely that there is at most one subject (etc.) per clause. We augment a statistical classifier with an integer linear program imposing hard linguistic constraints on the solution space output by the classifier, capturing global distributional restrictions. We show that this improves labelling quality, in particular for argument grammatical functions, in an intrinsic evaluation, and, importantly, grammar coverage for treebankbased (Lexical-Functional) grammar acquisition and parsing, in an extrinsic evaluation.
Der Autor möchte mit seinem Beitrag zeigen, in welcher Weise die aktuellen Korpus-Projekte und Datenbankentwicklungen in der Abteilung Pragmatik des Instituts für Deutsche Sprache Mannheim (IDS) Fragestellungen und Forschungspraktiken der Gesprächsanalyse bedienen. Abschließend stelle er die Entwicklungsarbeit an der Nachfolge-Version 2.0 der Datenbank Gesprochenes Deutsch für die gegenwärtig angebotene Version vor.
In this feasibility study we aim at contributing at the practical use of domain ontologies for hypertext classification by introducing an algorithm generating potential keywords. The algorithm uses structural markup information and lemmatized word lists as well as a domain ontology on linguistics. We present the calculation and ranking of keyword candidates based on ontology relationships, word position, frequency information, and statistical significance as evidenced by log-likelihood tests. Finally, the results of our machine-driven classification are validated empirically against manually assigned keywords.
The evolution of computer technologies and the introduction of the World Wide Web (WWW) have substantially changed the way scientific articles and books are published today. Besides writing for "traditional" print media, more and more authors decide to reach a larger audience and to decrease distribution time by offering their works on the internet. The electronic medium not only facilitates the spread of information, it also adds new value by extending the possibilities of knowledge retrieval. Of course the same is true for structured data collections like scientific glossaries, dictionaries or bibliographies. They particularly profit from the web when being accessible via user-friendly and effective frontends. The following chapters deal with the transformation of the Bibliography of German Grammar (“Bibliografie zur deutschen Grammatik”) from a data pool primarly used for print publishing to a relational database application offering a basis for media-independent distribution. Starting with a short description of the beginnings of the bibliography, the focus of this article lies on the explanation of our current database design as well as on the presentation of the web-based user interface.
Wie wirkt sich die je spezifische Materialität von Sprache auf die Gestalt unserer Zeichen und damit auf die Bildung unserer Vorstellungen aus? Das wird hier am Beispiel von Schrift im World Wide Web untersucht. Unter dem Einfluss technisierter Materialität, Medialität und Multimodalität bildet sich eine Schriftlichkeit aus, deren Erscheinungsform und Bedeutung aus dem semiotischen Zusammenspiel von Sehflächen-Design, Bild und Text erwächst. Vor dem Hintergrund einer medial gestützten Geschichte kommunikativer Abstraktion, in deren Verlauf Leib und Seele im Bewusstsein auseinander traten, und anhand charakteristischer Beispiele aus dem WWW werden Entstehungsbedingungen, Eigenschaften und Leistungen solch ,tertiärer Schriftlichkeit‘ erläutert.
Vorwort
(2010)
Die Autoren beschäftigen sich in diesem Beitrag mit einem spezifischen Typ der Transition von Interaktionsräumen. Die Transitionen, die sie analysieren, ereignen sich zwar im Rahmen einer bereits etablierten globalen Situationsstruktur (eines Filmsets), stellen jedoch lokal die Herstellung einer personell, räumlich und pragmatisch jeweils neuen Konstellation dar. Aus diesem Grund konzeptualisieren sie diesen Transitionstyp als Eröffnung einer neuen Situation. Neben der Spezifik des jeweiligen Falles interessieren sie vor allem rekurrente Verhaltensaspekte der Beteiligten, die im Kontext dieser Transitionen beobachtbar sind.
In linguistischen Untersuchungen erscheint sprachliche Raumreferenz gemeinhin als eine Aktivität, die notwendig ist, um dem Hörer/Leser die räumliche Lokalisierung von Objekten zu ermöglichen. In diesem Beitrag wollen wir zeigen, dass die sprachliche und kinesische Konstitution von Raum in der multimodalen Interaktion eine flexible kommunikative Ressource ist, die auch unabhängig von solchen Referenz-identifizierenden Erfordernissen eingesetzt werden kann. Anhand der Videoaufnahme einer Lehr-Lern-Interaktion zeigen wir, wie die sprachliche und körperlich enaktierende Konstitution eines imaginären Raums eingesetzt wird, um eine komplexe Sachverhaltsdarstellung auf einen spezifischen Adressaten und dessen Verständnisprobleme zuzuschneiden. Im Zentrum der Datenanalyse steht zum einen die Rekonstruktion der interaktionsstrukturellen Einbettung der Raumkonstitution, die verdeutlicht, dass sie als Verfahren kommunikativ verwendet wird, weil andere Verfahren der Vermittlung abstrakter Sachverhalte bereits gescheitert sind. Zum anderen zeigen wir, wie sprachliche und kinesische Aktivitäten der Akteure systematisch bei der multimodalen Raumkonstitution zusammenwirken und wie durch sie vier unterschiedliche Dimensionen von Raum in der Interaktion (objektiv-physikalischer Raum, Interaktionsraum, individueller Verhaltensraum und imaginärer Raum) organisiert und aufeinander bezogen werden. Dabei wird deutlich, dass die sozialsymbolische Kodierung von Räumen und die Überblendung verschiedener Dimensionen von „Raum“ als rekurrente Phänomene in der multimodalen Raumkonstitution eingesetzt werden.
Am 27. und 28. November 2009 fand im Institut für Deutsche Sprache nach einigen bilateralen Treffen das 1. „Arbeitstreffen videobasierte Unterrichtsanalyse“ statt. Das Treffen brachte unter dem thematischen Fokus „Unterricht“ unterschiedliche Kompetenzen zusammen: Zum einen Wissenschaftler, die aus einer multimodalen Sicht auf Interaktion ein besonderes Interesse an Unterricht als einer gesellschaftlich außerordentlich wichtigen Kommunikationssituation haben, zum anderen Lehrer, die, als konkret im Unterricht Handelnde, ein Interesse an der wissenschaftlichen Untersuchung ihres professionellen Verhaltens in diesem Handlungsfeld haben, wie auch Didaktiker, die aus ihrer Perspektive in der Lage sind, beide Seiten in reflektierter Weise zu verbinden und hinsichtlich ihrer Synergie zu befragen.
Der vorliegende Beitrag beschäftigt sich mit der Frage, wie unter den organi- sations- und situationsstrukturellen Bedingungen einer spezifischen sozialen Situation - das Filmset als professioneller Handlungsrahmen - Verstehen hergestellt und als empirisch manifestes Phänomen dokumentiert wird. Es geht zum einen darum, spezifische, für das konkrete professionelle Handlungsfeld konstitutive Verstehensanforderungen zu rekonstruieren. Zum anderen sollen auf der Grundlage dieses Profils spezifischer Handlungsanforderungen zwei Verfahren der Verstehensdokumentation im Detail analysiert werden.
This paper presents FOLKER, an annotation tool developed for the efficient transcription of natural, multi-party interaction in a conversation analysis framework. FOLKER is being developed at the Institute for German Language in and for the FOLK project, whose aim is the construction of a large corpus of spoken present-day German, to be used for research and teaching purposes. FOLKER builds on the experience gained with multi-purpose annotation tools like ELAN and EXMARaLDA, but attempts to improve transcription efficiency by restricting and optimizing both data model and tool functionality to a single, well-defined purpose. This paper starts with a description of the GAT transcription conventions and the data model underlying the tool. It then gives an overview of the tool functionality and compares this functionality to that of other widely used tools.