Refine
Year of publication
- 2011 (252) (remove)
Document Type
- Part of a Book (115)
- Article (68)
- Conference Proceeding (27)
- Book (21)
- Other (6)
- Part of Periodical (5)
- Contribution to a Periodical (3)
- Doctoral Thesis (2)
- Review (2)
- Bachelor Thesis (1)
Language
Keywords
- Deutsch (138)
- Korpus <Linguistik> (29)
- Grammatik (18)
- Computerlinguistik (17)
- Computerunterstützte Lexikographie (14)
- Konversationsanalyse (14)
- Online-Wörterbuch (13)
- Sprachvariante (13)
- Wörterbuch (13)
- Englisch (11)
Publicationstate
- Veröffentlichungsversion (104)
- Zweitveröffentlichung (24)
- Postprint (10)
- (Verlags)-Lektorat (1)
- Erstveröffentlichung (1)
- Preprint (1)
Reviewstate
Publisher
- Institut für Deutsche Sprache (38)
- Narr (30)
- de Gruyter (29)
- Lang (11)
- Springer (6)
- Trojina, Institute for Applied Slovene Studies (5)
- Verlag für Gesprächsforschung (5)
- De Gruyter (3)
- Groos (3)
- Universidade de Santiago de Compostela (3)
How to propose an action as an objective necessity. The case of Polish trzeba x (‘one needs to x’)
(2011)
The present study demonstrates that language-specific grammatical resources can afford speakers language-specific ways of organizing cooperative practical action. On the basis of video recordings of Polish families in their homes, we describe action affordances of the Polish impersonal modal declarative construction trzeba x (“one needs to x”) in the accomplishment of everyday domestic activities, such as cutting bread, bringing recalcitrant children back to the dinner table, or making phone calls. Trzeba-x turns in first position are regularly chosen by speakers to point to a possible action as an evident necessity for the furthering of some broader ongoing activity. Such turns in first position provide an environment in which recipients can enact shared responsibility by actively involving themselves in the relevant action. Treating the necessity as not restricted to any particular subject, aligning responsive actions are oriented to when the relevant action will be done, not whether it will be done. We show that such sequences are absent from English interactions by analyzing (a) grammatically similar turn formats in English interaction (“we need to x,” “the x needs to y”), and (b) similar interactive environments in English interactions. We discuss the potential of this research to point to a new avenue for researchers interested in the relationship between language diversity and diversity in human action and cognition.
Psychological research has emphasized the importance of narrative for a person’s sense of self. Building a coherent narrative of past events is one objective of psychotherapy. However, in guided self-help therapy the patient has to develop this narrative autonomously. Identifying patients’ narrative skills in relation to psychological distress could provide useful information about their suitability for self-help. The aim of this study was to explore whether the syntactic integration of clauses into narrative in texts written by prospective psychotherapy patients was related to mild to moderate psychological distress. Cross-clausal syntax of texts by 97 people who had contacted a primary care mental health service was analyzed. Severity of symptoms associated with mental health difficulties was assessed by a standardized scale (Clinical Outcomes in Routine Evaluation outcome measure). Cross-clausal syntactic integration was negatively correlated with the severity of symptoms. A multiple regression analysis confirmed that the use of simple sentences, finite complement clauses, and coordinated clauses was associated with symptoms (R2 = .26). The results suggest that the analysis of cross-clausal syntax can provide information on patients’ narrative skills in relation to distressing events and can therefore provide additional information to support treatment decisions.
Conduit metaphor
(2011)
Relationale Adjektive, also Adjektive, die aus Substantiven abgeleitet werden und die in attributiver Konstruktion mit einem Kopfsubstantiv eine unspezifische Relation zwischen dem Begriff des Kopfs und dem Begriff der Basis ausdrücken, spielen in den klassischen Sprachen eine bedeutende Rolle. Ausgehend von der silvestris musa, der Waldmuse des Vergil, wird in dem vorliegenden Beitrag den Nachwirkungen dieses Musters in europäischen Sprachen, dem Französischen, Englischen, vor allem aber im Deutschen nachgegangen. Die semantische Funktion solcher Adjektive wird der funktionalen Domäne ‚klassifikatorische Modifikation‘ zugeordnet. Sprachübergreifende Gemeinsamkeiten und Unterschiede werden herausgearbeitet. In knapper Form werden auch relationale Adjektive im Polnischen und Ungarischen, den weiteren Vergleichssprachen des Projekts „Grammatik des Deutschen im europäischen Vergleich“, einbezogen. Die Frage nach dem Verhältnis von universalen, sprachfamiliären, arealen und sprachspezifischen Eigenschaften des Konstruktionsmusters sowie nach dem Grad des lateinischen Einflusses wird auf diesem Hintergrund präziser formulierbar.
Much language-related research in cognitive robotics appeals to usage-based models of language as proposed in cognitive linguistics and developmental psychology [1, 2] that emphasise the significance of learning, embodiment and general cognitive development for human language acquisition. Over and above these issues, however, what takes centre stage in these theories are social-cognitive skills of “intention-reading” that are seen as “primary in the language acquisition process” [1] – and also as difficult to incorporate into computational models of language acquisition. The present paper addresses these concerns: we describe work in progress on a series of experiments that take steps towards closing the gap between ‘solipsistic’ symbol grounding in individual robotic agents and socially framed embodied language acquisition in learners that attend to common ground [3] with changing interlocutors.
Den Wald vor lauter Bäumen sehen - und andersherum: zum Verhältnis von 'Mustern' und 'Regeln'
(2011)
Die Konstruktionsgrammatik setzt dem Begriff der konstruktiven Regel den des komplexen Musters entgegen, das in syntaktischen Generalisierungsprozessen analogisch erweitert wird. Der vorliegende Beitrag präsentiert eine solche musterbasierte Analyse von deutschen Konstruktionen mit lokativem Subjekt (Wiesen und Wälder wuchern vor Blumen und Kräutern) als Extension einer Reihe verwandter Konstruktionen mit kausaler und intensivierender Funktion, aus denen die lokative Variante mutmaßlich hervorgegangen ist. Die Analyse argumentiert, dass der umgebenden ,Ökologie‘ der Zielkonstruktion im sprachlichen Wissen der Sprecher eine zentrale Rolle für die Erklärung der attestierten Varianten zukommt, die in regelbasierten Zugängen als unmotivierte ,Ausnahmen‘ von allgemeinen Linkingprinzipien gelten müssen.
High word frequency and neighborhood density contribute to the accuracy and speed of word production in English adults (e.g., Vitevitch & Sommers 2003), and characterize early words in child English (e.g., Storkel 2004). The present study investigated a speech corpus of child German (ages 2;00-3;00) to further the understanding of the influence of frequency and density on production. Results for four children suggest that, contrary to English, words produced early are not from denser neighborhoods in an adult lexicon than later words. As in English, frequent words are produced before less frequent words. Implications on theory and methodology are discussed.
Integrated Linguistic Annotation Models and Their Application in the Domain of Antecedent Detection
(2011)
Seamless integration of various, often heterogeneous linguistic resources in terms of their output formats and a combined analysis of the respective annotation layers are crucial tasks for linguistic research. After a decade of concentration on the development of formats to structure single annotations for specific linguistic issues, in the last years a variety of specifications to store multiple annotations over the same primary data has been developed. The paper focuses on the integration of the knowledge resource logical document structure information into a text document to enhance the task of automatic anaphora resolution both for the task of candidate detection and antecedent selection. The paper investigates data structures necessary for knowledge integration and retrieval.
This paper describes the effort of the Institut für Deutsche Sprache (IDS), the central research institution for the German language, connected with Information and Communications Technology (ICT). Use of ICT in a language research institute is twofold. On the one hand, ICT provides basic services for researches to accomplish their daily work. On the other hand, several national and international institutions have a strong interest in ICT. Therefore, ICT can also be seen as an amplifier for language research. The first part of this paper reports on the activates of the IDS in internal and external ICT-related projects and initiatives. The second part describes a general strategy towards an ICT strategy that could be useful both for the IDS and other national language institutes. We think such a general strategy is necessary to create a strong foundation not only for the ICT-related projects, but as a basis for a modem research institute.
In this paper, we explore different linguistic structures encoded as convolution kernels for the detection of subjective expressions. The advantage of convolution kernels is that complex structures can be directly provided to a classifier without deriving explicit features. The feature design for the detection of subjective expressions is fairly difficult and there currently exists no commonly accepted feature set. We consider various structures, such as constituency parse structures, dependency parse structures, and predicate-argument structures. In order to generalize from lexical information, we additionally augment these structures with clustering information and the task-specific knowledge of subjective words. The convolution kernels will be compared with a standard vector kernel.
In order to automatically extract opinion holders, we propose to harness the contexts of prototypical opinion holders, i.e. common nouns, such as experts or analysts, that describe particular groups of people whose profession or occupation is to form and express opinions towards specific items. We assess their effectiveness in supervised learning where these contexts are regarded as labelled training data and in rule-based classification which uses predicates that frequently co-occur with mentions of the prototypical opinion holders. Finally, we also examine in how far knowledge gained from these contexts can compensate the lack of large amounts of labeled training data in supervised learning by considering various amounts of actually labeled training sets.
In this paper, we investigate the role of predicates in opinion holder extraction. We will examine the shape of these predicates, investigate what relationship they bear towards opinion holders, determine what resources are potentially useful for acquiring them, and point out limitations of an opinion holder extraction system based on these predicates. For this study, we will carry out an evaluation on a corpus annotated with opinion holders. Our insights are, in particular, important for situations in which no labelled training data are available and only rule-based methods can be applied.
Sentiment Analysis is the task of extracting and classifying opinionated content in natural language texts. Common subtasks are the distinction between opinionated and factual texts, the classification of polarity in opinionated texts, and the extraction of the participating entities of an opinion(-event), i.e. the source from which an opinion emanates and the target towards which it is directed. With the emerging Web 2.0 which describes the shift towards a highly user-interactive communication medium, the amount of subjective content on the World Wide Web is steadily increasing. Thus, there is a growing need for automatically processing this type of content which is provided by sentiment analysis. Both natural language processing, which is the task of providing computational methods for the analysis and representation of natural language, and machine learning, which is the task of building task-specific classification models on the basis of empirical data, may be instrumental in mastering the challenges of the automatic sentiment analysis of written text. Many problems in sentiment analysis have been proposed to be solved with machine learning methods exclusively using a fairly low-level feature design, such as bag of words, containing little linguistic information. In this thesis, we examine the effectiveness of linguistic features in various subtasks of sentiment analysis. Thus, we heavily draw from the insights gained by natural language processing. The application of linguistic features can be applied on various classification methods, be it in rule-based classification, where the linguistic features are directly encoded as a classifier, in supervised machine learning, where these features complement basic low-level features, or in bootstrapping methods, where these features form a rule-based classifier generating a labeled training set from which a supervised classifier can be trained. In this thesis, we will in particular focus on scenarios where the combination of linguistic features and machine learning methods is effective. We will look at common text classification tasks, both coarse-grained and fine-grained, and extraction tasks.
Im letzten halben Jahrhundert hat in der formalen Grammatikforschung eine intensive Diskussion über die Natur syntaktischer und lexikalischer Information statt-gefunden. Während die frühe Generative Grammatik der traditionellen Grammatik folgte und konstruktionsspezifische Regeln anerkannte, gibt es seit den achtziger Jahren extreme Formen des Lexikalismus, die die Existenz von Konstruktionen bestreiten. Als Reaktion auf diese Entwicklungen leitete die „Berkeley Construction Grammar“ eine Renaissance der grammatischen Konstruktion ein. Der vorliegende Aufsatz untersucht anhand deutscher Relativsatztypen, ob diese besser rein lexikalisch oder mit Hilfe von Konstruktionen zu analysieren sind. Der Befund ist eindeutig: Die empirischen Daten treiben die rein lexikalische Theorie vor sich her und erweisen sie als unmotiviert und unüberzeugend. Im Gegensatz dazu kann die konstruktionale Theorie mit „intelligenten“ Werkzeugen wie Typen, Untertypen und Vererbung Generalisierungen über deutsche Relativsätze auf allen Ebenen elegant und effizient erfassen. Der Vorschlag Chomskys, Konstruktionen aus der Grammatik zu verbannen, erweist sich somit konzeptuell und empirisch als wissenschaftliche Fehlentscheidung.
Ausdrucksalternativen bei Konnektoren – Varianten oder Fehler? Protokoll eines fiktiven Gesprächs
(2011)
Das Werk versteht sich als eine Darstellung der wichtigsten syntaktischen, prosodischen, semantischen und pragmatischen Eigenschaften kausaler und konditionaler Konnektoren des gesprochenen Deutsch.
Die Untersuchung formuliert notwendige theoretische Grundlagen und zeigt die komplexe Interaktion mehrerer Faktoren, die sich auf die Interpretation einer Äußerung auswirken. Empirische Daten belegen, dass die kontextuelle und pragmatische Interpretation der untersuchten Relationen stark mit ihren syntaktischen und prosodischen Mustern korreliert. Jedoch handelt es sich nicht um eine Eins-zu-eins-Beziehung, denn gleiche Lesarten können von kausalen und konditionalen Relationen unterschiedlich markiert sein. Anhand der Ergebnisse wird das Verhältnis zwischen Konditionalität und Kausalität diskutiert.
Der Definitionswortschatz im einsprachigen Lernerwörterbuch des Deutschen. Anspruch und Wirklichkeit
(2011)
Der vorliegende Band beschäftigt sich im theoretisch orientierten ersten Teil mit der Geschichte des Ansatzes, in Lernerwörterbüchern einen kontrollierten Definitionswortschatz zu verwenden. Zudem wird die kontroverse Diskussion um den kontrollierten Definitionswortschatz in der Metalexikografie wiedergegeben. Den Hauptteil der Arbeit bildet die korpusbasierte Analyse des Definitionswortschatzes des Langenscheidt Taschenwörterbuchs Deutsch als Fremdsprache und des Duden/Hueber Wörterbuchs Deutsch als Fremdsprache. Zum einen werden sowohl quantitative als auch qualitative Merkmale des verwendeten Definitionswortschatzes untersucht, zum anderen geht es um die Frage, inwieweit die beiden Wörterbücher ihren Eigenanspruch eines computerkontrollierten Definitionswortschatzes einhalten. Die Untersuchung schließt damit einerseits eine metalexikografische Forschungslücke, andererseits enthält sie Empfehlungen an die praktische Lexikografie.
Scientific interest in von Kempelen's 'speaking machine' stems mainly from a general interest in the history of science. This study, however, is devoted to the question of what relevance the 'speaking machine' has today. Apart for discussing why it fascinates researchers and non-researchers alike we describe the potential of replicas as an instrument for demonstration and for researching speech generation.
Scientific interest in von Kempelen's 'speaking machine' stems mainly from a general interest in the history of science. This study, however, is devoted to the question of what relevance the 'speaking machine' has today. Apart for discussing why it fascinates researchers and non-researchers alike we describe the construction of a replica and its potential as an instrument for demonstration and for researching speech generation.
Der kindliche Spracherwerb zeichnet sich sowohl durch seine Robustheit als auch durch eine spezifische Dynamik aus. Im Mittelpunkt des Beitrags stehen frühe Phasen des Erwerbs des Deutschen, in denen Konstruktionen unterschiedlicher Analysetiefe koexistieren, die im Laufe der Zeit immer wieder reanalysiert werden und schließlich auf einen einzigen abstrakten Bauplan hin konvergieren. Anhand von Daten aus diversen Fallstudien wird gezeigt, dass die Entwicklung der so genannten „Satzklammer“ des Deutschen als Konvergenzprozess verstanden werden kann, bei dem Lerner bewährte Teilsysteme, darunter anfängliche teilproduktive Formeln, dekonstruieren und auf abstrakterer Ebene rekonstruieren. Untersucht werden typische Übergangsphänomene, u.a. die Verwendung von Platzhaltern und Doppelbesetzungen, die diese Konstruktionsleistung erkennen lassen. Argumentiert wird, dass sich generative und dynamische, konstruktivistische Ansätze bei dem Bemühen um eine Erklärung dieses Erwerbsprozesses sinnvoll ergänzen.
Spionage für die ehemalige DDR - Zeitbezug bei Attributen (aus "Grammatik in Fragen und Antworten")
(2011)
Von Grammatikern erwartet man Auskunft darüber, wie man zu reden und zu schreiben hat, eine Erwartung, die sich auf die Annahme stutzt, es stehe grundsätzlich immer schon fest, was in Sprachen wie etwa dem Deutschen als korrekt gelten kann. Tatsächlich kann jedoch nicht einmal davon ausgegangen werden, dass es so etwas wie das Deutsche als eindeutig bestimmten Gegenstand gibt. Alles, was als Deutsch zu fassen ist, sind ungezählte schriftliche und - sofern aufgezeichnet - mündliche Äußerungen. Bis vor wenigen Jahren waren diese Daten praktisch nur unzureichend zu nutzen, weshalb Grammatikern wenig anderes übrig blieb, als auf der schmalen Basis durch Introspektion gewonnener Daten Simulationen eines allgemeinen Sprachgebrauchs zu entwickeln. Mit der Verfügung über riesige Korpora maschinenlesbarer Texte haben sich die Voraussetzungen für die Untersuchung grammatischer Strukturen entscheidend verändert. Für die Grammatikforschung ergaben sich damit neue Perspektiven: zum einen ein radikaler Bruch mit der Tradition grammatischer Analysen, der weitgehend auf eine statistische Auswertung von Kookkurrenzen setzt, zum andern - weniger radikal, mehr traditionsverbunden - die Möglichkeit, konventionell kompetenzgestutzt erarbeitete Regelhypothesen anhand von Daten zu validieren, wie sie in sehr großen Textkorpora vorliegen und dem, was als Deutsch gelten kann, so nah kommen, wie dies irgend erreichbar ist, da sie durchweg in dem Bemühen zustande kamen, sich korrekt auszudrucken.
Die Ordnung des öffentlichen Diskurses der Wirtschaftskrise und die (Un-)Ordnung des Ausgeblendeten
(2011)
Ausdrücke wie Globalisierung und Wirtschaftskrise sind Teil unserer öffentlichen Alltagssprache. Sie stehen für politische und soziokulturell brisante Debatten und ihre semantische Analyse zeigt den engen Zusammenhang zwischen Sprache und Gesellschaft. Der alltägliche Gebrauch solcher Ausdrücke etabliert gemeingesellschaftliche Diskurse, die mit korpuslinguistischen Verfahren analysierbar sind. In diesem Beitrag wird der Diskurs der Finanz- und Wirtschaftskrise in der öffentlichen Sprache von Zeitungstexten betrachtet. Zentrales Diskursobjekt ist der lexikalische Ausdruck Wirtschaftskrise selbst. Die Ermittlung relevanter Kontextbeziehungen, wie sie in Kollokationen vorhanden sind, und regelhafter Verwendungsmuster spielt für seine Beschreibung die wichtigste Rolle, da diese Indikatoren zum einen typische Thematisierungen sind und zum anderen Lexikalisierungen mit Bewertungspotenzial darstellen. Abschließend erfolgt eine kurze kritische Betrachtung der Dokumentation diskurs-relevanter Ausdrücke in deutschen Wörterbüchern der Gegenwartssprache.
In den zwei Jahrzehnten vor dem ersten Weltkrieg standen weite Teile des Südpazifik unter deutscher Verwaltung. Das Deutsche stand hier in einem eng umrissenen geographischen Areal über 700 anderen Sprachen gegenüber, was zu einer besonderen Situation in Bezug auf Sprachenpolitik, Sprachenverhältnisse und Sprachkontakt führte. Ein konkretes Beispiel für kontaktbedingten lexikalischen Einfluss in diesem Kontext bietet die sprachliche Situation auf der pazifischen Insel Nauru. Hier hielten sich zu Anfang des 20. Jahrhunderts etwa zeitgleich zwei deutschsprachige Missionare auf, der Protestant Philip A. Delaporte und der Katholik Alois Kayser; beide trugen aktiv zur Dokumentation und schriftlichen Verwendung des Nauruischen bei. Ein Vergleich der Wörterbücher zeigt jedoch deutliche Unterschiede, v.a. in Bezug auf die Herkunft von Lehnwörtern, Während bei Delaporte in allen auf Nauruisch verfassten schriftlichen Dokumenten eine größere Zahl an deutschen Lehnwörtern auftritt, finden sich bei Kayser an deren Stelle häufig die entsprechenden englisch-basierten Lexeme, sofern die betreffenden Lemmata überhaupt erfasst sind. In der vorliegenden Untersuchung geht es um einen Vergleich der Wörterbücher von Delaporte und Kayser, wobei ergänzend eine Wortliste von Paul Hambruch (1914—15) sowie neuere nauruische Wortlisten (Nauruan Swadesh List 1954, Petit-Skinner 1981) herangezogen werden. Eine zentrale Fragestellung ist, wie sich die Unterschiede zwischen Delaporte und Kayser erklären lassen und welche Schlussfolgerungen aus solchen Unterschieden in der Sprachdokumentation für die weitere Erforschung dieser und vergleichbarer Kontaktsitutationen zu ziehen sind (Zuverlässigkeit bzw. Bewertung linguistischer Dokumente). Dabei kommen auch methodologische Gesichtspunkte zur Sprache, u.a. die Schwierigkeit, eine aussagekräftige und quantitativ ausreichende Datenbasis zusammenzustellen, die eine möglichst zuverlässige Grundlage für die Evaluierung einer solchen historischen Sprachkontaktsituation bieten kann.
In ihrem Buch "Die Sprachenfrage in der Europäischen Union" versucht die Verfasserin, die zahlreichen Aspekte der sprachlichen Situation der EU multidisziplinär und umfassend darzustellen und zu erörtern. Sie stützt sich auf eine bemerkenswert vielfältige Materialbasis. Insgesamt vermittelt das Buch jedoch eher einen Eindruck von der oft verwirrenden Vielfalt sprachlicher Praktiken, Regelungen, Planungen und Aktionen, als dass es zu einer klärenden Übersicht über die komplexen Gegebenheiten verhelfen könnte. Für weitere Studien wäre die Beschränkung auf einige wenige überschaubare, klar formulierte und empirisch zugängliche Gegenstandsbereiche der sprachlichen Verhältnisse in der EU und ihren Mitgliedsstaaten zu empfehlen.
Oscailt/Opening
(2011)
Αυοιγμα / Opening
(2011)
Wörter und Unwörter
(2011)
„Keine Angst vor Anglizismen“ sagt Gerhard Stickel und zeigt, dass und wie der Wortschatz der deutschen Sprache sich ständig erneuert, nicht nur durch die Entlehnung von Wörtern aus anderen Sprachen, sondern mehr noch durch die Bildung neuer Wörter aus vorhandenen eigenen Wörtern und Wortteilen. So wie die alte Vorliebe für Wörter aus dem Französischen sich überlebt hat, sind auch viele Anglizismen schon wieder untergegangen, und ihr übermäßiger Gebrauch sagt weniger über die Sprache als über ihre Sprecher – ganz abgesehen davon, dass das Deutsche nicht nur Wörter aus anderen Sprachen aufnimmt, sondern auch seinerseits Wörter an andere Sprachen abgibt. Die deutsche Sprache wird zum Faszinosum in diesem Vortrag des ehemaligen Direktors des Instituts für Deutsche Sprache.
Von der sprachlichen Oberfläche zum Muster. Zur qualitativen Interpretation syntagmatischer Profile
(2011)
This paper discusses a corpus-driven approach to the study of multi-word expressions (MWE) (in our terminology: Usuelle Wortverbindungen UWV). Our approach is based on collocation data and syntagmatic profiles. Several interpretative Steps lead from the language surface structure to MWE to more abstract multi-word patterns (MWP). MWP contain fixed components as well as slots, which are filled by elements with similar semantic or pragmatic characteristics. Like simple MWE, MWP can be considered units of the lexicon and patterns of language use with a holistic meaning and function. The formation of patterns, the semantic and pragmatic characteristics of the fillers and the restrictions on usage cannot be described by rules or language competence alone, but require bottom-up analysis on the basis of very large Corpora.
Wo ein Wille ist, ist auch ein Weg - das erste größere Neologismenwörterbuch für das Deutsche
(2011)
Es ist unbestritten, dass in allen natürlichen Sprachen nicht-kompositionelle Form-Bedeutungspaare verschiedener Komplexitäts- und Abstraktionsgrade existieren. Uneinigkeit besteht dagegen bezüglich der Frage, ob diese Form-Bedeutungspaare als Teil der Grammatik oder gar, wie in der Konstruktionsgrammatik postuliert, als grundsätzliches grammatisches Organisationsprinzip zu verstehen sind. In meinem Beitrag argumentiere ich für eine zentrale Rolle von Konstruktionen bei der Repräsentation sprachlichen Wissens: Da Menschen offensichtlich in der Lage sind, Konstruktionen (im oben genannten Sinne) zu erwerben und zu verarbeiten, muss ein entsprechendes, konstruktionsverarbeitendes System existieren. Dieses kann auch nicht-idiomatische (regelhafte) Strukturen verarbeiten. Umgekehrt kann aber ein regelverarbeitendes System nicht ohne Weiteres idiomatische Strukturen verarbeiten. Das Sparsamkeitsprinzip sagt uns, dass eine Grammatik mit nur einem System einer mit zwei Systemen vorzuziehen ist, wenn es keine zwingenden Gründe für die Annahme eines zweiten Systems gibt. Neben diesem logisch-ökonomischen Argument diskutiere ich abschließend die Möglichkeit, anhand der systematischen Verletzung scheinbar allgemeingültiger grammatischer Regeln die Plausibilität eines konstruktionsverarbeitenden Systems empirisch zu untermauern.
When time is not space
(2011)
It is widely assumed that there is a natural, prelinguistic conceptual domain of time whose linguistic organization is universally structured via metaphoric mapping from the lexicon and grammar of space and motion. We challenge this assumption on the basis of our research on the Amondawa (Tupi Kawahib)language and culture of Amazonia. Using both observational data and structured field linguistic tasks, we show that linguistic space-time mapping at theconstructional level is not a feature of the Amondawa language, and is not employed by Amondawa speakers (when speaking Amondawa). Amondawa does not recruit its extensive inventory of terms and constructions for spatial motion and location to express temporal relations. Amondawa also lacks a numerically based calendric system. To account for these data, and in opposition to a Universal Space-Time Mapping Hypothesis, we propose a Mediated Mapping Hypothesis, which accords causal importance to the numerical and artefact-based construction of time-based (as opposed to event-based) time interval systems.
This article presents a revised version of GAT, a transcription system first devel-oped by a group of German conversation analysts and interactional linguists in 1998. GAT tries to follow as many principles and conventions as possible of the Jefferson-style transcription used in Conversation Analysis, yet proposes some conventions which are more compatible with linguistic and phonetic analyses of spoken language, especially for the representation of prosody in talk-in-interaction. After ten years of use by researchers in conversation and discourse analysis, the original GAT has been revised, against the background of past experience and in light of new necessities for the transcription of corpora arising from technologi-cal advances and methodological developments over recent years. The present text makes GAT accessible for the English-speaking community. It presents the GAT 2 transcription system with all its conventions and gives detailed instructions on how to transcribe spoken interaction at three levels of delicacy: minimal, basic and fine. In addition, it briefly introduces some tools that may be helpful for the user: the German online tutorial GAT-TO and the transcription editing software FOLKER.
"Mit sofortiger Wirkung" : Deutsche Rücktrittserklärungen 2010 aus linguistischer Perspektive
(2011)
2010 war für die Bundesrepublik ein Jahr der Rücktritte aus zentralen Machtbereichen der Politik, Kirche und Verwaltung. Die Funktionsträger vermittelten den Eindruck „als sei ihnen die Gestaltung dieses Landes nicht mehr wichtig genug, um ihr Leben damit zu füllen“ (Bartsch 2010, 66). In diesem Aufsatz stehen nicht die Vorgeschichte, Gründe oder die Bewertung von Rücktritten im Vordergrund, sondern die linguistische Perspektive – d.h. die sprachliche Ausgestaltung sowie die Funktionen der Textsorte Rücktrittserklärung.
"Themengebundene Verwendung(en)" als neuer Angabetyp unter der Rubrik "Besonderheiten des Gebrauchs"
(2011)
Linguistic query systems are special purpose IR applications. We present a novel state-of-the-art approach for the efficient exploitation of very large linguistic corpora, combining the advantages of relational database management systems (RDBMS) with the functional MapReduce programming model. Our implementation uses the German DEREKO reference corpus with multi-layer linguistic annotations and several types of text-specific metadata, but the proposed strategy is language-independent and adaptable to large-scale multilingual corpora.
In diesem Beitrag beschäftigen wir uns mit einem für den Unterricht in bestimmten Klassen durchaus bekannten Ereignis, nämlich dem Diktieren eines Textes. Dabei handelt es sich in der Regel um einen überschaubaren Ereigniszusammenhang: Ein Lehrer/eine Lehrerin liest einen Text langsam und stückweise vor, den die Schüler/innen aufschreiben. Wir werden diesen fraglichen Zusammenhang auf der Grundlage eines Videoausschnitts im Detail rekonstruieren, der Bestandteil eines Korpus von Aufzeichnungen in einer Waldorfschule ist. Es handelt sich bei dem Ausschnitt um den Epochenunterricht im Fach Chemie in einer achten Klasse. Wir werden zeigen, dass Diktieren im Kontext des Epochenunterrichts in der Waldorfschule aufgrund der Schultypenspezifik ein sehr komplexer und – anders als man dies zunächst vermuten würde – auch ein im engeren Sinne gemeinsam von der Lehrerin und den Schülern/Schülerinnen gestalteter und hervorgebrachter Ereigniszusammenhang ist. Den Schülerinnen/Schülern fällt beim Diktieren nämlich nicht nur die rezeptive Rolle zu, den von der Lehrerin vorgelesenen Text im Wortlaut aufzuschreiben. Sie tragen vielmehr auf sehr unterschiedliche Weise selbst aktiv zur Entwicklung und Ausgestaltung des Diktierens bei. In diesem interaktiven Zusammenspiel verändert sich die Grundstruktur „Lehrerin liest vor und Schüler/innen schreiben auf“ während des Diktates durch unterschiedliche Initiativen und Beiträge in vielfältiger Weise.
Vor den inhaltlichen Ausführungen dieser Einleitung stehen drei Vorbemerkungen: Erstens wird kurz das Zustandekommen dieses Buches beschrieben, um zu verdeutlichen, dass es von Anfang an von der Kooperation zwischen Wissenschaft und Praxis getragen worden ist. Zweitens wird der Aufbau des Buches skizziert, damit Leser und Leserin sich ein Bild davon machen können, was sie erwartet. Drittens wird dargelegt, dass die Ergebnisse des Buches zwar auf der Basis einer differenzierten und komplexen wissenschaftlichen Methode erarbeitet worden sind, das Erkenntnisinteresse jedoch ein anwendungsbezogenes ist.
In diesem abschließenden Beitrag soll zunächst verdeutlicht werden, was die zurückliegenden Fallanalysen an allgemeinen Einsichten für didaktisches Handeln unter Bedingungen faktischer Interaktion eröffnet haben. Es geht also um Einsichten, die in ihrer Bedeutung über das einzelne analysierte Beispiel hinausgehen (Kap. 2). Darüber hinaus soll gezeigt werden, welche Konsequenzen sich auf der Grundlage dieser falltranszendierenden Einsichten für eine handlungsgegründete Konzeption von Didaktik ergeben (Kap. 3). Schließlich soll die Frage gestellt werden, welche Perspektiven sich für die Ausbildung von Referendarinnen/Referendaren und die Weiterbildung von Lehrern/Lehrerinnen auf der Grundlage der produzierten Ergebnisse eröffnen (Kap. 4). An einem konkreten Beispiel soll abschließend aufgezeigt werden, welche Möglichkeiten bestehen, die Analyseergebnisse für eine Sensibilisierung sowohl in der Ausbildung von Referendaren/ Referendarinnen als auch der Weiterbildung von Lehrerinnen/Lehrern für Mechanismen von Interaktion zu nutzen und für den Unterricht zur Verfügung zu stellen (Kap. 5).
We present some recent and planned future developments in EXMARaLDA, a system for creating, managing, analysing and publishing spoken language corpora. The new functionality concerns the areas of transcription and annotation, corpus management, query mechanisms, interoperability and corpus deployment. Future work is planned in the areas of automatic annotation, standardisation and workflow management.
Das Kicktionary ist ein dreisprachiges (deutsch-englisch-französisches) elektronisches Wörterbuch der Fußballsprache. Es basiert auf einem Korpus von geschriebenen Fußballberichten und (in geringerem Umfang) gesprochenen Fußballkommentaren und nutzt die Ideen der Framesemantik (Fillmore 1982, Fillmore et al. 2003) sowie der lexikalischen Relationen (Fellbaum 1998) zur Strukturierung des Wortschatzes. Verschiedene Aspekte der Erstellung, Präsentation und Nutzung des Kicktionary sind in Schmidt (2008, 2009 und 2010) dargestellt. Im vorliegenden Beitrag konzentriere ich mich auf die Frage, welche Datenmodelle und welche Datenformate zur Modellierung des Wortschatzes im Kicktionary zum Einsatz kamen. Zu diesem Zweck möchte ich einleitend zunächst mein Verständnis dieser drei Begriffe – Datenmodell, Datenformat und Modellierung – näher erläutern.
This paper formulates a proposal for standardising spoken language transcription, as practised in conversation analysis, sociolinguistics, dialectology and related fields, with the help of the TEI guidelines. Two areas relevant to standardisation are identified and discussed: first, the macro structure of transcriptions, as embodied in the data models and file formats of transcription tools such as ELAN, Praat or EXMARaLDA; second, the micro structure of transcriptions as embodied in transcription conventions such as CA, HIAT or GAT. A two-step process is described in which first the macro structure is represented in a generic TEI format based on elements defined in the P5 version of the Guidelines. In the second step, character data in this representation is parsed according to the regularities of a transcription convention resulting in a more fine-grained TEI markup which is also based on P5. It is argued that this two step process can, on the one hand, map idiosyncratic differences in tool formats and transcription conventions onto a unified representation. On the other hand, differences motivated by different theoretical decisions can be retained in a manner which still allows a common processing of data from different sources. In order to make the standard usable in practice, a conversion tool—TEI Drop—is presented which uses XSL transformations to carry out the conversion between different tool formats (CHAT, ELAN, EXMARaLDA, FOLKER and Transcriber) and the TEI representation of transcription macro structure (and vice versa) and which also provides methods for parsing the micro structure of transcriptions according to two different transcription conventions (HIAT and cGAT). Using this tool, transcribers can continue to work with software they are familiar with while still producing TEI-conformant transcription files. The paper concludes with a discussion of the work needed in order to establish the proposed standard. It is argued that both tool formats and the TEI guidelines are in a sufficiently mature state to serve as a basis for standardisation. Most work consequently remains in analysing and standardising differences between different transcription conventions.
In der Arbeit wird die Analyse agonaler Zentren, die Felder (2012) vorgelegt hat, überprüft und um korpuslinguistische Herangehensweisen erweitert. Es wird überprüft, inwiefern bestimmte Wortarten in der Lage sind, die Analyse agonaler Zentren unabhängig vom Thema des Diskurses zu unterstützen. Dazu wird die computergestützte Korpusanalyse mit Hilfe von Konnektoren, Präpositionen, Partikeln, Substantiven, Adjektiven und Verben zunächst an einem bereits von Felder (2012) analysierten Korpus getestet und dann an einem weiteren, im Hinblick auf Thema und Textsorten völlig anderen Korpus überprüft. Insbesondere die Konnektoren stellen sich dabei als für die themenunabhängige, computergestützte Korpusanalyse als leistungsstark heraus.
Medizinische Kommunikation
(2011)
Semantic argument structures are often incomplete in that core arguments are not locally instantiated. However, many of these implicit arguments can be linked to referents in the wider context. In this paper we explore a number of linguistically motivated strategies for identifying and resolving such null instantiations (NIs). We show that a more sophisticated model for identifying definite NIs can lead to noticeable performance gains over the state-of-the- art for NI resolution.
Bericht über die 15. Arbeitstagung zur Gesprächsforschung vom 30. März - 1. April 2011 in Mannheim
(2011)
Active Learning (AL) has been proposed as a technique to reduce the amount of annotated data needed in the context of supervised classification. While various simulation studies for a number of NLP tasks have shown that AL works well on goldstandard data, there is some doubt whether the approach can be successful when applied to noisy, real-world data sets. This paper presents a thorough evaluation of the impact of annotation noise on AL and shows that systematic noise resulting from biased coder decisions can seriously harm the AL process. We present a method to filter out inconsistent annotations during AL and show that this makes AL far more robust when applied to noisy data.
Problems for parsing morphologically rich languages are, amongst others, caused by the higher variability in structure due to less rigid word order constraints and by the higher number of different lexical forms. Both properties can result in sparse data problems for statistical parsing. We present a simple approach for addressing these issues. Our approach makes use of self-training on instances selected with regard to their similarity to the annotated data. Our similarity measure is based on the perplexity of part-of-speech trigrams of new instances measured against the annotated training data. Preliminary results show that our method outperforms a self-training setting where instances are simply selected by order of occurrence in the corpus and argue that selftraining is a cheap and effective method for improving parsing accuracy for morphologically rich languages.
We introduce a system that learns the participants of arbitrary given scripts. This system processes data from web experiments, in which each participant can be realized with different expressions. It computes participants by encoding semantic similarity and global structural information into an Integer Linear Program. An evaluation against a gold standard shows that we significantly outperform two informed baselines.
Die Kausalkonjunktionen denn, weil, da im Deutschen und perché, poiché, siccome im Italienischen
(2011)
Gegenstand des vorliegenden Aufsatzes sind die deutschen Kausalkonjunktionen denn, weil und da und ihre (partiellen) italienischen Äquivalente perché, poiché und siccome. Sie werden vergleichend in syntaktischer und semantischer Hinsicht untersucht, mit dem Ziel, Gemeinsamkeiten und Unterschiede zwischen ihnen aufzuweisen.
An interactive, dynamic electronic dictionary aimed at text production should guide the user in innovative ways, especially in respect of difficult, complicated or confusing issues. This paper proposes a design for bilingual dictionaries intended to guide users in text production; we focus on complex phenomena of the interaction between lexis and grammar. It will be argued that a dictionary aimed at guiding the user in lexical selection should implement a type of “decision algorithm”. In addition, it should flag incorrect solutions and should warn against possible wrong generalisations of (foreign) language learners. Our proposals will be illustrated with examples from several languages, as the design principles are generally applicable. The copulative construction which is regarded as the most complicated grammatical structure in Northern Sotho will be analyzed in more detail and presented as a case in point.
Dieser Beitrag thematisiert semantische Bedingungen des unpersönlichen Passivs im Deutschen und in anderen Sprachen. Traditionellerweise nimmt man an, dass nur atelische und agentivische Verben im unpersönlichen Passiv akzeptabel sind. Ich werde die empirischen Hypothesen der bisherigen Forschung auf der Grundlage von Akzeptabilitätsstudien und einer breiteren korpusbasierten Datenmenge revidieren. Die hier behandelten semantischen Aspekte wurden in einflussreichen Arbeiten als Evidenz für die Überlegenheit einer konstruktionsgrammatischen Herangehensweise gewertet. Ich werde diese Evidenz in Frage stellen und beschränkungsbasierte Alternativen präsentieren.
Mehrsprachigkeit ist auch in Deutschland eine gesellschaftliche Realität. Allerdings sind die verschiedenen Sprachen mit einem unterschiedlichen Prestige ausgestattet. In diesem Beitrag werden Einstellungen gegenüber anderen Sprachen und ihren Sprechern näher untersucht. Dazu werden zum einen die Daten einer bundesweit durchgeführten Repräsentativumfrage herangezogen, zum andern wird eine Erhebung mit Schülern der 9. und 10. Klasse zu ihren Spracheinstellungen ausgewertet. Überwiegend positiv beurteilt werden Französisch, Italienisch, Spanisch und Englisch, während insbesondere Migrantensprachen von der Mehrheit der Sprecher distanziert bewertet werden. Das gilt auch und besonders für die beiden zahlenmäßig größten Sprachminderheiten, Russisch und Türkisch – und hier vor allem für das Türkische.
Migranten und ihre Sprachen
(2011)
This paper provides a unified semantic and discourse pragmatic analysis of the German particle nämlich, traditionally described as having a specificational and an explanative reading. Our claim is that nämlich is a discourse marker which signals that the expression it is attached to is a short (elliptic) answer to a salient implicit question about the previous utterance. We show how both the explanative and the specificational reading can be derived from this more general semantic contribution. In addition we discuss some cross linguistic consequences of our analysis.
Der folgende Beitrag beschäftigt sich mit Fragen der strukturellen Konzipierung des ersten deutschrussischen Neologismenwörterbuches, das den neuen Wortschatz im Deutschen für den russischsprachigen Nutzer umfassend beschreiben wird. Den Hintergrund für die konzeptionellen Überlegungen bildet das 2004 veröffentlichte Wörterbuch für die Neologismen der 90er Jahre im Deutschen, das seit 2006 online ist und weitergeführt wird. Mittels einer Umfrage unter russischen Wörterbuchbenutzern zu Bedarf und Nutzungsverhalten wurde versucht, das Benutzerinteresse zu eruieren und zu klassifizieren. Anhand der verschiedenen Funktionen, die ein deutsch-russisches Neologismenwörterbuch erfüllen kann, wird ein Konzept für die Mikrostruktur besonders in Bezug auf die Bedeutungserklärung und Äquivalenz entworfen.
Gegenstand ist die Analyse der Sprachkontakte zwischen dem Deutschen, Tschechischen und Slowakischen anhand der Geschichte der deutschen Lehnwörter in diesen Slawinen vom Beginn ihrer einzelsprachlichen Entwicklung bis ins 20. Jahrhundert. Nach einer synthetisierenden Studie werden im chronologisch und nach regionalen Varietäten gegliederten Wörterbuch in mehr als 3 500 Wörterbuchartikeln über 15 000 einzelne Wortformen analysiert und ihre Erstbelege angeführt. Mit einer umfassenden Bibliographie zum deutsch-slawischen Sprachkontakt und ausführlichen Indices stellt das für die Neuauflage durchgehend überarbeitete und aktualisierte Werk eine nahezu unerschöpfliche Quelle für die Sprachkontaktforschung im Allgemeinen sowie für die Germanistik und Slawistik im Besonderen dar.
Thema des Beitrags ist der Einsatz des Dudenkorpus in der Zusammenarbeit von Grammatikautoren und Dudenredaktion. Das annotierte Korpus und die Recherchemöglichkeiten, die es bietet, werden anhand aktueller Beispiele aus der Werkstatt einer Dudenredakteurin beschrieben. Einen Schwerpunkt bildet neben einfachen Vergleichen zwischen zwei oder drei morphologischen Varianten die komplexere Frage, ob temporales wo (der Zeitpunkt, wo; jetzt, wo) in der Dudengrammatik weiterhin als standardsprachlich bezeichnet werden soll. Zugleich wird versucht, die Attraktivität alternativer Konstruktionen (der Zeitpunkt, zu dem; jetzt, da) für Schreibende und Lesende zu messen. Diese ‘Alternativen’ verhalten sich jedoch keineswegs wie die eingangs erwähnten morphologischen Varianten zueinander – zu unterschiedlich sind semantische und syntaktische Leistungen, zu unterschiedlich die Restriktionen, die für ihre Verwendung im Satz gelten, zu unterschiedlich sind schließlich die untersuchten Texte, aus denen die mittels Hochrechnung ausgewerteten über 30 000 Sätze stammen. Zur Diskussion steht, welche Konsequenzen in einer Grammatik für ein breites Publikum zu ziehen sind. Diese Frage wird für die ‘Wortgrammatik’ anders beantwortet als für die ‘Regelgrammatik’.
What makes a good online dictionary? Empirical insights from an interdisciplinary research project
(2011)
This paper presents empirical fmdings from two online surveys on the use of online dictionaries, in which more than 1,000 participants took part. The aim of these studies was to clarify general questions of online dictionary use (e.g. which electronic devices are used for online dictionaries or different types of usage situations) and to identify different demands regarding the use of online dictionaries. We will present some important results ofthis ongoing research project by focusing on the latter. Our analyses show that neither knowledge of the participants’ (scientific or academic) background, nor the language Version of the online survey (German vs. English) allow any significant conclusions to be drawn about the participant’s individual user demands. Subgroup analyses only reveal noteworthy differences when the groups are clustered statistically. Taken together, our fmdings shed light on the general lexicographical request both for the development of a user-adaptive interface and the incorporation of multimedia elements to make online dictionaries more user-friendly and innovative.
Der Artikel stellt die Projekte vor, die sich im Rahmen der Projektmesse zur „Elektronischen Lexikografie“ präsentiert haben. Diese Messe wurde begleitend zur 46. Jahrestagung des Instituts für Deutsche Sprache veranstaltet. Es wird in diesem Beitrag auf der Basis der Messepräsentationen dargelegt, inwiefern Entwicklungen der Korpuslexikografie und der Internetlexikografie die lexikografische Erfassung syntagmatischer Aspekte des deutschen Wortschatzes befördern und welche lexikografischen Internetressourcen dazu verfügbar sind.
Im vorliegenden Beitrag soll der Aufbau einer maßgeschneiderten XML-Modellierung für ein Wörterbuchnetz erläutert werden. Diese Schriftfassung beruht auf einem gleichlautenden Vortrag, der auf dem ersten Arbeitstreffen des DFG-Netzwerks "Internetlexikografie" in Mannheim im Mai 2011 gehalten wurde. Der Beitrag ist als Werkstattbericht zu verstehen, d. h. als praktisch orientierter Blick sowohl darauf, wie wir unsere Modellierung für OWID konzipiert haben, welche Konsequenzen dies für die lexikographische Arbeit sowie für die Recherchemöglichkeiten der Nutzer hat, als auch darauf, welche Vor- und Nachteile wir bei diesem Modellierungsansatz sehen. Der vorliegende Beitrag bietet damit keine umfassende theoretische Auseinandersetzung mit verschiedenen Möglichkeiten der Modellierung. Lediglich im folgenden Kapitel werden die Grundzüge des Modellierungsansatzes kurz erläutert und es wird auf entsprechende weiterführende projektbezogene Literatur verwiesen.
Der Einsatz einer maßgeschneiderten, feingranularen XML-Modellierung im lexikografischen Prozess
(2011)
Linguistische Ausdrücke, die offensichtlich aus kleineren Teilen zusammengesetzt sind, deren formale oder funktionale Eigenschaften jedoch nicht auf der Basis dieser kleineren Teile bestimmt werden können, kann man als Konstruktionen bezeichnen. Eine Standardannahme in regelbasierten Grammatikmodellen ist, dass komplexe linguistische Ausdrücke ins Lexikon gehören, wenn sie Konstruktionen sind, und in einem regelbasierten Bereich der Grammatik erfasst werden, wenn sie keine Konstruktionen sind. Dies führt zu einer inhomogenen und konzeptuell daher wenig attraktiven Theorie, die zwei mögliche Quellen für komplexe linguistische Ausdrücke vorsieht: Lexikon und Grammatik. Grundsätzlich gibt es zwei Auswege aus diesem Dilemma: Zum einen kann man die Rolle von Konstruktionen stärken, so dass Konstruktionen viel oder sogar alles von dem abdecken, was traditionell von grammatischen Regeln behandelt wird. Zum anderen kann man aber auch versuchen, die Rolle von Regeln zu stärken, so dass Regeln viel oder sogar alles von dem abdecken, wofür man typischerweise Konstruktionen bemüht. In diesem Aufsatz möchte ich anhand von zwei Phänomenen in der Grammatik des Deutschen, die auf den ersten Blick wie Musterexemplare für Konstruktionen aussehen, argumentieren, dass ein ausschließlich regelbasierter Ansatz nicht nur deskriptiv konkurrenzfähig ist, sondern darüber hinaus auch explanativ überlegen. Die untersuchten Phänomene sind verblose Direktive (wie in „Her mit dem Geld!“) einerseits und sequentielle Nominalreduplikation (wie in „Jahr für Jahr“) andererseits. Die allgemeine Konklusion ist, dass es vermutlich (außer, trivialerweise, Morphemen) gar keine Konstruktionen gibt.
Digital or electronic lexicography has gained in importance in the last few years. This can be seen in the increasing number of online dictionaries and publications focusing on this field. OBELEX (http://www.owid.de) - one of the bibliographic projects of the Institute for German Language in Mannheim - takes this development into account and makes both online dictionaries and research contribulions available in a bibliographical database searchable by different criteria. The idea for OBELEX originated in the context of the dictionary portal OWID, which incorporates several dictionaries from the Institute for German Language (http://www.owid.de). OBELEX has been available online free of Charge since December 2008. As of 2011, OBELEX includes two search options: a search for research literature and (as a completely new feature) a search for online dictionaries, a Service which is unique in the world.
This paper is concerned with relative constructions in non-standard varieties of European languages, which will be analyzed on the basis of three typological parameters (word order, relative element, syntactic role of the relativized item). The validity of claims raised in studies on the areal distribution of relative constructions in Europe will be checked against the results of the analysis, so as to ascertain whether they still hold when non-standard varieties are examined.
This paper aims at contributing to the analysis of overlaps in turns-at-talk from both a sequential and a multimodal perspective. Overlaps have been studied within Conversation Analysis by focusing mainly on verbal and vocal resources; taking into account multimodal resources such as gesture, bodily posture, and gaze contributes to a better understanding of participants’ orientations to the sequential organization of overlapping talk and their management of speakership. First, we introduce the way in which overlaps have been studied in Conversation Analysis, mainly by Jefferson (1973, 1983, 2004) and Schegloff (2000); then we propose possible implications of their multimodal analysis. In order to demonstrate that speakers systematically orient to the overlap onset and resolution we analyze the multimodal conduct of overlapped speakers. Findings show methodical variations in trajectories of overlap resolution: speakers’ gestures in overlap display themselves as maintaining or withdrawing their turn, thereby exhibiting the speakership achieved and negotiated during overlap.
This paper offers a detailed analysis of the opening of an international meeting. English Lingua Franca as the official language of the meeting is actively discussed and negotiated by the participants. The analysis highlights the issues identified by the participants themselves in choosing a linguistic regime for their professional exchanges. The English Lingua Franca regime is aimed at facilitating the participation of some of the participants, but creates problems for others, too. The chairman deals with this situation in an embodied way (through his gaze, gesture, bodily postures, and by the way in which he walks through the room), displaying that he orients to different member categories (such as 'anglophone', 'anglophone who can understand French', 'francophile', etc.) as benefitting from or resisting against the definitive language choice.
The Lyon’s team research task consists in the study of the way in which multilingual resources are mobilized in team work within collaborative activities; how they are exploited in a specific way in order both to enhance collaboration and to respect the specificities of the members’ linguistic competences and practices within the team. Central to our analytical work, which is inspired by ethnomethodological conversation analysis, is the relationship between multilingual resources and the situated organization of linguistic uses and of social practices.
Der vorliegende Beitrag stellt einen neuartigen Typ von mehrsprachiger elektronischer Ressource vor, bei dem verschiedene Lehnwörterbücher zu einem "umgekehrten Lehnwörterbuch" für eine bestimmte Gebersprache zusammengefasst werden. Ein solches Wörterbuch erlaubt es, die zu einem Etymon der Gebersprache gehörigen Lehnwörter in verschiedenen Nehmersprachen zu finden. Die Entwicklung einer solchen Webanwendung, insbesondere der zugrundeliegenden Datenbasis, ist mit zahlreichen konzeptionellen Problemen verbunden, die an der Schnittstelle zwischen lexikographischen und informatischen Themen liegen. Der Beitrag stellt diese Probleme vor dem Hintergrund wünschenswerter Funktionalitäten eines entsprechenden Internetportals dar und diskutiert einen möglichen Lösungsansatz: Die Artikel der Einzelwörterbücher werden als XML-Dokumente vorgehalten und dienen als Grundlage für die gewöhnliche Online-Ansicht dieser Wörterbücher; insbesondere für portalweite Abfragen werden aber grundlegende, standardisierte Informationen zu Lemmata und Etyma aller Portalwörterbücher samt deren Varianten und Wortbildungsprodukten (hier zusammenfassend als "Portalinstanzen" bezeichnet) sowie die verschiedenartigen Relationen zwischen diesen Portalinstanzen zusätzlich in relationalen Datenbanktabelle nabgelegt, die performante und beliebig komplex strukturierte Suchabfragen gestatten.
vernetziko is an assistive software tool primarily designed for managing cross-references in XML-based electronic dictionaries. In its current form it has been developed as an integral part of the lexicographic editing environment for the German monolingual dictionary elexiko developed and compiled at the Institut für Deutsche Sprache, Mannheim. This paper first briefly outlines how vernetziko fits into the XML-based dictionary editing technology of elexiko. Then vernetziko’s core functionality and some of the auxiliary tools integrated into the program are presented from both a practical and a technological point of view. The concluding sections discuss some software engineering aspects of extending the tool to handle cross-references between multiple resources and point out some of the advantages of vernetziko vis-à-vis corresponding features of proprietary dictionary writing systems. The software can be adapted to interconnect off-the-shelf components (database management systems and editors), thus providing a tailor-made lexicographical workbench for a wide range of XML-based dictionaries without vendor lock-in.