Refine
Year of publication
- 2007 (79) (remove)
Document Type
- Part of a Book (53)
- Article (14)
- Conference Proceeding (11)
- Book (1)
Has Fulltext
- yes (79)
Is part of the Bibliography
- no (79) (remove)
Keywords
- Deutsch (38)
- Korpus <Linguistik> (21)
- Gesprochene Sprache (7)
- Grammatik (5)
- Rechtschreibung (5)
- Verb (5)
- Kollokation (4)
- Kommunikation (4)
- Annotation (3)
- Distribution <Linguistik> (3)
Publicationstate
- Veröffentlichungsversion (67)
- Zweitveröffentlichung (9)
- Postprint (3)
Reviewstate
- (Verlags)-Lektorat (79) (remove)
Publisher
- de Gruyter (23)
- Narr (15)
- University of Illinois (3)
- Benjamins (2)
- Lang (2)
- Olms (2)
- University of Birmingham (2)
- Verlag für Gesprächsforschung (2)
- Alpheus Verlag (1)
- Association for Computational Linguistics (1)
This study investigates the question of whether the processing of complex anaphors require more cognitive effort than the processing of NP-anaphors. Complex anaphors refer to abstract objects which are not introduced as a noun phrase and bring about the creation of a new discourse referent. This creation is called “complexation process”. We describe ERP findings which provide converging support for the assumption that the cognitive cost of this complexation process is higher than the cognitive cost of processing NP-anaphors.
Intensitätspartikeln
(2007)
Modalpartikel
(2007)
In this paper, I present some aspects of a youth group’s construction of a communicative style and show how the group’s stylistic repertoire changes over the course of their growing into adulthood. My paper is based on an ethnographic case study of a group of Turkish girls, the ‘Powergirls’, who grew up in a typical Turkish migrant neighborhood in the inner city of Mannheim, Germany. The aim of the case study was, on the basis of biographical interviews with group members and long-term observation of group interactions, to reconstruct the formation of an ethnically defined ‘ghetto’-clique and its style of communication and to describe the group’s development into educated, modern, German-Turkish young women. In this process, a change in the group’s stylistic repertoire could be observed.
Gesprächsprotokolle auf Knopfdruck: Die automatische Zusammenfassung von gesprochenen Dialogen
(2007)
Dieser Beitrag beschreibt computerlinguistische Arbeiten zur automatischen Zusammenfassung gesprochener Dialoge. Der Beitrag geht sowohl auf die notwendige Vorverarbeitung als auch auf die eigentliche Zusammenfassung durch automatische Erkennung von Themengrenzen und Extraktion relevanter Äußerungen ein. Ein weiterer Schwerpunkt liegt in der Beschreibung von Arbeiten zur automatischen Anaphernresolution in gesprochener Sprache. Der Beitrag betont vor allem die Rolle und Bedeutung von annotierten Korpora für die computerlinguistische Forschung und Entwicklung.
In diesem Aufsatz diskutiere ich drei syntaktische Phänomene, die für die Grammatikforschung von zentraler Bedeutung sind. Ich zeige, dass Introspektion als Stütze von Theorien nicht ausreicht und entwickle Korpusanfragen für die diskutierten Fälle. Der Aufsatz schließt mit Anmerkungen zu den Grenzen der Korpuslinguistik.
Es gibt viele linguistische Forschungsfragen, für deren Beantwortung man Korpusdaten qualitativ und quantitativ auswerten möchte. Beide Auswertungsmethoden können sich auf den Korpustext, aber auch auf Annotationsebenen beziehen. Jede Art von Annotation, also Kategorisierung, stellt einen kontrollierten und notwendigen Informationsverlust dar. Das bedeutet, dass jede Art von Kategorisierung auch eine Interpretation der Daten ist. In den meisten großen Korpora wird zu jeder vorgesehenen Annotationsebene, wie z. B. Wortart-Ebene oder Lemma-Ebene, genau eine Interpretation angeboten. In den letzten Jahren haben sich neben den großen, ,,flach“ annotierten Korpora Korpusmodelle herausgebildet, mit denen man konfligierende Informationen kodieren kann, die so genannten Mehrebenen-Modelle (multilevel standoff corpora), in denen alle Annotationsebenen unabhängig vom Text gespeichert werden und nur auf bestimmte Textanker verweisen. Ich argumentiere anhand der Fehlerannotation in einem Lernerkorpus dafür, dass zumindest Korpora, in denen es stark variierende Annotationsbedürfnisse und umstrittene Analysen geben kann, davon profitieren, in Mehrebenen-Modellen kodiert zu werden.
Im Beitrag werden korpuslinguistische Aspekte und Fragestellungen aus variationslinguistischer Perspektive diskutiert, wobei der Fokus auf der Analyse regionalsprachlicher Daten und Korpora des Deutschen liegt. Unter Regionalsprache wird hier der areal gebundene, sprechsprachliche Gesamtbereich „unterhalb“ der normierten Standardsprache verstanden, der sich von den lokalen Basisdialekten über Varietäten bzw. Sprechlagen des mittleren Bereichs bis hin zum standardnächsten Pol der Regionalsprache (Regionalakzent oder Regionalstandard) erstreckt.
Am Beginn des Beitrags steht ein Überblick über Datenklassen, die als empirische Grundlage für regionalsprachliche Fragestellungen herangezogen werden können. Eine Präsentation regionalsprachlicher Korpora, die auf den vorgestellten Datenklassen aufbauen, schließt sich an, wobei hier lediglich einige ausgewählte, online zugängliche Korpora Berücksichtigung finden (können). In einem nächsten Schritt werden die vorgestellten Korpora zur konkreten variationslinguistischen Analyse von zwei regionalsprachlichen Phänomenen aus dem lautlichen („g-Spirantisierung“) bzw. grammatischen Bereich („Rezipientenpassiv“) herangezogen und auf ihre Ergiebigkeit geprüft.
Der Begriff und die Rolle von Daten in einer Wissenschaft hängen eng mit ihrem Selbstverständnis zusammen. Als erstes ist zu überlegen, inwiefern Linguistik eine empirische Wissenschaft ist und also von Daten abhängt.
Während in den Philologien ein Korpus die Grundlage einer Disziplin abgibt, die ohne es nicht bestünde, ist in der Linguistik ein Korpus nur ein Weg, an Daten zu kommen. Hier ist zu diskutieren, welche relativen Meriten die alternativen Wege im Hinblick auf die angestrebten Ziele haben.
Während manches auf uns gekommene Korpus seine Sprache sicher nicht angemessen repräsentiert, könnte eine heute von Linguisten erstellte Dokumentation diesen Anspruch im Prinzip einlösen. Hier stellt sich die Frage, ob das - angesichts des infiniten Charakters der Sprache - überhaupt möglich ist und in wieweit die Repräsentativität wieder von den angestrebten Zielen abhängt.
Dies sind alles Fragen linguistischer Methodologie. Eine Zeitlang hat man in der Linguistik geglaubt, ohne Methodologie zu Theorien gelangen zu können. Seit sich das als irrig herausgestellt hat, ist die Entwicklung von Methoden ein fühlbares Desiderat geworden. Wie man repräsentative Daten erhebt, wie man ein Korpus zusammenstellt und nutzt, wie man eine Sprache dokumentiert, sind alles Fragen, die eigentlich in die Alltagsroutine einer Wissenschaft fallen müssten. Dass sie noch weitgehend ungeklärt sind, ist ein Symptom dafür, dass die Linguistik noch keine erwachsene Wissenschaft ist.
In diesem Beitrag versuchen wir darzulegen, unter welchen Umständen introspektive Urteile objektive, quantifizierbare, und empirisch adäquate linguistische Daten sein können. Dazu skizzieren wir, wie die Resultate unserer experimentell erhobenen, relativen Urteilsstudien aussehen, und argumentieren, dass sie eine unverzichtbare Evidenzquelle für die Syntax bilden, weil sie Einsichten in die Architektur der Grammatik erlauben, die mit anderen Mitteln nicht möglich sind.
Wer sich mit grammatischen Phänomenen historischer Sprachstufen beschäftigt, kann seine empirischen Daten bekanntermaßen nicht auf der Grundlage von Sprecherurteilen gewinnen, sondern muss zunächst Korpusrecherchen betreiben. Die Größe des auszuwählenden Korpus ist sehr stark phänomenabhängig: So reicht es im Bereich der Syntax in der Regel nicht aus, kleinere Textausschnitte aus verschiedenen Textquellen zu einem Korpus zusammenzufügen, vielmehr müssen vollständige Texte nicht nur nach raum-zeitlichen Koordinaten, sondern auch textsortenabhängig ausgewählt werden, um ein repräsentatives Korpus für eine spezifische Sprachstufe zu erstellen. Da eine manuelle Sichtung dieser doch recht großen Korpora sich sehr zeitaufwändig gestaltet, bietet sich gerade im Bereich der historischen Syntax der Einsatz von syntaktisch annotierten, digitalen Korpora an. Im folgenden Beitrag wird der Aufbau einer solchen Baumbank für das Frühneuhochdeutsche einschließlich der verfügbaren Recherchemöglichkeiten vorgestellt.
Statistische Methoden finden derzeit in der Sprachtechnologie vielfache Verwendung. Ein Grundgedanke dabei ist das Trainieren von Programmen auf große Mengen von Daten. Für das Trainieren von statistischen Sprachmodellen gilt zur Zeit das Motto „Je mehr Daten desto besser“. In unserem System zur maschinellen Übersetzung sehen wir eine fast konstante qualitative Verbesserung (gemessen als BLEU-Score) mit jeder Verdoppelung der monolingualen Trainingsdatenmenge. Selbst bei Mengen von ca. 20 Milliarden Wörtern aus Nachrichtentexten und ca. 200 Milliarden Wörtern aus Webseiten ist kein Abflachen der Lernkurve in Sicht.
Dieser Artikel gibt kurze Einführungen in statistische maschinelle Übersetzung, die Evaluation von Übersetzungen mit dem BLEU-Score, und in statistische Sprachmodelle. Wir zeigen, welch starken Einfluß die Größe der Trainingsdaten des Sprachmodells auf die Übersetzungsqualität hat. Danach wird die Speicherung großer Datenmengen, das Trainieren in einer parallelen Architektur und die effiziente Verwendung der bis zu 1 Terabyte großen Modelle in der maschinellen Übersetzung beschrieben.
In diesem Beitrag wird untersucht, wie mithilfe korpuslinguistischer Verfahren Erkenntnisse über den Aufbau von Bedeutungsparaphrasen in Wörterbüchern gewonnen werden können. Diese Erkenntnisse sollen dazu genutzt werden, den Aufbau von Bedeutungsparaphrasen in Wörterbüchern umfassend und systematisch zu beschreiben, z.B. im Hinblick auf eine Optimierung der Bedeutungsparaphrasen für so genannte elektronische Wörterbücher oder für die Extraktion lexikalisch-semantischer Information für NLP-Zwecke.
Arbeitet man als muttersprachlicher Sprecher des Deutschen mit Corpora gesprochener oder geschriebener deutscher Sprache, dann reflektiert man in aller Regel nur selten über die Vielzahl von kulturspezifischen Informationen, die in solchen Texten kodifiziert sind - vor allem, wenn es sich bei diesen Daten um Texte aus der Gegenwart handelt. In den meisten Fällen hat man nämlich keinerlei Probleme mit dem in den Daten präsupponierten und als allgemein bekannt erachteten Hintergrundswissen. Betrachtet man dagegen Daten in Corpora, die andere - vor allem nicht-indoeuropäische - Sprachen dokumentieren, dann wird einem schnell bewusst, wieviel an kulturspezifischem Wissen nötig ist, um diese Daten adäquat zu verstehen. In meinem Beitrag illustriere ich diese Beobachtung an einem Beispiel aus meinem Corpus des Kilivila, der austronesischen Sprache der Trobriand-Insulaner von Papua-Neuguinea. Anhand eines kurzen Ausschnitts einer insgesamt etwa 26 Minuten dauernden Dokumentation, worüber und wie sechs Trobriander miteinander tratschen und klatschen, zeige ich, was ein Hörer oder Leser eines solchen kurzen Daten-Ausschnitts wissen muss, um nicht nur dem Gespräch überhaupt folgen zu können, sondern auch um zu verstehen, was dabei abläuft und wieso ein auf den ersten Blick absolut alltägliches Gespräch plötzlich für einen Trobriander ungeheuer an Brisanz und Bedeutung gewinnt. Vor dem Hintergrund dieses Beispiels weise ich dann zum Schluss meines Beitrags darauf hin, wie unbedingt nötig und erforderlich es ist, in allen Corpora bei der Erschließung und Kommentierung von Datenmaterialien durch sogenannte Metadaten solche kulturspezifischen Informationen explizit zu machen.
Negationspartikel
(2007)
Der vorliegende Band untersucht, wie Sprachwandel, Sprachvariation und Sprachkontakt einige wichtige germanische Sprachen transformieren und wie als Folge davon das Verhältnis von Standard und Varietäten (neu) konzeptualisiert wird. In welcher Weise beeinflussen und verändern Sprachkontaktprozesse die germanischen Sprachen heute, wie werden die Standardsprachen jeweils betroffen? Welche neuen Varietäten entstehen als Teil dieser Prozesse? Wie werden sprachliche Pluralität und Differenz im öffentlichen und sprachpolitischen Diskurs thematisiert, welche Rolle spielen sie in alltäglichen Erzählungen und Konversationen verschiedener sozialer Gruppen? Welche Sprachideologien entstehen in diesem Zusammenhang, und wie werden sie von den Medien geprägt? Wie beeinflussen solche Prozesse die politische Entscheidungsfindung, sprachliche Kodifizierung und Normierung?
Der Band untersucht diese und verwandte Fragestellungen mit Blick auf neuere Entwicklungen im gegenwärtigen Deutsch, Niederländisch, Friesisch, Niederdeutsch, Jiddisch, Norwegisch und Schwedisch. Gleichzeitig wird so auch ein guter Einblick in neuere Ansätze und Methoden der soziolinguistischen Forschung im Bereich der germanischen Sprachen gegeben.
Mit Beiträgen von: Christian Fandrych & Reinier Salverda, Wim Vandenbussche, Martin Durrell, Andrew Linn & Leigh Oakes, Jenny Carl & Patrick Stevenson, Jannis Androutsopoulos, Inken Keim & Ralf Knöbl, Stephan Elspaß, Nils Langer, Gertrud Reershemius, Roland Willemyns, Frans Hinskens.
Deutsches Fremdwörterbuch R-Z: Rückblick und Ausblick. Zum Gedenken an Gerhard Strauß (1941-2006)
(2007)
Dieser Beitrag gliedert sich in zwei Teile. Der erste ist ein Rückblick auf das Deutsche Fremdwörterbuch in seinem (wörterbuch-)geschichtlichen Kontext, auf seine Entstehung und seine Fertigstellung im Institut für Deutsche Sprache (IDS). Der zweite ist ein eher persönlich gefärbter Ausblick auf die Lexikologie und Lexikographie des Fremdworts im Deutschen, der auf meinen während der Fertigstellung des Fremdwörterbuchs gemachten Erfahrungen beruht. Er geht exemplarisch auf zwei Fragenkomplexe näher ein, die nach meiner Überzeugung bei fundierten und sachgemäßen historischen Untersuchungen zum deutschen Fremdwort mitberücksichtigt werden müssen.
In Deutschland gibt es Anzeichen für ein zunehmendes Interesse an der eigenen Sprache. Dennoch ergeben sich hier wie in anderen europäischen Ländern mit der kommunikativen Internationalisierung Probleme für die weitere Entwicklung der Hochsprachen, die für die kulturelle Vielfalt des Kontinents konstitutiv sind. Die steigende Tendenz, Englisch als einzige internationale Verkehrssprache und auch national als Fachsprache in mehreren Domänen zu verwenden, wird verstärkt durch einen Fremdsprachenunterricht, der in Deutschland wie in anderen Ländern Englisch zu Lasten anderer Sprachen bevorzugt. Dieser Entwicklung sucht die Europäische Union zu begegnen, indem sie das Ziel M + 2 Sprachen (Muttersprache plus zwei andere Sprachen) für alle Europäer propagiert. Dieses Programm wird auch von der Europäischen Föderation nationaler Sprachinstitutionen (EFNIL) unterstützt, das Netzwerke der zentralen Spracheinrichtungen der EU- Staaten, das sich für die Erhaltung und Weiterentwicklung der europäischen Sprachenvielfalt und die Mehrsprachigkeit der Europäer einsetzt. Für dieses Ziel sind aber Einsicht und Interesse bei vielen Deutschen noch zu wecken oder zu verstärken.
This paper presents a thorough examination of the validity of three evaluation measures on parser output. We assess parser performance of an unlexicalised probabilistic parser trained on two German treebanks with different annotation schemes and evaluate parsing results using the PARSEVAL metric, the Leaf-Ancestor metric and a dependency-based evaluation. We reject the claim that the TüBa-D/Z annotation scheme is more adequate then the TIGER scheme for PCFG parsing and show that PARSEVAL should not be used to compare parser performance for parsers trained on treebanks with different annotation schemes. An analysis of specific error types indicates that the dependency-based evaluation is most appropriate to reflect parse quality.
Die Gründerjahre des IDS
(2007)
Recent studies focussed on the question whether less-configurational languages like German are harder to parse than English, or whether the lower parsing scores are an artefact of treebank encoding schemes and data structures, as claimed by Kübler et al. (2006). This claim is based on the assumption that PARSEVAL metrics fully reflect parse quality across treebank encoding schemes. In this paper we present new experiments to test this claim. We use the PARSEVAL metric, the Leaf-Ancestor metric as well as a dependency-based evaluation, and present novel approaches measuring the effect of controlled error insertion on treebank trees and parser output. We also provide extensive past-parsing crosstreebank conversion. The results of the experiments show that, contrary to Kübler et al. (2006), the question whether or not German is harder to parse than English remains undecided.
Gegenstand des Vortrags ist das Projekt "Grammatik des Deutschen im europäischen Vergleich" der Abteilung Grammatik des IDS. Mit dem Projekt wird eine innovative Form der vergleichenden Grammatikschreibung realisiert, die a) sprachtypologisch fundiert ist, b) statt eines bilateralen Vergleichs das Deutsche mit einem breiten Spektrum europäischer Sprachen (mit den Kernkontrastsprachen Englisch, Französisch, Polnisch und Ungarisch) kontrastiert und c) die grammatischen Strukturen des Deutschen auf diesem Hintergrund expliziter herausarbeitet. In dem Vortrag werde ich das Projekt mit seinen beiden gegenwärtigen Teilprojekten "Grammatik des Nominals" und "Wortphonologie" vorstellen.
The main objective of this article is to describe the current activities at the Mannheim Institute for German Language regarding the implementation of a domain-specific ontology for German grammar. We differentiate ontology bases from ontology management Systems, point out the benefits of database-driven Solutions, and go Step by Step through all phases of the ontology lifecycle. In Order to demonstrate the practical use of our approach, we outline the interface between our ontology and the grammis web Information System, and compare the ontology-based retrieval mechanism with traditional full text search.
ln diesem Beitrag sollen anhand von Materialien aus Gesprächskorpora des IDS Schwierigkeiten und Möglichkeiten der maschinellen Recherche vorgeführt werden. Grundlage dafür sind Gesprächstranskripte, die in digitaler Form vorliegen und in einem System mit Rechercheprozeduren zugreifbar sind. Mit diesem Ziel wird auf Rechercheverfahren zurückgegriffen, die in den 1990er Jahren in einem Projekt SHRGF.S im IDS als Anwendung der COSMAS-Technologie auf Gesprächskorpora entwickelt wurden. Die hier gegebenen Recherchemöglichkeiten werden an einem Auswahlkorpus von Gesprächstranskripten mit einem Gesamtumfang von 87.629 laufenden Wörtern versuchsweise angewendet und in ihren Beschränkungen und ihrer Fruchtbarkeit für explorative Untersuchungen betrachtet. Damit soll ein Beitrag zur Klärung der Frage geleistet werden, welche Recherchemöglichkeiten aus einer gesprächsanalytischen Perspektive vorstellbar und erwünscht sind und insofern bei der weiteren korpustechnologischen Entwicklung berücksichtigt werden sollten.
Formen und Funktionen von Ethnolekten in multilingualen Lebenswelten - am Beispiel von Mannheim
(2007)
Incompatibility (or co-hyponymy) is the most general type of semantic relation between lexical items, the meaning of which entails exclusion. Such items fall under a superordinate term or concept and denote sets which have no members in common (e.g. animal: dog-cat-mouse-lion-sheep; example from Cruse 2004). Traditionally, these have been of interest to lexical semanticists for the description of the structure of the lexicon. However, incompatibility is not just a relation that signifies a difference of meaning. This paper is a critical corpus-assisted re-evaluation of the phenomenon of incompatibility which argues that the relation in question sometimes also functions as a discourse marker. Incompatibles indicate recurrent intertextual patterns. This holds particularly true for socially or politically controversial lexical items such as Flexibilität (flexibility), Mobilität (mobility) or Globalisierung (globalisation). Corpus investigations of such words have revealed that among other semantically related terms, incompatibles have a crucial discourse focussing function. For the German lexical item Globalisierung, I will show how its lexical usage can be studied through a corpus-driven analysis of corresponding incompatibles. Incompatible terms are not contingent co-words but often occur in close contextual proximity and participate in regular syntagmatic structures (e.g. Globalisierung und Rationalisierung; Globalisierung und Modernisierung; Neoliberalismus, Globalisierung und Kapitalismus). Hence, these are easily extracted by conducting a computational collocation analysis. Such significant collocates provide a good insight into the discursive and thematic contexts of the search word. Following Teubert (2004), I will demonstrate how the meaning of such lexical items is constituted in discourse and how the examination of these particular collocates reveals their sense-constructing function and their pragmatic-discursive force. I will provide a brief discussion of the methodology used for such analyses, and I will explain why the complex semantic-pragmatic and thematic-communicative patterns implied in sets of incompatibles should be given a stronger emphasis in lexicography.
Evaluating phonological status: significance of paradigm uniformity vs. prosodic grouping effects
(2007)
A central concern of linguistic phonetics is to define criteria for determining the phonological status of sounds or sound properties observed in phonetic surface form. Based on acoustic measurements we show that the occurrence of syllabic sonorants vs. schwa-sonorant sequences in German is determined exclusively by segmental and prosodic structure, with no paradigm uniformity effects. We argue that these findings are consistent with a uniform representation of syllabic sonorants as schwa sonorant sequences in the lexicon. The stability of schwa in CVC-suffixes (e.g. the German diminutive suffix -chen), as opposed to its phonetic absence in a segmentally comparable underived context, is argued to be conditioned by the prosodic organisation of such suffixes external to the phonological word of the stem.
Trubetzkoy's recognition of a delimitative function of phonology, serving to signal boundaries between morphological units, is expressed in terms of alignment constraints in Optimality Theory, where the relevant constraints require specific morphological boundaries to coincide with phonological structure (Trubetzkoy 1936, 1939, McCarthy & Prince 1993). The approach pursued in the present article is to investigate the distribution of phonological boundary signals to gain insight into the criteria underlying morphological analysis. The evidence from English and Swedish suggests that necessary and sufficient conditions for word-internal morphological analysis concern the recognizability of head constituents, which include the rightmost members of compounds and head affixes. The claim is that the stability of word-internal boundary effects in historical perspective cannot in general be sufficiently explained in terms of memorization and imitation of phonological word form. Rather, these effects indicate a morphological parsing mechanism based on the recognition of word-internal head constituents. Head affixes can be shown to contrast systematically with modifying affixes with respect to syntactic function, semantic content, and prosodic properties. That is, head affixes, which cannot be omitted, often lack inherent meaning and have relatively unmarked boundaries, which can be obscured entirely under specific phonological conditions. By contrast, modifying affixes, which can be omitted, consistently have inherent meaning and have stronger boundaries, which resist prosodic fusion in all phonological contexts. While these correlations are hardly specific to English and Swedish it remains to be investigated to which extent they hold cross-linguistically. The observation that some of the constituents identified on the basis of prosodic evidence lack inherent meaning raises the issue of compositionality. I will argue that certain systematic aspects of word meaning cannot be captured with reference to the syntagmatic level, but require reference to the paradigmatic level instead. The assumption is then that there are two dimensions of morphological analysis: syntagmatic analysis, which centers on the criteria for decomposing words in terms of labelled constituents, and paradigmatic analysis, which centers on the criteria for establishing relations among (whole) words in the mental lexicon. While meaning is intrinsically connected with paradigmatic analysis (e.g. base relations, oppositeness) it is not essential to syntagmatic analysis.