Refine
Year of publication
Document Type
- Part of a Book (25)
- Article (6)
- Conference Proceeding (4)
- Book (1)
- Report (1)
Keywords
- Deutsch (27)
- Korpus <Linguistik> (24)
- Wortverbindung (15)
- Kollokation (9)
- Phraseologismus (8)
- Distribution <Linguistik> (5)
- Computerunterstützte Lexikographie (4)
- Kookkurrenzanalyse (3)
- Phraseologie (3)
- Politische Sprache (3)
Publicationstate
- Veröffentlichungsversion (37) (remove)
Reviewstate
- (Verlags)-Lektorat (29)
- Peer-Review (4)
- Verlags-Lektorat (1)
Publisher
- de Gruyter (5)
- Narr (4)
- Stauffenburg (3)
- Bulleks (2)
- Editions Tradulex (2)
- Niemeyer (2)
- Schmidt (2)
- Univ. Karlova, Filozifická Fak. (2)
- De Gruyter (1)
- Frank & Timme (1)
CONTRIBUTIONS TO THE STUDY OF GERMAN USAGE A CORPUS-BASED APPROACH
This paper outlines some basic assumptions and principles underlying the corpus linguistics research and some application domains at the Institute for German Language in Mannheim. We briefly address three complementary but closely related tasks: first, the acquisition of very large corpora, second, the research on statistical methods for automatically extracting information about associations between word configurations, and, third, meeting the challenge of understanding the explanatory power of such methods both in theoretical linguistics and in other fields such as second language acquisition or lexicography. We argue that a systematic statistical analysis of huge bodies of text can reveal substantial insights into the language usage und change, far beyond just collocational patterning.
In this paper we outline our corpus-driven approach to detecting, describing and presenting multi- word expressions (MWEs). Our goal is to treat MWEs in a way that gives credit to their flexible nature and their role in language use. The bases of our research are a very large corpus and a Statistical method of collocation analysis. The rich empirical data is interpreted linguistically in a structured way which captures the interrelations, patterns and types of variances of MWEs. Several levels of abstraction build on each other: surface patterns, lexical realizations (LRs), MWEs and MWE patterns. Generalizations are made in a controlled way and in adherence to corpus evidence. The results are published online in a hypertext format.
We present a corpus-driven approach to the study of multi-word expressions, which constitute a significant part of. As a data basis, we use collocation profiles computed from DeReKo (Deutsches Referenzkorpus), the largest available collection of written German which has approximately two billion word tokens and is located at the Institute for the German Language (IDS). We employ a strongly usage-based approach to multi-word expressions, which we think of as conventionalised patterns in language use that manifest themselves in recurrent syntagmatic patterns of words. They are defined by their distinct function in language. To find multi-word expressions, we allow ourselves to be guided by corpus data and statistical evidence as much as possible, making interpretative steps carefully and in a monitored fashion. We develop a procedure of interpretation that leads us from the evidence of collocation profiles to a collection of recurrent word patterns and finally to multi-word expressions. When building up a collection of multi-word expressions in this fashion, it becomes clear that the expressions can be defined on different levels of generalisation and are interrelated in various ways. This will be reflected in the documentation and presentation of the findings. We are planning to add annotation in a way that allows grouping the multi-word expressions according to different features and to add links between them to reflect their relationships, thus constructing a network of multi-word expressions.
In der Geschichte der Sprachwissenschaft hat das Lexikon in unterschiedlichem Maße Aufmerksamkeit erfahren. In jüngerer Zeit ist es vor allem durch die Verfügbarkeit sprachlicher Massendaten und die Entwicklung von Methoden zu ihrer Analyse wieder stärker ins Zentrum des Interesses gerückt. Dies hat aber nicht nur unseren Blick für lexikalische Phänomene geschärft, sondern hat gegenwärtig auch einen profunden Einfluss auf die Entstehung neuer Sprachtheorien, beginnend bei Fragen nach der Natur lexikalischen Wissens bis hin zur Auflösung der Lexikon-Grammatik-Dichotomie. Das Institut für Deutsche Sprache hat diese Entwicklungen zum Anlass genommen, sein aktuelles Jahrbuch in Anknüpfung an die Jahrestagung 2017 – „Wortschätze: Dynamik, Muster, Komplexität“ – der Theorie des Lexikons und den Methoden seiner Erforschung zu widmen.
Der Beitrag diskutiert linguistische Fragestellungen und Probleme, die sich aus dem Projekt "Gesamtdeutsche Korpusinitiative" ergeben. Ausgangspunkt der Überlegungen ist die Frage, welchen Nutzen das Wendekorpus als Kern und eine weiterzuführende Dokumentation der deutschen Gegenwartssprache für sprachwissenschaftliche Analysen bringen könnte. Im Zentrum der Untersuchungen steht das Spannungsverhältnis zwischen Kontinuität, Variation und wirklichem Wandel der Sprachverwendung. Dabei schließt sich an übergreifende, sich von Einzelphänomenen lösende Aussagen zur Sprache der Wende (Abschnitt I.) die exemplarische Vorführung von Kontinuität und Dynamik sprachlicher Strukturen an Textausschnitten aus dem Wendekorpus an (Abschnitt II.).
Der Beitrag diskutiert linguistiche Fragestellungen und Probleme, die sich aus dem Projekt „Gesamtdeutsche Korpusinitiative" ergeben. Ausgangspunkt der Überlegungen ist die Frage, welchen Nutzen das Wendekorpus als Kern und eine weiterzuführende Dokumentation der deutschen Gegenwartssprache für sprachwissenschaftliche Analysen bringen könnte.
Im Zentrum der Untersuchungen steht das Spannungsverhältnis zwischen Kontinuität, Variation und wirklichem Wandel der Sprachverwendung. Dabei schließt sich an übergreifende, sich von Einzelphänomenen lösende Aussagen zur Sprache der Wende (Abschnitt I.) die exemplarische Vorführung von Kontinuität und Dynamik sprachlicher Strukturen an Textausschnitten aus dem Wendekorpus an (Abschnitt II.).
In my talk, I present an empirical approach to detecting and describing proverbs as frozen sentences with specific functions in current language use. We have developed this approach in the EU project ‘SprichWort’ (based on the German Reference Corpus). The first chapter illustrates selected aspects of our complex, iterative procedure to validate proverb candidates. Based on our corpus-driven lexpan methodology of slot analysis I then discuss semantic restrictions of proverb patterns. Furthermore, I show different degrees of proverb quality ranging from genuine proverbs to non-proverb realizations of the same abstract pattern. On the one hand, the corpus validation reveals that proverbs are definitely perceived and used as relatively fixed entities and often as sentences. On the other hand, proverbs are not only interpreted as an interesting unique phenomenon but also as part of the whole lexicon, embedded in networks of different lexical items.
Reformulierungen. Sprachliche Relationen zwischen Äußerungen und Texten im öffentlichen Diskurs
(1997)
Der vorliegende Band diskutiert die Konzepte "Reformulierung" und "Redewiedergabe" aus intertextuell-diskursiver Sicht und beschreibt zugleich einen Teil jüngster deutscher Sprachgeschichte. Untersucht werden grammatisch-strukturelle, propositionale und funktionale Eigenschaften von Reformulierungen unter besonderer Berücksichtigung der argumentativen Einbettungen. Anhand einer Fallstudie aus dem deutsch-deutschen Diskurs zwischen "Wende" und "Vereinigung" im Frühjahr 1990 werden Wiederaufnahmen eines relevanten Originaltextes in Folgetexten beschrieben. Dabei geht es vor allem um sprachliche Indikatoren für sprecher-, kontext- bzw. diskursabhängige Modifikationen, Interpretationen und Bewertungen von Bezugsentitäten. Die Detailanalyse erlaubt schließlich die Rekonstruktion von komplexen Reformulierungsmustern, die das kommunikative Verhalten der Deutschen in der Folgezeit nicht unwesentlich prägen und als typisch für öffentliche Diskurse überhaupt gelten können.
This paper shows how a corpus-driven approach leads to a new perspective on central issues of phraseology and on lexicographical applications. It argues that a data-driven pattem search (applying Statistical methods), an a posteriori interpretation of the data and a user oriented documentation of the usage of multi-word units (e. g. in lexicographical articles) constitute a step-by-step process where each step has its own informational value and useflilness. The description of multi-word units (Usuelle Wortverbindungen) presented in this paper focuses on the second Step, the high quality analysis and interpretation of collocation data, exemplified by the fields of multi-word units centered around the word formslIdee/Ideenl(idea/ideas).
Der Beitrag stellt Arbeiten des Projekts Usuelle Wortverbindungen am Institut für Deutsche Sprache (IDS) in Mannheim vor. Im Mittelpunkt stehen dabei neue Perspektiven, die sich für die elektronische Phraseographie aus der korpusanalytischen Auswertung sprachlicher Massendaten ergeben. Eine wichtige Methode ist die statistische Kookkurrenzanalyse, die u.a. dazu dient, feste Wortverbindungen zu extrahieren und typische Kontexte vorzustrukturieren. Auf dieser Basis lässt sich der tatsächliche Gebrauch fester Wortverbindungen in einer quantitativ und qualitativ neuen Dimension erfassen und lexikografisch beschreiben. Die heutigen technologischen Möglichkeiten können des Weiteren für neue und differenziertere Präsentationsformen angepasst an unterschiedliche Rezeptionsbedürfnisse genutzt werden. Das UWV-Projekt beschreitet auch im Bereich der Internet-Lexikografie neue Wege, was anhand ausgewählter Beispiele gezeigt wird.
Der Beitrag zeigt, wie die im korpuslinguistischen Gesamtkonzept des Instituts für Deutsche Sprache entwickelten und in der praktischen Korpusarbeit konsequent umgesetzten Prinzipien sowie die entsprechenden automatischen Methoden der Korpuserschließung und -analyse für die linguistische Forschung und die Lexikografie fruchtbar gemacht werden können. Im Mittelpunkt steht dabei das Erklärungspotenzial der statistischen Kookkurrenzanalyse, einer automatischen Korpusanalysemethode, die einen sinnvollen Zugang zu sprachlichen Massendaten und damit zu sprachlichem Usus eröffnet. Die Anwendung dieser Methode ermöglicht darüber hinaus die Erfassung, Verifizierung und lexikografische Beschreibung usueller Wortverbindungen auf einer umfassenden empirischen Basis. Es wird grundsätzlich zwischen dem statistisch erhobenen Kookkurrenzpotenzial, also der berechneten lexikalischen Kohäsion zwischen sprachlichen Entitäten, und der nachgelagerten linguistischen Interpretation unterschieden. Die automatische Analyse bringt Kookkurrenzcluster hervor, die nicht nur binäre Relationen zwischen einem Bezugswort und einem Kookkurrenzpartner abbilden, sondern multiple Strukturen konstituieren können. Diese Cluster fungieren als „Bausteine der Kommunikation“ und weisen Evidenzen für verschiedenste sprachliche Informationen auf. So können sie semantische und pragmatische Aspektuierungen des Wortgebrauchs, formelhafte Ausprägungen oder auch idiomatische Gebundenheiten indizieren. Schließlich wird in einem Ausblick dargestellt, wie diese Methoden im elexiko-Modul ‚Usuelle Wortverbindungen‘ zur systematischen lexikografischen Erfassung und Beschreibung üblicher Wortverbindungen des Deutschen eingesetzt werden. Ziel ist es, ein korpusbasiertes elektronisches ‚Mehrwortlexikon‘ für das Deutsche zu erstellen und gleichzeitig neue Einblicke in die Kohäsions- und damit auch in Vernetzungsphänomene des deutschen Wortschatzes zu erlangen.