Refine
Year of publication
Document Type
- Part of a Book (138) (remove)
Has Fulltext
- yes (138)
Keywords
- Deutsch (63)
- Massenmedien (20)
- Soziolinguistik (18)
- Konversationsanalyse (17)
- Mediensprache (17)
- Korpus <Linguistik> (12)
- Mannheim (12)
- Englisch (11)
- Neue Medien (11)
- Gesprochene Sprache (10)
Publicationstate
- Veröffentlichungsversion (57)
- Zweitveröffentlichung (27)
- Postprint (5)
Reviewstate
- (Verlags)-Lektorat (90)
- Verlags-Lektorat (1)
Publisher
- de Gruyter (50)
- Institut für Deutsche Sprache (28)
- Narr (17)
- Schwann (16)
- Benjamins (5)
- Niemeyer (5)
- De Gruyter (3)
- Carocci (2)
- Saxa (2)
- Westdeutscher Verlag (2)
Die Einsicht, dass öffentliches Leben in der modernen Gesellschaft primär von den Massenmedien herstellt und gestützt wird, gehört heute zu den Selbstverständlichkeiten der Medienforschung. Zu den wichtigen Aspekten des medialen öffentlichen Diskurses gehören u.a. die Mechanismen der Herstellung und Verbreitung von Informationen und die damit einhergehende Prägung der Relevanzvorstellungen, die öffentliche Sichtbarkeit von Politik oder auch die medial inszenierte Spiegelung von Alltagswelt und damit die Präsenz von Menschen „wie du und ich“ in der medialen Öffentlichkeit.
Vorwort
(1986)
Dieser Beitrag behandelt aufwändige Formen von Voraussetzungssicherung im Gespräch, bei denen ein Beteiligter die vorausgehende oder laufende Äußerung eines anderen Beteiligten zum Anlass nimmt, um einzugreifen und in einer expandierten Form aus Sprechersicht für die gegenwärtige Interaktion grundlegende Voraussetzungen zu klären. Charakteristisch für die Auffälligkeit des Vorgangs ist, dass das Eingreifen die Aktivitätsprogression im Gespräch suspendiert, bis die für das weitere gemeinsame Handeln notwendig erscheinenden Voraussetzungen geklärt und akzeptiert sind.
Einleitung
(2002)
Vorwort
(2007)
Anknüpfend an die voraufgehenden Beiträge des Bandes kommentiert der Verfasser den Diskussionsstand zum Thema „Sprache und neue Medien" und skizziert aus der Sicht des IDS einige Konsequenzen für die weitere Arbeit. Dabei stehen soziolinguistische Aspekte des Wandels von Sprach- und Kommunikationsformen unter dem Einfluss neuer Medien und die Weiterentwicklung der Sprachtechnologie als Arbeitsinstrument der Linguistik mit ihren möglichen methodischen und theoretischen Konsequenzen im Zentrum.
Vorwort
(2000)
ln diesem Beitrag sollen anhand von Materialien aus Gesprächskorpora des IDS Schwierigkeiten und Möglichkeiten der maschinellen Recherche vorgeführt werden. Grundlage dafür sind Gesprächstranskripte, die in digitaler Form vorliegen und in einem System mit Rechercheprozeduren zugreifbar sind. Mit diesem Ziel wird auf Rechercheverfahren zurückgegriffen, die in den 1990er Jahren in einem Projekt SHRGF.S im IDS als Anwendung der COSMAS-Technologie auf Gesprächskorpora entwickelt wurden. Die hier gegebenen Recherchemöglichkeiten werden an einem Auswahlkorpus von Gesprächstranskripten mit einem Gesamtumfang von 87.629 laufenden Wörtern versuchsweise angewendet und in ihren Beschränkungen und ihrer Fruchtbarkeit für explorative Untersuchungen betrachtet. Damit soll ein Beitrag zur Klärung der Frage geleistet werden, welche Recherchemöglichkeiten aus einer gesprächsanalytischen Perspektive vorstellbar und erwünscht sind und insofern bei der weiteren korpustechnologischen Entwicklung berücksichtigt werden sollten.
Der Beitrag behandelt Gesprächsaktivitäten eingeschränkter Kooperativst, wie sie in vielen Kommunikationssituationen wie z. B. in strittigen Diskussionen geradezu die Normalform darstellen. Zur theoretischen Einordnung und als Grundlage der empirischen Beschreibung derartiger Äußerungen wird das Konzept „Forcieren” im Sinne von „eigene Möglichkeiten erweitern und fremde verringern” entwickelt. Anhand eines komplexeren Beispielfalles wird ein Spektrum von unterschiedlichen Formen des Forcierens untersucht, die anschließend typologisch eingeordnet werden. Abschließend werden die beschriebenen Beteiligungsweisen eingeschränkter Kooperativst als Merkmale von unterschiedlichen Interaktionsstilen beschrieben.
Der Umgang mit Gesprächskorpora am IDS Mannheim: Die Recherche in der COSMAS-II-Gesprächsdatenbank
(2005)
Empirische Untersuchungen zur alltäglichen Nutzung der neuen Informations- und Kommunikationstechnologien sind so relevant wie rar. Neue Erkenntnisse verspricht ein DFG-Projekt im Rahmen einer interdisziplinären Forschergruppe, dessen Konzeption und erste Analysen im vorliegenden Beitrag skizziert werden. Die Nutzung des Computers, so die Prämisse, ist nicht nur eine Angelegenheit des einzelnen Anwenders und seiner Kommunikationspartner im Netz. In vielen Situationen werden Apparate und Programme erst auf der Grundlage des arbeitsbegleitenden Sprechens mit anderen strukturiert, eingesetzt, erlebt und bewertet, d. h. sprachlich angeeignet. Erste gesprächsanalytische Untersuchungen der in solchen Kontexten erhobenen Daten zeigen, dass die allgegenwärtigen „Bedienungsprobleme" nicht nur „instrumentell" bearbeitet werden, sondern auch nach „rituellen" Mustern alltäglicher psychosozialer Interaktionsrituale zur Bearbeitung von „Zwischenfallen" (Goffman). Die Ambivalenz dieser Art von Aneignung wirft die Frage auf, ob an der „Mensch-Maschine-Schnittstelle" aus linguistischer Sicht eine weitergehende Simulation zwischenmenschlicher Kommunikation zweckmäßig ist.
Die Überlegungen dieses Beitrags kreisen um die Frage, wie man der Gedankenfigur des Zusammenhangs von Sprache und Wirklichkeit in Hinblick auf Phänomene verbaler Interaktion einen spezifischen Sinn abgewinnen kann bzw. was die Phrase „Sprachliche Herstellung von Wirklichkeit” sinnvoll bedeuten kann. Dazu werden zunächst mit Rückgriff auf bestimmte Entwicklungslinien in der Rhetoriktradition und unter Berücksichtigung interaktionstheoretischer Grundsatzüberlegungen die konzeptionellen Rahmenüberlegungen festgestellt, die eine Deutung dieser Gedankenfigur in Rechnung stellen muß. Unter Berücksichtigung dieser Rahmenbedingungen wird dann eine Interpretation der Gedankenfigur vorgeschlagen, derzufolge Herstellung von Wirklichkeit - verkürzt gesagt - auf der Schaffung von Vertrautheit beruht. Diese Interpretation führt zu einer Revision alltäglicher Kommunikationserfahrung und zu einer veränderten Sichtweise auf die Relevanz kommunikativer Phänomene für die sprachliche Herstellung von Wirklichkeit. Ein entsprechendes Forschungsprogramm wird skizzenhaft entworfen. Anhand eines einzelnen kommunikativen Phänomens, sogenannter Schlüsselwörter, wird abschließend paradigmatisch vorgeführt, wie dieses Forschungsprogramm ausgeführt
Bislang bezeichnet der Ausdruck „Hypertext“ eher verschiedene Visionen von künftigen Schreib- und Lesetechnologien als ein klares Konzept. In diesem Aufsatz wird der Versuch unternommen, die mit Hypertext verbundenen innovativen Ideen aus textwissenschaftlicher Perspektive zu beschreiben und zu bewerten und damit zur Präzisierung des Hypertext-Konzepts beizutragen. In Abschnitt 2 werden zunächst die verschiedenen Bestimmungen des Verhältnisses von Text und Hypertext, die in der Literatur zu finden sind, erläutert und systematisiert. Auf dieser Basis werden in Abschnitt 3 begriffliche Differenzierung eingeführt, die es ermöglichen, Hypertexte als textuelle Gebilde mit ganz spezifischen Eigenschaften an einen pragmatisch und funktional fundierten Textbegriff anzubinden und damit textlinguistische Erkenntnisse und Kategorien für die interdisziplinär zu entwickelnde Hypertext-Rhetorik nutzbar zu machen. Abschnitt 4 setzt sich mit der sog. „Nicht- Linearität“ von Hypertexten auseinander. Ausgehend von Überlegungen zum Stellenwert der Sequenzierung von Teiltexten für die Erreichung kommunikativer Handlungsziele, führe ich eine terminologische Unterscheidung zwischen medialer und konzeptueller Linearität ein, die dem Merkmal „nicht-linear“ größere begriffliche Schärfe verleiht und es ermöglicht, Vorteile und Einsatzmöglichkeiten des Mediums „Hypertext“ im Vergleich zum Medium „Buch“ präzise zu fassen.
Noch mal zu "Leitkultur"
(2002)
Destandardisierung lässt sich einerseits mit Bezug auf die regionale Variabilität des Deutschen verstehen als die Zunahme regionaler Varianten. Andererseits kann man darunter aber auch die Aufgabe kodifizierter nationaler Sprachformen zugunsten (nicht regionalisierter) Nicht-Standard-Formen verstehen. In vorliegenden Beitrag wird die These vertreten, dass die gegenwärtige Entwicklung des Deutschen lediglich als Destandardisierung im zweiten Sinn aufgefasst werden kann.
Standardisierung bedeutet in Bezug auf die regionalen Sprachformen des Deutschen Abbau kleinräumiger dialektaler Merkmale. Dieser Abbau vollzieht sich in der Mehrzahl der Fälle in Richtung auf eine standardnähere Lautung; nur selten expandieren regional-sprachliche Merkmale, die deutlich von der Standardlautung abweichen. Seit einigen Jahrzehnten erhält bzw. verstärkt sich die räumliche Gliederung der Standardsprache allerdings durch eine allseits akzeptierte Substratwirkung der großräumigen Regionaldialekte. Es kommt also zur Ausbildung regionaler Standardvarietäten. Diese Unterschichten die nicht-regionalisierte Standardsprache, ohne diese allerdings zu verdrängen.
Eine empirische Untersuchung zum Gebrauch der Standardsprache in Südwestdeutschland (es werden Daten aus Freiburg, Stuttgart und Heidelberg besprochen) belegt, dass (im weitesten Sinn) allegrosprachliche, nicht-standardsprachliche, nicht-regionale Merkmale an Bedeutung gewinnen, während ‚Dialektmerkmale‘ zurückgehen. Bezogen auf Tendenzen zu Destandardisierung wird die Frage aufgeworfen, ob es sich hierbei um einen Sprachwandel handelt.
Im Beitrag werden korpuslinguistische Aspekte und Fragestellungen aus variationslinguistischer Perspektive diskutiert, wobei der Fokus auf der Analyse regionalsprachlicher Daten und Korpora des Deutschen liegt. Unter Regionalsprache wird hier der areal gebundene, sprechsprachliche Gesamtbereich „unterhalb“ der normierten Standardsprache verstanden, der sich von den lokalen Basisdialekten über Varietäten bzw. Sprechlagen des mittleren Bereichs bis hin zum standardnächsten Pol der Regionalsprache (Regionalakzent oder Regionalstandard) erstreckt.
Am Beginn des Beitrags steht ein Überblick über Datenklassen, die als empirische Grundlage für regionalsprachliche Fragestellungen herangezogen werden können. Eine Präsentation regionalsprachlicher Korpora, die auf den vorgestellten Datenklassen aufbauen, schließt sich an, wobei hier lediglich einige ausgewählte, online zugängliche Korpora Berücksichtigung finden (können). In einem nächsten Schritt werden die vorgestellten Korpora zur konkreten variationslinguistischen Analyse von zwei regionalsprachlichen Phänomenen aus dem lautlichen („g-Spirantisierung“) bzw. grammatischen Bereich („Rezipientenpassiv“) herangezogen und auf ihre Ergiebigkeit geprüft.
In diesem Beitrag wird untersucht, wie mithilfe korpuslinguistischer Verfahren Erkenntnisse über den Aufbau von Bedeutungsparaphrasen in Wörterbüchern gewonnen werden können. Diese Erkenntnisse sollen dazu genutzt werden, den Aufbau von Bedeutungsparaphrasen in Wörterbüchern umfassend und systematisch zu beschreiben, z.B. im Hinblick auf eine Optimierung der Bedeutungsparaphrasen für so genannte elektronische Wörterbücher oder für die Extraktion lexikalisch-semantischer Information für NLP-Zwecke.
Der Begriff und die Rolle von Daten in einer Wissenschaft hängen eng mit ihrem Selbstverständnis zusammen. Als erstes ist zu überlegen, inwiefern Linguistik eine empirische Wissenschaft ist und also von Daten abhängt.
Während in den Philologien ein Korpus die Grundlage einer Disziplin abgibt, die ohne es nicht bestünde, ist in der Linguistik ein Korpus nur ein Weg, an Daten zu kommen. Hier ist zu diskutieren, welche relativen Meriten die alternativen Wege im Hinblick auf die angestrebten Ziele haben.
Während manches auf uns gekommene Korpus seine Sprache sicher nicht angemessen repräsentiert, könnte eine heute von Linguisten erstellte Dokumentation diesen Anspruch im Prinzip einlösen. Hier stellt sich die Frage, ob das - angesichts des infiniten Charakters der Sprache - überhaupt möglich ist und in wieweit die Repräsentativität wieder von den angestrebten Zielen abhängt.
Dies sind alles Fragen linguistischer Methodologie. Eine Zeitlang hat man in der Linguistik geglaubt, ohne Methodologie zu Theorien gelangen zu können. Seit sich das als irrig herausgestellt hat, ist die Entwicklung von Methoden ein fühlbares Desiderat geworden. Wie man repräsentative Daten erhebt, wie man ein Korpus zusammenstellt und nutzt, wie man eine Sprache dokumentiert, sind alles Fragen, die eigentlich in die Alltagsroutine einer Wissenschaft fallen müssten. Dass sie noch weitgehend ungeklärt sind, ist ein Symptom dafür, dass die Linguistik noch keine erwachsene Wissenschaft ist.
Wer sich mit grammatischen Phänomenen historischer Sprachstufen beschäftigt, kann seine empirischen Daten bekanntermaßen nicht auf der Grundlage von Sprecherurteilen gewinnen, sondern muss zunächst Korpusrecherchen betreiben. Die Größe des auszuwählenden Korpus ist sehr stark phänomenabhängig: So reicht es im Bereich der Syntax in der Regel nicht aus, kleinere Textausschnitte aus verschiedenen Textquellen zu einem Korpus zusammenzufügen, vielmehr müssen vollständige Texte nicht nur nach raum-zeitlichen Koordinaten, sondern auch textsortenabhängig ausgewählt werden, um ein repräsentatives Korpus für eine spezifische Sprachstufe zu erstellen. Da eine manuelle Sichtung dieser doch recht großen Korpora sich sehr zeitaufwändig gestaltet, bietet sich gerade im Bereich der historischen Syntax der Einsatz von syntaktisch annotierten, digitalen Korpora an. Im folgenden Beitrag wird der Aufbau einer solchen Baumbank für das Frühneuhochdeutsche einschließlich der verfügbaren Recherchemöglichkeiten vorgestellt.
In diesem Aufsatz diskutiere ich drei syntaktische Phänomene, die für die Grammatikforschung von zentraler Bedeutung sind. Ich zeige, dass Introspektion als Stütze von Theorien nicht ausreicht und entwickle Korpusanfragen für die diskutierten Fälle. Der Aufsatz schließt mit Anmerkungen zu den Grenzen der Korpuslinguistik.
Es gibt viele linguistische Forschungsfragen, für deren Beantwortung man Korpusdaten qualitativ und quantitativ auswerten möchte. Beide Auswertungsmethoden können sich auf den Korpustext, aber auch auf Annotationsebenen beziehen. Jede Art von Annotation, also Kategorisierung, stellt einen kontrollierten und notwendigen Informationsverlust dar. Das bedeutet, dass jede Art von Kategorisierung auch eine Interpretation der Daten ist. In den meisten großen Korpora wird zu jeder vorgesehenen Annotationsebene, wie z. B. Wortart-Ebene oder Lemma-Ebene, genau eine Interpretation angeboten. In den letzten Jahren haben sich neben den großen, ,,flach“ annotierten Korpora Korpusmodelle herausgebildet, mit denen man konfligierende Informationen kodieren kann, die so genannten Mehrebenen-Modelle (multilevel standoff corpora), in denen alle Annotationsebenen unabhängig vom Text gespeichert werden und nur auf bestimmte Textanker verweisen. Ich argumentiere anhand der Fehlerannotation in einem Lernerkorpus dafür, dass zumindest Korpora, in denen es stark variierende Annotationsbedürfnisse und umstrittene Analysen geben kann, davon profitieren, in Mehrebenen-Modellen kodiert zu werden.
Arbeitet man als muttersprachlicher Sprecher des Deutschen mit Corpora gesprochener oder geschriebener deutscher Sprache, dann reflektiert man in aller Regel nur selten über die Vielzahl von kulturspezifischen Informationen, die in solchen Texten kodifiziert sind - vor allem, wenn es sich bei diesen Daten um Texte aus der Gegenwart handelt. In den meisten Fällen hat man nämlich keinerlei Probleme mit dem in den Daten präsupponierten und als allgemein bekannt erachteten Hintergrundswissen. Betrachtet man dagegen Daten in Corpora, die andere - vor allem nicht-indoeuropäische - Sprachen dokumentieren, dann wird einem schnell bewusst, wieviel an kulturspezifischem Wissen nötig ist, um diese Daten adäquat zu verstehen. In meinem Beitrag illustriere ich diese Beobachtung an einem Beispiel aus meinem Corpus des Kilivila, der austronesischen Sprache der Trobriand-Insulaner von Papua-Neuguinea. Anhand eines kurzen Ausschnitts einer insgesamt etwa 26 Minuten dauernden Dokumentation, worüber und wie sechs Trobriander miteinander tratschen und klatschen, zeige ich, was ein Hörer oder Leser eines solchen kurzen Daten-Ausschnitts wissen muss, um nicht nur dem Gespräch überhaupt folgen zu können, sondern auch um zu verstehen, was dabei abläuft und wieso ein auf den ersten Blick absolut alltägliches Gespräch plötzlich für einen Trobriander ungeheuer an Brisanz und Bedeutung gewinnt. Vor dem Hintergrund dieses Beispiels weise ich dann zum Schluss meines Beitrags darauf hin, wie unbedingt nötig und erforderlich es ist, in allen Corpora bei der Erschließung und Kommentierung von Datenmaterialien durch sogenannte Metadaten solche kulturspezifischen Informationen explizit zu machen.
Gesprächsprotokolle auf Knopfdruck: Die automatische Zusammenfassung von gesprochenen Dialogen
(2007)
Dieser Beitrag beschreibt computerlinguistische Arbeiten zur automatischen Zusammenfassung gesprochener Dialoge. Der Beitrag geht sowohl auf die notwendige Vorverarbeitung als auch auf die eigentliche Zusammenfassung durch automatische Erkennung von Themengrenzen und Extraktion relevanter Äußerungen ein. Ein weiterer Schwerpunkt liegt in der Beschreibung von Arbeiten zur automatischen Anaphernresolution in gesprochener Sprache. Der Beitrag betont vor allem die Rolle und Bedeutung von annotierten Korpora für die computerlinguistische Forschung und Entwicklung.
Zunächst wird die verbreitete Auffassung von der regionalen Einheitlichkeit des Standarddeutschen, oder auch von Standardsprachen generell, problematisiert. Stattdessen wird die nationale und regionale Variation auch des Standarddeutschen verdeutlicht und werden die zu ihrer Beschreibung notwendigen Termini und Begriffe eingeführt. Angesichts der Variabilität des Standards stellt sich besonders dringlich die Frage, welche Sprachformen denn standardsprachlich sind und welche nicht. Hinter dieser auf Definition und Beschreibung abhebenden Frage erhebt sich die weitere, auf Erklärung abzielende, wer denn festlegt, welche Sprachformen standardsprachlich sind. Der Beitrag bemüht sich vor allem um eine Antwort auf diese letztgenannte Frage. Hierzu werden zunächst einmal vier für die Festlegung sprachlicher Standards maßgebliche soziale Kräfte identifiziert: Die Sprachkodifizierer (die den Sprachkodex erstellen), die Modellsprecher und -schreiber (an deren Texten sich die Kodifizierer orientieren), die Sprachexperten (die auf die Kodifizierer kritisch einwirken) und die Sprachnormautoritäten (welche die standardsprachlichen Normen durchsetzen). Das Zusammenspiel dieser maßgeblichen gesellschaftlichen Kräfte wird eingehend dargestellt und an Beispielen verdeutlicht. Abschließend werden die für die Einführung und den Wandel standardsprachlicher Normen ebenfalls wesentlichen Begriffe der ,Existenz‘, ,Gültigkeit (Validität)“ und ,Legitimität von Normen‘ expliziert.
Das Motto der diesjährigen Jahrestagung lautet „Standardvariation - Wie viel Variation verträgt die deutsche Standardsprache?“ Gerade Entlehnungen aus anderen Sprachen werfen in diesem Zusammenhang zum Beispiel bezüglich ihrer Aussprache das Problem auf, welche Merkmale zugrunde gelegt werden sollen, die der abgebenden oder die der aufnehmenden Sprache, und wie der tatsächlich im täglichen Sprachgebrauch vorherrschenden und zum Teil erheblichen Variationsbreite Rechnung getragen werden kann bzw. soll. Anhand der in den letzten Jahrzehnten vermehrt im Deutschen verwendeten Anglizismen, also Entlehnungen aus dem angloamerikanischen Sprachraum. möchte ich im Folgenden einige Aspekte aufzeigen, die mit der lautlichen Integration von Anglizismen im Deutschen einhergehen. Zunächst wird die einschlägige Forschungsliteratur zum Thema kurz referiert, um dann die wichtigsten phonetischen und phonologischen Unterschiede zwischen dem Englischen und dem Deutschen zu beleuchten. Vor diesem Hintergrund soll dann der Frage nachgegangen werden, welche Rolle eine akzeptable oder „normgerechte“ Aussprache von Anglizismen im öffentlichen Sprachgebrauch spielt. Da Wörterbücher auch hier einen nicht unerheblichen normierenden Einfluss ausüben, soll abschließend die Frage beantwortet werden, ob es für die Ausspracheangaben von Anglizismen in deutschen Wörterbüchern einen Standard oder eher eine Variationsbreite zu dokumentieren gilt.
Wieviel Variation verträgt die deutsche Standardsprache? Begriffsklärung: Standard und Gegenbegriffe
(2005)
Der Ausdruck „Begriffsklärung“ weckt zu hohe Erwartungen. Es müsste eigentlich „Versuch“ heißen. Die frühere hierarchische Gliederung des Deutschen in Hochsprache, Umgangssprache, Halbmundart, Mundart hätte weniger Mühe mit der Begriffsklärung gehabt. Empirisch untersucht wurden ohnehin nur die Dialekte oder Mundarten. Die Hochsprache war mit Orthographie, Orthophonie und Ortho-Grammatik wenn nicht wohldefiniert, so doch in allen Teilen fixiert. Umgangssprache und Halbmundart galten von beiden Polen her als in der Forschung zu vernachlässigende Mischformen.
Die jüngere Terminologie zur Sprachgliederung: Standard, Substandard, Nonstandard, auf die sich die strukturalistische und die empirische Richtung der Linguistik verständigt haben, sieht zwar schlanker und präziser aus. wird aber sogleich diffus, sobald man sie mit Varietäten weiter untergliedern oder Standard mit dem System- oder Normbegriff präzisieren will.
Die Gliederungsvorschläge und Merkmalszuweisungen stammen in der Regel nicht aus empirischer Objektbeobachtung. Es sind hypothetische Klassifikationsversuche oder „Modelle“, die sich auf eigene Spracherfahrung und -intuition berufen. Daraus resultiert eine Vielfalt von Definitionsanläufen trotz vordergründig einheitlicher Benennung.
Das Tagungsthema wird indessen in Form einer konkreten Frage paraphrasiert: „Wie viel Variation verträgt die deutsche Standardsprache“. Es sollte daher möglich sein, nicht die Vielfalt der angebotenen Definitionen zu betonen, sondern für die Begriffe bzw. Phänomene Standard, Variation, Standardvariation, deutsche Standardsprache eine operationale Definition oder Umschreibung zu finden, die soweit tauglich ist, dass die Frage beantwortet werden kann, welche Art von Variation innerhalb der Standard-Grenzen anzusiedeln ist und welche außerhalb. Die Folgen der theoretischen Zuordnung von „Variation“ zu Standard oder Nonstandard sind von recht praktischer Natur, nicht nur für die Dudenredaktion.
In this paper, I argue that the main questions that arise in the process of making a dictionary of political metaphors - that of identifying live conceptual metaphors in a corpus of text - may be solved on the basis of a pragmatic approach, taking into account the reflections in a text of cognitive processes in the minds of its author and its reader. Certainly, this goal cannot be attained without a further fine-grained semantic analysis o f presumably metaphoric expressions in their linguistic and cultural context.