Refine
Year of publication
Document Type
- Part of a Book (138) (remove)
Has Fulltext
- yes (138)
Keywords
- Deutsch (63)
- Massenmedien (20)
- Soziolinguistik (18)
- Konversationsanalyse (17)
- Mediensprache (17)
- Korpus <Linguistik> (12)
- Mannheim (12)
- Englisch (11)
- Neue Medien (11)
- Gesprochene Sprache (10)
Publicationstate
- Veröffentlichungsversion (57)
- Zweitveröffentlichung (27)
- Postprint (5)
Reviewstate
- (Verlags)-Lektorat (90)
- Verlags-Lektorat (1)
Publisher
- de Gruyter (50)
- Institut für Deutsche Sprache (28)
- Narr (17)
- Schwann (16)
- Benjamins (5)
- Niemeyer (5)
- De Gruyter (3)
- Carocci (2)
- Saxa (2)
- Westdeutscher Verlag (2)
Die Einsicht, dass öffentliches Leben in der modernen Gesellschaft primär von den Massenmedien herstellt und gestützt wird, gehört heute zu den Selbstverständlichkeiten der Medienforschung. Zu den wichtigen Aspekten des medialen öffentlichen Diskurses gehören u.a. die Mechanismen der Herstellung und Verbreitung von Informationen und die damit einhergehende Prägung der Relevanzvorstellungen, die öffentliche Sichtbarkeit von Politik oder auch die medial inszenierte Spiegelung von Alltagswelt und damit die Präsenz von Menschen „wie du und ich“ in der medialen Öffentlichkeit.
Vorwort
(1986)
Dieser Beitrag behandelt aufwändige Formen von Voraussetzungssicherung im Gespräch, bei denen ein Beteiligter die vorausgehende oder laufende Äußerung eines anderen Beteiligten zum Anlass nimmt, um einzugreifen und in einer expandierten Form aus Sprechersicht für die gegenwärtige Interaktion grundlegende Voraussetzungen zu klären. Charakteristisch für die Auffälligkeit des Vorgangs ist, dass das Eingreifen die Aktivitätsprogression im Gespräch suspendiert, bis die für das weitere gemeinsame Handeln notwendig erscheinenden Voraussetzungen geklärt und akzeptiert sind.
Einleitung
(2002)
Vorwort
(2007)
Anknüpfend an die voraufgehenden Beiträge des Bandes kommentiert der Verfasser den Diskussionsstand zum Thema „Sprache und neue Medien" und skizziert aus der Sicht des IDS einige Konsequenzen für die weitere Arbeit. Dabei stehen soziolinguistische Aspekte des Wandels von Sprach- und Kommunikationsformen unter dem Einfluss neuer Medien und die Weiterentwicklung der Sprachtechnologie als Arbeitsinstrument der Linguistik mit ihren möglichen methodischen und theoretischen Konsequenzen im Zentrum.
Vorwort
(2000)
ln diesem Beitrag sollen anhand von Materialien aus Gesprächskorpora des IDS Schwierigkeiten und Möglichkeiten der maschinellen Recherche vorgeführt werden. Grundlage dafür sind Gesprächstranskripte, die in digitaler Form vorliegen und in einem System mit Rechercheprozeduren zugreifbar sind. Mit diesem Ziel wird auf Rechercheverfahren zurückgegriffen, die in den 1990er Jahren in einem Projekt SHRGF.S im IDS als Anwendung der COSMAS-Technologie auf Gesprächskorpora entwickelt wurden. Die hier gegebenen Recherchemöglichkeiten werden an einem Auswahlkorpus von Gesprächstranskripten mit einem Gesamtumfang von 87.629 laufenden Wörtern versuchsweise angewendet und in ihren Beschränkungen und ihrer Fruchtbarkeit für explorative Untersuchungen betrachtet. Damit soll ein Beitrag zur Klärung der Frage geleistet werden, welche Recherchemöglichkeiten aus einer gesprächsanalytischen Perspektive vorstellbar und erwünscht sind und insofern bei der weiteren korpustechnologischen Entwicklung berücksichtigt werden sollten.
Der Beitrag behandelt Gesprächsaktivitäten eingeschränkter Kooperativst, wie sie in vielen Kommunikationssituationen wie z. B. in strittigen Diskussionen geradezu die Normalform darstellen. Zur theoretischen Einordnung und als Grundlage der empirischen Beschreibung derartiger Äußerungen wird das Konzept „Forcieren” im Sinne von „eigene Möglichkeiten erweitern und fremde verringern” entwickelt. Anhand eines komplexeren Beispielfalles wird ein Spektrum von unterschiedlichen Formen des Forcierens untersucht, die anschließend typologisch eingeordnet werden. Abschließend werden die beschriebenen Beteiligungsweisen eingeschränkter Kooperativst als Merkmale von unterschiedlichen Interaktionsstilen beschrieben.
Der Umgang mit Gesprächskorpora am IDS Mannheim: Die Recherche in der COSMAS-II-Gesprächsdatenbank
(2005)
Empirische Untersuchungen zur alltäglichen Nutzung der neuen Informations- und Kommunikationstechnologien sind so relevant wie rar. Neue Erkenntnisse verspricht ein DFG-Projekt im Rahmen einer interdisziplinären Forschergruppe, dessen Konzeption und erste Analysen im vorliegenden Beitrag skizziert werden. Die Nutzung des Computers, so die Prämisse, ist nicht nur eine Angelegenheit des einzelnen Anwenders und seiner Kommunikationspartner im Netz. In vielen Situationen werden Apparate und Programme erst auf der Grundlage des arbeitsbegleitenden Sprechens mit anderen strukturiert, eingesetzt, erlebt und bewertet, d. h. sprachlich angeeignet. Erste gesprächsanalytische Untersuchungen der in solchen Kontexten erhobenen Daten zeigen, dass die allgegenwärtigen „Bedienungsprobleme" nicht nur „instrumentell" bearbeitet werden, sondern auch nach „rituellen" Mustern alltäglicher psychosozialer Interaktionsrituale zur Bearbeitung von „Zwischenfallen" (Goffman). Die Ambivalenz dieser Art von Aneignung wirft die Frage auf, ob an der „Mensch-Maschine-Schnittstelle" aus linguistischer Sicht eine weitergehende Simulation zwischenmenschlicher Kommunikation zweckmäßig ist.
Die Überlegungen dieses Beitrags kreisen um die Frage, wie man der Gedankenfigur des Zusammenhangs von Sprache und Wirklichkeit in Hinblick auf Phänomene verbaler Interaktion einen spezifischen Sinn abgewinnen kann bzw. was die Phrase „Sprachliche Herstellung von Wirklichkeit” sinnvoll bedeuten kann. Dazu werden zunächst mit Rückgriff auf bestimmte Entwicklungslinien in der Rhetoriktradition und unter Berücksichtigung interaktionstheoretischer Grundsatzüberlegungen die konzeptionellen Rahmenüberlegungen festgestellt, die eine Deutung dieser Gedankenfigur in Rechnung stellen muß. Unter Berücksichtigung dieser Rahmenbedingungen wird dann eine Interpretation der Gedankenfigur vorgeschlagen, derzufolge Herstellung von Wirklichkeit - verkürzt gesagt - auf der Schaffung von Vertrautheit beruht. Diese Interpretation führt zu einer Revision alltäglicher Kommunikationserfahrung und zu einer veränderten Sichtweise auf die Relevanz kommunikativer Phänomene für die sprachliche Herstellung von Wirklichkeit. Ein entsprechendes Forschungsprogramm wird skizzenhaft entworfen. Anhand eines einzelnen kommunikativen Phänomens, sogenannter Schlüsselwörter, wird abschließend paradigmatisch vorgeführt, wie dieses Forschungsprogramm ausgeführt
Bislang bezeichnet der Ausdruck „Hypertext“ eher verschiedene Visionen von künftigen Schreib- und Lesetechnologien als ein klares Konzept. In diesem Aufsatz wird der Versuch unternommen, die mit Hypertext verbundenen innovativen Ideen aus textwissenschaftlicher Perspektive zu beschreiben und zu bewerten und damit zur Präzisierung des Hypertext-Konzepts beizutragen. In Abschnitt 2 werden zunächst die verschiedenen Bestimmungen des Verhältnisses von Text und Hypertext, die in der Literatur zu finden sind, erläutert und systematisiert. Auf dieser Basis werden in Abschnitt 3 begriffliche Differenzierung eingeführt, die es ermöglichen, Hypertexte als textuelle Gebilde mit ganz spezifischen Eigenschaften an einen pragmatisch und funktional fundierten Textbegriff anzubinden und damit textlinguistische Erkenntnisse und Kategorien für die interdisziplinär zu entwickelnde Hypertext-Rhetorik nutzbar zu machen. Abschnitt 4 setzt sich mit der sog. „Nicht- Linearität“ von Hypertexten auseinander. Ausgehend von Überlegungen zum Stellenwert der Sequenzierung von Teiltexten für die Erreichung kommunikativer Handlungsziele, führe ich eine terminologische Unterscheidung zwischen medialer und konzeptueller Linearität ein, die dem Merkmal „nicht-linear“ größere begriffliche Schärfe verleiht und es ermöglicht, Vorteile und Einsatzmöglichkeiten des Mediums „Hypertext“ im Vergleich zum Medium „Buch“ präzise zu fassen.
Noch mal zu "Leitkultur"
(2002)
Destandardisierung lässt sich einerseits mit Bezug auf die regionale Variabilität des Deutschen verstehen als die Zunahme regionaler Varianten. Andererseits kann man darunter aber auch die Aufgabe kodifizierter nationaler Sprachformen zugunsten (nicht regionalisierter) Nicht-Standard-Formen verstehen. In vorliegenden Beitrag wird die These vertreten, dass die gegenwärtige Entwicklung des Deutschen lediglich als Destandardisierung im zweiten Sinn aufgefasst werden kann.
Standardisierung bedeutet in Bezug auf die regionalen Sprachformen des Deutschen Abbau kleinräumiger dialektaler Merkmale. Dieser Abbau vollzieht sich in der Mehrzahl der Fälle in Richtung auf eine standardnähere Lautung; nur selten expandieren regional-sprachliche Merkmale, die deutlich von der Standardlautung abweichen. Seit einigen Jahrzehnten erhält bzw. verstärkt sich die räumliche Gliederung der Standardsprache allerdings durch eine allseits akzeptierte Substratwirkung der großräumigen Regionaldialekte. Es kommt also zur Ausbildung regionaler Standardvarietäten. Diese Unterschichten die nicht-regionalisierte Standardsprache, ohne diese allerdings zu verdrängen.
Eine empirische Untersuchung zum Gebrauch der Standardsprache in Südwestdeutschland (es werden Daten aus Freiburg, Stuttgart und Heidelberg besprochen) belegt, dass (im weitesten Sinn) allegrosprachliche, nicht-standardsprachliche, nicht-regionale Merkmale an Bedeutung gewinnen, während ‚Dialektmerkmale‘ zurückgehen. Bezogen auf Tendenzen zu Destandardisierung wird die Frage aufgeworfen, ob es sich hierbei um einen Sprachwandel handelt.
Im Beitrag werden korpuslinguistische Aspekte und Fragestellungen aus variationslinguistischer Perspektive diskutiert, wobei der Fokus auf der Analyse regionalsprachlicher Daten und Korpora des Deutschen liegt. Unter Regionalsprache wird hier der areal gebundene, sprechsprachliche Gesamtbereich „unterhalb“ der normierten Standardsprache verstanden, der sich von den lokalen Basisdialekten über Varietäten bzw. Sprechlagen des mittleren Bereichs bis hin zum standardnächsten Pol der Regionalsprache (Regionalakzent oder Regionalstandard) erstreckt.
Am Beginn des Beitrags steht ein Überblick über Datenklassen, die als empirische Grundlage für regionalsprachliche Fragestellungen herangezogen werden können. Eine Präsentation regionalsprachlicher Korpora, die auf den vorgestellten Datenklassen aufbauen, schließt sich an, wobei hier lediglich einige ausgewählte, online zugängliche Korpora Berücksichtigung finden (können). In einem nächsten Schritt werden die vorgestellten Korpora zur konkreten variationslinguistischen Analyse von zwei regionalsprachlichen Phänomenen aus dem lautlichen („g-Spirantisierung“) bzw. grammatischen Bereich („Rezipientenpassiv“) herangezogen und auf ihre Ergiebigkeit geprüft.
In diesem Beitrag wird untersucht, wie mithilfe korpuslinguistischer Verfahren Erkenntnisse über den Aufbau von Bedeutungsparaphrasen in Wörterbüchern gewonnen werden können. Diese Erkenntnisse sollen dazu genutzt werden, den Aufbau von Bedeutungsparaphrasen in Wörterbüchern umfassend und systematisch zu beschreiben, z.B. im Hinblick auf eine Optimierung der Bedeutungsparaphrasen für so genannte elektronische Wörterbücher oder für die Extraktion lexikalisch-semantischer Information für NLP-Zwecke.
Der Begriff und die Rolle von Daten in einer Wissenschaft hängen eng mit ihrem Selbstverständnis zusammen. Als erstes ist zu überlegen, inwiefern Linguistik eine empirische Wissenschaft ist und also von Daten abhängt.
Während in den Philologien ein Korpus die Grundlage einer Disziplin abgibt, die ohne es nicht bestünde, ist in der Linguistik ein Korpus nur ein Weg, an Daten zu kommen. Hier ist zu diskutieren, welche relativen Meriten die alternativen Wege im Hinblick auf die angestrebten Ziele haben.
Während manches auf uns gekommene Korpus seine Sprache sicher nicht angemessen repräsentiert, könnte eine heute von Linguisten erstellte Dokumentation diesen Anspruch im Prinzip einlösen. Hier stellt sich die Frage, ob das - angesichts des infiniten Charakters der Sprache - überhaupt möglich ist und in wieweit die Repräsentativität wieder von den angestrebten Zielen abhängt.
Dies sind alles Fragen linguistischer Methodologie. Eine Zeitlang hat man in der Linguistik geglaubt, ohne Methodologie zu Theorien gelangen zu können. Seit sich das als irrig herausgestellt hat, ist die Entwicklung von Methoden ein fühlbares Desiderat geworden. Wie man repräsentative Daten erhebt, wie man ein Korpus zusammenstellt und nutzt, wie man eine Sprache dokumentiert, sind alles Fragen, die eigentlich in die Alltagsroutine einer Wissenschaft fallen müssten. Dass sie noch weitgehend ungeklärt sind, ist ein Symptom dafür, dass die Linguistik noch keine erwachsene Wissenschaft ist.
Wer sich mit grammatischen Phänomenen historischer Sprachstufen beschäftigt, kann seine empirischen Daten bekanntermaßen nicht auf der Grundlage von Sprecherurteilen gewinnen, sondern muss zunächst Korpusrecherchen betreiben. Die Größe des auszuwählenden Korpus ist sehr stark phänomenabhängig: So reicht es im Bereich der Syntax in der Regel nicht aus, kleinere Textausschnitte aus verschiedenen Textquellen zu einem Korpus zusammenzufügen, vielmehr müssen vollständige Texte nicht nur nach raum-zeitlichen Koordinaten, sondern auch textsortenabhängig ausgewählt werden, um ein repräsentatives Korpus für eine spezifische Sprachstufe zu erstellen. Da eine manuelle Sichtung dieser doch recht großen Korpora sich sehr zeitaufwändig gestaltet, bietet sich gerade im Bereich der historischen Syntax der Einsatz von syntaktisch annotierten, digitalen Korpora an. Im folgenden Beitrag wird der Aufbau einer solchen Baumbank für das Frühneuhochdeutsche einschließlich der verfügbaren Recherchemöglichkeiten vorgestellt.
In diesem Aufsatz diskutiere ich drei syntaktische Phänomene, die für die Grammatikforschung von zentraler Bedeutung sind. Ich zeige, dass Introspektion als Stütze von Theorien nicht ausreicht und entwickle Korpusanfragen für die diskutierten Fälle. Der Aufsatz schließt mit Anmerkungen zu den Grenzen der Korpuslinguistik.
Es gibt viele linguistische Forschungsfragen, für deren Beantwortung man Korpusdaten qualitativ und quantitativ auswerten möchte. Beide Auswertungsmethoden können sich auf den Korpustext, aber auch auf Annotationsebenen beziehen. Jede Art von Annotation, also Kategorisierung, stellt einen kontrollierten und notwendigen Informationsverlust dar. Das bedeutet, dass jede Art von Kategorisierung auch eine Interpretation der Daten ist. In den meisten großen Korpora wird zu jeder vorgesehenen Annotationsebene, wie z. B. Wortart-Ebene oder Lemma-Ebene, genau eine Interpretation angeboten. In den letzten Jahren haben sich neben den großen, ,,flach“ annotierten Korpora Korpusmodelle herausgebildet, mit denen man konfligierende Informationen kodieren kann, die so genannten Mehrebenen-Modelle (multilevel standoff corpora), in denen alle Annotationsebenen unabhängig vom Text gespeichert werden und nur auf bestimmte Textanker verweisen. Ich argumentiere anhand der Fehlerannotation in einem Lernerkorpus dafür, dass zumindest Korpora, in denen es stark variierende Annotationsbedürfnisse und umstrittene Analysen geben kann, davon profitieren, in Mehrebenen-Modellen kodiert zu werden.
Arbeitet man als muttersprachlicher Sprecher des Deutschen mit Corpora gesprochener oder geschriebener deutscher Sprache, dann reflektiert man in aller Regel nur selten über die Vielzahl von kulturspezifischen Informationen, die in solchen Texten kodifiziert sind - vor allem, wenn es sich bei diesen Daten um Texte aus der Gegenwart handelt. In den meisten Fällen hat man nämlich keinerlei Probleme mit dem in den Daten präsupponierten und als allgemein bekannt erachteten Hintergrundswissen. Betrachtet man dagegen Daten in Corpora, die andere - vor allem nicht-indoeuropäische - Sprachen dokumentieren, dann wird einem schnell bewusst, wieviel an kulturspezifischem Wissen nötig ist, um diese Daten adäquat zu verstehen. In meinem Beitrag illustriere ich diese Beobachtung an einem Beispiel aus meinem Corpus des Kilivila, der austronesischen Sprache der Trobriand-Insulaner von Papua-Neuguinea. Anhand eines kurzen Ausschnitts einer insgesamt etwa 26 Minuten dauernden Dokumentation, worüber und wie sechs Trobriander miteinander tratschen und klatschen, zeige ich, was ein Hörer oder Leser eines solchen kurzen Daten-Ausschnitts wissen muss, um nicht nur dem Gespräch überhaupt folgen zu können, sondern auch um zu verstehen, was dabei abläuft und wieso ein auf den ersten Blick absolut alltägliches Gespräch plötzlich für einen Trobriander ungeheuer an Brisanz und Bedeutung gewinnt. Vor dem Hintergrund dieses Beispiels weise ich dann zum Schluss meines Beitrags darauf hin, wie unbedingt nötig und erforderlich es ist, in allen Corpora bei der Erschließung und Kommentierung von Datenmaterialien durch sogenannte Metadaten solche kulturspezifischen Informationen explizit zu machen.
Gesprächsprotokolle auf Knopfdruck: Die automatische Zusammenfassung von gesprochenen Dialogen
(2007)
Dieser Beitrag beschreibt computerlinguistische Arbeiten zur automatischen Zusammenfassung gesprochener Dialoge. Der Beitrag geht sowohl auf die notwendige Vorverarbeitung als auch auf die eigentliche Zusammenfassung durch automatische Erkennung von Themengrenzen und Extraktion relevanter Äußerungen ein. Ein weiterer Schwerpunkt liegt in der Beschreibung von Arbeiten zur automatischen Anaphernresolution in gesprochener Sprache. Der Beitrag betont vor allem die Rolle und Bedeutung von annotierten Korpora für die computerlinguistische Forschung und Entwicklung.
Zunächst wird die verbreitete Auffassung von der regionalen Einheitlichkeit des Standarddeutschen, oder auch von Standardsprachen generell, problematisiert. Stattdessen wird die nationale und regionale Variation auch des Standarddeutschen verdeutlicht und werden die zu ihrer Beschreibung notwendigen Termini und Begriffe eingeführt. Angesichts der Variabilität des Standards stellt sich besonders dringlich die Frage, welche Sprachformen denn standardsprachlich sind und welche nicht. Hinter dieser auf Definition und Beschreibung abhebenden Frage erhebt sich die weitere, auf Erklärung abzielende, wer denn festlegt, welche Sprachformen standardsprachlich sind. Der Beitrag bemüht sich vor allem um eine Antwort auf diese letztgenannte Frage. Hierzu werden zunächst einmal vier für die Festlegung sprachlicher Standards maßgebliche soziale Kräfte identifiziert: Die Sprachkodifizierer (die den Sprachkodex erstellen), die Modellsprecher und -schreiber (an deren Texten sich die Kodifizierer orientieren), die Sprachexperten (die auf die Kodifizierer kritisch einwirken) und die Sprachnormautoritäten (welche die standardsprachlichen Normen durchsetzen). Das Zusammenspiel dieser maßgeblichen gesellschaftlichen Kräfte wird eingehend dargestellt und an Beispielen verdeutlicht. Abschließend werden die für die Einführung und den Wandel standardsprachlicher Normen ebenfalls wesentlichen Begriffe der ,Existenz‘, ,Gültigkeit (Validität)“ und ,Legitimität von Normen‘ expliziert.
Das Motto der diesjährigen Jahrestagung lautet „Standardvariation - Wie viel Variation verträgt die deutsche Standardsprache?“ Gerade Entlehnungen aus anderen Sprachen werfen in diesem Zusammenhang zum Beispiel bezüglich ihrer Aussprache das Problem auf, welche Merkmale zugrunde gelegt werden sollen, die der abgebenden oder die der aufnehmenden Sprache, und wie der tatsächlich im täglichen Sprachgebrauch vorherrschenden und zum Teil erheblichen Variationsbreite Rechnung getragen werden kann bzw. soll. Anhand der in den letzten Jahrzehnten vermehrt im Deutschen verwendeten Anglizismen, also Entlehnungen aus dem angloamerikanischen Sprachraum. möchte ich im Folgenden einige Aspekte aufzeigen, die mit der lautlichen Integration von Anglizismen im Deutschen einhergehen. Zunächst wird die einschlägige Forschungsliteratur zum Thema kurz referiert, um dann die wichtigsten phonetischen und phonologischen Unterschiede zwischen dem Englischen und dem Deutschen zu beleuchten. Vor diesem Hintergrund soll dann der Frage nachgegangen werden, welche Rolle eine akzeptable oder „normgerechte“ Aussprache von Anglizismen im öffentlichen Sprachgebrauch spielt. Da Wörterbücher auch hier einen nicht unerheblichen normierenden Einfluss ausüben, soll abschließend die Frage beantwortet werden, ob es für die Ausspracheangaben von Anglizismen in deutschen Wörterbüchern einen Standard oder eher eine Variationsbreite zu dokumentieren gilt.
Wieviel Variation verträgt die deutsche Standardsprache? Begriffsklärung: Standard und Gegenbegriffe
(2005)
Der Ausdruck „Begriffsklärung“ weckt zu hohe Erwartungen. Es müsste eigentlich „Versuch“ heißen. Die frühere hierarchische Gliederung des Deutschen in Hochsprache, Umgangssprache, Halbmundart, Mundart hätte weniger Mühe mit der Begriffsklärung gehabt. Empirisch untersucht wurden ohnehin nur die Dialekte oder Mundarten. Die Hochsprache war mit Orthographie, Orthophonie und Ortho-Grammatik wenn nicht wohldefiniert, so doch in allen Teilen fixiert. Umgangssprache und Halbmundart galten von beiden Polen her als in der Forschung zu vernachlässigende Mischformen.
Die jüngere Terminologie zur Sprachgliederung: Standard, Substandard, Nonstandard, auf die sich die strukturalistische und die empirische Richtung der Linguistik verständigt haben, sieht zwar schlanker und präziser aus. wird aber sogleich diffus, sobald man sie mit Varietäten weiter untergliedern oder Standard mit dem System- oder Normbegriff präzisieren will.
Die Gliederungsvorschläge und Merkmalszuweisungen stammen in der Regel nicht aus empirischer Objektbeobachtung. Es sind hypothetische Klassifikationsversuche oder „Modelle“, die sich auf eigene Spracherfahrung und -intuition berufen. Daraus resultiert eine Vielfalt von Definitionsanläufen trotz vordergründig einheitlicher Benennung.
Das Tagungsthema wird indessen in Form einer konkreten Frage paraphrasiert: „Wie viel Variation verträgt die deutsche Standardsprache“. Es sollte daher möglich sein, nicht die Vielfalt der angebotenen Definitionen zu betonen, sondern für die Begriffe bzw. Phänomene Standard, Variation, Standardvariation, deutsche Standardsprache eine operationale Definition oder Umschreibung zu finden, die soweit tauglich ist, dass die Frage beantwortet werden kann, welche Art von Variation innerhalb der Standard-Grenzen anzusiedeln ist und welche außerhalb. Die Folgen der theoretischen Zuordnung von „Variation“ zu Standard oder Nonstandard sind von recht praktischer Natur, nicht nur für die Dudenredaktion.
In this paper, I argue that the main questions that arise in the process of making a dictionary of political metaphors - that of identifying live conceptual metaphors in a corpus of text - may be solved on the basis of a pragmatic approach, taking into account the reflections in a text of cognitive processes in the minds of its author and its reader. Certainly, this goal cannot be attained without a further fine-grained semantic analysis o f presumably metaphoric expressions in their linguistic and cultural context.
One of the specific historical and cultural characteristics of the Russian political discourse is its orientation to precedents. It is considered correct to follow the behaviouristic models shown by one of the “heroes” (Peter I, Lenin, Stalin, etc.), to reproduce standard texts, and to compare the present situations with past situations (The Time of Troubles, Weimar Republic, NEP “New Economic Policy” (1921-1928), etc.). One of the peculiarities of the present time in Russia is the deep conflict between different social groups orientated to different precedents. Each group has its own variant of the national myth using the same means of the language for actualisation of this myth. Therefore, it is very important to analyse changes in the national cognitive foundation. Precedential phenomena are the central components of this foundation.
In diesem Beitrag versuchen wir darzulegen, unter welchen Umständen introspektive Urteile objektive, quantifizierbare, und empirisch adäquate linguistische Daten sein können. Dazu skizzieren wir, wie die Resultate unserer experimentell erhobenen, relativen Urteilsstudien aussehen, und argumentieren, dass sie eine unverzichtbare Evidenzquelle für die Syntax bilden, weil sie Einsichten in die Architektur der Grammatik erlauben, die mit anderen Mitteln nicht möglich sind.
Statistische Methoden finden derzeit in der Sprachtechnologie vielfache Verwendung. Ein Grundgedanke dabei ist das Trainieren von Programmen auf große Mengen von Daten. Für das Trainieren von statistischen Sprachmodellen gilt zur Zeit das Motto „Je mehr Daten desto besser“. In unserem System zur maschinellen Übersetzung sehen wir eine fast konstante qualitative Verbesserung (gemessen als BLEU-Score) mit jeder Verdoppelung der monolingualen Trainingsdatenmenge. Selbst bei Mengen von ca. 20 Milliarden Wörtern aus Nachrichtentexten und ca. 200 Milliarden Wörtern aus Webseiten ist kein Abflachen der Lernkurve in Sicht.
Dieser Artikel gibt kurze Einführungen in statistische maschinelle Übersetzung, die Evaluation von Übersetzungen mit dem BLEU-Score, und in statistische Sprachmodelle. Wir zeigen, welch starken Einfluß die Größe der Trainingsdaten des Sprachmodells auf die Übersetzungsqualität hat. Danach wird die Speicherung großer Datenmengen, das Trainieren in einer parallelen Architektur und die effiziente Verwendung der bis zu 1 Terabyte großen Modelle in der maschinellen Übersetzung beschrieben.
Die deutsche Standardsprache hat sich durchgesetzt. Sie ist weithin zur Sprache eines öffentlichen und gehobenen Alltags geworden. Dadurch erweitern sich die Anforderungen, die an eine so verwendete Sprachform gestellt werden. Im Gefolge dessen wird eine Art von Variation sichtbar, die dazu zwingt, über die normative Geltung der Konventionen, denen dabei gefolgt wird, nachzudenken und möglichst Übereinkunft herzustellen. In dieser Phase der Verbreiterung der Basis für standardsprachliches Interagieren stehen dabei nicht nur grammatische und ähnliche sprachliche Regelmäßigkeiten zur gesellschaftlichen Diskussion, sondern nicht zuletzt Textkonventionen, die unser situativ und textsortenspezifisch angemessenes Agieren leiten. Von deren Wandel ist im zweiten Teil des Beitrags exemplarisch die Rede.
Mailinglisten und Newsgroups sind durch Verzicht auf Multimedialität „asketische“ Internet-Dienste; dennoch werden sie von Online-Gemeinschaften zunehmend als wichtige interaktive Ressource für Informationsaustausch und Diskussion, auch zu berufsbezogenen Themen, genutzt. Die spezifischen kommunikativen Regeln und Normen sind in dieser Umbruchphase noch nicht selbstverständlich und teils noch strittig; so lassen sich vielfältige metakommunikative Formen der Kommunikationsregulierung beobachten. Das hat für die Nutzer allerdings Chancen und Risiken: Eine Thematisierung divergenter Normkonzepte und Leitvorstellungen kann Mittel zur Beilegung von Normkonflikten sein, aber auch zu gestörten Formen der Beziehungskommunikation („flame wars“) und zur Korrumpierung der ursprünglich von den Beteiligten akzeptierten Themen und Ziele führen. Dieses Risiko wird in face-to-face-Interaktion durch die Kopräsenz der Gesprächspartner, durch ein gegenüber dem „Quoten“ reichhaltigeres Repertoire an Berücksichtigungsformen für Partner-Äußerungen und ein stärker ausgeprägtes Bewusstsein von den situativen Voraussetzungen kontrolliert.
Auf der Suche nach Identität
(2002)
Der Beitrag gibt einen Überblick über die vielfaltigen neuen Arbeitsmöglichkeiten, die computergestützte Medien der Sprachwissenschaft eröffnen, und diskutiert die Frage, wieweit wissenschaftliche Ansprüche, Denkweisen, Methoden, Arbeitsrhythmen und Resultate von neuen Arbeitstechniken beeinflusst werden. Anhand ausgewählter Beispiele werden verschiedene Stadien linguistischen Arbeitens (von erster Orientierung und Hypothesenbildung über Datensammlung und Informationsrecherche bis zu Auswertung, Ergebnisfindung, Präsentation und Diskussion) sowie unterschiedlicheTeildisziplinen und Fragestellungen der Sprachwissenschaft (von Phonetik über Lexikographie bis zur Gesprächsanalyse etc.) behandelt.
Der Beitrag erläutert die Grundideen und Potenziale einer konsequenten hypermedialen Informationsvernetzung im WWW. Dazu werden Verfahren der automatischen Hyperverknüpfung vorgestellt, die Rolle der Sprachtechnologie in diesem Zusammenhang diskutiert und die Bedeutung der XML-Standards für die Verwirklichung einer dichten Hypervernetzung erklärt.
In der face-to-face Kommunikation wirken sprachbegleitende Merkmale i. S. der Verständnissicherung. Durch die räumlich-zeitliche Kopräsenz der Beteiligten ist es zudem leichter, einen „common ground" zu etablieren als in der computervermittelten Kommunikation, bei der die nonverbalen Ausdrucksmöglichkeiten entfallen. Offen ist dabei, inwieweit sich dieser Unterschied der Modalitäten auf die Kommunikation auswirkt. In einer Untersuchung der Interaktion innerhalb von Arbeitsgruppen aus vier Teilnehmern, die entweder face-to-face oder computervermittelt miteinander kommunizierten, wurden Unterschiede in der Frequenz spezieller Interaktionsformen und in der Art der Verdeutlichung der jeweiligen Standpunkte gefunden. Diese Ergebnisse werden vor dem Hintergrund theoretischer Annahmen zum Stellenwert der räumlich-zeitlichen Kopräsenz diskutiert.
Eine Vielzahl von Sprachtheorien folgt einem Zwei-Welten-Modell der Sprachlichkeit, welches zwischen der Sprache als System und Regelstruktur und dem Sprechen als Aktualisierung dieser Struktur unterscheidet. Eine Implikation dieses Modells ist es, die Medien als ein bloßes Realisierungsphänomen zu behandeln. Eine Revision dieses Ansatzes im Anschluss an methodologische Überlegungen bei Wittgenstein und Luhmann wird unternommen. Was Medien sind und was sie leisten, wird dabei in eine kulturtechnische Perspektive gerückt: Mit den Kulturtechniken der Gutenberg-Ära, dem Schreiben, Lesen und Rechnen, erzeugen und operationalisieren
wir symbolische Welten, die uns neue Spielräume der Kognition und der Kommunikation eröffnen. Diese Kulturtechniken beruhen auf der Dispensierung von Kommunikation und Interaktion. Ist mit der medialen Nutzung des Computers eine neue Kulturtechnik im Entstehen? Welche Rolle spielt hierbei das Schlagwort der Interaktivität? Am Beispiel der eine Depersonalisierung bewirkenden telematischen Kommunikation werden Reichweite und Grenze der computererzeugten
Interaktivität ausgelotet.
Ausgehend von der chinesischen Legende eines Malers, der in sein Bild steigt und darin verschwindet, wird die Problematik des Verhältnisses von Welt, Medium und Mediumbenutzer diskutiert und gezeigt, dass das Medium einen spezifischen Systemcharakter hat. Die Parallelität moderner Multimedia-Anwendungen zu dieser chinesischen Legende besteht darin, dass auch in ihnen der Benutzer in das Medium – etwa in Form virtueller Personen – einsteigen kann. Hier entsteht die Frage, ob und auf welche Weise eine solche Mediennutzung eine bestimmte Form von Kommunikation ist. Aus der Entwicklung eines für diese Fragestellung adäquaten Kommunikationskonzept wird ein Medienbegriff abgeleitet und in seinen verschiedenen Aspekten entfaltet. Der Medienstatus von Multimedia lässt sich schließlich auf der Grundlage dieses Medienkonzepts genau bestimmen.
Der Beitrag stellt ein Plädoyer für die Notwendigkeit dar, das Problem der Sprachmedialität in den Diskurs der Medientheorie mit einzubeziehen. Es wird die These vertreten, dass ein angemessenes Verständnis des Medialitätsproblems ohne eine Analyse des präliteralen bzw. nonliteralen menschlichen Sprach- und Zeichenvermögens nicht geleistet werden kann, weil die Geschichte der Medialität nicht erst mit der Geschichte der „Technologisierung des Wortes" (W. Ong), d.h. mit der Schriftgeschichte, beginnt. Diese These wird vor dem Hintergrund einer konvergenten Entwicklung in der Medien- und Sprachtheorie profiliert: Der Sprachvergessenheit des Mediendiskurses entspricht eine Medialitätsvergessenheit der (kognitivistischen) Sprachtheorie. Der Beitrag endet mit der Skizze zu einer Medialitätstheorie der Sprache, die als „Spurtheorie des Geistes" entworfen wird.
Der Beitrag stellt drei wichtige Etappen in der Entwicklungsgeschichte der Telekommunikation in den Mittelpunkt: den optischen Telegraf, den elektrischen Telegraf und das Telefon. Die exemplarische Behandlung verschiedener Texte aus Wissenschaft, Technik und Alltag soll die facettenreichen Auseinandersetzungen zeigen, die zu den drei Basisinnovationen des 19. Jahrhunderts geführt wurden. Dabei soll die vielfältige sprachliche Aneignung der neuen Techniken auf mehreren Ebenen analysiert werden: Welcher Ausdrucksmittel bedient sich eine zeittypische und technikeuphorische Beschreibungssprache? Welche neuen Kommunikationsgewohnheiten, Dialogformen und Textstrukturen bilden sich aus? Welche Begriffe der neuen Technik werden zu Leitbegriffen und zentralen metaphorischen Bildern in der öffentlichen Sprache des 19. Jahrhunderts?
Es werden zunächst die bei gesprochener und geschriebener Sprache unterschiedlichen Verarbeitungsmechanismen gekennzeichnet. Die Neuen Medien können gekennzeichnet werden als technische Verfahrensweisen, die die in der Schrift gegebene Reduktion der Sprechsituation auf das rein Sprachliche (den Text) wieder aufheben und dadurch die Erlebnisqualität der unmittelbaren Sprechsituation zurückholen. Diese Kennzeichnung wird dann auf die Erwerbs- und Lehrprozesse bezogen, dabei wird vor allem die Diskrepanz zwischen den Möglichkeiten der Neuen Medien und der Unterrichtspraxis angesprochen.
Obwohl kombinierte Ton-Bild-Verbindungen seit etwa 60 Jahren technisch möglich sind, ist noch längst nicht geklärt, inwiefern Videokonferenzen sich von herkömmlichen Besprechungen unterscheiden. In diesem Kapitel werden besondere Merkmale der Interaktionsorganisation und -dynamik von Videokonferenzen beschrieben, indem vier kurze Passagen vorgestellt und analysiert werden. Dabei werden Ausschnitte der untersuchten Materialien gegenstandsnah in Form von kurzen Videoclips präsentiert und auf diese Weise die Analyse nachvollziehbar und überprüfbar gemacht. Zu den besonderen Merkmalen von Videokonferenzen gehören unter anderen die veränderte Ökologie des Besprechungsraums, die veränderte Funktionalität von Blickzuwendung und Lautstärke des Sprechens für das Etablieren von Beteiligungskonstellationen sowie die eingeschränkte Transparenz von Handlungen „hier" für die Beteiligten „dort". Dazu gehören aber auch die zeitweise holprige Interaktionsqualität aufgrund der technisch bedingten Zeitverzögerung, die Schwierigkeiten, sich von „hier" aus in eine kontroverse Diskussion „dort" einzuschalten, sowie schließlich Probleme mit Aktivitäten wie etwa Lachen und Sich-Amüsieren, die eine hochgradige Koordination der Beteiligten erfordern.