Refine
Year of publication
- 2014 (27) (remove)
Document Type
- Part of a Book (19)
- Conference Proceeding (3)
- Working Paper (3)
- Article (1)
- Book (1)
Has Fulltext
- yes (27)
Keywords
- Sprachwandel (9)
- Sprachvariante (6)
- Deutsch (5)
- Sprachverfall (5)
- Korpus <Linguistik> (4)
- Computerlinguistik (3)
- Forschungsdaten (3)
- Sprachgeschichte (3)
- Sprachnorm (3)
- Standardsprache (3)
Publicationstate
Reviewstate
- (Verlags)-Lektorat (15)
- Peer-Review (2)
- Verlags-Lektorat (2)
Publisher
- de Gruyter (14)
- De Gruyter (2)
- Institut für Deutsche Sprache (2)
- Cambridge Scholars Publ. (1)
- ELRA (1)
- European Language Resources Association (ELRA) (1)
- Lang (1)
- Oxford Univ. Press (1)
- Universität Tübingen (1)
In diesem Beitrag wird an einigen Beispielen aus der nominalen Morphologie bzw. der Morphosyntax der deutschen Substantivgruppe gezeigt, wie sich in den Veränderungen in diesem Bereich, die sich über das 20. Jahrhundert hin beobachten lassen, Fragen eines langfristigen Systemwandels mit Regularitäten des Sprachgebrauchs überlagern. Im Mittelpunkt soll die Frage der Markierung der Kasus – insbesondere in den allgemein als „kritisch“ angesehenen Fällen von Genitiv und Dativ – stehen. Wenn man die Daten dazu betrachtet, sieht man, dass in den meisten Fällen schon zum Anfang des 20. Jahrhunderts eine weitgehende Anpassung an die Regularitäten der Monoflexion erfolgt war, auch, dass dieser Prozess über das Jahrhundert hin fortschreitet. Bemerkenswert ist, dass insgesamt die als „alt“ angesehenen Fälle in den untersuchten Korpora geschriebener Sprache (sehr) selten auftauchen, dass aber in zunehmendem Ausmaß die daraus folgende Markiertheit in der einen oder anderen Weise funktional genutzt wird. Einen Fall eigener Art stellt in diesem Zusammenhang der Genitiv dar, der sich bei den starken Maskulina und Neutra bekanntlich dem Trend zur „Einmalmarkierung“ der Kasus an den flektierten, das Substantiv begleitenden Elementen widersetzt. Das führt zu der bekannten Orientierung dieser Formen auf die Nicht-Objekt-Verwendungen und auch zu einem auffälligen Maß an Variation in der Nutzung der entsprechenden Flexionsformen.
Sprachverfall? Einleitung
(2014)
Diskurse, die in der nichtlinguistischen Welt über Sprache geführt werden, sind typischerweise Sprachverfallsdiskurse – gleich, ob es um Neue Medien, Anglizismen, Orthographie oder Schülerleistungen geht. Linguistische Laien neigen dazu, Sprache als etwas Homogenes, Monolithisches, das stabilen Normen unterliegt, zu sehen. Variation und Sprachwandel werden, so sie denn zur Kenntnis genommen werden, vielfach als Bedrohung wahrgenommen; häufig werden sie sozial interpretiert. Tatsächlich aber findet die Mehrzahl der Phänomene, die Anlass für sprachkritische Debatten der Öffentlichkeit geben, ihren systematischen Ort im Bereich von Variation oder von Sprachwandelprozessen.
Der vorliegende Band versammelt die Vorträge der 49. Jahrestagung des Instituts für Deutsche Sprache; er liefert einerseits eine sprachhistorische und variationslinguistische Einordnung der vom Sprachverfalls-Diskurs betroffenen Systembereiche, andererseits bietet er eine sprachsoziologische Analyse der dem öffentlichen Diskurs zugrundeliegenden Prozesse.
Der Beitrag beschäftigt sich mit der Frage, wie und inwieweit korpusbasierte Ansätze zur Untersuchung und Bewertung von Sprachwandel beitragen können. Die Bewertung von Sprachwandel erscheint in dieser Hinsicht interessant, da sie erstens von größerem öffentlichen Interesse ist, zweitens nicht zu den Kernthemen der Sprachwissenschaft zählt und drittens sowohl die geisteswissenschaftlichen Aspekte der Sprachwissenschaft berührt als auch die empirischen, die eher für die so genannten harten Wissenschaften typisch sind. Letzteres trifft bei der Frage nach Sprachverfall (gutem vs. schlechtem Deutsch diachron) vermutlich unbestrittener zu als bei der Frage nach richtigem vs. falschem Deutsch, da zu ihrer Beantwortung offensichtlich einerseits empirische, messbare Kriterien herangezogen werden müssen, andererseits aber auch weitere Kriterien notwendig sind und es außerdem einer Entscheidung zur Einordnung und Gewichtung der verschiedenartigen Kriterien sowie einer Begründung dieser Entscheidung bedarf. Zur Annäherung an die Fragestellung werden zunächst gängige, leicht operationalisierbare Hypothesen zu Symptomen eines potenziellen Verfalls des Deutschen auf verschiedenen DeReKo-basierten Korpora überprüft und im Hinblick auf ihre Verallgemeinerbarkeit und Tragweite diskutiert. Im zweiten Teil werden weitere empirische Ansätze zur Untersuchung von Wandel, Variation und Dynamik skizziert, die zur Diskussion spezieller Aspekte von Sprachverfall beitragen könnten. Im Schlussteil werden die vorgestellten Ansätze in den Gesamtkontext einer sprachwissenschaftlichen Untersuchung von Sprachverfall gestellt und vor dem Hintergrund seines gesellschaftlichen Diskurses reflektiert.
We present an approach to an aspect of managing complex access scenarios to large and heterogeneous corpora that involves handling user queries that, intentionally or due to the complexity of the queried resource, target texts or annotations outside of the given user’s permissions. We first outline the overall architecture of the corpus analysis platform KorAP, devoting some attention to the way in which it handles multiple query languages, by implementing ISO CQLF (Corpus Query Lingua Franca), which in turn constitutes a component crucial for the functionality discussed here. Next, we look at query rewriting as it is used by KorAP and zoom in on one kind of this procedure, namely the rewriting of queries that is forced by data access restrictions.
In recent years, new developments in the area of lexicography have altered not only the management, processing and publishing of lexicographical data, but also created new types of products such as electronic dictionaries and thesauri. These expand th range of possible uses of lexical data and support users with more flexibility, for instance in assisting human translation. In this article, we give a short and easy-to-understand introduction to the problematic nature of the storage, display and interpretation of lexical data. We then describe the main methods and specifications used to build and represent lexical data.
Communication across all language barriers has long been a goal of humankind. In recent years, new technologies have enabled this at least partially. New approaches and different methods in the field of Machine Translation (MT) are continuously being improved, modified, and combined, as well. Significant progress has already been achieved in this area; many automatic translation tools, such as Google Translate and Babelfish, can translate not only short texts, but also complete web pages in real time. In recent years, new advances are being made in the mobile area; Googles Translate app for Android and iOS, for example, can recognize and translate words within photographs taken by the mobile device (to translate a restaurant menu, for instance). Despite this progress, a “perfect” machine translation system seems to be an impossibility because a machine translation system, however advanced, will always have some limitations. Human languages contain many irregularities and exceptions, and consequently go through a constant process of change, which is difficult to measure or to be processed automatically. This paper gives a short introduction of the state of the art of MT. It examines the following aspects: types of MT, the most conventional and widely developed approaches, and also the advantages and disadvantages of these different paradigms.
Betrachtet man "Verfallserscheinungen" des Verbalsystems wie Übergänge stark > schwach, so zeigt sich, dass hier weder Rezenz noch Verfall zu konstatieren ist. Mit diachroner und analytischer Tiefe offenbart sich ein gestaffelter, systematischer Komplexitätsabbau, der seine Hochphase im Frühneuhochdeutschen hat und sich schlecht mit der Passivität und Chaos implizierenden Verfallsmetapher verträgt: Reorganisation statt Dekadenz. Entwicklungen wie der präteritale Numerusausgleich ('ich sang' – 'wir sungen' > 'ich sang' – 'wir sangen') oder die Herausbildung der vereinfachten Ablautalternanz X–o–o sind nie nur Komplexitätsreduktion, sondern immer auch Systematisierung; sie bremsen Verfall. Dabei ist der Gewinn an Systematik i.d.R. nicht Normautoritäten geschuldet, sondern ihm liegen sprachsystematische, kognitive und frequenzielle Faktoren zugrunde.
Johann Leo Weisgerbers bekannter Titel bezieht sich auf Humboldts Energeia-Begriff, also auf die Sprache als wirkende Kraft. Auch in diesem Beitrag soll den wirkenden Kräften nachgegangen werden, freilich nicht als Unterstellung eines wesenhaften Sprachvermögens, sondern als Versuch, die wirksamen Motive der sprachkritischen Einstellungen, Publikationen und publizistischen Erscheinungen an einem Raster sozialwissenschaftlicher Begriffe darzulegen. An einigen ausgewählten Presseberichten und grammatischen Beispielen (Veränderungen im Bereich der deutschen Zeitenfolge) wird zunächst gezeigt, dass sich Sprachkritik oft schon von ihrem Gegenstand, der deutschen Sprache, weitgehend gelöst hat. Auch angesichts neuer Formen von substandardsprachlichen Erscheinungen (z.B. Jugendsprache, Jargon, Kiezsprache usw.) kann oft nachgewiesen werden, dass es sich in vielen Fällen um kommunikativ funktionale Sprachformen handelt. Um es schlagwortartig zusammenzufassen: Es gibt Sprachkritik ohne Sprache. Die „wirkenden Kräfte“ der Sprachkritik sichern vielmehr die Wahrnehmung gesellschaftlicher Differenzen und machen damit das Gefüge unterschiedlicher Lebensformen deutlich. Sie werden hier mit systemtheoretischen Begrifflichkeiten nach Niklas Luhmanns Theorie sozialer Systeme beschrieben und damit auch erklärt. Während das für die 80er-Jahre des vorigen Jahrhunderts charakteristische Programm der „Kritik der Sprachkritik“ auf eine sprachwissenschaftliche Aufklärung zielt, scheint heute vielmehr eine soziologische Aufklärung diese metakritische Funktion erfüllen zu können. Es könnte sich aber auch zeigen, dass Sprachkritik ihren Beitrag zur Stabilisierung des gesellschaftlichen Zusammenwirkens leistet — wenn man sie nicht als Sprachkritik im engeren Sinn versteht.
In der emotional geführten Sprachverfallsdebatte wird besonders die Apostrophsetzung vor dem Genitiv- und dem Plural-t, vulgo Deppen-Apostroph, kritisiert und als vermeintliche Entlehnung aus dem Englischen stigmatisiert. Erst seit kurzem liegen mit Scherer (2010, 2013) korpusbasierte Untersuchungen vor, die eine angemessene Interpretation dieses graphematischen Wandels erlauben, der weitaus älter ist als gemeinhin vermutet. Generell erweist sich, dass viele als neu und bedrohlich empfundene Sprachveränderungen bereits vor über hundert Jahren meist ebenso emotional gegeißelt wurden. Der Beitrag befasst sich hauptsächlich mit der diachronen Entwicklung des phonographischen Apostrophs zu einem morphographischen, dessen Funktion nun nicht mehr darin besteht, nicht-artikulierte Laute zu markieren, sondern morphologische Grenzen (Uschis, Joseph K.’s, CD’s). Deutlich wird, dass der Apostroph der Gestaltschonung komplexer Basen dient, deren Gros aus Eigennamen besteht. Anschließend wird in einem kürzeren Teil nach der Entstehung und Beschaffenheit dieser s-Flexive selbst gefragt. Diese sind ihrerseits Ergebnis flexionsmorphologischer Umstrukturierungen und garantieren maximale Konstanthaltung des Wortkörpers. Abschließend wird noch die neueste Entwicklung gestreift, die in der Deflexion ebendieser s-Flexive besteht und die sich wieder am deutlichsten bei den Eigennamen manifestiert. Diese haben als Quelle all dieser Entwicklungen zu gelten (vgl. des Irak, des Helmut Kohl, auch des Perfekt, des LKW, des Gegenüber). Insgesamt ist festzustellen: Nicht nur die Apostrophsetzung vor s-Flexiven, sondern auch die s-Flexive selbst sowie ihr derzeitiger Abbau dienen ein und derselben Funktion: Der Schonung durch Konstanthaltung markierter Wortkörper, worunter mehrheitlich Eigennamen fallen, daneben auch Fremdwörter, Kurzwörter und Konversionen. Damit sind es die Eigennamen, die Ausgangspunkt und Ursache tiefgreifenden flexionsmorphologischen und graphematischen Wandels bilden.
Der Fokus des Beitrags liegt auf Spracheinstellungen von Deutschlehrerinnen und Deutschlehrern an weiterführenden Schulen in Österreich, Deutschland und der Schweiz. Auf Basis einer aktuellen und großangelegten empirischen Studie wird der Frage nachgegangen, welche Einstellungen Lehrpersonen in den drei Ländern zu Variation und Wandel des Deutschen und seinen Varietäten haben. Neben der quantitativen und qualitativen Analyse von ausgewählten Einzelergebnissen setzt sich der Beitrag zum Ziel, mittels des Klassifizierungsverfahrens einer Clusteranalyse interindividuelle Einstellungsmuster herauszuarbeiten und diese — in einem zweiten Schritt — auf ihre soziodemographische Zusammensetzung hin zu analysieren.
Vielbeachtete neue Studien zeigen, dass zwischen aktuellem ökonomisch relevantem Handeln und den traditionellen Dialekträumen ein signifikanter Zusammenhang besteht. In dem Beitrag wird dieser Zusammenhang aus der Dynamik der modernen Regionalsprachen erklärt. Unter dem Druck der omnipräsenten Standardsprache wird einerseits das alte landschaftliche Hochdeutsch zum Regiolekt um- und abgewertet, andererseits hat sich im Regiolekt die alte sprachraumkonstituierende und identitätsstiftende Funktion der großräumigen Dialektlandschaften bewahrt. In Abhängigkeit von der diffusionsabweisenden oder diffusionslizensierenden Qualität sprachkognitiver Gegensätze fallen alte Dialektgrenzen mit den Grenzen regiolektaler Neuerungsräume zusammen. Da für die Sprecher die sprachkognitiven Gegensätze, die sich hinter den vermeintlich geringen, die Verstellbarkeit nicht behindernden Unterschieden zwischen benachbarten Regiolekten verbergen, nicht erkennbar sind, bewerten sie diese nicht linguistisch-regional, sondern emotional, auf der Beziehungsebene und ästhetisch. Die „mentalen Gegensätze“, die die Raumwahrnehmung konstituieren, beruhen auf empirisch zugänglichen sprachkognitiven Differenzen. Die kulturelle Identität hat — jedenfalls soweit es die modernen deutschen Regionalsprachen betrifft — eine direkte linguistische Basis.
Die Normierung der deutschen Standardaussprache geht in ihren Ursprüngen auf die 1898 durch die Siebs-Kommission beschlossenen Regelungen für die deutsche Bühnenaussprache zurück. Seit 1964 bildet der Nachrichtensprecher bei der Ausübung seines Berufs die Grundlage für die gegenwärtigen deutschen Aussprachekodizes. Diese eingeschränkte empirische Basis zusammen mit einem primär präskriptiven Anspruch der Kodifikatoren führt dazu, dass auch das aktuellste Aussprachewörterbuch des Deutschen (DAW) in vielen Fällen den tatsächlichen Standardsprachgebrauch in Deutschland nur unzureichend repräsentiert. Dies wird im vorliegenden Beitrag durch den Vergleich mit Sprachdaten aus dem Korpus „Deutsch heute“, das Lese- und Spontansprache v.a. von Oberstufenschülern am Gymnasium aus dem ganzen deutschen Sprachraum enthält, anhand von acht unterschiedlichen sprachlichen Phänomenen gezeigt. Der Beitrag schließt mit einem Plädoyer für realitätsnähere Kodifikationen, die sich am Sprachgebrauch der „educated speaker“ orientieren (wie es v.a. im englischsprachigen Raum der Fall ist), weil sie der aktuellen Sprachsituation im Deutschen weit besser Rechnung tragen als die derzeit existierenden Kodizes.
Der Beitrag verortet die internetbasierten Kommunikationsformen in einem größeren sprach- und varietätengeschichtlichen Rahmen und macht deutlich, dass sich die neuen interaktionsorientierten Schreibformen — chatten, posten, twittern, skypen etc. — in einem Bereich etablieren, in dem bislang überwiegend mündlich kommuniziert wurde. Auf dieser Basis wird gezeigt, dass es bislang keine empirische Evidenz dafür gibt, dass der interaktionsorientierte Schreibstil auf das textorientierte Schreiben „abfärbt“, dass vielmehr kompetente Schreiber und selbst Jugendliche durchaus dazu in der Lage sind, situationsangemessen zwischen verschiedenen Schreibhaltungen und -stilen zu wechseln. Abschließend werden Desiderate für die korpusgestützte Begleitforschung zu diesen Entwicklungen formuliert und die Herausforderungen erläutert, die sich durch das Nebeneinander von interaktions- und textorientiertem Schreiben für die schulische Sprach- und Schreibförderung ergeben.
Aus der Perspektive der Sprachbenutzerinnen ist der Genitiv vom Sprachverfall bedroht. Jedoch lässt sich in der Geschichte des Deutschen kein geradliniger Abbau nachweisen. Die kurze Genitivendung -s (aus -es) setzte sich zwar schon im Frühneuhochdeutschen als die häufigere Variante durch, im weiteren Sprachwandel entwickelte sich dann aber eine komplex gesteuerte Variation beider Endungen. Mit dem Abbau des verbalen und attributiven Genitivs gehen zwar wichtige Funktionsbereiche verloren, doch zeichnet sich in der neuesten Sprachgeschichte ein unerwarteter Aufbau des Genitivs als Präpositionalkasus ab. In diesem Beitrag wird dafür plädiert, dass die formale und funktionale Entwicklung des Genitivs stark durch sprachliche Unsicherheit beeinflusst wurde und wird, die eine Reaktion auf bestehende Varianz darstellt. Es wird dafür argumentiert, dass die stilistische Aufwertung der langen Genitivform und des Genitivs gegenüber dem Dativ den Sprach-wandel aufhält bzw. sogar in eine andere Richtung lenkt.
Üblicherweise wird behauptet und erwartet, dass für den Deutschunterricht die deutsche Standardsprache zumindest als Zielsprache, wenn nicht gar als Unterrichtssprache gilt. Die Forschungen der germanistischen Soziolinguistik und Sprachlehrforschung zeigen allerdings, dass keinesfalls Einigkeit darüber besteht, was denn ,die deutsche Standardsprache‘ überhaupt sei, ob, und wenn ja, wie viel Variation sie beinhaltet, und wie mit Normabweichungen seitens der Schüler/innen umzugehen sei.
Unser Beitrag beschäftigt sich mit der Rolle der Deutschlehrenden — sowohl an deutschsprachigen Schulen als auch im Rahmen des DaF-Unterrichts an britischen Hochschulen — um zu erörtern, welche Erwartungen sie an die sprachliche Normenkonformität ihrer Schüler/innen haben und welche praktischen Probleme ihnen hierbei begegnen. Unterstützt durch historische Belege aus dem Schulalltag im 19. Jahrhundert, diskutieren wir Kontinuitäten und Innovationen in der Selbsteinschätzung von Deutsch- und DaF-Lehrer/innen zu ihrer Rolle als Sprachnormvermittler/ innen und stellen die Frage, wie groß ihre Rolle tatsächlich ist.
Sprachverfall wird in der öffentlichen Sprachdiskussion nicht selten mit der Unkenntnis oder Missachtung von sprachlichen Regeln in Verbindung gebracht. Als Instanzen, wo sich (explizite) Sprachregeln gesellschaftlich relevant verkörpern, können Sprachkodizes gesehen werden. Vor diesem Hintergrund wird im Text der Begriff des Sprachkodex in verschiedenen Dimensionen präzisiert und eine Subklassifikation in Kern- und Parakodex vorgeschlagen. Dem folgt ein Plädoyer für eine Sprachkodexforschung, in der die traditionell eher marginalen Perspektiven auf Sprachkodizes zu erweitern und zu systematisieren sind.
Die Vorstellung eines Verfalls der deutschen Sprache lässt sich mindestens bis in das 16. Jahrhundert zurückverfolgen, als Schulmeister sich beschwert haben, dass ihre Schüler wegen der um sich greifenden Variation nicht mehr wüssten, was korrektes Deutsch sei. Ähnliche Vorstellungen treten etwa gleichzeitig in anderen europäischen Ländern auf und können vielleicht mit dem langsamen Ersatz des Lateins als vorherrschender Sprache des Schrifttums und der Bildung in Zusammenhang gebracht werden. Sie beruhen auf verbreiteten irrtümlichen Annahmen über das Wesen der Sprache, insbesondere dass die zugrundeliegende Form jeder Sprache homogen und unwandelbar sei und seit sehr langem — eventuell seit Babel — so existiert habe. Diese Annahmen muss man mit Watts (2011) als Mythen werten, sie sind jedoch sehr beharrlich, und in der frühen Neuzeit dienten sie als Grundlage für die Erschaffung der heutigen deutschen Standardsprache, die aus diesem Grunde genauso wie alle anderen europäischen Kultur- oder Standardsprachen eigentlich als ein rezentes kulturelles Artefakt anzusehen ist.
In diesem Beitrag wird anhand von Material aus einem neuen elektronischen Korpus der deutschen Sprache des 17. und 18. Jahrhunderts gezeigt, wie die Standardsprache entstanden ist als Ergebnis dieser Annahmen sowie aus der Vorstellung, nur auf diese Weise sei die deutsche Sprache vor dem endgültigen Verfall zu retten. Im Laufe dieses Vorgangs wurde wo möglich jede Variation aus der Schriftsprache eliminiert und dabei auch sprachliche Varianten stigmatisiert, die heute noch häufig sind, auch wenn sie als „substandard“, „nicht korrekt“ oder „nicht hochsprachlich“ gelten. Auch wurden Regeln des „guten“ hochdeutschen Sprachgebrauchs festgelegt (oder erdacht), die Muttersprachler im spontanen Gespräch immer noch kaum beachten. Aber die Sprachgeschichte lehrt, dass Variation und Wandel nicht zum Verfall der Sprache führen, sondern die dynamische Flexibilität gewährleisten, die für die Sprache nötig ist, wenn sie allen sozial und kulturell erforderlichen Bedürfnissen der menschlichen Kommunikation gerecht werden muss.
Lexikonstatistik 2.0
(2014)
In der Mitte des 20. Jahrhunderts gab es diverse Versuche, die Klassifikation von Sprachen mit Hilfe von Wortlisten, die dem Grundvokabular der betreffenden Sprachen entnommen sind, zu automatisieren. Diese Methoden wurden und werden in der historischen Sprachwissenschaft gemeinhin kritisch diskutiert, da sich die erzielten Ergebnisse häufig als fehlerhaft erwiesen.
In den letzten Jahren erleben wir einen neuen Aufschwung lexikostatistischer und glottochronologischer Ansätze. Deren Erfolgsaussichten sind heute wesentlich besser als vor einem halben Jahrhundert, da uns jetzt große Mengen an sprachvergleichenden Daten in elektronischer Form zur Verfügung stehen und die Computerlinguistik und Bioinformatik mächtige Werkzeuge bereitstellt, diese Daten statistisch auszuwerten.
Im vorliegenden Artikel wird eine Fallstudie vorgestellt, die das Potenzial lexikostatistischer Methoden im 21. Jahrhundert illustriert.
In 2010, ISO published a standard for syntactic annotation, ISO 24615:2010 (SynAF). Back then, the document specified a comprehensive reference model for the representation of syntactic annotations, but no accompanying XML serialisation. ISO’s subcommittee on language resource management (ISO TC 37/SC 4) is working on making the SynAF serialisation ISOTiger an additional part of the standard. This contribution addresses the current state of development of ISOTiger, along with a number of open issues on which we are seeking community feedback in order to ensure that ISOTiger becomes a useful extension to the SynAF reference model.