Refine
Year of publication
Document Type
- Book (175)
- Article (93)
- Part of a Book (88)
- Other (5)
- Review (3)
- Conference Proceeding (2)
- Habilitation (1)
- Working Paper (1)
Language
- German (368) (remove)
Keywords
- Rechtschreibung (368) (remove)
Publicationstate
- Zweitveröffentlichung (92)
- Veröffentlichungsversion (63)
- Postprint (7)
Reviewstate
Publisher
- Weidmann (46)
- de Gruyter (32)
- Narr (17)
- Schwann (14)
- Erich Schmidt (12)
- R. Oldenbourg (12)
- Institut für Deutsche Sprache (11)
- Huhle (10)
- Niemeyer (10)
- Akademie-Verlag (8)
grammis ist ein wissenschaftlich basiertes Online-Informationssystem zur deutschen Grammatik und Orthografie, das Erklärungen und Hintergrundwissen für Sprachinteressierte und Deutschlernende weltweit bietet. Neben genuin grammatischen Themen enthält es auch für das Rechtschreiblernen gewinnbringende Inhalte. Im vorliegenden Beitrag werden seine orthografischen Komponenten veranschaulicht und aktuelle Neuerungen im Zusammenhang mit seiner Integration in eine im Entstehen befindliche digitale Vernetzungsinfrastruktur für die Bildung erläutert.
Orthographie
(2024)
Ausgehend von den Ergebnissen des letzten IQB-Bildungstrends (2021) zu den orthographischen Kompetenzen von Grundschüler:innen fragt der Beitrag nach Stellenwert und Funktion der Orthographie vor dem Hintergrund der Anforderungen, die an die sprachliche Bildung von Schüler:innen gestellt sind. Orthographie und orthographische Kompetenzen werden funktional im Bereich des Schreibens und einer zu entwickelnden Schreibkompetenz verortet. Wichtig ist dabei der Blick auf die Schreibflüssigkeit. Sie ist grundlegend für die anforderungsreichen Prozesse des Textschreibens. Ausgehend von Befunden neuerer Studien betrachten wir das Verhältnis von Orthographie und Schreiben und daraus resultierende Anforderungen an den schulischen (Recht-)Schreiberwerb.
Die normgerechte Kommasetzung ist im Deutschen deklarativ und sehr elegant von Beatrice Primus (1993, 2007) erfasst worden. Sie bindet Kommas primär an syntaktische Konzepte wie ‚Satzgrenze‘ und ‚Subordination‘. Nun gibt es allerdings ein Komma, das sich nicht ins System fügen will, das aber immer häufiger wird: das Vorfeldkomma wie in Gegen so eine starke Übermacht, konnten die deutschen Truppen nichts mehr ausrichten. Dieser Beleg stammt aus einer rezenten Abiturarbeit. Hier wird – entgegen den geltenden Rechtschreibregeln – das Vorfeld der Sätze mit einem Komma abgetrennt; es handelt sich um systematische Abweichungen von der Norm. Wir können die Faktoren, die ihre Verteilung steuern, empirisch gut erfassen. Weit weniger klar ist, ob diese Beobachtungen theoretische Konsequenzen haben sollten, und wenn ja, welche. Das soll in diesem Beitrag diskutiert werden, neben einigen anderen Problemfällen, die die Empirie der Theorie beschert.
Eine wichtige und häufig unterschätzte Aufgabe beim Erwerb einer zweiten Sprache ist es, sich die rhythmisch-prosodischen Muster der Zielsprache anzueignen (Kaltenbacher 1998; Gut/Trouvin/Barry 2007; Rautenberg 2012). Wie erfolgreich Lerner/innen dabei sind, ist auch davon abhängig, ob sie analoge Muster in ihrer Ausgangssprache vorfinden und damit bereits für eine zielsprachennahe Rhythmus- und Akzentwahrnehmung sensibilisiert sind. Liegen solche analogen Muster nicht vor, ist es Aufgabe von Lehrprogrammen, die Rhythmus- und Akzentstrukturen als relevante Lernhilfen sichtbar zu machen.
Soweit ich sehe, liegen hier bislang kaum zielführende Konzepte vor (so auch Richter 2008). Findet der Zweitspracherwerb in der Grundschule statt, ist sogar das Gegenteil der Fall. Denn im Schriftspracherwerb, der den weitaus intensivsten Teil des Deutschunterrichts der Grundschule ausmacht, werden die Kinder mit noch genauer zu beschreibenden Schreib- und Lese-Lern-Verfahren auf die phonologische Segmentstruktur festgelegt; Rhythmus und Akzent werden nivelliert bzw., wie zu zeigen sein wird, für andere Arbeitsaufgaben funktionalisiert, so dass eine zielsprachennahe Orientierung an rhythmisch-prosodischen Strukturen tendenziell blockiert wird.
Das hat Auswirkungen nicht nur auf den Erwerb der gesprochenen Sprache, sondern auch auf den Schriftspracherwerb selbst. Denn die Schrift buchstabiert nicht einfach Lautketten aus, sondern ist selbst rhythmus-sensitiv. Verschriftet werden neben segmentalen Lauteigenschaften, Silben- und Akzentmuster, morphologische und syntaktische Strukturen. Eine einseitige Fixierung der Kinder auf die lautlich-segmentale Seite der Schrift führt nicht nur zu einer vereinseitigten Schrifttheorie, sondern zugleich dazu, dass weitere strukturelle Eigenschaften, darunter Silben- und Akzentmuster, weder in den Aufmerksamkeitsfokus der Kinder gelangen noch für das Schreiben und Lesen genutzt werden können. Wie u.a. Ashby (2006) gezeigt hat, ist aber gerade die Realisierung der prosodisch-rhythmischen Struktur eine wesentliche Komponente für die Leseflüssigkeit.
Im vorliegenden Beitrag geht es nach einem Abriss über herkömmliche, im Erstunterricht zugrundegelegte Schriftspracherwerbsmodelle und ihre Folgen für die Sprachwahrnehmung um die Rekonstruktion der Wortschreibung des Deutschen; gezeigt wird, wie phonographische, silbische, prosodische und morphologische Eigenschaften im Kernwortschatz miteinander interagieren, um eine reguläre Wortschreibung zu erzeugen.
Eine Gegenüberstellung des Deutschen und des Türkischen wird zeigen, dass sowohl in Bezug auf die Akzent- als auch in Bezug auf die Rhythmusstrukturen relevante Unterschiede bestehen, die bei Kindern mit Türkisch als erster Sprache zu Problemen beim Zugriff auf die für die Verschriftung deutscher Wörter wichtigen prosodischen Strukturen führen können, die durch fehlgehende Lehr-Lernprogramme weiter verschärft werden.
Zuletzt werden neuere Modelle des Schriftspracherwerbs vorgestellt, die es auf der Grundlage einer ausgebauten Schrifttheorie erlauben, den Lerner/innen von Beginn an einen Zugriff auf diejenigen Einheiten zu ermöglichen, die Fixpunkte für das geschriebene und für das gesprochene Deutsch darstellen.
Der Beitrag dokumentiert eine Auswahl der wichtigsten Leitlinien, die die Grundlage für die Neukonzeption und -bearbeitung des Kapitels zur Zeichensetzung im Amtlichen Regelwerk bilden. Das wesentliche Ziel der mit der Bearbeitung des Kapitels Zeichensetzung befassten internationalen Arbeitsgruppe im Rat für deutsche Rechtschreibung (RfdR) in seiner aktuellen Amtsperiode (2018–2023) bestand darin, eine für die Nutzerinnen und Nutzer deutlichere und einfachere Darstellung dieses Teils des amtlichen Regelwerks (ARW) vorzulegen ebenso wie eine systematisch an einer semasiologischen Perspektive orientierte Erfassung der Funktion und der Verwendung der Interpunktionszeichen auf der Grundlage wissenschaftlicher Weiterentwicklungen.
Für die spezifischen Bedürfnisse der Schreibbeobachtung wurde das Orthografische Kernkorpus (OKK) als virtuelles Korpus in DeReKo entwickelt. Mit derzeit rund 14 Mrd. Token deckt es den Schriftsprachgebrauch in den deutschsprachigen Ländern im Zeitraum von 1995 bis in die Gegenwart ab. Der Zugriff über die Korpusanalyseplattform KorAP erlaubt nicht nur die Nutzung verschiedener Annotationen, sondern über die API-Schnittstellen auch die Einbindung in diverse Auswertungsumgebungen wie RStudio über den RKorAPClient und macht es so für zahlreiche Analyse- und Visualisierungsmöglichkeiten zugänglich.
Kognitive Pretests oder auch kognitive Interviews sind semi-standardisierte Interviews, die durchgeführt werden, um Einblick in die kognitiven Prozesse zu bekommen, die Befragte beim Beantworten von Fragen durchlaufen, und wie sie zu ihrer Antwort kommen. Innerhalb der sozialwissenschaftlichen Umfrageforschung werden kognitive Interviews insbesondere zu zwei Zwecken eingesetzt: (a) in der Fragebogenentwicklung und (b) in der Übersetzung von Fragebögen. Im Rahmen der Fragebogenentwicklung wird durch Interviews mit Befragten der Zielpopulation versucht, Hinweise auf unterschiedlichste Frageprobleme zu erhalten. So kann man beispielsweise herausfinden, wie Befragte bestimmte Wörter oder Begriffe verstehen, wie schwierig oder einfach sie eine Frage finden oder wie sie ihre Antwort auf eine Frage bilden. In der Übersetzung von Fragebögen kann man beispielsweise untersuchen, ob eine übersetzte Frage so verstanden wird wie die entsprechende Frage in der Ausgangssprache oder welche gewünschten bzw. unerwünschten Konnotationen bestimmte Übersetzungen haben. Innerhalb der Orthographieforschung ließe sich diese Methode auf die Entwicklung von Kriterien zur Festlegung von Rechtschreibregeln oder zur Prüfung ihrer Akzeptanz anwenden: In kognitiven Interviews eingesetzte Techniken wie „Probing“, also gezieltes Nachfragen, oder Lautes Denken könnten genutzt werden, um zu prüfen, wie Rechtschreibregeln angewendet werden oder wie sie zielgruppenspezifisch und nutzungsfreundlich ausgestaltet werden müssten, damit sie größtmögliche Akzeptanz in weiten Teilen der Bevölkerung finden. So könnte man intuitive Entscheidungen bei Worttrennung oder Getrennt- und Zusammenschreibung untersuchen.
Die geplante Rechtschreibreform der deutschsprachigen Länder hat eine überaus heftige Diskussion in der Öffentlichkeit hervorgerufen. Befürworter und Kritiker äußern sich in so gut wie allen kommunikativen Kanälen. Die seit Jahren geführte Debatte hat an Schärfe zugenommen und vielfach die sachlichen Bahnen verlassen.
Das folgende Referat stützt sich auf die in den Printmedien geäußerten Ansichten und analysiert Berichte, Leserbriefe und Kommentare in ihrer Tendenz und ihrer Argumentationsstruktur. Dabei tritt zu Tage, daß in hohem Maße immer die gleichen Argumentationstopoi eingesetzt werden, allerdings mit unterschiedlicher Gewichtung. Aufs Ganze gesehen sind bei allem Engagement im einzelnen die Zeitungskommentare ausgewogener als vor allem die Leserbriefe, auch wenn die Argumentationsformen sehr ähnlich sind. Die Debatte um die Rechtschreibreform weist zunehmend Charakteristika der öffentlich-politischen Diskussion auf. Das Referat geht den Gründen dafür nach.
Das Rechtschreiben ist digital automatisierbar. Ist der Orthographieerwerb dann noch notwendig für den Aufbau einer bildungssprachlichen literalen Kompetenz? Der Beitrag fragt nach den Zusammenhängen zwischen der Orthographie und den sprachlichen und kognitiven Fähigkeiten, die für das Schreiben und Lesen von Texten gebraucht werden. Argumente und Forschungsergebnisse zu drei konkurrierenden Hypothesen zu diesem Zusammenhang werden vorgestellt und diskutiert: Entlastungsthese, Bewusstheitsthese, Literalisierungsthese. Auf der Grundlage der Literalisierungsthese wertet der Beitrag den Orthographieerwerb als nicht substituierbare Komponente einer Sprachkompetenz, die den Umgang mit Texten ermöglicht.
Der Beitrag behandelt Schreibvarianten der Gegenwartssprache. Es werden auf der Grundlage von vier Fallgruppen (1. Binnenmajuskel, 2. Kompositaschreibung mit Leerzeichen, 3. Kompositaschreibung mit Bindestrich, 4. genderfokussierende Schreibweisen) zwei Typen von Normvarianz unterschieden – ein politischer und ein unpolitischer. Dabei wird der Frage nachgegangen, ob unpolitische Ad-hoc-Bildungen auf dem Weg der Konventionalisierung sich von als politisch wahrgenommenen Normvarianten unterscheiden. Zur Beschreibung des Phänomens wird der Begriff der elastischen Norm eingeführt, um divergierende Schreibkonventionen im Spannungsfeld von Faktizitätsherstellung und kodifizierter Setzung zu modellieren. Zur soziolinguistischen Unterscheidung von Schreib- und Leseperspektiven werden die Schreibvarianten als drei unterschiedliche Gesten kategorisiert – als unmarkierte Nullgeste, als markierte Nullgeste und als indexikalisierte Signalgeste.
Neographeme wie Genderstern und Doppelpunkt werden zunehmend verwendet, um Personen unabhängig von ihrem Geschlecht einzubeziehen. Der Beitrag beleuchtet diese Sonderzeichen aus semantischer, typographischer und grammatischer Sicht, vergleicht sie mit anderen Typogrammen und diskutiert ihren Morphemstatus. Auch ihre metapragmatische Leistung der sprecherseitigen Verortung kommt in den Blick. In Bezug auf die Rezeption werden aus kognitionslinguistischer Perspektive die Lesbarkeit und die Funktionstüchtigkeit des Sterns betrachtet. Lesenden, die mit der Form vertraut sind, gelingt der Wortzugriff mühelos, und der Genderstern elizitiert inklusive mentale Repräsentationen. Diese Analysen und Befunde sprechen für die grundsätzliche Möglichkeit, Neographeme in die Sprache zu integrieren.
Vorgestellt werden Ziele und erste Ergebnisse des Projektes „Univerbierung“ am Institut für Deutsche Sprache. Das Projekt untersucht in verschiedenen Korpora, ob sich Prozesse der Univerbierung quantitativ belegen lassen. In Form von Univerbierungsprofilen sollen Univerbierungsverläufe dargestellt werden, d.h. die quantitativen Veränderungen, die zeitlich im Verhältnis der Getrennt- und Zusammenschreibungen eintreten (Kap. 1 und 2). Zugleich wird dabei methodologisch reflektiert, ob und inwieweit diese Korpora für solche Untersuchungen geeignet sind (Kap. 3). Exemplarisch werden einige Univerbierungsprofile vorgestellt (Kap. 4). Es handelt sich zum einen um Beispiele, bei denen sich die Normlage im Zuge der Rechtschreibreform nicht geändert hat, und zum anderen um solche, bei denen sie im Untersuchungszeitraum (1985-2008) verändert wurde. Die Untersuchungen zielen in der Perspektive darauf ab, Faktoren herauszuarbeiten, die Univerbierungsprozesse fördern bzw. hemmen, und aufzuklären, was Schreiber(-innen) als ein Wort gilt. Dies kann dazu beitragen, empirisch gestützt Komponenten des Wortkonzepts zu ermitteln (Kap. 5).
In diesem Aufsatz geht es um einen Vergleich der Prinzipien der Wortschreibung im Englischen und Deutschen. Konkret werden Schreibdiphthonge und Doppelkonsonanten behandelt. Beide Phänomene eignen sich gut, um Prinzipien zu verstehen, nach denen die Wortschreibung funktioniert: So lassen sich Schreibdiphthonge nicht immer so aussprechen, wie es die einzelnen Vokalbuchstaben suggerieren, das heißt, sie sind nicht immer über die entsprechenden Graphem-Phonem-Korrespondenzen der einzelnen Segmente zu interpretieren, etwa <ei> für /ai/ im Deutschen und <ea> für /i/ im Englischen. Auf einer ,höheren‘ Ebene (der silbischen) zeigen sich aber systematische Züge, die in beiden Sprachen vergleichbar sind. Auch die Schreibungen der Doppelkonsonanten sind nicht einfach auf der Segmentebene zu verstehen, sondern sie ergeben sich aus einem Zusammenspiel der silbischen, der suprasegmentalen und der morphologischen Ebene. In beiden Sprachen wirken Prinzipien auf allen diesen Ebenen, aber zum Teil auf unterschiedliche Art und Weise.
Sprache ist nie homogen, sie weist Varianz auf. Es gibt viele Gründe für diese Vielfalt, und die meisten sind schon sehr gut beschrieben worden (und sollen daher im vorliegenden Beitrag nicht im Vordergrund stehen). Gegenspieler der Varianz sind die mehr oder weniger expliziten Normen - sie sollen dafür sorgen, dass die Varianz ein gewisses Maß nicht überschreitet. Wobei sich natürlich sofort die Frage stellt, wie (und von wem) das „Maß“ definiert wird. Bei der Beurteilung dieser Fragen spielen nicht nur soziolinguistische, sondern auch strukturelle Aspekte eine Rolle, und Letzterem wird der vorliegende Beitrag nachgehen, und zwar anhand von Beispielen aus der Morphophonologie, der Morphosyntax und der Orthografie.
Aktuelle Änderungen des Rats für deutsche Rechtschreibung 2016 - Hintergründe und Begründungen
(2016)
Die geltende amtliche Regelung der deutschen Rechtschreibung geht auf einen Kompromiss aus dem Jahre 2006 zurück, der im Bereich der Kommasetzung bei Infinitivgruppen einen neuerlichen Paradigmenwechsel bedeutete: Während für die Vorreformregelung das Konzept des sog. erweiterten Infinitivs konstituierend war und die Reformregelung sich wesentlich auf schreibstilistische Kriterien gründete, bilden die Basis der aktuellen Regelung grammatisch beschreibbare Fallgruppen. Dieser Umstand schon allein, mehr aber der zentrale Auftrag einer Beobachtung des Schreibgebrauchs durch den Rat für deutsche Retschreibung waren der Rahmen für die vorliegende Pilotstudie, in der das freie Schreiben Grundlage einer differenzierten Analyse des Kommagebrauchs bei Infinitivgruppen ist.
Der vorliegende Beitrag skizziert in einem ersten Abschnitt Gegenstandsbereich und kodifizierte Regelung, bevor er im Weiteren das Studiendesign und die Ergebnisse vorstellt. Die Ergebnisse werden nach Fallgruppen sowie im Hinblick auf übergreifende Tendenzen und Beobachtungen besprochen. Sie sind Ausgangspunkt der im Ausblick formulierten Thesen.
Das 1901er-Regelwerk wird in einem direkten Vergleich mit dem geltenden amtlichen Regelwerk gemeinhin als defizitär eingestuft. Diese Einschätzung basiert auf der Annahme eines Primats des Regelteils. Der vorliegende Beitrag setzt hieran an und bestimmt auf der Basis der Festlegungen zur Getrennt- und Zusammenschreibung Funktion und Verhältnis von Regelteil und Wörterverzeichnis des ersten gesamtdeutschen Regelwerks in seinem historischen Entstehungskontext. Dabei zeigt sich, dass das Regelwerk von 1901 einen anderen Weg in der Kodifikation beschreitet; während im Regelteil Regularitäten aufgezeigt und Kriterien zur Schreibungsfindung an die Hand gegeben werden, erfolgt die Kodifikation rechtschreibschwieriger Fälle über das Wörterverzeichnis.
Im Mittelpunkt des Beitrags steht die Frage nach Ursprung und Genese der im geltenden amtlichen Regelwerk niedergelegten Regel, die eine Zusammenschreibung von Adjektiv-Verb-Verbindungen bei Vorliegen einer nicht literalen Bedeutung vorsieht. Ausgangspunkt bilden dabei Sprachtheoretiker und Akteure wie Johann Christoph Adelung, Wilhelm Wilmanns und Konrad Duden, die die Diskussion beherrscht und (dadurch) maßgeblich die erste gesamtdeutsche Rechtschreibregelung im Jahre 1902 mitgestaltet haben. Ein weiterer Schwerpunkt liegt auf der Umsetzung der Rechtschreibregelung in den orthographischen Wörterbüchern. Erst in dieser zeigt sich, inwiefern der gefundene Kompromiss trägt und inwieweit sich die Beteiligten daran gebunden fühlen, in Sonderheit Duden, der mit seinen Wörterbüchern alsbald eine marktführende Position einnahm und über dessen Duden-Rechtschreibung die Regel einer bedeutungsunterscheidenden Zusammenschreibung bei Adjektiv-Verb-Verbindungen letztlich für alle verbindlich wurde.
Brief an die Herausgeber zu den vorgelegten Neuregelungsvorschlägen zur deutschen Rechtschreibung
(1995)
In dem Beitrag wird ein Überblick über die bevorstehenden Neuregelungen zur Orthographie des Deutschen gegeben, die im November 1994 in Wien als Reformvorschlag beschlossen wurden. Neben knappen Ausführungen zu Charakter und Geschichte von Orthographie und Orthographiereformen werden die vorgesehenen Änderungen bei Laut-Buchstaben-Zuordnung (einschließlich Fremdwörtern), Getrennt- und Zusammenschreibung, Groß- und Kleinschreibung, Zeichensetzung und Worttrennung am Zeilenende detailliert erläutert, z.T. erörtert und mit Beispielen illustriert.
Rechtschreibreform
(1996)
In dem Beitrag wird über die Prozeduren der Reformvorbereitung nach der Wiener Konferenz 1994 und öffentliche Reaktionen darauf berichtet, werden die letzten Änderungen genannt sowie Termine und Modalitäten der Reformeinführung und geplante Aktivitäten in der Übergangszeit bis zum Jahr 2005 erläutert.
Laut-Buchstaben-Zuordnungen
(1992)
Untersuchungen zu einer Reform der deutschen Orthographie auf dem Gebiet der Fremdwortschreibung
(1981)
Zur Stellung der geschriebenen Sprache und der Orthographie der neueren linguistischen Forschung
(1985)
Zur Fremdwortschreibung unter dem Aspekt von Zentrum und Peripherie des Sprachsystems (Resümee)
(1979)
Fremdwörter doch Glücksache?
(1997)
Schifffahrt Starnberger See
(1998)
Zur Funktion und Gestaltung der Vor- und Nachspanne in Rechtschreibwörterbüchern des Deutschen
(1991)
Die geltende Regelung der Getrennt- und Zusammenschreibung und Ansatzpunkte zu ihrer Vereinfachung
(1975)
Die Erfassungsfunktion der Schreibung und ihre Realisierung in der deutschen Gegenwartssprache
(1986)
Einen Markstein in der Geschichte der Bemühungen um die verbesserte Gestaltung der seit 1901 verbindlich geltenden deutschen Rechtschreibung stellen die unter der Bezeichnung „Stuttgarter Empfehlungen“ bekannt gewordenen „Empfehlungen zur Erneuerung der Rechtschreibung“ dar. Dieses vieldiskutierte Reformprogramm von 1954 war das Ergebnis intensiver Beratungen einer Arbeitsgemeinschaft von gleichberechtigt mitwirkenden Vertretern aller vier deutschsprachigen Staaten. Für die DDR hatte an seinem Zustandekommen - neben Akademiemitglied Wolfgang Steinitz, Ruth Klappenbach und Wolfgang Ebert - Akademiemitglied Theodor Frings aktiven Anteil.
Doch selbst bei diesem im ganzen ausgewogenen und von Realitätssinn geprägten Reformvorschlag ist - wie bei den meisten anderen vorher und später unterbreiteten Programmen - ein Mangel an theoretischer Grundlegung nicht zu übersehen.
Der Erforschung dieser Grundlagen wird in der germanistischen Sprachwissenschaft erst seit Beginn der siebziger Jahre stärkere Aufmerksamkeit gewidmet, und die DDR-Germanistik hat dazu im Rahmen der interinstitutionellen Forschungsgruppe Orthographie (Leitung: D. Nerius) einen nicht unwesentlichen Beitrag geleistet. Auf Positionen dieses Kollektivs, an deren Herausbildung der Autor mitbeteiligt war, bauen die folgenden Ausführungen auf.
In den letzten Jahren sind Probleme der Orthographie wieder stärker ins Blickfeld der linguistischen Forschung gerückt. An dieser Neuorientierung haben die Untersuchungen zu den theoretischen Grundlagen und zu wichtigen Spezialfragen der deutschen Rechtschreibung, die von Germanisten der DDR unter Leitung von D. Nerius durchgeführt werden, wesentlichen Anteil. Zum theoretischen Ertrag dieser Arbeiten gehört die in der Vergangenheit vernachlässigte Erarbeitung sprachwissenschaftlich begründeter Standpunkte zur geschriebenen Sprache, zur Schreibung, zur Orthographie und zu deren Prinzipien. Damit ist die Möglichkeit gegeben, orthographische Erscheinungen in einem gesicherten Rahmen eindeutiger als bisher zu erfassen, einzuordnen und zu erklären. Im ersten Teil dieses Beitrages werden einige für den Erklärungshintergrund notwendige zentrale Begriffe geklärt, im zweiten Teil wird versucht, auf dieser Grundlage vier Hauptprobleme der deutschen Rechtschreibung auf ihre Ursachen zurückzuführen, sie damit durchsichtiger zu machen und so bei ihrer Bewältigung zu helfen.
Zu den sprachwissenschaftlichen Grundlagen der Getrennt- und Zusammenschreibung (GZS) im Deutschen
(1986)
Der Aufsatz wendet sich einem von der germanistischen Linguistik besonders ungenügend behandelten Bereich der deutschen Orthographie zu (1.). Nach der Charakterisierung des Gegenstandsbereiches der GZS wird als deren zentrale Problematik das Gegenüber von Wortgruppe und Zusammensetzung herausgestellt (2.). Orientier! an diesen beiden — durch ihre wesentlichen Merkmale für die deutsche Gegenwartssprache bestimmten — Kategorien wird mit Hilfe des Prinzips von Zentrum und Peripherie für die einzelnen in Bezug auf die GZS relevanten Wortartkombinationen eine Skala ihrer orthographischen Problemhaftigkeit abgeleitet (3.). Der-als besonders problemträchtig erkannte verbale Bereich wird in seiner Spezifik genauer betrachtet (4.), und schließlich wird an Beispielen der Kombination Adjektiv + Verb die Notwendigkeit der Aufhellung und der Beachtung der sprachwissenschaftlichen Grundlagen bei Kodifizierungen im Wörterverzeichnis nachgewiesen (5. u. 6.).
Wortbegriff und Orthographie
(1980)
Bei den Beratungen des Internationalen Arbeitskreises für Orthographie über die Neuregelung der deutschen Rechtschreibung lagen in Bezug auf die GZS zwei Reformvorschläge auf dem Tisch. Neben dem Vorschlag der IDS-Kommission für Rechtschreibfragen, der dann als Grundlage für die später beschlossene Reformregelung diente (vgl. dazu 3.4 Schaeder in diesem Band), lag der Vorschlag der DDR-Forschungsgruppe Orthographie, der das gemeinsame Ziel einer Vereinfachung der bisherigen Regelung mit einem zum Teil anderen Ansatz zu erreichen versuchte. Da dieser Reformvorschlag, der von mir im Rahmen der Forschungsgruppe Orthographie ausgearbeitet worden ist (vgl. Herberg 1981, 1986), in seiner endgültigen Fassung, die den Teilnehmern der Züricher Tagung vom September 1987 vorlag, noch nicht veröffentlicht worden ist, nehme ich gern die Gelegenheit wahr, im Rahmen dieser Publikation auf ihn zurückzukommen.
Nach einem kurzen Rückblick auf die Behandlung der GZS-Problematik im Internationalen Arbeitskreis (1.) gehe ich auf die Funktion der GZS in der deutschen Gegenwartssprache ein (2.), leite daraus die Grundsätze für den Neuregelungsvorschlag ab (3.), gebe den Vorschlag im Wortlaut vollständig wieder (4.) und gehe abschließend auf die wesentlichen Gemeinsamkeiten und Unterschiede dieses Vorschlages in Bezug auf die beschlossene Neuregelung ein (5.).
Im Rahmen der Untersuchungen zu Problemen der Orthographie der deutschen Sprache, die während des Direktorats von Prof. Dr. Günter Feudel als Kooperations- Projekt am Zentralinstitut für Sprachwissenschaft der AdW der DDR begonnen wurden, spielt die in der Vergangenheit vernachlässigte Erarbeitung eines sprachwissenschaftlich begründeten Standpunktes zur geschriebenen Sprache, zur Schreibung und zu deren Norm, der Orthographie, eine wesentliche Rolle. Das schließt auch die kritische Analyse und theoretische Neuinterpretation der sogenannten Prinzipien der Schreibung des Deutschen ein, die — verstärkt seit dem 18. Jahrhundert — bis heute immer wieder postuliert wurden, um „die wesentlichen Wirkungskräfte und Gesetzmäßigkeiten der deutschen Orthographie systematisch darzustellen". Im Folgenden soll — aufbauend auf den richtungweisenden Arbeiten von D. Nerius/J. Scharnhorst und I. Rahnenführer — ein Aspekt der Prinzipien-Problematik weitergeführt werden.
Obwohl die Getrennt- und Zusammenschreibung von Wörtern neben der Interpunktion, der Groß- und Kleinschreibung und der Schreibung der Laute (Phonem- Graphem-Beziehungen) zu den schwierigsten Teilgebieten der deutschen Orthographie gehört /1/, ist sie - im Unterschied zu den anderen Komplexen - erst seit Mitte der 70er Jahre stärker in die wissenschaftliche Erforschung der deutschen Orthographie durch die germanistische Linguistik einbezogen worden. Trotz detaillierter Regelung - im Leitfaden des Dudens /2/ sind der Getrennt- und Zusammenschreibung 53 Kennzahlen gewidmet — und hohen Lernaufwandes bestehen bei einem großen Teil der Schreibenden Unsicherheiten in der Handhabung. Wir möchten daher im Folgenden auf der Grundlage unserer im Rahmen der Forschungsgruppe „Orthographie“ der Akademie der Wissenschaften der DDR und der Wilhelm-Pieck-Universität Rostock (Leitung: D. Nerius) durchgeführten Untersuchungen erstens den Gegenstandsbereich der Getrennt- und Zusammenschreibung, zweitens die Funktion der Getrennt- und Zusammenschreibung in der deutschen Gegenwartssprache skizzieren, drittens eine knappe Analyse der geltenden Regelung vornehmen und viertens einige ihrer Probleme erörtern.
Es gibt triftige theoretische und praktische Gründe — wir werden im Weiteren auf sie eingehen —, die Diskussion um die Funktion von Rechtschreibwörterbüchern und um ihre Gestaltung in Bezug auf das Deutsche zu führen. Das Erscheinen der „20., völlig neu bearbeitete[n] und erweiterte] Auflage“ der „Rechtschreibung der deutschen Sprache“ (Dudenverlag Mannheim/Leipzig/Wien/Zürich 1991) ist der äußere Anlass, um diese Diskussion in der ZGL zu eröffnen.
Anhand der Rückmeldungen auf eine Umfrage unter den Mitgliedern der Organisation EFNIL (European Federation of National Institutions for Language) wird in diesem Artikel erfasst, wie die orthographische Norm in den Staaten Europas etabliert und vermittelt wird. Es wird unter anderem beleuchtet, welche Prinzipien bei der Erstellung der Norm angewandt werden, in welchen Teilen der Gesellschaft die Regeln gelten, wie sie an die Öffentlichkeit vermittelt werden, inwieweit sie eingehalten werden, ob es alternative Normen gibt, und mit welchen Mitteln Veränderungen im Sprachgebrauch erfasst und berücksichtigt werden.
Die empirische Untersuchung sprachlicher Variation setzt eine adäquate Datenbasis voraus, um möglichst zutreffende Schlussfolgerungen ziehen zu können. Citizen Science ist als empirischer Erhebungsansatz zunehmend in den Fokus der Sprachwissenschaft gerückt, da damit eine größere und potenziell sprachlich/sozial besser stratifizierte Datenbasis erhoben werden kann. Der vorliegende Aufsatz stellt ein Exponat vor, das 2022 auf dem Museumsschiff „MS Wissenschaft“ durch Deutschland und Österreich tourte und einer jungen Zielgruppe sprachliche Variation und sprachwissenschaftliche Forschungsmethoden näherbringen sollte. Außerdem enthielt es Citizen-Science-basierte Erhebungskomponenten, mit denen unter anderem Daten zu Schreibvarianten von Anglizismen gesammelt wurden. Hier werden erste Datenauswertungen vorgestellt und mit existierenden Forschungsdaten basierend auf Korpusanalysen verglichen.
In der deutschsprachigen Gender-Mainstreaming-Debatte treten sprachpolitische Positionen in Konflikt mit grammatischen Regularitäten und orthografischen Normen – nicht selten ohne wesentliche Annäherung. Der Beitrag beleuchtet die Debatte aus der Perspektive des Rats für deutsche Rechtschreibung und argumentiert anhand paradigmatischer Textbeispiele aus dem aktuellen Schreibgebrauch für eine textsorten- und zielgruppenspezifische Realisierung geschlechtergerechter Schreibung. Ausgehend vom breiten Spektrum entsprechender Strategien in bisherigen Leitfäden, Richtlinien und Empfehlungen werden Möglichkeiten einer orthografisch korrekten und sprachlich angemessenen Umsetzung aufgezeigt – in einem multiperspektivischen Ausgleichsversuch beider Diskurspole: Gendergerechte Texte sollen sachlich korrekt, verständlich, lesbar und vorlesbar sein, Rechtssicherheit und Eindeutigkeit gewährleisten sowie die Konzentration auf wesentliche Sachverhalte und Kerninformationen sicherstellen. Abschließend wird diskutiert, welche Rolle der Rat vor dem Hintergrund seines Auftrags der Bewahrung der Einheitlichkeit der Orthografie im gesamten deutschen Sprachraum in der Debatte einnehmen könnte und sollte.
Anglizismen sind im Wortschatz der deutschen Gegenwartssprache allgegenwärtig und durchdringen mittlerweile alle Bereiche der Gesellschaft. Dabei bezeichnen sie sowohl einen grundlegenden gesellschaftlichen wie einen sprachlichen Wandel, der sich auch in der Orthografie niederschlägt. Der Beitrag analysiert den Schreibusus in professioneller und informeller Schriftlichkeit vor allem von neueren Anglizismen der letzten 20 Jahre und beschreibt anhand paradigmatischer Beispiele auf der Basis der derzeit umfangreichsten digitalen Textkorpora die aktuellen Entwicklungen von Fremdwortschreibung und Fremdwortgebrauch im Spannungsfeld von Isolation und Integration.