Orthographie
Refine
Year of publication
Document Type
- Book (169)
- Article (87)
- Part of a Book (83)
- Review (5)
- Other (4)
- Conference Proceeding (1)
- Habilitation (1)
Keywords
- Rechtschreibung (309)
- Deutsch (292)
- Wörterbuch (151)
- Schule (149)
- Rechtschreibreform (103)
- Schriftsprache (65)
- Preußen (42)
- Rechtschreibunterricht (36)
- Sprachgeschichte (31)
- Österreich (20)
Publicationstate
- Zweitveröffentlichung (86)
- Veröffentlichungsversion (48)
- Postprint (5)
Reviewstate
Publisher
- Weidmann (46)
- de Gruyter (27)
- Narr (17)
- Erich Schmidt (12)
- R. Oldenbourg (12)
- Schwann (12)
- Niemeyer (10)
- Akademie-Verlag (9)
- Huhle (9)
- Metzler (7)
Eine wichtige und häufig unterschätzte Aufgabe beim Erwerb einer zweiten Sprache ist es, sich die rhythmisch-prosodischen Muster der Zielsprache anzueignen (Kaltenbacher 1998; Gut/Trouvin/Barry 2007; Rautenberg 2012). Wie erfolgreich Lerner/innen dabei sind, ist auch davon abhängig, ob sie analoge Muster in ihrer Ausgangssprache vorfinden und damit bereits für eine zielsprachennahe Rhythmus- und Akzentwahrnehmung sensibilisiert sind. Liegen solche analogen Muster nicht vor, ist es Aufgabe von Lehrprogrammen, die Rhythmus- und Akzentstrukturen als relevante Lernhilfen sichtbar zu machen.
Soweit ich sehe, liegen hier bislang kaum zielführende Konzepte vor (so auch Richter 2008). Findet der Zweitspracherwerb in der Grundschule statt, ist sogar das Gegenteil der Fall. Denn im Schriftspracherwerb, der den weitaus intensivsten Teil des Deutschunterrichts der Grundschule ausmacht, werden die Kinder mit noch genauer zu beschreibenden Schreib- und Lese-Lern-Verfahren auf die phonologische Segmentstruktur festgelegt; Rhythmus und Akzent werden nivelliert bzw., wie zu zeigen sein wird, für andere Arbeitsaufgaben funktionalisiert, so dass eine zielsprachennahe Orientierung an rhythmisch-prosodischen Strukturen tendenziell blockiert wird.
Das hat Auswirkungen nicht nur auf den Erwerb der gesprochenen Sprache, sondern auch auf den Schriftspracherwerb selbst. Denn die Schrift buchstabiert nicht einfach Lautketten aus, sondern ist selbst rhythmus-sensitiv. Verschriftet werden neben segmentalen Lauteigenschaften, Silben- und Akzentmuster, morphologische und syntaktische Strukturen. Eine einseitige Fixierung der Kinder auf die lautlich-segmentale Seite der Schrift führt nicht nur zu einer vereinseitigten Schrifttheorie, sondern zugleich dazu, dass weitere strukturelle Eigenschaften, darunter Silben- und Akzentmuster, weder in den Aufmerksamkeitsfokus der Kinder gelangen noch für das Schreiben und Lesen genutzt werden können. Wie u.a. Ashby (2006) gezeigt hat, ist aber gerade die Realisierung der prosodisch-rhythmischen Struktur eine wesentliche Komponente für die Leseflüssigkeit.
Im vorliegenden Beitrag geht es nach einem Abriss über herkömmliche, im Erstunterricht zugrundegelegte Schriftspracherwerbsmodelle und ihre Folgen für die Sprachwahrnehmung um die Rekonstruktion der Wortschreibung des Deutschen; gezeigt wird, wie phonographische, silbische, prosodische und morphologische Eigenschaften im Kernwortschatz miteinander interagieren, um eine reguläre Wortschreibung zu erzeugen.
Eine Gegenüberstellung des Deutschen und des Türkischen wird zeigen, dass sowohl in Bezug auf die Akzent- als auch in Bezug auf die Rhythmusstrukturen relevante Unterschiede bestehen, die bei Kindern mit Türkisch als erster Sprache zu Problemen beim Zugriff auf die für die Verschriftung deutscher Wörter wichtigen prosodischen Strukturen führen können, die durch fehlgehende Lehr-Lernprogramme weiter verschärft werden.
Zuletzt werden neuere Modelle des Schriftspracherwerbs vorgestellt, die es auf der Grundlage einer ausgebauten Schrifttheorie erlauben, den Lerner/innen von Beginn an einen Zugriff auf diejenigen Einheiten zu ermöglichen, die Fixpunkte für das geschriebene und für das gesprochene Deutsch darstellen.
Der Beitrag dokumentiert eine Auswahl der wichtigsten Leitlinien, die die Grundlage für die Neukonzeption und -bearbeitung des Kapitels zur Zeichensetzung im Amtlichen Regelwerk bilden. Das wesentliche Ziel der mit der Bearbeitung des Kapitels Zeichensetzung befassten internationalen Arbeitsgruppe im Rat für deutsche Rechtschreibung (RfdR) in seiner aktuellen Amtsperiode (2018–2023) bestand darin, eine für die Nutzerinnen und Nutzer deutlichere und einfachere Darstellung dieses Teils des amtlichen Regelwerks (ARW) vorzulegen ebenso wie eine systematisch an einer semasiologischen Perspektive orientierte Erfassung der Funktion und der Verwendung der Interpunktionszeichen auf der Grundlage wissenschaftlicher Weiterentwicklungen.
Für die spezifischen Bedürfnisse der Schreibbeobachtung wurde das Orthografische Kernkorpus (OKK) als virtuelles Korpus in DeReKo entwickelt. Mit derzeit rund 14 Mrd. Token deckt es den Schriftsprachgebrauch in den deutschsprachigen Ländern im Zeitraum von 1995 bis in die Gegenwart ab. Der Zugriff über die Korpusanalyseplattform KorAP erlaubt nicht nur die Nutzung verschiedener Annotationen, sondern über die API-Schnittstellen auch die Einbindung in diverse Auswertungsumgebungen wie RStudio über den RKorAPClient und macht es so für zahlreiche Analyse- und Visualisierungsmöglichkeiten zugänglich.
Kognitive Pretests oder auch kognitive Interviews sind semi-standardisierte Interviews, die durchgeführt werden, um Einblick in die kognitiven Prozesse zu bekommen, die Befragte beim Beantworten von Fragen durchlaufen, und wie sie zu ihrer Antwort kommen. Innerhalb der sozialwissenschaftlichen Umfrageforschung werden kognitive Interviews insbesondere zu zwei Zwecken eingesetzt: (a) in der Fragebogenentwicklung und (b) in der Übersetzung von Fragebögen. Im Rahmen der Fragebogenentwicklung wird durch Interviews mit Befragten der Zielpopulation versucht, Hinweise auf unterschiedlichste Frageprobleme zu erhalten. So kann man beispielsweise herausfinden, wie Befragte bestimmte Wörter oder Begriffe verstehen, wie schwierig oder einfach sie eine Frage finden oder wie sie ihre Antwort auf eine Frage bilden. In der Übersetzung von Fragebögen kann man beispielsweise untersuchen, ob eine übersetzte Frage so verstanden wird wie die entsprechende Frage in der Ausgangssprache oder welche gewünschten bzw. unerwünschten Konnotationen bestimmte Übersetzungen haben. Innerhalb der Orthographieforschung ließe sich diese Methode auf die Entwicklung von Kriterien zur Festlegung von Rechtschreibregeln oder zur Prüfung ihrer Akzeptanz anwenden: In kognitiven Interviews eingesetzte Techniken wie „Probing“, also gezieltes Nachfragen, oder Lautes Denken könnten genutzt werden, um zu prüfen, wie Rechtschreibregeln angewendet werden oder wie sie zielgruppenspezifisch und nutzungsfreundlich ausgestaltet werden müssten, damit sie größtmögliche Akzeptanz in weiten Teilen der Bevölkerung finden. So könnte man intuitive Entscheidungen bei Worttrennung oder Getrennt- und Zusammenschreibung untersuchen.
Das Rechtschreiben ist digital automatisierbar. Ist der Orthographieerwerb dann noch notwendig für den Aufbau einer bildungssprachlichen literalen Kompetenz? Der Beitrag fragt nach den Zusammenhängen zwischen der Orthographie und den sprachlichen und kognitiven Fähigkeiten, die für das Schreiben und Lesen von Texten gebraucht werden. Argumente und Forschungsergebnisse zu drei konkurrierenden Hypothesen zu diesem Zusammenhang werden vorgestellt und diskutiert: Entlastungsthese, Bewusstheitsthese, Literalisierungsthese. Auf der Grundlage der Literalisierungsthese wertet der Beitrag den Orthographieerwerb als nicht substituierbare Komponente einer Sprachkompetenz, die den Umgang mit Texten ermöglicht.
Der Beitrag behandelt Schreibvarianten der Gegenwartssprache. Es werden auf der Grundlage von vier Fallgruppen (1. Binnenmajuskel, 2. Kompositaschreibung mit Leerzeichen, 3. Kompositaschreibung mit Bindestrich, 4. genderfokussierende Schreibweisen) zwei Typen von Normvarianz unterschieden – ein politischer und ein unpolitischer. Dabei wird der Frage nachgegangen, ob unpolitische Ad-hoc-Bildungen auf dem Weg der Konventionalisierung sich von als politisch wahrgenommenen Normvarianten unterscheiden. Zur Beschreibung des Phänomens wird der Begriff der elastischen Norm eingeführt, um divergierende Schreibkonventionen im Spannungsfeld von Faktizitätsherstellung und kodifizierter Setzung zu modellieren. Zur soziolinguistischen Unterscheidung von Schreib- und Leseperspektiven werden die Schreibvarianten als drei unterschiedliche Gesten kategorisiert – als unmarkierte Nullgeste, als markierte Nullgeste und als indexikalisierte Signalgeste.
Neographeme wie Genderstern und Doppelpunkt werden zunehmend verwendet, um Personen unabhängig von ihrem Geschlecht einzubeziehen. Der Beitrag beleuchtet diese Sonderzeichen aus semantischer, typographischer und grammatischer Sicht, vergleicht sie mit anderen Typogrammen und diskutiert ihren Morphemstatus. Auch ihre metapragmatische Leistung der sprecherseitigen Verortung kommt in den Blick. In Bezug auf die Rezeption werden aus kognitionslinguistischer Perspektive die Lesbarkeit und die Funktionstüchtigkeit des Sterns betrachtet. Lesenden, die mit der Form vertraut sind, gelingt der Wortzugriff mühelos, und der Genderstern elizitiert inklusive mentale Repräsentationen. Diese Analysen und Befunde sprechen für die grundsätzliche Möglichkeit, Neographeme in die Sprache zu integrieren.
Vorgestellt werden Ziele und erste Ergebnisse des Projektes „Univerbierung“ am Institut für Deutsche Sprache. Das Projekt untersucht in verschiedenen Korpora, ob sich Prozesse der Univerbierung quantitativ belegen lassen. In Form von Univerbierungsprofilen sollen Univerbierungsverläufe dargestellt werden, d.h. die quantitativen Veränderungen, die zeitlich im Verhältnis der Getrennt- und Zusammenschreibungen eintreten (Kap. 1 und 2). Zugleich wird dabei methodologisch reflektiert, ob und inwieweit diese Korpora für solche Untersuchungen geeignet sind (Kap. 3). Exemplarisch werden einige Univerbierungsprofile vorgestellt (Kap. 4). Es handelt sich zum einen um Beispiele, bei denen sich die Normlage im Zuge der Rechtschreibreform nicht geändert hat, und zum anderen um solche, bei denen sie im Untersuchungszeitraum (1985-2008) verändert wurde. Die Untersuchungen zielen in der Perspektive darauf ab, Faktoren herauszuarbeiten, die Univerbierungsprozesse fördern bzw. hemmen, und aufzuklären, was Schreiber(-innen) als ein Wort gilt. Dies kann dazu beitragen, empirisch gestützt Komponenten des Wortkonzepts zu ermitteln (Kap. 5).
Das Schriftsystem ist ein System und es zeigen sich Folgen, wenn Schreibungen gegen den Schreibusus geändert werden. Exemplarisch wird dies erstens an der Veränderung des Verbsuffixes -iren zu -ieren im Nachgang der Rechtschreibreform von 1876 und zweitens der Veränderung von Gruppen wie im Allgemeinen in der Reform von 1996 gezeigt. Beide verursachen unbeabsichtigte Folgefehler. Wie systematisch manche Variation und damit auch mancher Fehler ist, wird sowohl am Komma vor Vergleichssätzen als auch an Fehlern in der Getrennt- und Zusammenschreibung gezeigt. Das Statut des Rechtschreibrates besagt, dass bei der Weiterentwickung des Amtlichen Regelwerks die ständige Beobachtung der Schreibentwicklung, die Klärung von Zweifelsfällen, die Erarbeitung und die wissenschaftliche Begründung von Vorschlägen zur Anpassung des Regelwerks an den allgemeinen Wandel der Sprache im Vordergrund stehen. Das ist zu begrüßen, weil viele Zweifel bei den Zweifelsfällen grammatische und nicht orthographische Ursachen haben.
In diesem Aufsatz geht es um einen Vergleich der Prinzipien der Wortschreibung im Englischen und Deutschen. Konkret werden Schreibdiphthonge und Doppelkonsonanten behandelt. Beide Phänomene eignen sich gut, um Prinzipien zu verstehen, nach denen die Wortschreibung funktioniert: So lassen sich Schreibdiphthonge nicht immer so aussprechen, wie es die einzelnen Vokalbuchstaben suggerieren, das heißt, sie sind nicht immer über die entsprechenden Graphem-Phonem-Korrespondenzen der einzelnen Segmente zu interpretieren, etwa <ei> für /ai/ im Deutschen und <ea> für /i/ im Englischen. Auf einer ,höheren‘ Ebene (der silbischen) zeigen sich aber systematische Züge, die in beiden Sprachen vergleichbar sind. Auch die Schreibungen der Doppelkonsonanten sind nicht einfach auf der Segmentebene zu verstehen, sondern sie ergeben sich aus einem Zusammenspiel der silbischen, der suprasegmentalen und der morphologischen Ebene. In beiden Sprachen wirken Prinzipien auf allen diesen Ebenen, aber zum Teil auf unterschiedliche Art und Weise.
Exploration und statistisch valide Analysen annotierter Textkorpora helfen bei der induktiven Aufdeckung systematischer Schreibgebrauchsmuster. Umgekehrt lassen sich – deduktiv – Vorgaben der kodifizierten Norm (amtliches Regelwerk) quantitativ überprüfen. Wir präsentieren eine Methodik für die empirisch informierte Beschreibung orthografisch motivierter Phänomene, gehen auf prototypische Fälle ein und werfen ein Schlaglicht auf Fallstricke der Korpusnutzung für die Orthografieforschung. Abschließend skizzieren wir Funktionen und Wirkungsweisen aggregierender Visualisierungen für die Forschungskommunikation am Beispiel des amtlichen Wörterverzeichnisses.
Concurrent standardization as a necessity: The genesis of the new official orthographic guidelines
(2009)
The new official orthographic guidelines were brought into force by the official state authorities on August 1st, 1998 and its principle goals were a standardized representation of the guidelines and a «gentle simplification in respect of content». This regulation was not supported by the public and in fact it was the starting point for a struggle for conceptual solutions and a quest for the achievement of' a consensus between different possible norms. Since orthography is an officially codified standard taking up a prominent position among linguistic standards, it is of particular socio-political importance. It was the foremost task of the Council for German Orthography (Rat für deutsche Rechtschreibung), instituted in December 2004, to elaborate a compromise in order to bring the «Orthographical war» (Die Zeit) to an end, which was led enthusiastically for more than a decade. - The concern of this article is to classify historically the agreement reached in 2006. Against this background, it can be stated that official guidelines will only be accepted, if they are based upon the usage in writing and if they take into account the interests of the reader. Both principles are characterizing the proposal made by the Council for German Orthography. An outlook on the Council's activities concerning orthographic standardization expected in the future will conclude this article.
Die geltende amtliche Regelung der deutschen Rechtschreibung geht auf einen Kompromiss aus dem Jahre 2006 zurück, der im Bereich der Kommasetzung bei Infinitivgruppen einen neuerlichen Paradigmenwechsel bedeutete: Während für die Vorreformregelung das Konzept des sog. erweiterten Infinitivs konstituierend war und die Reformregelung sich wesentlich auf schreibstilistische Kriterien gründete, bilden die Basis der aktuellen Regelung grammatisch beschreibbare Fallgruppen. Dieser Umstand schon allein, mehr aber der zentrale Auftrag einer Beobachtung des Schreibgebrauchs durch den Rat für deutsche Retschreibung waren der Rahmen für die vorliegende Pilotstudie, in der das freie Schreiben Grundlage einer differenzierten Analyse des Kommagebrauchs bei Infinitivgruppen ist.
Der vorliegende Beitrag skizziert in einem ersten Abschnitt Gegenstandsbereich und kodifizierte Regelung, bevor er im Weiteren das Studiendesign und die Ergebnisse vorstellt. Die Ergebnisse werden nach Fallgruppen sowie im Hinblick auf übergreifende Tendenzen und Beobachtungen besprochen. Sie sind Ausgangspunkt der im Ausblick formulierten Thesen.