Refine
Year of publication
Document Type
- Book (175)
- Article (95)
- Part of a Book (89)
- Other (5)
- Conference Proceeding (4)
- Review (3)
- Doctoral Thesis (1)
- Habilitation (1)
- Working Paper (1)
Keywords
- Rechtschreibung (374) (remove)
Publicationstate
- Zweitveröffentlichung (92)
- Veröffentlichungsversion (69)
- Postprint (7)
Reviewstate
Publisher
- Weidmann (46)
- de Gruyter (32)
- Narr (17)
- Schwann (14)
- Erich Schmidt (12)
- R. Oldenbourg (12)
- Institut für Deutsche Sprache (11)
- Huhle (10)
- Niemeyer (10)
- Akademie-Verlag (8)
grammis ist ein wissenschaftlich basiertes Online-Informationssystem zur deutschen Grammatik und Orthografie, das Erklärungen und Hintergrundwissen für Sprachinteressierte und Deutschlernende weltweit bietet. Neben genuin grammatischen Themen enthält es auch für das Rechtschreiblernen gewinnbringende Inhalte. Im vorliegenden Beitrag werden seine orthografischen Komponenten veranschaulicht und aktuelle Neuerungen im Zusammenhang mit seiner Integration in eine im Entstehen befindliche digitale Vernetzungsinfrastruktur für die Bildung erläutert.
The paper reviews the results of work done in the context of TEI-Lex0, a joint ENeL / DARIAH / PARTHENOS initiative aimed at formulating guidelines for the encoding of retrodigitized dictionaries by streamlining and simplifying the recommendations of the “Print Dictionaries” chapter of the TEI Guidelines. TEI-Lex0 work is performed by teams concentrating on each of the main components of dictionary entries. The work presented here concerns proposals for constraining TEI-based encoding of orthographic, phonetic, and grammatical information on written and spoken forms of the lemma (headword), including auxiliary inflected forms. We also adduce examples of handling various types of orthographic and phonetic variants, as well as examples of handling the representation of inflectional paradigms, which have received less attention in the TEI Guidelines but which are nonetheless essential for properly exposing data content to the various uses that digitized lexica may have.
Orthographie
(2024)
Ausgehend von den Ergebnissen des letzten IQB-Bildungstrends (2021) zu den orthographischen Kompetenzen von Grundschüler:innen fragt der Beitrag nach Stellenwert und Funktion der Orthographie vor dem Hintergrund der Anforderungen, die an die sprachliche Bildung von Schüler:innen gestellt sind. Orthographie und orthographische Kompetenzen werden funktional im Bereich des Schreibens und einer zu entwickelnden Schreibkompetenz verortet. Wichtig ist dabei der Blick auf die Schreibflüssigkeit. Sie ist grundlegend für die anforderungsreichen Prozesse des Textschreibens. Ausgehend von Befunden neuerer Studien betrachten wir das Verhältnis von Orthographie und Schreiben und daraus resultierende Anforderungen an den schulischen (Recht-)Schreiberwerb.
Die normgerechte Kommasetzung ist im Deutschen deklarativ und sehr elegant von Beatrice Primus (1993, 2007) erfasst worden. Sie bindet Kommas primär an syntaktische Konzepte wie ‚Satzgrenze‘ und ‚Subordination‘. Nun gibt es allerdings ein Komma, das sich nicht ins System fügen will, das aber immer häufiger wird: das Vorfeldkomma wie in Gegen so eine starke Übermacht, konnten die deutschen Truppen nichts mehr ausrichten. Dieser Beleg stammt aus einer rezenten Abiturarbeit. Hier wird – entgegen den geltenden Rechtschreibregeln – das Vorfeld der Sätze mit einem Komma abgetrennt; es handelt sich um systematische Abweichungen von der Norm. Wir können die Faktoren, die ihre Verteilung steuern, empirisch gut erfassen. Weit weniger klar ist, ob diese Beobachtungen theoretische Konsequenzen haben sollten, und wenn ja, welche. Das soll in diesem Beitrag diskutiert werden, neben einigen anderen Problemfällen, die die Empirie der Theorie beschert.
Eine wichtige und häufig unterschätzte Aufgabe beim Erwerb einer zweiten Sprache ist es, sich die rhythmisch-prosodischen Muster der Zielsprache anzueignen (Kaltenbacher 1998; Gut/Trouvin/Barry 2007; Rautenberg 2012). Wie erfolgreich Lerner/innen dabei sind, ist auch davon abhängig, ob sie analoge Muster in ihrer Ausgangssprache vorfinden und damit bereits für eine zielsprachennahe Rhythmus- und Akzentwahrnehmung sensibilisiert sind. Liegen solche analogen Muster nicht vor, ist es Aufgabe von Lehrprogrammen, die Rhythmus- und Akzentstrukturen als relevante Lernhilfen sichtbar zu machen.
Soweit ich sehe, liegen hier bislang kaum zielführende Konzepte vor (so auch Richter 2008). Findet der Zweitspracherwerb in der Grundschule statt, ist sogar das Gegenteil der Fall. Denn im Schriftspracherwerb, der den weitaus intensivsten Teil des Deutschunterrichts der Grundschule ausmacht, werden die Kinder mit noch genauer zu beschreibenden Schreib- und Lese-Lern-Verfahren auf die phonologische Segmentstruktur festgelegt; Rhythmus und Akzent werden nivelliert bzw., wie zu zeigen sein wird, für andere Arbeitsaufgaben funktionalisiert, so dass eine zielsprachennahe Orientierung an rhythmisch-prosodischen Strukturen tendenziell blockiert wird.
Das hat Auswirkungen nicht nur auf den Erwerb der gesprochenen Sprache, sondern auch auf den Schriftspracherwerb selbst. Denn die Schrift buchstabiert nicht einfach Lautketten aus, sondern ist selbst rhythmus-sensitiv. Verschriftet werden neben segmentalen Lauteigenschaften, Silben- und Akzentmuster, morphologische und syntaktische Strukturen. Eine einseitige Fixierung der Kinder auf die lautlich-segmentale Seite der Schrift führt nicht nur zu einer vereinseitigten Schrifttheorie, sondern zugleich dazu, dass weitere strukturelle Eigenschaften, darunter Silben- und Akzentmuster, weder in den Aufmerksamkeitsfokus der Kinder gelangen noch für das Schreiben und Lesen genutzt werden können. Wie u.a. Ashby (2006) gezeigt hat, ist aber gerade die Realisierung der prosodisch-rhythmischen Struktur eine wesentliche Komponente für die Leseflüssigkeit.
Im vorliegenden Beitrag geht es nach einem Abriss über herkömmliche, im Erstunterricht zugrundegelegte Schriftspracherwerbsmodelle und ihre Folgen für die Sprachwahrnehmung um die Rekonstruktion der Wortschreibung des Deutschen; gezeigt wird, wie phonographische, silbische, prosodische und morphologische Eigenschaften im Kernwortschatz miteinander interagieren, um eine reguläre Wortschreibung zu erzeugen.
Eine Gegenüberstellung des Deutschen und des Türkischen wird zeigen, dass sowohl in Bezug auf die Akzent- als auch in Bezug auf die Rhythmusstrukturen relevante Unterschiede bestehen, die bei Kindern mit Türkisch als erster Sprache zu Problemen beim Zugriff auf die für die Verschriftung deutscher Wörter wichtigen prosodischen Strukturen führen können, die durch fehlgehende Lehr-Lernprogramme weiter verschärft werden.
Zuletzt werden neuere Modelle des Schriftspracherwerbs vorgestellt, die es auf der Grundlage einer ausgebauten Schrifttheorie erlauben, den Lerner/innen von Beginn an einen Zugriff auf diejenigen Einheiten zu ermöglichen, die Fixpunkte für das geschriebene und für das gesprochene Deutsch darstellen.
Der Beitrag dokumentiert eine Auswahl der wichtigsten Leitlinien, die die Grundlage für die Neukonzeption und -bearbeitung des Kapitels zur Zeichensetzung im Amtlichen Regelwerk bilden. Das wesentliche Ziel der mit der Bearbeitung des Kapitels Zeichensetzung befassten internationalen Arbeitsgruppe im Rat für deutsche Rechtschreibung (RfdR) in seiner aktuellen Amtsperiode (2018–2023) bestand darin, eine für die Nutzerinnen und Nutzer deutlichere und einfachere Darstellung dieses Teils des amtlichen Regelwerks (ARW) vorzulegen ebenso wie eine systematisch an einer semasiologischen Perspektive orientierte Erfassung der Funktion und der Verwendung der Interpunktionszeichen auf der Grundlage wissenschaftlicher Weiterentwicklungen.
This thesis is a corpus linguistic investigation of the language used by young German speakers online, examining lexical, morphological, orthographic, and syntactic features and changes in language use over time. The study analyses the language in the Nottinghamer Korpus deutscher YouTube‐Sprache ("Nottingham corpus of German YouTube language", or NottDeuYTSch corpus), one of the first large corpora of German‐language comments taken from the videosharing website YouTube, and built specifically for this project. The metadatarich corpus comprises c.33 million tokens from more than 3 million comments posted underneath videos uploaded by mainstream German‐language youthorientated YouTube channels from 2008‐2018.
The NottDeuYTSch corpus was created to enable corpus linguistic approaches to studying digital German youth language (Jugendsprache), having identified the need for more specialised web corpora (see Barbaresi 2019). The methodology for compiling the corpus is described in detail in the thesis to facilitate future construction of web corpora. The thesis is situated at the intersection of Computer‐Mediated Communication (CMC) and youth language, which have been important areas of sociolinguistic scholarship since the 1980s, and explores what we can learn from a corpus‐driven, longitudinal approach to (online) youth language. To do so, the thesis uses corpus linguistic methods to analyse three main areas:
1. Lexical trends and the morphology of polysemous lexical items. For this purpose, the analysis focuses on geil, one of the most iconic and productive words in youth language, and presents a longitudinal analysis, demonstrating that usage of geil has decreased, and identifies lexical items that have emerged as potential replacements. Additionally, geil is used to analyse innovative morphological productiveness, demonstrating how different senses of geil are used as a base lexeme or affixoid in compounding and derivation.
2. Syntactic developments. The novel grammaticalization of several subordinating conjunctions into both coordinating conjunctions and discourse markers is examined. The investigation is supported by statistical analyses that demonstrate an increase in the use of non‐standard syntax over the timeframe of the corpus and compares the results with other corpora of written language.
3. Orthography and the metacommunicative features of digital writing. This analysis identifies orthographic features and strategies in the corpus, e.g. the repetition of certain emoji, and develops a holistic framework to study metacommunicative functions, such as the communication of illocutionary force, information structure, or the expression of identities. The framework unifies previous research that had focused on individual features, integrating a wide range of metacommunicative strategies within a single, robust system of analysis.
By using qualitative and computational analytical frameworks within corpus linguistic methods, the thesis identifies emergent linguistic features in digital youth language in German and sheds further light on lexical and morphosyntactic changes and trends in the language of young people over the period 2008‐2018. The study has also further developed and augmented existing analytical frameworks to widen the scope of their application to orthographic features associated with digital writing.
Für die spezifischen Bedürfnisse der Schreibbeobachtung wurde das Orthografische Kernkorpus (OKK) als virtuelles Korpus in DeReKo entwickelt. Mit derzeit rund 14 Mrd. Token deckt es den Schriftsprachgebrauch in den deutschsprachigen Ländern im Zeitraum von 1995 bis in die Gegenwart ab. Der Zugriff über die Korpusanalyseplattform KorAP erlaubt nicht nur die Nutzung verschiedener Annotationen, sondern über die API-Schnittstellen auch die Einbindung in diverse Auswertungsumgebungen wie RStudio über den RKorAPClient und macht es so für zahlreiche Analyse- und Visualisierungsmöglichkeiten zugänglich.
Kognitive Pretests oder auch kognitive Interviews sind semi-standardisierte Interviews, die durchgeführt werden, um Einblick in die kognitiven Prozesse zu bekommen, die Befragte beim Beantworten von Fragen durchlaufen, und wie sie zu ihrer Antwort kommen. Innerhalb der sozialwissenschaftlichen Umfrageforschung werden kognitive Interviews insbesondere zu zwei Zwecken eingesetzt: (a) in der Fragebogenentwicklung und (b) in der Übersetzung von Fragebögen. Im Rahmen der Fragebogenentwicklung wird durch Interviews mit Befragten der Zielpopulation versucht, Hinweise auf unterschiedlichste Frageprobleme zu erhalten. So kann man beispielsweise herausfinden, wie Befragte bestimmte Wörter oder Begriffe verstehen, wie schwierig oder einfach sie eine Frage finden oder wie sie ihre Antwort auf eine Frage bilden. In der Übersetzung von Fragebögen kann man beispielsweise untersuchen, ob eine übersetzte Frage so verstanden wird wie die entsprechende Frage in der Ausgangssprache oder welche gewünschten bzw. unerwünschten Konnotationen bestimmte Übersetzungen haben. Innerhalb der Orthographieforschung ließe sich diese Methode auf die Entwicklung von Kriterien zur Festlegung von Rechtschreibregeln oder zur Prüfung ihrer Akzeptanz anwenden: In kognitiven Interviews eingesetzte Techniken wie „Probing“, also gezieltes Nachfragen, oder Lautes Denken könnten genutzt werden, um zu prüfen, wie Rechtschreibregeln angewendet werden oder wie sie zielgruppenspezifisch und nutzungsfreundlich ausgestaltet werden müssten, damit sie größtmögliche Akzeptanz in weiten Teilen der Bevölkerung finden. So könnte man intuitive Entscheidungen bei Worttrennung oder Getrennt- und Zusammenschreibung untersuchen.
Die geplante Rechtschreibreform der deutschsprachigen Länder hat eine überaus heftige Diskussion in der Öffentlichkeit hervorgerufen. Befürworter und Kritiker äußern sich in so gut wie allen kommunikativen Kanälen. Die seit Jahren geführte Debatte hat an Schärfe zugenommen und vielfach die sachlichen Bahnen verlassen.
Das folgende Referat stützt sich auf die in den Printmedien geäußerten Ansichten und analysiert Berichte, Leserbriefe und Kommentare in ihrer Tendenz und ihrer Argumentationsstruktur. Dabei tritt zu Tage, daß in hohem Maße immer die gleichen Argumentationstopoi eingesetzt werden, allerdings mit unterschiedlicher Gewichtung. Aufs Ganze gesehen sind bei allem Engagement im einzelnen die Zeitungskommentare ausgewogener als vor allem die Leserbriefe, auch wenn die Argumentationsformen sehr ähnlich sind. Die Debatte um die Rechtschreibreform weist zunehmend Charakteristika der öffentlich-politischen Diskussion auf. Das Referat geht den Gründen dafür nach.
Das Rechtschreiben ist digital automatisierbar. Ist der Orthographieerwerb dann noch notwendig für den Aufbau einer bildungssprachlichen literalen Kompetenz? Der Beitrag fragt nach den Zusammenhängen zwischen der Orthographie und den sprachlichen und kognitiven Fähigkeiten, die für das Schreiben und Lesen von Texten gebraucht werden. Argumente und Forschungsergebnisse zu drei konkurrierenden Hypothesen zu diesem Zusammenhang werden vorgestellt und diskutiert: Entlastungsthese, Bewusstheitsthese, Literalisierungsthese. Auf der Grundlage der Literalisierungsthese wertet der Beitrag den Orthographieerwerb als nicht substituierbare Komponente einer Sprachkompetenz, die den Umgang mit Texten ermöglicht.
Der Beitrag behandelt Schreibvarianten der Gegenwartssprache. Es werden auf der Grundlage von vier Fallgruppen (1. Binnenmajuskel, 2. Kompositaschreibung mit Leerzeichen, 3. Kompositaschreibung mit Bindestrich, 4. genderfokussierende Schreibweisen) zwei Typen von Normvarianz unterschieden – ein politischer und ein unpolitischer. Dabei wird der Frage nachgegangen, ob unpolitische Ad-hoc-Bildungen auf dem Weg der Konventionalisierung sich von als politisch wahrgenommenen Normvarianten unterscheiden. Zur Beschreibung des Phänomens wird der Begriff der elastischen Norm eingeführt, um divergierende Schreibkonventionen im Spannungsfeld von Faktizitätsherstellung und kodifizierter Setzung zu modellieren. Zur soziolinguistischen Unterscheidung von Schreib- und Leseperspektiven werden die Schreibvarianten als drei unterschiedliche Gesten kategorisiert – als unmarkierte Nullgeste, als markierte Nullgeste und als indexikalisierte Signalgeste.
Neographeme wie Genderstern und Doppelpunkt werden zunehmend verwendet, um Personen unabhängig von ihrem Geschlecht einzubeziehen. Der Beitrag beleuchtet diese Sonderzeichen aus semantischer, typographischer und grammatischer Sicht, vergleicht sie mit anderen Typogrammen und diskutiert ihren Morphemstatus. Auch ihre metapragmatische Leistung der sprecherseitigen Verortung kommt in den Blick. In Bezug auf die Rezeption werden aus kognitionslinguistischer Perspektive die Lesbarkeit und die Funktionstüchtigkeit des Sterns betrachtet. Lesenden, die mit der Form vertraut sind, gelingt der Wortzugriff mühelos, und der Genderstern elizitiert inklusive mentale Repräsentationen. Diese Analysen und Befunde sprechen für die grundsätzliche Möglichkeit, Neographeme in die Sprache zu integrieren.
Vorgestellt werden Ziele und erste Ergebnisse des Projektes „Univerbierung“ am Institut für Deutsche Sprache. Das Projekt untersucht in verschiedenen Korpora, ob sich Prozesse der Univerbierung quantitativ belegen lassen. In Form von Univerbierungsprofilen sollen Univerbierungsverläufe dargestellt werden, d.h. die quantitativen Veränderungen, die zeitlich im Verhältnis der Getrennt- und Zusammenschreibungen eintreten (Kap. 1 und 2). Zugleich wird dabei methodologisch reflektiert, ob und inwieweit diese Korpora für solche Untersuchungen geeignet sind (Kap. 3). Exemplarisch werden einige Univerbierungsprofile vorgestellt (Kap. 4). Es handelt sich zum einen um Beispiele, bei denen sich die Normlage im Zuge der Rechtschreibreform nicht geändert hat, und zum anderen um solche, bei denen sie im Untersuchungszeitraum (1985-2008) verändert wurde. Die Untersuchungen zielen in der Perspektive darauf ab, Faktoren herauszuarbeiten, die Univerbierungsprozesse fördern bzw. hemmen, und aufzuklären, was Schreiber(-innen) als ein Wort gilt. Dies kann dazu beitragen, empirisch gestützt Komponenten des Wortkonzepts zu ermitteln (Kap. 5).
In diesem Aufsatz geht es um einen Vergleich der Prinzipien der Wortschreibung im Englischen und Deutschen. Konkret werden Schreibdiphthonge und Doppelkonsonanten behandelt. Beide Phänomene eignen sich gut, um Prinzipien zu verstehen, nach denen die Wortschreibung funktioniert: So lassen sich Schreibdiphthonge nicht immer so aussprechen, wie es die einzelnen Vokalbuchstaben suggerieren, das heißt, sie sind nicht immer über die entsprechenden Graphem-Phonem-Korrespondenzen der einzelnen Segmente zu interpretieren, etwa <ei> für /ai/ im Deutschen und <ea> für /i/ im Englischen. Auf einer ,höheren‘ Ebene (der silbischen) zeigen sich aber systematische Züge, die in beiden Sprachen vergleichbar sind. Auch die Schreibungen der Doppelkonsonanten sind nicht einfach auf der Segmentebene zu verstehen, sondern sie ergeben sich aus einem Zusammenspiel der silbischen, der suprasegmentalen und der morphologischen Ebene. In beiden Sprachen wirken Prinzipien auf allen diesen Ebenen, aber zum Teil auf unterschiedliche Art und Weise.
Sprache ist nie homogen, sie weist Varianz auf. Es gibt viele Gründe für diese Vielfalt, und die meisten sind schon sehr gut beschrieben worden (und sollen daher im vorliegenden Beitrag nicht im Vordergrund stehen). Gegenspieler der Varianz sind die mehr oder weniger expliziten Normen - sie sollen dafür sorgen, dass die Varianz ein gewisses Maß nicht überschreitet. Wobei sich natürlich sofort die Frage stellt, wie (und von wem) das „Maß“ definiert wird. Bei der Beurteilung dieser Fragen spielen nicht nur soziolinguistische, sondern auch strukturelle Aspekte eine Rolle, und Letzterem wird der vorliegende Beitrag nachgehen, und zwar anhand von Beispielen aus der Morphophonologie, der Morphosyntax und der Orthografie.
Introducing Interactive Grammar: How to Develop Language Competence with Research-based Learning
(2023)
We present the implementation of an interactive e-learning platform for both classroom study and self-study, that helps developing German language competence – vocabulary, spelling, and grammar – on various levels and for everyday life applications. The LernGrammis portal addresses school and highschool students, (prospective) teachers, and L2 learners of German equally, each with appropriate educational content and interactive components. It thus offers the digital networking infrastructure for education a unique, freely available and scientifically based learning resource. Applying the innovative concept of „Research-based Learning (RBL)“, LernGrammis provides teachers with ideas for lesson planning, and learners with dedicated modules to develop new skills through exploring authentic language resources and by this means answering customised low-threshold research questions. Using proven practical examples, we demonstrate the approach, its strengths and possibilities, as well as initial user feedback evaluation results.
Concurrent standardization as a necessity: The genesis of the new official orthographic guidelines
(2009)
The new official orthographic guidelines were brought into force by the official state authorities on August 1st, 1998 and its principle goals were a standardized representation of the guidelines and a «gentle simplification in respect of content». This regulation was not supported by the public and in fact it was the starting point for a struggle for conceptual solutions and a quest for the achievement of' a consensus between different possible norms. Since orthography is an officially codified standard taking up a prominent position among linguistic standards, it is of particular socio-political importance. It was the foremost task of the Council for German Orthography (Rat für deutsche Rechtschreibung), instituted in December 2004, to elaborate a compromise in order to bring the «Orthographical war» (Die Zeit) to an end, which was led enthusiastically for more than a decade. - The concern of this article is to classify historically the agreement reached in 2006. Against this background, it can be stated that official guidelines will only be accepted, if they are based upon the usage in writing and if they take into account the interests of the reader. Both principles are characterizing the proposal made by the Council for German Orthography. An outlook on the Council's activities concerning orthographic standardization expected in the future will conclude this article.
Aktuelle Änderungen des Rats für deutsche Rechtschreibung 2016 - Hintergründe und Begründungen
(2016)
Die geltende amtliche Regelung der deutschen Rechtschreibung geht auf einen Kompromiss aus dem Jahre 2006 zurück, der im Bereich der Kommasetzung bei Infinitivgruppen einen neuerlichen Paradigmenwechsel bedeutete: Während für die Vorreformregelung das Konzept des sog. erweiterten Infinitivs konstituierend war und die Reformregelung sich wesentlich auf schreibstilistische Kriterien gründete, bilden die Basis der aktuellen Regelung grammatisch beschreibbare Fallgruppen. Dieser Umstand schon allein, mehr aber der zentrale Auftrag einer Beobachtung des Schreibgebrauchs durch den Rat für deutsche Retschreibung waren der Rahmen für die vorliegende Pilotstudie, in der das freie Schreiben Grundlage einer differenzierten Analyse des Kommagebrauchs bei Infinitivgruppen ist.
Der vorliegende Beitrag skizziert in einem ersten Abschnitt Gegenstandsbereich und kodifizierte Regelung, bevor er im Weiteren das Studiendesign und die Ergebnisse vorstellt. Die Ergebnisse werden nach Fallgruppen sowie im Hinblick auf übergreifende Tendenzen und Beobachtungen besprochen. Sie sind Ausgangspunkt der im Ausblick formulierten Thesen.
Das 1901er-Regelwerk wird in einem direkten Vergleich mit dem geltenden amtlichen Regelwerk gemeinhin als defizitär eingestuft. Diese Einschätzung basiert auf der Annahme eines Primats des Regelteils. Der vorliegende Beitrag setzt hieran an und bestimmt auf der Basis der Festlegungen zur Getrennt- und Zusammenschreibung Funktion und Verhältnis von Regelteil und Wörterverzeichnis des ersten gesamtdeutschen Regelwerks in seinem historischen Entstehungskontext. Dabei zeigt sich, dass das Regelwerk von 1901 einen anderen Weg in der Kodifikation beschreitet; während im Regelteil Regularitäten aufgezeigt und Kriterien zur Schreibungsfindung an die Hand gegeben werden, erfolgt die Kodifikation rechtschreibschwieriger Fälle über das Wörterverzeichnis.
Im Mittelpunkt des Beitrags steht die Frage nach Ursprung und Genese der im geltenden amtlichen Regelwerk niedergelegten Regel, die eine Zusammenschreibung von Adjektiv-Verb-Verbindungen bei Vorliegen einer nicht literalen Bedeutung vorsieht. Ausgangspunkt bilden dabei Sprachtheoretiker und Akteure wie Johann Christoph Adelung, Wilhelm Wilmanns und Konrad Duden, die die Diskussion beherrscht und (dadurch) maßgeblich die erste gesamtdeutsche Rechtschreibregelung im Jahre 1902 mitgestaltet haben. Ein weiterer Schwerpunkt liegt auf der Umsetzung der Rechtschreibregelung in den orthographischen Wörterbüchern. Erst in dieser zeigt sich, inwiefern der gefundene Kompromiss trägt und inwieweit sich die Beteiligten daran gebunden fühlen, in Sonderheit Duden, der mit seinen Wörterbüchern alsbald eine marktführende Position einnahm und über dessen Duden-Rechtschreibung die Regel einer bedeutungsunterscheidenden Zusammenschreibung bei Adjektiv-Verb-Verbindungen letztlich für alle verbindlich wurde.
Brief an die Herausgeber zu den vorgelegten Neuregelungsvorschlägen zur deutschen Rechtschreibung
(1995)
In dem Beitrag wird ein Überblick über die bevorstehenden Neuregelungen zur Orthographie des Deutschen gegeben, die im November 1994 in Wien als Reformvorschlag beschlossen wurden. Neben knappen Ausführungen zu Charakter und Geschichte von Orthographie und Orthographiereformen werden die vorgesehenen Änderungen bei Laut-Buchstaben-Zuordnung (einschließlich Fremdwörtern), Getrennt- und Zusammenschreibung, Groß- und Kleinschreibung, Zeichensetzung und Worttrennung am Zeilenende detailliert erläutert, z.T. erörtert und mit Beispielen illustriert.
Rechtschreibreform
(1996)
In dem Beitrag wird über die Prozeduren der Reformvorbereitung nach der Wiener Konferenz 1994 und öffentliche Reaktionen darauf berichtet, werden die letzten Änderungen genannt sowie Termine und Modalitäten der Reformeinführung und geplante Aktivitäten in der Übergangszeit bis zum Jahr 2005 erläutert.
Laut-Buchstaben-Zuordnungen
(1992)