Refine
Year of publication
Document Type
- Part of a Book (1056)
- Article (159)
- Book (68)
- Review (48)
- Report (3)
Keywords
- Deutsch (658)
- Korpus <Linguistik> (138)
- Sprachvariante (71)
- Grammatik (68)
- Rezension (65)
- Wörterbuch (62)
- Syntax (57)
- Sprachgebrauch (50)
- Sprachwandel (50)
- Kongress (49)
Publicationstate
- Veröffentlichungsversion (621)
- Zweitveröffentlichung (463)
- Postprint (2)
Reviewstate
- (Verlags)-Lektorat (1007)
- Peer-Review (97)
- Verlags-Lektorat (12)
- (Verlags-)Lektorat (2)
- Peer-review (2)
- Verlagslektorat (1)
Publisher
- de Gruyter (1334) (remove)
Dieses Gespräch wurde am 6. Februar 2023 in den Räumlichkeiten des Marsilius-Kollegs der Universität Heidelberg aufgenommen. Es spiegelt den Austausch zwischen den beteiligten Wissenschaftlerinnen und Wissenschaftlern wider und gibt einen ersten Einblick in die Themen und Fragen, die in diesem Sammelband eine Rolle spielen. Das Gespräch wurde transkribiert und an denjenigen Stellen sprachlich überarbeitet, die es aus Gründen der Verständlich- und Lesbarkeit erforderten. Der mündliche, im Nachdenken begriffene Charakter des Gesprächs wurde gewahrt.
In diesem Beitrag beschäftigen wir uns mit moralisierenden Sprachhandlungen, worunter wir diskursstrategische Verfahren verstehen, in denen die Beschreibung von Streitfragen und erforderlichen Handlungen mit moralischen Begriffen enggeführt werden. Auf moralische Werte verweisendes Vokabular (wie beispielsweise „Freiheit“, „Sicherheit“ oder „Glaubwürdigkeit“) wird dabei verwendet, um eine Forderung durchzusetzen, die auf diese Weise unhintergehbar erscheint und keiner weiteren Begründung oder Rechtfertigung bedarf. Im Fokus unserer Betrachtungen steht dementsprechend das aus pragma-linguistischer Sicht auffällige Phänomen einer spezifischen Redepraxis der Letztbegründung oder Unhintergehbarkeit, die wir als Pragmem auffassen und beschreiben. Hierfür skizzieren wir zunächst den in der linguistischen Pragmatik verorteten Zugang zu Praktiken der Moralisierung, betrachten sprachliche Formen des Moralisierens und deren strukturelle Einbettung in den Satz oder den Text (also kotextuelle und pragmasyntaktischen Struktureinbettungen), um anschließend Hypothesen zu kontextuellen Wirkungsfunktionen aufzustellen. Darauf basierend leiten wir schließlich anhand von exemplarischen Korpusbelegen Strukturmuster des Moralisierens ab, die wir in dem philosophisch-linguistischen Fachterminus ‚Pragmem‘ verdichten und mittels qualitativer und quantitativer Analysen operationalisieren.
Der Beitrag behandelt Schreibvarianten der Gegenwartssprache. Es werden auf der Grundlage von vier Fallgruppen (1. Binnenmajuskel, 2. Kompositaschreibung mit Leerzeichen, 3. Kompositaschreibung mit Bindestrich, 4. genderfokussierende Schreibweisen) zwei Typen von Normvarianz unterschieden – ein politischer und ein unpolitischer. Dabei wird der Frage nachgegangen, ob unpolitische Ad-hoc-Bildungen auf dem Weg der Konventionalisierung sich von als politisch wahrgenommenen Normvarianten unterscheiden. Zur Beschreibung des Phänomens wird der Begriff der elastischen Norm eingeführt, um divergierende Schreibkonventionen im Spannungsfeld von Faktizitätsherstellung und kodifizierter Setzung zu modellieren. Zur soziolinguistischen Unterscheidung von Schreib- und Leseperspektiven werden die Schreibvarianten als drei unterschiedliche Gesten kategorisiert – als unmarkierte Nullgeste, als markierte Nullgeste und als indexikalisierte Signalgeste.
Seit 1996 ist das Amtliche Regelwerk zur deutschen Rechtschreibung (einschließlich Amtlichem Wörterverzeichnis) gültig. Es regelt die Orthografie für Behörden und Schulen in Deutschland sowie in den sechs weiteren Mitgliedsländern des Rats für deutsche Rechtschreibung. Für die Wörterbuchverlage bzw. alle Wörterbuchprojekte gilt es, dieses hoch abstrakte Regelwerk einerseits auf alle Einträge in den A–Z-Teilen der Wörterbücher anzuwenden und andererseits ggf. das Regelwerk selbst zu „übersetzen“ und es damit einer breiten Öffentlichkeit zugänglich zu machen.
Neographeme wie Genderstern und Doppelpunkt werden zunehmend verwendet, um Personen unabhängig von ihrem Geschlecht einzubeziehen. Der Beitrag beleuchtet diese Sonderzeichen aus semantischer, typographischer und grammatischer Sicht, vergleicht sie mit anderen Typogrammen und diskutiert ihren Morphemstatus. Auch ihre metapragmatische Leistung der sprecherseitigen Verortung kommt in den Blick. In Bezug auf die Rezeption werden aus kognitionslinguistischer Perspektive die Lesbarkeit und die Funktionstüchtigkeit des Sterns betrachtet. Lesenden, die mit der Form vertraut sind, gelingt der Wortzugriff mühelos, und der Genderstern elizitiert inklusive mentale Repräsentationen. Diese Analysen und Befunde sprechen für die grundsätzliche Möglichkeit, Neographeme in die Sprache zu integrieren.
GraphVar ist ein Korpus aus über 1.600 Abiturarbeiten, die zwischen 1917 und 2018 an einem niedersächsischen Gymnasium geschrieben wurden. Das Hauptinteresse beim Aufbau bestand in der Beschreibung graphematischer Variation und ihrer Entwicklung über die Zeit. Leitend war die Frage, was Schreiberinnen und Schreiber eigentlich tatsächlich machen bzw. gemacht haben – und zwar unbeeinflusst von technischen Hilfsmitteln oder Schluss- und Endredaktion, aber unter vergleichbaren Bedingungen. Das Korpus bietet somit ein Fenster auf den unverfälschten Schreibgebrauch von Abiturientinnen und Abiturienten im Laufe der Zeit. Zum jetzigen Zeitpunkt sind 1.618 Arbeiten transkribiert, linguistisch annotiert und über eine ANNIS-Instanz erreichbar (graphvar.unibonn.de, Stand: 8.8.2023). Im Sommer 2022 konnten weitere 1.600 Arbeiten zwischen 1900 und 2021 an einem Gymnasium in Nordrhein-Westfalen digitalisiert werden. Neben schriftlinguistischen Fragestellungen ist das Korpus prinzipiell auch für syntaktische, morphologische und lexikalische Fragestellungen geeignet; auch didaktische Untersuchungen sind möglich, genau wie kulturwissenschaftliche.
Anhand der Rückmeldungen auf eine Umfrage unter den Mitgliedern der Organisation EFNIL (European Federation of National Institutions for Language) wird in diesem Artikel erfasst, wie die orthographische Norm in den Staaten Europas etabliert und vermittelt wird. Es wird unter anderem beleuchtet, welche Prinzipien bei der Erstellung der Norm angewandt werden, in welchen Teilen der Gesellschaft die Regeln gelten, wie sie an die Öffentlichkeit vermittelt werden, inwieweit sie eingehalten werden, ob es alternative Normen gibt, und mit welchen Mitteln Veränderungen im Sprachgebrauch erfasst und berücksichtigt werden.
Orthographie
(2024)
Ausgehend von den Ergebnissen des letzten IQB-Bildungstrends (2021) zu den orthographischen Kompetenzen von Grundschüler:innen fragt der Beitrag nach Stellenwert und Funktion der Orthographie vor dem Hintergrund der Anforderungen, die an die sprachliche Bildung von Schüler:innen gestellt sind. Orthographie und orthographische Kompetenzen werden funktional im Bereich des Schreibens und einer zu entwickelnden Schreibkompetenz verortet. Wichtig ist dabei der Blick auf die Schreibflüssigkeit. Sie ist grundlegend für die anforderungsreichen Prozesse des Textschreibens. Ausgehend von Befunden neuerer Studien betrachten wir das Verhältnis von Orthographie und Schreiben und daraus resultierende Anforderungen an den schulischen (Recht-)Schreiberwerb.
Gemäß Lehrplänen scheint der Rechtschreiberwerb nach der Sekundarstufe I weitgehend abgeschlossen. Aber auch auf der Sekundarstufe II, ja sogar an Universitäten verstoßen die Schreibenden gegen die gültigen Regeln. Dabei können Lernende auf diesen Stufen durch die Auseinandersetzung mit dem System der Orthografie ein besseres Verständnis für die Normen entwickeln. Ein explorativer, konstruktivistischer Ansatz eröffnet neue Perspektiven, orthografische Probleme zu untersuchen und zu verstehen. Es wird gezeigt, wie Regeln durch gezielte Aufträge selbstständig entdeckt werden können und mit welchen Strategien sich das Sprachbewusstsein durch und für die Orthografie vertiefen lässt. Ein solcher explorativer Zugang erweitert das Wissen über Rechtschreibung und fördert die korrekte Verwendung der Schriftsprache.
Der vorliegende Beitrag beschäftigt sich mit der Rechtschreibung von Maturantinnen und Maturanten in einem österreichischen Deutschmaturatext-Korpus. Es werden Ergebnisse aus einer quantitativen und qualitativen Untersuchung dieses Lernerkorpus präsentiert. Diese haben gezeigt, dass die Rechtschreibleistungen in den untersuchten österreichischen Maturaarbeiten besser sind als in der (medialen) Öffentlichkeit angenommen, dabei jedoch bestimmte Fehlerschwerpunkte hervorstechen. Signifikante Unterschiede in Hinblick auf Leistungen bei Orthographie und Zeichensetzung bestehen zudem zwischen stift- und computergeschriebenen Arbeiten.
A constructicon, i.e., a structured inventory of constructions, essentially aims at documenting functions of lexical and grammatical constructions. Among other parameters, so-called constructional collo-profiles, as introduced by Herbst (2018, 2020), are conclusive for determining constructional meanings. They provide information on how relevant individual words are for construction slots, they hint at usage preferences of constructions and serve as a helpful indicator for semantic peculiarities of constructions. However, even though collo-profiles constitute an indispensable component of constructicon entries, they pose major challengers for constructicographers: For a constructicographic enterprise it is not feasible to conduct collostructional analyses for hundreds or even thousands of constructions. In this article, we introduce a procedure based on the large language model BERT that allows to predict collo-profiles without having to extensively annotate instances of constructions in a given corpus. Specifically, by discussing the constructions X macht Y ADJP (‘x makes Y ADJ’, e.g. he drives him crazy) and N1 PREP N1 (e.g., bumper to bumper, constructions over constructions), we show how the developed automated system generates collo-profiles based on a limited number of annotated instances. Finally, we place collo-profiles alongside other dimensions of constructional meanings included in the German Constructicon.
Das Rechtschreiben ist digital automatisierbar. Ist der Orthographieerwerb dann noch notwendig für den Aufbau einer bildungssprachlichen literalen Kompetenz? Der Beitrag fragt nach den Zusammenhängen zwischen der Orthographie und den sprachlichen und kognitiven Fähigkeiten, die für das Schreiben und Lesen von Texten gebraucht werden. Argumente und Forschungsergebnisse zu drei konkurrierenden Hypothesen zu diesem Zusammenhang werden vorgestellt und diskutiert: Entlastungsthese, Bewusstheitsthese, Literalisierungsthese. Auf der Grundlage der Literalisierungsthese wertet der Beitrag den Orthographieerwerb als nicht substituierbare Komponente einer Sprachkompetenz, die den Umgang mit Texten ermöglicht.
Das Schriftsystem ist ein System und es zeigen sich Folgen, wenn Schreibungen gegen den Schreibusus geändert werden. Exemplarisch wird dies erstens an der Veränderung des Verbsuffixes -iren zu -ieren im Nachgang der Rechtschreibreform von 1876 und zweitens der Veränderung von Gruppen wie im Allgemeinen in der Reform von 1996 gezeigt. Beide verursachen unbeabsichtigte Folgefehler. Wie systematisch manche Variation und damit auch mancher Fehler ist, wird sowohl am Komma vor Vergleichssätzen als auch an Fehlern in der Getrennt- und Zusammenschreibung gezeigt. Das Statut des Rechtschreibrates besagt, dass bei der Weiterentwickung des Amtlichen Regelwerks die ständige Beobachtung der Schreibentwicklung, die Klärung von Zweifelsfällen, die Erarbeitung und die wissenschaftliche Begründung von Vorschlägen zur Anpassung des Regelwerks an den allgemeinen Wandel der Sprache im Vordergrund stehen. Das ist zu begrüßen, weil viele Zweifel bei den Zweifelsfällen grammatische und nicht orthographische Ursachen haben.
Kognitive Pretests oder auch kognitive Interviews sind semi-standardisierte Interviews, die durchgeführt werden, um Einblick in die kognitiven Prozesse zu bekommen, die Befragte beim Beantworten von Fragen durchlaufen, und wie sie zu ihrer Antwort kommen. Innerhalb der sozialwissenschaftlichen Umfrageforschung werden kognitive Interviews insbesondere zu zwei Zwecken eingesetzt: (a) in der Fragebogenentwicklung und (b) in der Übersetzung von Fragebögen. Im Rahmen der Fragebogenentwicklung wird durch Interviews mit Befragten der Zielpopulation versucht, Hinweise auf unterschiedlichste Frageprobleme zu erhalten. So kann man beispielsweise herausfinden, wie Befragte bestimmte Wörter oder Begriffe verstehen, wie schwierig oder einfach sie eine Frage finden oder wie sie ihre Antwort auf eine Frage bilden. In der Übersetzung von Fragebögen kann man beispielsweise untersuchen, ob eine übersetzte Frage so verstanden wird wie die entsprechende Frage in der Ausgangssprache oder welche gewünschten bzw. unerwünschten Konnotationen bestimmte Übersetzungen haben. Innerhalb der Orthographieforschung ließe sich diese Methode auf die Entwicklung von Kriterien zur Festlegung von Rechtschreibregeln oder zur Prüfung ihrer Akzeptanz anwenden: In kognitiven Interviews eingesetzte Techniken wie „Probing“, also gezieltes Nachfragen, oder Lautes Denken könnten genutzt werden, um zu prüfen, wie Rechtschreibregeln angewendet werden oder wie sie zielgruppenspezifisch und nutzungsfreundlich ausgestaltet werden müssten, damit sie größtmögliche Akzeptanz in weiten Teilen der Bevölkerung finden. So könnte man intuitive Entscheidungen bei Worttrennung oder Getrennt- und Zusammenschreibung untersuchen.
Die normgerechte Kommasetzung ist im Deutschen deklarativ und sehr elegant von Beatrice Primus (1993, 2007) erfasst worden. Sie bindet Kommas primär an syntaktische Konzepte wie ‚Satzgrenze‘ und ‚Subordination‘. Nun gibt es allerdings ein Komma, das sich nicht ins System fügen will, das aber immer häufiger wird: das Vorfeldkomma wie in Gegen so eine starke Übermacht, konnten die deutschen Truppen nichts mehr ausrichten. Dieser Beleg stammt aus einer rezenten Abiturarbeit. Hier wird – entgegen den geltenden Rechtschreibregeln – das Vorfeld der Sätze mit einem Komma abgetrennt; es handelt sich um systematische Abweichungen von der Norm. Wir können die Faktoren, die ihre Verteilung steuern, empirisch gut erfassen. Weit weniger klar ist, ob diese Beobachtungen theoretische Konsequenzen haben sollten, und wenn ja, welche. Das soll in diesem Beitrag diskutiert werden, neben einigen anderen Problemfällen, die die Empirie der Theorie beschert.
Die Anforderungen an gegenwartssprachliche Wörterbücher beinhalten, bei der Aufbereitung der lexikalischen Informationen in Stichwortartikeln die lemmabezogenen Korrektschreibungen adäquat zu berücksichtigen. Die dazugehörigen Arbeitsgänge in der Redaktion des Digitalen Wörterbuchs der deutschen Sprache (DWDS) reichen von der Ansetzung der Nennformen in allen ggf. zulässigen orthographischen Varianten über die Anlage von Verweisen auf die einschlägige Bezugsnorm bis zur Dokumentation ausgewählter Korpusbelege mit gebrauchsfrequenten Abweichungs- und Falschschreibungen. Als besondere Herausforderungen für die lexikographische Praxis erweisen sich regelmäßig Lücken und Interpretationsspielräume in der amtlichen Regelung sowie die bei Belegrecherchen in den DWDS-Textquellen zutage tretenden Diskrepanzen zwischen orthographischer Norm und Schreibusus.
Das Ziel des Beitrages ist es, die Orthografiereform 1996–2006 in den Entwicklungsprozess der deutschen Rechtschreibung seit der Herausbildung der Einheitsorthografie einzuordnen, ihre Stellung in diesem Prozess zu kennzeichnen und ihre Ergebnisse zu benennen. Ausgehend von einer Charakterisierung der besonderen Merkmale der Orthografie als Norm der Schreibung sowie des Begriffes Orthografiereform, werden zunächst die Endphase der Herausbildung der deutschen Einheitsorthografie und ihr Abschluss durch die Orthografiereform von 1901 beschrieben. Dem folgt die Darstellung der Besonderheiten der deutschen Orthografieentwicklung im 20. Jahrhundert bis zum Jahr 1996. Ein wichtiger Bestandteil des Beitrages ist dann die Herausarbeitung der Grundlagen und Bestimmungsfaktoren einer Orthografiereform unter heutigen Bedingungen und die Anwendung dieser Grundsätze auf den Prozess der Entstehung und Umsetzung der Orthografiereform 1996–2006. Abschließend werden die Ergebnisse dieses Prozesses in vier Punkten zusammengefasst die auch gleichzeitig die Bedeutung dieser Sprachlenkungsmaßnahme in der deutschen Orthografiegeschichte kennzeichnen.
Exploration und statistisch valide Analysen annotierter Textkorpora helfen bei der induktiven Aufdeckung systematischer Schreibgebrauchsmuster. Umgekehrt lassen sich – deduktiv – Vorgaben der kodifizierten Norm (amtliches Regelwerk) quantitativ überprüfen. Wir präsentieren eine Methodik für die empirisch informierte Beschreibung orthografisch motivierter Phänomene, gehen auf prototypische Fälle ein und werfen ein Schlaglicht auf Fallstricke der Korpusnutzung für die Orthografieforschung. Abschließend skizzieren wir Funktionen und Wirkungsweisen aggregierender Visualisierungen für die Forschungskommunikation am Beispiel des amtlichen Wörterverzeichnisses.
Die Schrifttypologie beschränkte sich bisher auf eine strukturelle Klassifikation von Schriftsystemen, basierend auf der sprachlichen Korrespondenzebene von Graphemen. Aufgrund dieses engen Fokus haben die resultierenden Typologien relevante Merkmale sowie Gemeinsamkeiten verschiedener Schriftsysteme und ihres Gebrauchs nicht im Blick. Zur Erarbeitung einer umfassenden Schrifttheorie mit erklärendem Anspruch ist aber eine multiperspektivische und damit interdisziplinäre Beschreibung – und in Folge ein Vergleich – unterschiedlicher Schriftsysteme notwendig. Die Erstellung nutzbringender – sowohl struktureller als auch gebrauchsbasierter – Typologien ist hierfür eine geeignete Methode. Ihre einzelnen Schritte werden hier anhand des Beispiels der graphematischen Transparenz charakterisiert.
Der vorliegende Text unternimmt den Versuch, einen Beitrag zur grammatischen Analyse von Ellipsen zu leisten, indem kontextkontrollierte Ellipsen und Strukturellipsen konstruktionsgrammatisch verortet und interpretiert werden. In diesem Zusammenhang soll vor allem die Frage nach ihrem eventuellen Konstruktionsstatus im Mittelpunkt stehen. Wie sich zeigen wird, werden die beiden markanten Vertreter der Ellipsenwelt (Analepse und Strukturellipse) diesbezüglich unterschiedlich bewertet. Da der Phänomenbereich in beiden Hauptklassen eine Menge unterschiedlicher Formate und Typen umfasst (zu einem Überblick vgl. Hennig 2013: 447-448), kann die vorgelegte Analyse nur exemplarisch erfolgen und erhebt somit keinen Anspruch auf Vollständigkeit. Dennoch soll sie der Bedingung der Generalisierbarkeit theoretischer Annahmen insofern gerecht werden, als die beiden Hauptklassen (Analepse und Strukturellipse) genauer untersucht werden, die m. E. zwei entgegengesetzte Eckpunkte des Spektrums möglicher Ellipsen darstellen und somit in analytischer Perspektive, so auch in der konstruktionsgrammatischen Theoriebildung aus meiner Sicht besondere Aufmerksamkeit verdienen.
Das Verhältnis von Norm und Schreibgebrauch bestimmt die Orthografieforschung und den orthografischen Diskurs nicht erst seit der Rechtschreibreform 1996. Wurde der Normbegriff lange Zeit als relativ statische Größe verortet, so erhielt er durch im 21. Jahrhundert verstärkt zu beobachtende Schreibwandelprozesse signifikante Impulse für Modifikationen, die eine offenere Entwicklung einleiteten. Besonders deutlich ist dies an Fremdwörtern und insbesondere an Fremdwort-Neologismen abzulesen. So belegt die empirische Beobachtung von Anglizismen, wie soziokulturelle Entwicklungen Sprach und Schreibveränderungen bewirken. Mit Bezug auf das Amtliche Regelwerk wird gezeigt, wie ein neu herausgebildeter Usus zur Modifizierung einzelner Regeln und Schreibungen führen kann und damit auch zu einem flexibleren, dynamischeren Normbegriff.
Die empirische Untersuchung sprachlicher Variation setzt eine adäquate Datenbasis voraus, um möglichst zutreffende Schlussfolgerungen ziehen zu können. Citizen Science ist als empirischer Erhebungsansatz zunehmend in den Fokus der Sprachwissenschaft gerückt, da damit eine größere und potenziell sprachlich/sozial besser stratifizierte Datenbasis erhoben werden kann. Der vorliegende Aufsatz stellt ein Exponat vor, das 2022 auf dem Museumsschiff „MS Wissenschaft“ durch Deutschland und Österreich tourte und einer jungen Zielgruppe sprachliche Variation und sprachwissenschaftliche Forschungsmethoden näherbringen sollte. Außerdem enthielt es Citizen-Science-basierte Erhebungskomponenten, mit denen unter anderem Daten zu Schreibvarianten von Anglizismen gesammelt wurden. Hier werden erste Datenauswertungen vorgestellt und mit existierenden Forschungsdaten basierend auf Korpusanalysen verglichen.
Der Beitrag dokumentiert eine Auswahl der wichtigsten Leitlinien, die die Grundlage für die Neukonzeption und -bearbeitung des Kapitels zur Zeichensetzung im Amtlichen Regelwerk bilden. Das wesentliche Ziel der mit der Bearbeitung des Kapitels Zeichensetzung befassten internationalen Arbeitsgruppe im Rat für deutsche Rechtschreibung (RfdR) in seiner aktuellen Amtsperiode (2018–2023) bestand darin, eine für die Nutzerinnen und Nutzer deutlichere und einfachere Darstellung dieses Teils des amtlichen Regelwerks (ARW) vorzulegen ebenso wie eine systematisch an einer semasiologischen Perspektive orientierte Erfassung der Funktion und der Verwendung der Interpunktionszeichen auf der Grundlage wissenschaftlicher Weiterentwicklungen.
Vorwort
(2024)
Thema der 59. Jahrestagung des Leibniz-Instituts für Deutsche Sprache war vom 14. bis zum 16. März 2023 erstmals nach mehreren Jahrzehnten wieder die Orthografie des Deutschen, und zwar „in Wissenschaft und Gesellschaft“. Einen unmittelbaren Anlass dafür bildete der bevorstehende Abschluss der siebenjährigen Arbeitsphase des Rats für deutsche Rechtschreibung Ende 2023, dessen Tätigkeit das IDS seit seiner Gründung wissenschaftlich begleitet. Aber auch die Orthografieforschung selbst hat sich seit der Rechtschreibreform im Jahr 1996 in einer Weise entwickelt, dass die Wahl dieses schriftlinguistischen Querschnittsthemas angezeigt erschien.
grammis ist ein wissenschaftlich basiertes Online-Informationssystem zur deutschen Grammatik und Orthografie, das Erklärungen und Hintergrundwissen für Sprachinteressierte und Deutschlernende weltweit bietet. Neben genuin grammatischen Themen enthält es auch für das Rechtschreiblernen gewinnbringende Inhalte. Im vorliegenden Beitrag werden seine orthografischen Komponenten veranschaulicht und aktuelle Neuerungen im Zusammenhang mit seiner Integration in eine im Entstehen befindliche digitale Vernetzungsinfrastruktur für die Bildung erläutert.
Für die spezifischen Bedürfnisse der Schreibbeobachtung wurde das Orthografische Kernkorpus (OKK) als virtuelles Korpus in DeReKo entwickelt. Mit derzeit rund 14 Mrd. Token deckt es den Schriftsprachgebrauch in den deutschsprachigen Ländern im Zeitraum von 1995 bis in die Gegenwart ab. Der Zugriff über die Korpusanalyseplattform KorAP erlaubt nicht nur die Nutzung verschiedener Annotationen, sondern über die API-Schnittstellen auch die Einbindung in diverse Auswertungsumgebungen wie RStudio über den RKorAPClient und macht es so für zahlreiche Analyse- und Visualisierungsmöglichkeiten zugänglich.
In der wissenschaftlichen Auseinandersetzung spielen derzeit Entwicklungen in den theoretischen und empirischen Erkenntnissen zur Orthographie(entwicklung), zum Schrift- und Orthographieerwerb und zur Orthographiedidaktik sowie aktuelle Entwicklungen im Schreibgebrauch eine zentrale Rolle. Globalisierung und Internationalisierung befördern in der gesprochenen und der geschriebenen Sprache die Aufnahme zahlreicher neuer Fremdwörter, vor allem Entlehnungen aus dem anglo-amerikanischen Sprachraum, in den deutschen Fach- und Allgemeinwortschatz und damit Entwicklungen im Schreibgebrauch. Auch neue digitale Medien begünstigen veränderte, nutzungsorientierte Vermittlungsstrategien orthographischer Inhalte. Und nicht zuletzt stellt die intensiv geführte Debatte über gendersensible Schreibung unter Verwendung von Sonderzeichen (wie Asterisk oder Doppelpunkt im Wortinneren) die Schreibgemeinschaft vor Herausforderungen.
Das Amtliche Wörterverzeichnis ist ein wesentlicher Teil des für Schulen und Behörden verbindlichen Amtlichen Regelwerks, dem wissenschaftlichen Referenzwerk für die deutsche Orthografie. Dem Wörterverzeichnis kommt eine entscheidende Funktion zu: Es exemplifiziert anhand einzelner Lemmata die Anwendung der Regeln und kodifiziert darüber hinaus Einzelfälle, die aus dem Regelteil nicht eindeutig ableitbar sind. Im vorliegenden Beitrag wird die auf der Basis empirischer Schreibbeobachtung erarbeitete Neukonzeption vorgestellt, die mit der Konzentration auf prototypische Fallbeispiele repräsentative orthografische Zweifelsfälle im gegenwärtigen Wortschatz des Deutschen aufgreift, sie mit Bezug auf die geltende Norm und den Schreibgebrauch klärt, in der neuen digitalen Fassung auch visualisierend veranschaulicht und auf diese Weise aktuellem Nutzungsverhalten Rechnung trägt.
Thema der 59. Jahrestagung des Leibniz-Instituts für Deutsche Sprache war vom 14. bis zum 16. März 2023 erstmals nach mehreren Jahrzehnten wieder die Orthografie des Deutschen, und zwar „in Wissenschaft und Gesellschaft“. Einen unmittelbaren Anlass dafür bildete der bevorstehende Abschluss der siebenjährigen Arbeitsphase des Rats für deutsche Rechtschreibung Ende 2023, dessen Tätigkeit das IDS seit seiner Gründung wissenschaftlich begleitet. Aber auch die Orthografieforschung selbst hat sich seit der Rechtschreibreform im Jahr 1996 in einer Weise entwickelt, dass die Wahl dieses schriftlinguistischen Querschnittsthemas angezeigt erschien.
Der vorliegende Beitrag diskutiert Implikationen für die grammatiktheoretische Grundunterscheidung von Argumenten und Modifikatoren, die mit der Erweiterung einer wortbasiert-valenzgrammatischen um eine musterbasiert-konstruktionsgrammatische Analyseperspektive einhergehen. Wird Argumenthaftigkeit nicht mehr (oder nicht mehr nur) relativ zum Verb, sondern relativ zur schematischen Argumentstrukturkonstruktion bestimmt, in der ein Verb gebraucht wird, hat sich das Problem einer Unterscheidung von Argumenten und Modifikatoren damit nicht erübrigt. Dem Problem, dass eine umfassende und trennscharfe Unterscheidung von Argumenten und Modifikatoren aus Sicht des Verbs allein nicht zweifelsfrei zu leisten ist, ist damit aber zumindest die grundsätzliche theoretische Sprengkraft genommen, dass der gesamte folgende Strukturaufbau auf einer unsicheren Anfangsunterscheidung aufsetzt. Gleichzeitig stellen sich im Rahmen des konstruktionsgrammatischen Perspektivwechsels aber neue Fragen. Welche Strukturen können Anspruch auf den Status einer eigenständigen Argumentstrukturkonstruktion erheben? Was sind ihre Bedeutungen und konstitutiven Bestandteile? Unter welchen Bedingungen können sie sowohl durch bestimmte lexikalische Füller als auch durch andere ihrerseits schematische Konstruktionen instanziiert werden? Wie können Argumentstrukturkonstruktionen sowohl mit Modifikatoren als auch mit anderen Argumentstrukturkonstruktionen kombiniert werden?
The internationally renowned conference of the European Association for Lexicography (EURALEX) has taken place every two years for the past 39 years. Last year’s conference, held July 12th–16th, 2022, marked EURALEX’s 20th edition, and more than 200 international participants gathered at Mannheim Palace to discuss current developments, learn about new projects, and present their own work — either in lexicography or in one of the many applied or neighboring disciplines such as corpus and computational linguistics.
Die Entstehung und Geschichte der einzigen deutschlexifizierten Kreolsprache Unserdeutsch (Rabaul Creole German) war bis heute weitgehend unbeschrieben, obwohl die Zeit drängt: Die koloniale High-contact-Varietät, entstanden zu Beginn des 20. Jahrhunderts an einer katholischen Missionsstation im damaligen Schutzgebiet Deutsch-Neuguinea im melanesischen Pazifik, ist inzwischen kritisch gefährdet mit weniger als 100 noch lebenden SprecherInnen fortgeschrittenen Alters. Mit dieser Arbeit wird nun eine detaillierte Rekonstruktion zu den Anfängen und der weiteren Entwicklung von Unserdeutsch bis in die Gegenwart vorgelegt, basierend auf Archivdaten, Interviews und Strukturanalysen. Dabei wird unter anderem die Rolle von im Sprachsystem nachweisbarem Transfer aus den zentralen Kontaktsprachen von Unserdeutsch sowie von L2-Effekten und autochthonen Innovationen untersucht, außerdem die deutsche Superstratvarietät von Unserdeutsch genau bestimmt und der Spracherwerb der ersten Sprechergeneration nachgezeichnet. Die Arbeit verortet die aus kreolistischer Perspektive in mehrfacher Hinsicht besonderen Entstehungsumstände von Unserdeutsch – darunter etwa ihre Genese unter Kindern – in einschlägigen Fachdiskursen.
Anders als bei Sonntagspredigten haben die katholischen und evangelischen AutorInnen von Kirche in 1live nur 90 Sekunden zur Verfügung, um ihre christliche Botschaft zu vermitteln. Vorliegender Beitrag untersucht, wie die katholischen und evangelischen AutorInnen dies tun. Welche Inhalte erachten sie für relevant? Welche sprachliche Gestaltung wählen sie? Greifen katholische und evangelische AutorInnen zu den gleichen Inhalten und sprachlichen Mitteln oder zeigen sich konfessionelle Präferenzen und Differenzen? Diesen Fragen soll an einem Korpus aus Kirche in 1live-Radiopredigten aus den Jahren 2012 bis 2021 (= 2.755 Texte mit insgesamt 726.570 Token) mit einem quantitativen und qualitativen Methoden-Mix nachgegangen werden. Die Studie wird im Rahmen des DFG-Projekts „Sprache und Konfession 500 Jahre nach der Reformation“ am Germanistischen Institut der Westfälischen Wilhelms-Universität Münster durchgeführt.
What is the subject of German linguistics? This seemingly simple question has no obvious answer. In the ZGL’s first issue, the editors required contributions to cover the whole of the German language and to be theoretically sound but application-orientated, whereas the current ZGL-homepage defines the German language of present and history in all its differentiations as its subject matter.
Looking through the fifty volumes of ZGL, three relationships can be identified as presumably enlightening the role of language, in particular the German language: language and mind; language and language use; language and culture. Though of a different systematic type, language and data should be added as an increasingly important pairing for conceptualizing language. On this basis, I also discuss the position of linguistic studies of the German language, mirrored in the ZGL-volumes, between social, cultural and natural sciences, as well as the corresponding epistemic approaches – like explaining vs. understanding.
Unserdeutsch (Rabaul Creole German) entstand um 1900 an einer katholischen Missionsstation in Vunapope auf der Insel New Britain im Bismarck-Archipel. Seine dominante Substratsprache ist Tok Pisin, das melanesische Pidgin-Englisch, seine Superstratsprache Deutsch. Der Aufsatz versucht das sprachliche Superstrat von Unserdeutsch näher zu bestimmen, d. h. die Frage zu beantworten, welches Deutsch von den Missionaren in Vunapope um 1900, am Ort und zum Zeitpunkt der Entstehung von Unserdeutsch, gesprochen wurde. Zu diesem Zweck werden die als Superstrattransfer aus dem Deutschen erklärbaren, regional markierten linguistischen Strukturmerkmale in Unserdeutsch untersucht und im geschlossenen Sprachgebiet sprachgeografisch lokalisiert. Ergänzt wird diese linguistische Evidenz durch extra- und metalinguistische Evidenz aus einschlägigen, zeitgenössischen Quellen. Die Ergebnisse deuten auf ein vorwiegend nordwestdeutsch-westfälisch geprägtes, insgesamt jedoch heterogenes, standardnahes sprachliches Superstrat hin und widerlegen somit frühere diesbezügliche Aussagen in der einschlägigen Fachliteratur. Und sie zeigen zugleich auch, dass die Analyse von kolonialen und sonstigen Auswanderervarietäten, besonders von solchen, die – wie Unserdeutsch – im Laufe ihrer späteren Geschichte den Kontakt zum sprachlichen Mutterland vollständig verloren haben, zur Rekonstruktion historischer Mündlichkeit wertvolle Daten liefern kann.
Der Beitrag betrachtet movierbare Personenbezeichnungen, die in einem Prädikativum mit Bezug auf ein weibliches Subjekt gebraucht werden (Typ sie ist Käufer/Käuferin). In solchen Fällen ist neben der Verwendung der movierten Personenbezeichnung auch die ihrer maskulinen Basis möglich, wobei zum tatsächlichen Gebrauch der beiden Varianten bisher widersprüchliche Angaben und kaum Daten vorlagen. Diese Untersuchung ergibt, dass die Movierung in der Prädikativkonstruktion seit dem Ahd. der Normalfall war und ist. Allerdings lassen sich einige Nischen ausmachen, in denen unmovierte Bezeichnungen etwas frequenter sind: Der mit Abstand höchste Wert findet sich bei weiblicher Selbstreferenz, während Maskulina bei weiblichen Subjekten der dritten Person Singular mit einer Ausnahme weitgehend unüblich sind. Diese Ausnahme ist der offizielle Sprachgebrauch der damaligen DDR. Öffentlichkeitsgerichtete Texte des 20./21. Jh., die nicht aus der DDR stammen, zeigen einen vermutlich gesellschaftlich bedingten Rückgang der sowieso schon seltenen unmovierten Formen ab Mitte der 1970er-Jahre.
Diskursmarker
(2018)
deiktischer Ausdruck
(2018)
Codeswitching
(2018)
Bedeutungszusammenhang
(2018)
Äußerung
(2018)
Funktion
(2018)
Frame
(2018)
figurative Bedeutung
(2018)
Einwortäußerung
(2018)
mentales Lexikon
(2018)
lexikalische Variation
(2018)
lexical frame
(2018)
lexical configuration
(2018)
konzeptuelle Basisebene
(2018)
Konzeptualisierung
(2018)
kognitive Lexikologie
(2018)
Heckenausdruck
(2018)
This paper deals with a specific type of lexeme, namely binary preposition-noun combinations containing temporal references like am Ende [at (the) end] or für Sekunden [for seconds]. The main characteristic of these combinations is the recurrent internal zero gap. Despite the fact that the omission of the determiner can often be explained by grammatical rules, the zero gaps indicate a higher degree of lexicalization. Therefore, we interpret these expressions as minimal phraseological units with holistic meanings and functions. The corpusdriven exploration of typical context patterns (e.g. using collocation profiles and the lexpan slot filler analysis) shows that a) even such minimal expressions are based on semi-abstract schemes and b) temporal expressions can also fulfill modal or discursive functions, usually with fuzzy borders and overlapping structures. In the case of modalization or pragmatization one can regard such PNs as distinct lexicon entries.
Words originating from shortening, including acronyms and clippings, constitute a treasure trove of insight into phonological grammar. In particular, they serve as an ideal testing ground for Optimality Theory (OT) and its view of grammar as an interaction of markedness constraints, which express (dis-) preferences regarding phonological structure in output forms, and faithfulness constraints, which require output forms to correspond to input structure (Prince and Smolensky 1993). This is because shortenings are characterised by a sharply diminished role of faithfulness, allowing for markedness constraints to make their force felt (“The Emergence of the Unmarked”). This article aims to demonstrate the heuristic value of shortening data for testing the OT model and for shedding light on various controversies in German phonology. A particular concern is to draw attention to the need for properly sorting the shortening data, to identify influences on phonological structure due to internal domain boundaries or to special correspondence effects potentially obscuring the view on the maximally unmarked patterns.
Dieses Buch stellt die Gesprächsanalyse als Methodik zur Erforschung linguistischer Fragestellungen dar. Ihr Ziel ist die umfassende Analyse sprachlicher Phänomene in ihren formalen, funktionalen und kontextuellen Dimensionen. Grundlegende Eigenschaften der verbalen Interaktion werden zunächst auf ihre sprachtheoretischen Konsequenzen befragt. Sodann werden aus ihnen methodologische Prinzipien für die Erhebung und Analyse von Gesprächskorpora entwickelt. Das methodische Vorgehen wird an einer grammatischen und einer semantischen Fragestellung demonstriert. Untersucht werden freie Infinitivkonstruktionen im gesprochenen Deutsch und die Effekte von Kontrastierungsaktivitäten auf die Semantik von Ausdrücken im Gespräch. Theoretische Basis bildet hier die Integration der Gesprächsanalyse mit der construction grammar und der kognitiven Linguistik.
Das es-Gesamtsystem im Neuhochdeutschen. Ein Beitrag zu Valenztheorie und Konstruktionsgrammatik.
(2014)
Das Buch beschäftigt sich mit den verschiedenen Verwendungsweisen des Pronomens es. Grundlage der Analysen bildet ein Korpus, das Nähetexte aus dem Zeitraum zwischen 1650 und 2000 beinhaltet. Im ersten Teil der Arbeit wird das phorische es behandelt. Es werden implizite und explizite Verweise durch es unterschieden. Großer Wert wird dabei auf die ausführliche semantische und morphosyntaktische Beschreibung der einzelnen Subtypen von es gelegt. Bei der Beschreibung des Korrelat-es wird vor allem auf den Begriff der Integration zurückgegriffen und vor diesem Hintergrund ein Stufenmodell korrelativer Satzverbindungen mit es erarbeitet. Der zweite Teil der Arbeit widmet sich der Frage nach dem grammatiktheoretischen Status des nicht-phorischen es. Es wird dafür plädiert, der Beschreibung und Erklärung der verschiedenen Untertypen des nicht-phorischen es valenztheoretische und konstruktionsgrammatische Erkenntnisse zugrunde zu legen.
Comprehending conditional statements is fundamental for hypothetical reasoning about situations. However, the online comprehension of conditional statements containing different conditional connectives is still debated. We report two self-paced reading experiments on German conditionals presenting the conditional connectives wenn (‘if’) and nur wenn (‘only if’) in identical discourse contexts. In Experiment 1, participants read a conditional sentence followed by the confirmed antecedent p and the confirmed or negated consequent q. The final, critical sentence was presented word by word and contained a positive or negative quantifier (ein/kein ‘one/no’). Reading times of the two quantifiers did not differ between the two conditional connectives. In Experiment 2, presenting a negated antecedent, reading times for the critical positive quantifier (ein) did not differ between conditional connectives, while reading times for the negative quantifier (kein) were shorter for nur wenn than for wenn. The results show that comprehenders form distinct predictions about discourse continuations due to differences in the lexical semantics of the tested conditional connectives, shedding light on the role of conditional connectives in the online interpretation of conditionals in general.
We investigate the optional omission of the infinitival marker in a Swedish future tense construction. During the last two decades the frequency of omission has been rapidly increasing, and this process has received considerable attention in the literature. We test whether the knowledge which has been accumulated can yield accurate predictions of language variation and change. We extracted all occurrences of the construction from a very large collection of corpora. The dataset was automatically annotated with language-internal predictors which have previously been shown or hypothesized to affect the variation. We trained several models in order to make two kinds of predictions: whether the marker will be omitted in a specific utterance and how large the proportion of omissions will be for a given time period. For most of the approaches we tried, we were not able to achieve a better-than-baseline performance. The only exception was predicting the proportion of omissions using autoregressive integrated moving average models for one-step-ahead forecast, and in this case time was the only predictor that mattered. Our data suggest that most of the language-internal predictors do have some effect on the variation, but the effect is not strong enough to yield reliable predictions.
In Dresden entsteht für den Forschungshub Digital Herrnhut der Pilot für ein agiles und multimodales Referenzkorpus der nächsten Generation (Nex-Gen Agile Reference Corpus (NARC)) in Zusammenarbeit mit der Sächsischen Landesbibliothek - Staats- und Universitätsbibliothek Dresden (SLUB). Dieses Korpus (N-ARC1) wird textliche, kartografische und audiovisuelle Quellen sowie weitere Artefakte fassen, die, miteinander vernetzt, als offene Forschungsdaten (teil-)maschinell angereichert werden können und in einer virtuellen Forschungsumgebung öffentlich und nachnutzbar zur Verfügung stehen sollen. Dafür bieten die Dokumente und Spuren der Herrnhuter Brüdergemeine - eine am Beginn des 18. Jahrhundert gegründete und in nur wenigen Jahrzehnten weltumspannende Glaubensgemeinschaft - einen idealen Ausgangspunkt. Im Beitrag werde ich exemplarisch an einigen ausgewählten Beispielen aus den Themenkreisen Datenerschließung, Datenstrukturierung, -erweiterung und -vernetzung zwischen akademischer Lehre, Forschung und bürgerwissenschaftlicher Beteiligung die Herausforderungen illustrieren, vor denen wir derzeit in der Umsetzung in Dresden stehen.
Die erfolgreiche Wiederverwendung gesprochener Korpora muss fachspezifischen Evaluationskritierien genügen und erfordert daher eine flexible Korpusarchitektur, die durch multirepräsentationale (Verfügbarkeit eines akustischen Signals und einer Transliteration) und multisituationale Daten (Variabilität von Situationen bzw. Aufgaben) gekennzeichnet ist. Diese Kriterien werden in einer Fallstudie zur /eː/-Diphthongisierung polnischer Deutschlerner/-innen angewendet und diskutiert. Die Fallstudie repliziert die Ergebnisse der /eː/-Diphthongisierung bei Bildbenennungen von Nimz (2016). Vor der Wiederverwendung werden weitere fachspezifische Evaluationskriterien überprüft, wie Multisituationalität, Aufnahmequalitäten, Erweiterbarkeit, vorhandene Metadaten und vorhandene Dokumentation. Nach der Replikationsstudie werden die Herausforderungen für eine Umsetzung der Wiederverwendung bezüglich Datenmanagement, Workflows und Data Literacy in Forschungs- und Lehrkontexten diskutiert.
Der vorliegende Beitrag erörtert am Beispiel des aktuell im Aufbau befindlichen Korpus GiesKaNe (= Gie[ßen]Ka[ssel]Ne[uhochdeutsch]) grundlegende Fragen nach dem Verhältnis von Standard und Innovation bei der Erweiterung der Korpuslandschaft durch neue Korpora. Bei jedem neu zu erstellenden Korpus stellt sich die Frage, inwieweit man den bereits etablierten Standards folgt, oder ob es legitim oder vielleicht sogar notwendig ist, neue Modelle der Annotation linguistischer Kategorien zu entwickeln. In diesem Sinne bespricht der Beitrag die Grenzen einer reinen Modellübernahme mit Bezug auf das POS-Tagging in anderen historischen Referenzkorpora und mit Bezug auf TIGER als Baumbank für das Gegenwartsdeutsche. Um trotz der Arbeit mit einer innovativen Alternative dem Prinzip der Interoperabilität gerecht zu werden, wird im Beitrag die Arbeit mit maschinellem Lernen ins Spiel gebracht. Dieses ermöglicht es, aus den vorhandenen Textoberflächenmerkmalen und den vorliegenden Annotationen auch alternative Annotationsmodelle abzuleiten und mittels einer Mehrebenenannotation anzubieten, sodass ein Korpus den Anforderungen an interoperable Nutzbarkeit und wissenschaftlichen Erkenntnisfortschritt gleichermaßen gerecht werden kann.
Der Beitrag thematisiert den Zusammenhang von Korpusaufbereitung, Datenanreicherung und Nutzungsszenarien im Kontext des Discourse Lab, das an der TU Darmstadt und der Universität Heidelberg betrieben und in linguistischen und interdisziplinären Forschungs- und Lehrprojekten genutzt wird. Für die Diskursforschung sind Korpora genauso konstitutiv wie die Einbeziehung von Kontexten des Sprachgebrauchs in die Analyse. Daher ist die Frage nach Repräsentationsformaten von Kontexten besonders wichtig. Eine große Rolle bei der korpuslinguistischen Kontextualisierung spielen auch Annotationen. Das wird am Darmstädter-Tagblatt-Korpus, den Plenarprotokollen des Deutschen Bundestags und den Korpora der DFG-Forschungsgruppe Kontroverse Diskurse diskutiert.
Der Beitrag liefert einen Einblick in korpuslinguistische Projekte und Aktivitäten aus dem österreichischen Sprachraum. Der Fokus liegt auf zwei primär auf die Analyse gesprochener Sprache ausgerichteten Korpora (DiÖ-Korpus und WBÖ-Korpus) sowie auf dem medial wie konzeptionell schriftlich angelegten Austrian Media Corpus. Institutionell eingebettet sind die Korpora in den Spezialforschungsbereich „Deutsch in Österreich (DiÖ)“ sowie in die Aktivitäten des Austrian Centre for Digital Humanities and Cultural Heritage (ACDH-CH) an der Österreichischen Akademie der Wissenschaften. Die theoretisch-methodologische Perspektive der Diskussion ist eine variationslinguistische, wobei sozio- und systemlinguistische Aspekte im Beitrag Berücksichtigung finden.
Dieser Beitrag stellt zwei Korpora vor, die als Datengrundlage für die Bestimmung der Regionalangaben im Digitalen Wörterbuch der deutschen Sprache (DWDS) fungieren: das ZDL-Regionalkorpus und das Webmonitor-Korpus. Diese Korpora wurden am Zentrum für digitale Lexikographie der deutschen Sprache (ZDL) erstellt und stehen allen registrierten Nutzern der DWDS-Plattform für Recherchen zur Verfügung. Das ZDL-Regionalkorpus enthält Artikel aus Lokal- und Regionalressorts deutscher Tageszeitungen, die mit arealen Metadaten versehen sind. Es wird ergänzt durch regionale Internet-Quellen im Webmonitor-Korpus, die zusätzliche Areale und Ortspunkte aus dem deutschen Sprachraum einbeziehen. Die Benutzerschnittstelle der linguistisch annotierten Korpora erlaubt nicht nur komplexe sprachliche Abfragen, sondern bietet auch statistische Recherchewerkzeuge zur Bestimmung arealer Verteilungen.
Das Korpus GeWiss (Gesprochene Wissenschaftssprache kontrastiv: Deutsch im Vergleich zum Englischen und Polnischen) bietet vielfältige Möglichkeiten zur Erforschung und Vermittlung der mündlichen Hochschulkommunikation. Mit den im Projekt ZuMult entwickelten Zugangswegen zu Korpora der gesprochenen Sprache eröffnen sich für einen deutlich größeren Personenkreis umfassende Nutzungsmöglichkeiten, die sowohl für sprachdidaktische Kontexte als auch für Forschungszwecke relevant sind. In diesem Beitrag wird eine Auswahl der in ZuMult geschaffenen Werkzeuge im Hinblick auf ihr Potenzial zur Arbeit mit den GeWiss-Daten vorgestellt. Im Anschluss wird anhand von expliziten sprachlichen Positionierungsmustern aufgezeigt, wie diese Korpustools für eine sprachdidaktisch orientierte empirische Untersuchung zu den Spezifika mündlicher Wissenschaftskommunikation genutzt werden können.
Dieser Beitrag stellt ein neues, im Aufbau befindliches Parallelkorpus vor: Das ‚Parallel European Corpus of Informal Interaction‘ (PECII). Zunächst wird der Bedarf nach besser vergleichbaren Daten fur die sprachübergreifende Erforschung natürlichen sprachlichen Handelns in der sozialen Interaktion begründet. Wir diskutieren Fragen der Vergleichbarkeit von Episoden natürlicher sozialer Interaktion, und die methodologischen Herausforderungen, die Ansprüche an ein Korpus natürlicher Sprachdaten mit dem Wunsch nach vergleichbaren Daten in Einklang zu bringen. Schließlich skizzieren wir mögliche Untersuchungsansätze auf der Grundlage von PECII anhand einer laufenden Studie zur Sanktionierung von Fehlverhalten in verschiedenen Aktivitätskontexten. Zukünftig soll PECII der wissenschaftlichen Öffentlichkeit als Ressource fur die sprach- und kulturvergleichende Untersuchung sprachlichen Handelns in der sozialen Interaktion zur Verfügung stehen.
The question of whether a letter is a grapheme or not is a perennial issue in writing research. The answer depends on which criteria are used to differentiate between letters and graphemes and, ultimately,how the unit ‘grapheme’ is defined. This problem is particularly relevant to complex graphemes, i.e. sequences of letters that behave like a single grapheme in certain respects. Typical for German is the ‹ch›. This paper argues for a scalar concept of graphemes, which compares the grapheme status of each of the units under investigation. For this purpose, new criteria for the identification of complex graphemes are used, which originate from handwriting analysis. There, it is shown that complex graphemes are connected with each other disproportionately often and also have deviating letter forms disproportionately often.
Der Beitrag illustriert die Nutzung des Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) für interaktionslinguistische Fragestellungen anhand einer exemplarischen Studie. Zunächst werden die Stratifikation (Datenkomposition) des Korpus, das zugrundeliegende Datenmodell und dessen Annotationsebenen sowie Typen von Untersuchungsinteressen vorgestellt, für die das Korpus nutzbar ist. Im Hauptteil wird Schritt für Schritt anhand einer Studie zur Verwendung des Formats was heißt X in der sozialen Interaktion gezeigt, wie mit FOLK relevante Daten gefunden und analysiert werden können. Abschließend weisen wir auf einige Vorsichtsmaßnahmen bei der Benutzung des Korpus hin.
Das Deutsche Referenzkorpus DeReKo dient als eine empirische Grundlage für die germanistische Linguistik. In diesem Beitrag geben wir einen Überblick über Grundlagen und Neuigkeiten zu DeReKo und seine Verwendungsmöglichkeiten sowie einen Einblick in seine strategische Gesamtkonzeption, die zum Ziel hat, DeReKo trotz begrenzter Ressourcen für einerseits möglichst viele und andererseits auch für innovative und anspruchsvolle Anwendungen nutzbar zu machen. Insbesondere erläutern wir dabei Strategien zur Aufbereitung sehr großer Korpora mit notwendigerweise heuristischen Verfahren und Herausforderungen, die sich auf dem Weg zur linguistischen Erschließung solcher Korpora stellen.
Vorwort
(2023)
Die in diesem Band versammelten Beiträge zur Jahrestagung 2022 des Instituts für Deutsche Sprache geben einen Überblick zu aktuellen Entwicklungen der Erschließung und Nutzung von Korpora in der germanistischen Linguistik und darüber hinaus. Dabei steht im Vordergrund, wie bekannte und neue Korpora für die Untersuchung verschiedenster linguistischer Fragestellungen, z.B. der Lexikografie, der Gesprächsforschung, des Spracherwerbs oder der historischen Sprachwissenschaft, genutzt werden können.
Im Einzelnen geht es um:
- Korpusangebote und Korpusdesign
- Software für die Arbeit mit Korpora
- Korpusaufbereitung
- den Zusammenhang von Korpusaufbereitung und Forschungsfragestellungen
- ethisch-rechtliche Aspekte der Arbeit mit Korpora
- Anwendungs- und Nutzungsmöglichkeiten von Korpora
Diese Fragen werden im Kontext wissenschaftstheoretischer Überlegungen zur Frage des Nutzens von Korpora für die linguistische Erkenntnisbildung behandelt. Es werden dabei sowohl klassische Schrift- und Tonkorpora, als auch Korpora mit Daten aus anderen Medialitäten (Video und Social Media) vorgestellt. Eine weitere Dimension sind Vergleichskorpora mehrerer Sprachen oder Medialitäten (mündlich vs. schriftlich) sowie diachrone (Vergleichs-)Korpora und der Blick auf nicht-deutschsprachige Korpusangebote.
Die Rationale der psychodynamischen Psychotherapie (und anderer Therapieformate) besteht darin, belastende und teils der bewussten Reflexion unzugängliche Erfahrungen der PatientInnen aufzuklären, ihre Ursachen zu identifizieren und alternative Wahrnehmungs- und Handlungsweisen zu ermöglichen. Dazu bedient sie sich eines bestimmten Settings: der Therapie über mehrere Sitzungen hinweg, in denen PatientInnen ihre Beschwerden und Erfahrungen berichten und TherapeutInnen mithilfe kommunikativer Praktiken gemeinsam mit den PatientInnen die Beschwerden aufzuklären, die Erfahrungen zu vertiefen und die Probleme zu lösen suchen. In der konversationsanalytischen Psychotherapieforschung (Peräkylä et al. 2008) werden dazu vier Grundtypen verständigungsbegünstigender kommunikativer Praktiken der Psychotherapie identifiziert: äußerungsfortführende Extensionen, Musterhaftigkeit herstellende Interpretationen, reformulierende formulations und Fragen (Weiste & Peräkylä 2015). Der vorliegende Beitrag widmet sich der Untersuchung von drei Fragetypen: Beispielnachfrage, Kollaborative Erklärungsfindungsfrage und Lösungsorientierte Frage und deren sequenzieller Organisation in psychodiagnostischen Gesprächen. Ziel ist es, deren unterschiedliche produktive Potenziale hinsichtlich der Handlungsrationale diagnostischer und therapeutischer Aufgabenstellungen herauszuarbeiten.
Das Theonym Gott für den christlichen Gott weist im Frühneuhochdeutschen eine Reihe ungewöhnlicher grammatischer Eigenschaften auf, die in diesem Beitrag korpusbasiert untersucht werden. Zum einen hat es sich von seiner appellativischen Herkunft emanzipiert, wie beispielsweise am fehlenden Artikel deutlich wird, zum anderen nutzt es aber das für einen Namen ungewöhnliche es-Flexiv im Genitiv (Pauls, Gottes) und tritt, wie unbelebte Appellative, als Genitivattribut dominant nachgestellt auf (Haus __ Gottes). In der Schreibung bildet sich die Doppelmajuskel <GOtt> heraus, die es bis ins 18. Jh. visuell von der übrigen Lexik abhebt. Damit weist das Theonym im Frühneuhochdeutschen eine Sondergrammatik auf, in abgeschwächter Form besteht sie bis heute fort. Der Beitrag argumentiert dafür, dass es sich um ein Resultat besonderer kommunikativer Relevanz handelt.
Research on language politics, policy, and planning is of importance to contact linguistics, since political relations between groups of language users, the way in which the use of language(s) is organized, and how language issues are politicized fundamentally shape the political and social conditions under which language varieties are in contact. This chapter first provides a short sketch of how language policy, planning, and politics have so far been conceptualized. Major subfields will be discussed, and then relevant actors and factors in these processes will be introduced. At the end, these aspects will be discussed from a contact linguistic perspective and summarized in a graphic visualization.
Numerous academics and politicians have in recent years contributed to the description and analysis of language policy for the benefit of smaller languages. The present paper tries to add to these by taking up the notion of yet another aspect of politics and language, exemplified by two case studies. The political aspect is the decentralization of parliamentary power for the benefit of minority languages. The two case studies deal with the relationship between the Scottish Parliament and the Gaelic language on the one hand, and between the Norwegian Sarni Parliament, the Sameting, and the Sami language on the other hand. The underlying idea is to consider whether parliamentary bodies may contribute to the empowerment of speakers of minority languages regarding the language of individual choice in as many instances as possible. This applies to any domain of language use, but in particular public bodies, education, and the media, at local, regional and national levels.
In the present contribution, I investigate if and how the English and French editions of the Wiktionary collaborative dictionary can be used as a corpus for real time neology watch. This option is envisaged as a stopgap, when no satisfactory corpus is available. Wiktionary can also prove useful in addition to standard corpus analysis, to minimize the risk of overlooking new coinages and new senses. Since the collaborative dictionary’s quest for exhaustiveness makes the manual inspection of the new additions unreasonable (more than 31,000 English lemmas and 11,000 French lemmas entered the nomenclature in 2020), identifying the possibly relevant headwords is an issue. The solution proposed here is to use Wiktionary revision history to detect the (new or existing) entries that received the greatest number of modifications. The underlying hypothesis is that the most heavily edited pages can help identify the vocabulary related to “hot topics”, assuming that, in 2020, the pandemic-related vocabulary ranks high. I used two measures introduced by Lih (2004), whose aim was to estimate the quality of Wikipedia articles: the so-called rigour (number of edits per page) and diversity (number of unique contributors per page). In the present study, I propose to adapt the rigour and diversity metrics to Wiktionary in order to identify the pages that generated a particular stir, rather than to estimate the quality of the articles. I do not subscribe to the idea that – in Wiktionary – more revisions necessarily produce quality articles (more revisions often produce complete articles). I therefore adopt Lih’s notion of diversity to refer to the number of distinct contributors, but leave out the name rigour when it comes to the number of revisions. Wolfer and Müller-Spitzer (2016) used the two metrics to describe the dynamics of the German and English editions of Wiktionary. One of their findings was that the number of edits per page is correlated with corpus word frequencies. The variation in number of page edits should therefore reflect to some extent the variation of corpus word frequencies. Renouf (2013) established a relationship between the fluctuation of word frequencies in a diachronic corpus and various neological processes. In particular, she illustrated how specific events generate sudden frequency spikes for words previously unseen in the corpus. For instance, Eyjafjallajökull, the – existing – name of an Icelandic glacier, appeared in the corpus when the underlying volcano erupted in 2010 and disrupted air traffic in Europe. In order to check if the same phenomenon occurs when using Wiktionary edits instead of corpus frequencies, I manually annotated the most frequently revised entries (according to various ranking scores) with the binary tag: “related to Covid-19” (yes/no). The annotations were then used to test the ability of various configurations to detect relevant headwords from the English and French Wiktionary, namely Covid-19 neologisms and related existing words that deserve updates.
To leverage the Deaf community’s increasing online presence, the web-based platform NZSL Share was launched in March 2020 to crowdsource new and previously undocumented signs, and to encourage community validation of these signs. The platform allows users to upload sign videos, comment on videos and agree or disagree with (often new) signs being proposed. It is managed by the research team that maintains the ODNZSL, which includes the authors. NZSL Share is being used by individuals as well as Deaf community groups to record and share signs of a specialist nature (e.g., school curriculum signs). NZSL Share now has close to 50 actively contributing members. Its launch coincided with the 2020 COVID-19 outbreak in New Zealand and so some of the first signs contributed were COVID-19-related, which are the focus of this paper.
This paper arises within the current communication urgency experienced throughout the pandemic. From its onset, several new lexical units have permeated the overall media discourse, as well as social media and other channels. These units convey information to the public regarding the ‘severe acute respiratory syndrome’ namely COVID-19. In addition to its worldwide impact healthwise, the pandemic generates noteworthy influence in the linguistic landscape, and as a result, a significant number of neologisms have emerged. Within the scope of our ongoing research, we identify the neologisms in European Portuguese that are related to the term COVID-19 via form or meaning. However, not all the new lexical units identified in our corpus containing COVID-19 in its formation can unequivocally be regarded as neoterms (terminological neologisms). Accordingly, this article aims not only to reflect on the distinction between neologism and neoterm but also to explore the determinologisation process that several of these new lexical units experience.
This paper presents the main issues connected with the creation of a trilingual Hungarian-Italian-English dictionary of the COVID-19 pandemic using Lexonomy. My aim is not only to create a coronacorpus (in Hungarian, I propose my own corona-neologism or ‘coroneologism’: koronakorpusz) and a dictionary of equivalents, but also to understand how the different waves and phases of the COVID-19 pandemic are changing the Hungarian language, detect the Corona-, COVID-, pandemic-, virus-, mask-, quarantine-, and vaccine-related neologisms, and offer an overview of the most frequent or linguistically interesting Hungarian neologisms and multiword units related to COVID-19.
This article has a double objective. First, it seeks to offer an initial approach, with critical notes, to the group of pandemic-related neologisms incorporated into the DLE in the year 2020. To that end, the trends in the academic dictionary’s incorporation of neologisms will be reviewed, focusing in particular on specialized language neologisms. Second, the article presents the design of a research study that allows for the examination of any new words beginning with CORONA- added to the DLE and the DHLE. An assessment will be made of the particularities of the DLE and the DHLE regarding the incorporation of the new words, as well as the degree of correspondence or complementarity between the two works in this sense. This will show the complementary roles that the DLE and the DHLE are currently acquiring. In this sense, the new additions open up a debate on the treatment of neologisms in academic lexicography, in a particularly unique scenario.
This paper focuses on standardological and lexicographical aspects of Coronavirus-related neologisms in Croatian. The presented results are based on corpus analysis. The initial corpus for this analysis consists of terms collected for the Glossary of Coronavirus. This corpus has been supplemented by terms we collected on the Internet and from the media. The General Croatian corpora: Croatian Web Corpus – hrWaC (cf. Ljubešić/Klubička 2016) and Croatian Language Repository (cf. Brozović Rončević/Ćavar 2008: 173–186) were also used, but since they do not include neologisms that entered the language after 2013, they could be used only to check terms in the language before that time. From October 2021, a specialized Corona corpus compiled by Štrkalj Despot and Ostroški Anić (2021) became publicly available on request. The data from these corpora are analyzed by Sketch Engine (cf. Kilgarriff et al. 2004: 105–116), a corpus query system loaded with the corpora, enabling the display of lexeme context through concordances and (differential) word sketches and the extraction of keywords (terms) and N-grams. The most common collocations are sorted into syntactic categories. For English equivalents, in addition to the sources found on the Internet, enTenTen2020 corpus was consulted. In the second part of the paper, we analyze and compare the presentation of Coronavirus terminology in the descriptive Glossary of Coronavirus and the normative Croatian Web Dictionary – Mrežnik.
Within the scope of the project "Study and dissemination of COVID-19 terminology", the study reported here aims to detect, analyse and discuss the characteristics of COVID-19 terminology, in particular the role of the adjective novo [new] in this terminology, the high recurrence of terms in the plural and the resemantization of some of the terminological units used. The present paper also discusses how these characteristics influenced the choices that have guided the creation of the proposed dictionary. This paper presents, therefore, the results of the analyses of these aspects, starting with a discussion of the relation between terminology and neology and arriving at the characteristic aspects of the macrostructural and microstructural choices about which some considerations were made.
While adjusting to the COVID-19 pandemic, people around the world started to talk about the “new normal” way of life, and they conveyed feelings and thoughts on the topic through social networks and traditional communication channels resorting to a set of specific linguistic strategies, such as metaphors and neologisms. The vocabulary in different domains and in everyday speech was expanded to accommodate a complex social, cultural, and professional phenomenon of changes. Therefore, this new life gave birth to a new language – the “coronaspeak”. According to Thorne (2020), the “coronaspeak” has three stages: first, it emerged in the way medical aspects were communicated in everyday language; secondly, it occurred when speakers verbalized the experiences they had undergone and “invented their own terms”; finally, this “new” way of speaking emerged in the government and authorities’ jargon, to ensure that the new rules and policies were understood, and that population adopted socially responsible behaviours.
In this paper, we will focus on the second stage, because we intend to take stock of how speakers communicate and verbalize this new way of living, particularly on social networks, for example. Alongside, we are interested in the context in which the neologism – be it a new word, a new meaning, or a new use – emerged, is used, and understood, through the observation of the occurrence of the new word(s) either on social networks or through dissemination texts (press) to confront it with the ones that Portuguese digital dictionaries have attested so far. Different criteria regarding the insertion of new units, the inclusion date, and the lexicographic description of the entries in the dictionaries will be debated.
The article investigates the hypothesis that prominence phenomena on different levels of linguistic structure are systematically related to each other. More specifically, it is hypothesized that prominence relations in morphosyntax reflect, and contribute to, prominence management in discourse. This hypothesis is empirically based on the phenomenon of agentivity clines, i.e. the observation that the relevance of agentivity features such as volition or sentience is variable across different constructions. While some constructions, including German DO-clefts, show a strong preference for highly agentive verbs, other constructions, including German basic active constructions, have no particular requirements regarding the agentivity of the verb, except that at least one agentivity feature should be present. Our hypothesis predicts that this variable relevance of agentivity features is related to the discourse constraints on the felicitous use of a given construction, which in turn, of course, requires an explicit statement of such constraints. We propose an original account of the discourse constraints on DO-clefts in German using the ‘Question Under Discussion’ framework. Here, we hypothesize that DO-clefts render prominent one implicit question from a set of alternative questions available at a particular point in the developing discourse. This then yields a prominent question-answer pair that changes the thematic structure of the discourse. We conclude with some observations on the possibility of relating morphosyntactic prominence (high agentivity) to discourse prominence (making a Question Under Discussion prominent by way of clefting).
The present paper examines the usage of 341 COVID-19 neologisms which appeared in South Korea over a span of eighteen months (from December 2019 to May 2021) and were extracted from a corpus composed of COVID-19-related news articles and comments, the COVID-19 Corpus, in order to address the following research questions: 1) How do the 341 COVID-19 neologisms extracted rank in news articles and comments respectively?, 2) What usage trends do neologisms designating the disease and other high-frequency neologisms show in news articles and comments respectively?, 3) What characteristic differences do comments as a non-expert and subjective language resource and news articles as an expert and objective language resource show and what value may each genre add to the lexicographic description of neologisms?