Refine
Year of publication
Document Type
- Part of a Book (734)
- Article (111)
- Book (33)
- Review (32)
- Report (3)
Is part of the Bibliography
- no (913) (remove)
Keywords
- Deutsch (446)
- Korpus <Linguistik> (65)
- Sprachvariante (63)
- Wörterbuch (49)
- Rezension (44)
- Syntax (42)
- Grammatik (36)
- Sprachgebrauch (34)
- Semantik (33)
- Sprachnorm (33)
Publicationstate
- Veröffentlichungsversion (530)
- Zweitveröffentlichung (192)
- Postprint (1)
Reviewstate
- (Verlags)-Lektorat (681)
- Peer-Review (46)
- Verlags-Lektorat (9)
- (Verlags-)Lektorat (2)
Publisher
- de Gruyter (913) (remove)
Der Beitrag behandelt Schreibvarianten der Gegenwartssprache. Es werden auf der Grundlage von vier Fallgruppen (1. Binnenmajuskel, 2. Kompositaschreibung mit Leerzeichen, 3. Kompositaschreibung mit Bindestrich, 4. genderfokussierende Schreibweisen) zwei Typen von Normvarianz unterschieden – ein politischer und ein unpolitischer. Dabei wird der Frage nachgegangen, ob unpolitische Ad-hoc-Bildungen auf dem Weg der Konventionalisierung sich von als politisch wahrgenommenen Normvarianten unterscheiden. Zur Beschreibung des Phänomens wird der Begriff der elastischen Norm eingeführt, um divergierende Schreibkonventionen im Spannungsfeld von Faktizitätsherstellung und kodifizierter Setzung zu modellieren. Zur soziolinguistischen Unterscheidung von Schreib- und Leseperspektiven werden die Schreibvarianten als drei unterschiedliche Gesten kategorisiert – als unmarkierte Nullgeste, als markierte Nullgeste und als indexikalisierte Signalgeste.
Seit 1996 ist das Amtliche Regelwerk zur deutschen Rechtschreibung (einschließlich Amtlichem Wörterverzeichnis) gültig. Es regelt die Orthografie für Behörden und Schulen in Deutschland sowie in den sechs weiteren Mitgliedsländern des Rats für deutsche Rechtschreibung. Für die Wörterbuchverlage bzw. alle Wörterbuchprojekte gilt es, dieses hoch abstrakte Regelwerk einerseits auf alle Einträge in den A–Z-Teilen der Wörterbücher anzuwenden und andererseits ggf. das Regelwerk selbst zu „übersetzen“ und es damit einer breiten Öffentlichkeit zugänglich zu machen.
Neographeme wie Genderstern und Doppelpunkt werden zunehmend verwendet, um Personen unabhängig von ihrem Geschlecht einzubeziehen. Der Beitrag beleuchtet diese Sonderzeichen aus semantischer, typographischer und grammatischer Sicht, vergleicht sie mit anderen Typogrammen und diskutiert ihren Morphemstatus. Auch ihre metapragmatische Leistung der sprecherseitigen Verortung kommt in den Blick. In Bezug auf die Rezeption werden aus kognitionslinguistischer Perspektive die Lesbarkeit und die Funktionstüchtigkeit des Sterns betrachtet. Lesenden, die mit der Form vertraut sind, gelingt der Wortzugriff mühelos, und der Genderstern elizitiert inklusive mentale Repräsentationen. Diese Analysen und Befunde sprechen für die grundsätzliche Möglichkeit, Neographeme in die Sprache zu integrieren.
GraphVar ist ein Korpus aus über 1.600 Abiturarbeiten, die zwischen 1917 und 2018 an einem niedersächsischen Gymnasium geschrieben wurden. Das Hauptinteresse beim Aufbau bestand in der Beschreibung graphematischer Variation und ihrer Entwicklung über die Zeit. Leitend war die Frage, was Schreiberinnen und Schreiber eigentlich tatsächlich machen bzw. gemacht haben – und zwar unbeeinflusst von technischen Hilfsmitteln oder Schluss- und Endredaktion, aber unter vergleichbaren Bedingungen. Das Korpus bietet somit ein Fenster auf den unverfälschten Schreibgebrauch von Abiturientinnen und Abiturienten im Laufe der Zeit. Zum jetzigen Zeitpunkt sind 1.618 Arbeiten transkribiert, linguistisch annotiert und über eine ANNIS-Instanz erreichbar (graphvar.unibonn.de, Stand: 8.8.2023). Im Sommer 2022 konnten weitere 1.600 Arbeiten zwischen 1900 und 2021 an einem Gymnasium in Nordrhein-Westfalen digitalisiert werden. Neben schriftlinguistischen Fragestellungen ist das Korpus prinzipiell auch für syntaktische, morphologische und lexikalische Fragestellungen geeignet; auch didaktische Untersuchungen sind möglich, genau wie kulturwissenschaftliche.
Anhand der Rückmeldungen auf eine Umfrage unter den Mitgliedern der Organisation EFNIL (European Federation of National Institutions for Language) wird in diesem Artikel erfasst, wie die orthographische Norm in den Staaten Europas etabliert und vermittelt wird. Es wird unter anderem beleuchtet, welche Prinzipien bei der Erstellung der Norm angewandt werden, in welchen Teilen der Gesellschaft die Regeln gelten, wie sie an die Öffentlichkeit vermittelt werden, inwieweit sie eingehalten werden, ob es alternative Normen gibt, und mit welchen Mitteln Veränderungen im Sprachgebrauch erfasst und berücksichtigt werden.
Orthographie
(2024)
Ausgehend von den Ergebnissen des letzten IQB-Bildungstrends (2021) zu den orthographischen Kompetenzen von Grundschüler:innen fragt der Beitrag nach Stellenwert und Funktion der Orthographie vor dem Hintergrund der Anforderungen, die an die sprachliche Bildung von Schüler:innen gestellt sind. Orthographie und orthographische Kompetenzen werden funktional im Bereich des Schreibens und einer zu entwickelnden Schreibkompetenz verortet. Wichtig ist dabei der Blick auf die Schreibflüssigkeit. Sie ist grundlegend für die anforderungsreichen Prozesse des Textschreibens. Ausgehend von Befunden neuerer Studien betrachten wir das Verhältnis von Orthographie und Schreiben und daraus resultierende Anforderungen an den schulischen (Recht-)Schreiberwerb.
Gemäß Lehrplänen scheint der Rechtschreiberwerb nach der Sekundarstufe I weitgehend abgeschlossen. Aber auch auf der Sekundarstufe II, ja sogar an Universitäten verstoßen die Schreibenden gegen die gültigen Regeln. Dabei können Lernende auf diesen Stufen durch die Auseinandersetzung mit dem System der Orthografie ein besseres Verständnis für die Normen entwickeln. Ein explorativer, konstruktivistischer Ansatz eröffnet neue Perspektiven, orthografische Probleme zu untersuchen und zu verstehen. Es wird gezeigt, wie Regeln durch gezielte Aufträge selbstständig entdeckt werden können und mit welchen Strategien sich das Sprachbewusstsein durch und für die Orthografie vertiefen lässt. Ein solcher explorativer Zugang erweitert das Wissen über Rechtschreibung und fördert die korrekte Verwendung der Schriftsprache.
Der vorliegende Beitrag beschäftigt sich mit der Rechtschreibung von Maturantinnen und Maturanten in einem österreichischen Deutschmaturatext-Korpus. Es werden Ergebnisse aus einer quantitativen und qualitativen Untersuchung dieses Lernerkorpus präsentiert. Diese haben gezeigt, dass die Rechtschreibleistungen in den untersuchten österreichischen Maturaarbeiten besser sind als in der (medialen) Öffentlichkeit angenommen, dabei jedoch bestimmte Fehlerschwerpunkte hervorstechen. Signifikante Unterschiede in Hinblick auf Leistungen bei Orthographie und Zeichensetzung bestehen zudem zwischen stift- und computergeschriebenen Arbeiten.
Das Rechtschreiben ist digital automatisierbar. Ist der Orthographieerwerb dann noch notwendig für den Aufbau einer bildungssprachlichen literalen Kompetenz? Der Beitrag fragt nach den Zusammenhängen zwischen der Orthographie und den sprachlichen und kognitiven Fähigkeiten, die für das Schreiben und Lesen von Texten gebraucht werden. Argumente und Forschungsergebnisse zu drei konkurrierenden Hypothesen zu diesem Zusammenhang werden vorgestellt und diskutiert: Entlastungsthese, Bewusstheitsthese, Literalisierungsthese. Auf der Grundlage der Literalisierungsthese wertet der Beitrag den Orthographieerwerb als nicht substituierbare Komponente einer Sprachkompetenz, die den Umgang mit Texten ermöglicht.
Das Schriftsystem ist ein System und es zeigen sich Folgen, wenn Schreibungen gegen den Schreibusus geändert werden. Exemplarisch wird dies erstens an der Veränderung des Verbsuffixes -iren zu -ieren im Nachgang der Rechtschreibreform von 1876 und zweitens der Veränderung von Gruppen wie im Allgemeinen in der Reform von 1996 gezeigt. Beide verursachen unbeabsichtigte Folgefehler. Wie systematisch manche Variation und damit auch mancher Fehler ist, wird sowohl am Komma vor Vergleichssätzen als auch an Fehlern in der Getrennt- und Zusammenschreibung gezeigt. Das Statut des Rechtschreibrates besagt, dass bei der Weiterentwickung des Amtlichen Regelwerks die ständige Beobachtung der Schreibentwicklung, die Klärung von Zweifelsfällen, die Erarbeitung und die wissenschaftliche Begründung von Vorschlägen zur Anpassung des Regelwerks an den allgemeinen Wandel der Sprache im Vordergrund stehen. Das ist zu begrüßen, weil viele Zweifel bei den Zweifelsfällen grammatische und nicht orthographische Ursachen haben.
Kognitive Pretests oder auch kognitive Interviews sind semi-standardisierte Interviews, die durchgeführt werden, um Einblick in die kognitiven Prozesse zu bekommen, die Befragte beim Beantworten von Fragen durchlaufen, und wie sie zu ihrer Antwort kommen. Innerhalb der sozialwissenschaftlichen Umfrageforschung werden kognitive Interviews insbesondere zu zwei Zwecken eingesetzt: (a) in der Fragebogenentwicklung und (b) in der Übersetzung von Fragebögen. Im Rahmen der Fragebogenentwicklung wird durch Interviews mit Befragten der Zielpopulation versucht, Hinweise auf unterschiedlichste Frageprobleme zu erhalten. So kann man beispielsweise herausfinden, wie Befragte bestimmte Wörter oder Begriffe verstehen, wie schwierig oder einfach sie eine Frage finden oder wie sie ihre Antwort auf eine Frage bilden. In der Übersetzung von Fragebögen kann man beispielsweise untersuchen, ob eine übersetzte Frage so verstanden wird wie die entsprechende Frage in der Ausgangssprache oder welche gewünschten bzw. unerwünschten Konnotationen bestimmte Übersetzungen haben. Innerhalb der Orthographieforschung ließe sich diese Methode auf die Entwicklung von Kriterien zur Festlegung von Rechtschreibregeln oder zur Prüfung ihrer Akzeptanz anwenden: In kognitiven Interviews eingesetzte Techniken wie „Probing“, also gezieltes Nachfragen, oder Lautes Denken könnten genutzt werden, um zu prüfen, wie Rechtschreibregeln angewendet werden oder wie sie zielgruppenspezifisch und nutzungsfreundlich ausgestaltet werden müssten, damit sie größtmögliche Akzeptanz in weiten Teilen der Bevölkerung finden. So könnte man intuitive Entscheidungen bei Worttrennung oder Getrennt- und Zusammenschreibung untersuchen.
Die normgerechte Kommasetzung ist im Deutschen deklarativ und sehr elegant von Beatrice Primus (1993, 2007) erfasst worden. Sie bindet Kommas primär an syntaktische Konzepte wie ‚Satzgrenze‘ und ‚Subordination‘. Nun gibt es allerdings ein Komma, das sich nicht ins System fügen will, das aber immer häufiger wird: das Vorfeldkomma wie in Gegen so eine starke Übermacht, konnten die deutschen Truppen nichts mehr ausrichten. Dieser Beleg stammt aus einer rezenten Abiturarbeit. Hier wird – entgegen den geltenden Rechtschreibregeln – das Vorfeld der Sätze mit einem Komma abgetrennt; es handelt sich um systematische Abweichungen von der Norm. Wir können die Faktoren, die ihre Verteilung steuern, empirisch gut erfassen. Weit weniger klar ist, ob diese Beobachtungen theoretische Konsequenzen haben sollten, und wenn ja, welche. Das soll in diesem Beitrag diskutiert werden, neben einigen anderen Problemfällen, die die Empirie der Theorie beschert.
Die Anforderungen an gegenwartssprachliche Wörterbücher beinhalten, bei der Aufbereitung der lexikalischen Informationen in Stichwortartikeln die lemmabezogenen Korrektschreibungen adäquat zu berücksichtigen. Die dazugehörigen Arbeitsgänge in der Redaktion des Digitalen Wörterbuchs der deutschen Sprache (DWDS) reichen von der Ansetzung der Nennformen in allen ggf. zulässigen orthographischen Varianten über die Anlage von Verweisen auf die einschlägige Bezugsnorm bis zur Dokumentation ausgewählter Korpusbelege mit gebrauchsfrequenten Abweichungs- und Falschschreibungen. Als besondere Herausforderungen für die lexikographische Praxis erweisen sich regelmäßig Lücken und Interpretationsspielräume in der amtlichen Regelung sowie die bei Belegrecherchen in den DWDS-Textquellen zutage tretenden Diskrepanzen zwischen orthographischer Norm und Schreibusus.
Das Ziel des Beitrages ist es, die Orthografiereform 1996–2006 in den Entwicklungsprozess der deutschen Rechtschreibung seit der Herausbildung der Einheitsorthografie einzuordnen, ihre Stellung in diesem Prozess zu kennzeichnen und ihre Ergebnisse zu benennen. Ausgehend von einer Charakterisierung der besonderen Merkmale der Orthografie als Norm der Schreibung sowie des Begriffes Orthografiereform, werden zunächst die Endphase der Herausbildung der deutschen Einheitsorthografie und ihr Abschluss durch die Orthografiereform von 1901 beschrieben. Dem folgt die Darstellung der Besonderheiten der deutschen Orthografieentwicklung im 20. Jahrhundert bis zum Jahr 1996. Ein wichtiger Bestandteil des Beitrages ist dann die Herausarbeitung der Grundlagen und Bestimmungsfaktoren einer Orthografiereform unter heutigen Bedingungen und die Anwendung dieser Grundsätze auf den Prozess der Entstehung und Umsetzung der Orthografiereform 1996–2006. Abschließend werden die Ergebnisse dieses Prozesses in vier Punkten zusammengefasst die auch gleichzeitig die Bedeutung dieser Sprachlenkungsmaßnahme in der deutschen Orthografiegeschichte kennzeichnen.
Die Schrifttypologie beschränkte sich bisher auf eine strukturelle Klassifikation von Schriftsystemen, basierend auf der sprachlichen Korrespondenzebene von Graphemen. Aufgrund dieses engen Fokus haben die resultierenden Typologien relevante Merkmale sowie Gemeinsamkeiten verschiedener Schriftsysteme und ihres Gebrauchs nicht im Blick. Zur Erarbeitung einer umfassenden Schrifttheorie mit erklärendem Anspruch ist aber eine multiperspektivische und damit interdisziplinäre Beschreibung – und in Folge ein Vergleich – unterschiedlicher Schriftsysteme notwendig. Die Erstellung nutzbringender – sowohl struktureller als auch gebrauchsbasierter – Typologien ist hierfür eine geeignete Methode. Ihre einzelnen Schritte werden hier anhand des Beispiels der graphematischen Transparenz charakterisiert.
Die Entstehung und Geschichte der einzigen deutschlexifizierten Kreolsprache Unserdeutsch (Rabaul Creole German) war bis heute weitgehend unbeschrieben, obwohl die Zeit drängt: Die koloniale High-contact-Varietät, entstanden zu Beginn des 20. Jahrhunderts an einer katholischen Missionsstation im damaligen Schutzgebiet Deutsch-Neuguinea im melanesischen Pazifik, ist inzwischen kritisch gefährdet mit weniger als 100 noch lebenden SprecherInnen fortgeschrittenen Alters. Mit dieser Arbeit wird nun eine detaillierte Rekonstruktion zu den Anfängen und der weiteren Entwicklung von Unserdeutsch bis in die Gegenwart vorgelegt, basierend auf Archivdaten, Interviews und Strukturanalysen. Dabei wird unter anderem die Rolle von im Sprachsystem nachweisbarem Transfer aus den zentralen Kontaktsprachen von Unserdeutsch sowie von L2-Effekten und autochthonen Innovationen untersucht, außerdem die deutsche Superstratvarietät von Unserdeutsch genau bestimmt und der Spracherwerb der ersten Sprechergeneration nachgezeichnet. Die Arbeit verortet die aus kreolistischer Perspektive in mehrfacher Hinsicht besonderen Entstehungsumstände von Unserdeutsch – darunter etwa ihre Genese unter Kindern – in einschlägigen Fachdiskursen.
What is the subject of German linguistics? This seemingly simple question has no obvious answer. In the ZGL’s first issue, the editors required contributions to cover the whole of the German language and to be theoretically sound but application-orientated, whereas the current ZGL-homepage defines the German language of present and history in all its differentiations as its subject matter.
Looking through the fifty volumes of ZGL, three relationships can be identified as presumably enlightening the role of language, in particular the German language: language and mind; language and language use; language and culture. Though of a different systematic type, language and data should be added as an increasingly important pairing for conceptualizing language. On this basis, I also discuss the position of linguistic studies of the German language, mirrored in the ZGL-volumes, between social, cultural and natural sciences, as well as the corresponding epistemic approaches – like explaining vs. understanding.
Unserdeutsch (Rabaul Creole German) entstand um 1900 an einer katholischen Missionsstation in Vunapope auf der Insel New Britain im Bismarck-Archipel. Seine dominante Substratsprache ist Tok Pisin, das melanesische Pidgin-Englisch, seine Superstratsprache Deutsch. Der Aufsatz versucht das sprachliche Superstrat von Unserdeutsch näher zu bestimmen, d. h. die Frage zu beantworten, welches Deutsch von den Missionaren in Vunapope um 1900, am Ort und zum Zeitpunkt der Entstehung von Unserdeutsch, gesprochen wurde. Zu diesem Zweck werden die als Superstrattransfer aus dem Deutschen erklärbaren, regional markierten linguistischen Strukturmerkmale in Unserdeutsch untersucht und im geschlossenen Sprachgebiet sprachgeografisch lokalisiert. Ergänzt wird diese linguistische Evidenz durch extra- und metalinguistische Evidenz aus einschlägigen, zeitgenössischen Quellen. Die Ergebnisse deuten auf ein vorwiegend nordwestdeutsch-westfälisch geprägtes, insgesamt jedoch heterogenes, standardnahes sprachliches Superstrat hin und widerlegen somit frühere diesbezügliche Aussagen in der einschlägigen Fachliteratur. Und sie zeigen zugleich auch, dass die Analyse von kolonialen und sonstigen Auswanderervarietäten, besonders von solchen, die – wie Unserdeutsch – im Laufe ihrer späteren Geschichte den Kontakt zum sprachlichen Mutterland vollständig verloren haben, zur Rekonstruktion historischer Mündlichkeit wertvolle Daten liefern kann.
Dieses Buch stellt die Gesprächsanalyse als Methodik zur Erforschung linguistischer Fragestellungen dar. Ihr Ziel ist die umfassende Analyse sprachlicher Phänomene in ihren formalen, funktionalen und kontextuellen Dimensionen. Grundlegende Eigenschaften der verbalen Interaktion werden zunächst auf ihre sprachtheoretischen Konsequenzen befragt. Sodann werden aus ihnen methodologische Prinzipien für die Erhebung und Analyse von Gesprächskorpora entwickelt. Das methodische Vorgehen wird an einer grammatischen und einer semantischen Fragestellung demonstriert. Untersucht werden freie Infinitivkonstruktionen im gesprochenen Deutsch und die Effekte von Kontrastierungsaktivitäten auf die Semantik von Ausdrücken im Gespräch. Theoretische Basis bildet hier die Integration der Gesprächsanalyse mit der construction grammar und der kognitiven Linguistik.
Das es-Gesamtsystem im Neuhochdeutschen. Ein Beitrag zu Valenztheorie und Konstruktionsgrammatik.
(2014)
Das Buch beschäftigt sich mit den verschiedenen Verwendungsweisen des Pronomens es. Grundlage der Analysen bildet ein Korpus, das Nähetexte aus dem Zeitraum zwischen 1650 und 2000 beinhaltet. Im ersten Teil der Arbeit wird das phorische es behandelt. Es werden implizite und explizite Verweise durch es unterschieden. Großer Wert wird dabei auf die ausführliche semantische und morphosyntaktische Beschreibung der einzelnen Subtypen von es gelegt. Bei der Beschreibung des Korrelat-es wird vor allem auf den Begriff der Integration zurückgegriffen und vor diesem Hintergrund ein Stufenmodell korrelativer Satzverbindungen mit es erarbeitet. Der zweite Teil der Arbeit widmet sich der Frage nach dem grammatiktheoretischen Status des nicht-phorischen es. Es wird dafür plädiert, der Beschreibung und Erklärung der verschiedenen Untertypen des nicht-phorischen es valenztheoretische und konstruktionsgrammatische Erkenntnisse zugrunde zu legen.
In Dresden entsteht für den Forschungshub Digital Herrnhut der Pilot für ein agiles und multimodales Referenzkorpus der nächsten Generation (Nex-Gen Agile Reference Corpus (NARC)) in Zusammenarbeit mit der Sächsischen Landesbibliothek - Staats- und Universitätsbibliothek Dresden (SLUB). Dieses Korpus (N-ARC1) wird textliche, kartografische und audiovisuelle Quellen sowie weitere Artefakte fassen, die, miteinander vernetzt, als offene Forschungsdaten (teil-)maschinell angereichert werden können und in einer virtuellen Forschungsumgebung öffentlich und nachnutzbar zur Verfügung stehen sollen. Dafür bieten die Dokumente und Spuren der Herrnhuter Brüdergemeine - eine am Beginn des 18. Jahrhundert gegründete und in nur wenigen Jahrzehnten weltumspannende Glaubensgemeinschaft - einen idealen Ausgangspunkt. Im Beitrag werde ich exemplarisch an einigen ausgewählten Beispielen aus den Themenkreisen Datenerschließung, Datenstrukturierung, -erweiterung und -vernetzung zwischen akademischer Lehre, Forschung und bürgerwissenschaftlicher Beteiligung die Herausforderungen illustrieren, vor denen wir derzeit in der Umsetzung in Dresden stehen.
Die erfolgreiche Wiederverwendung gesprochener Korpora muss fachspezifischen Evaluationskritierien genügen und erfordert daher eine flexible Korpusarchitektur, die durch multirepräsentationale (Verfügbarkeit eines akustischen Signals und einer Transliteration) und multisituationale Daten (Variabilität von Situationen bzw. Aufgaben) gekennzeichnet ist. Diese Kriterien werden in einer Fallstudie zur /eː/-Diphthongisierung polnischer Deutschlerner/-innen angewendet und diskutiert. Die Fallstudie repliziert die Ergebnisse der /eː/-Diphthongisierung bei Bildbenennungen von Nimz (2016). Vor der Wiederverwendung werden weitere fachspezifische Evaluationskriterien überprüft, wie Multisituationalität, Aufnahmequalitäten, Erweiterbarkeit, vorhandene Metadaten und vorhandene Dokumentation. Nach der Replikationsstudie werden die Herausforderungen für eine Umsetzung der Wiederverwendung bezüglich Datenmanagement, Workflows und Data Literacy in Forschungs- und Lehrkontexten diskutiert.
Der vorliegende Beitrag erörtert am Beispiel des aktuell im Aufbau befindlichen Korpus GiesKaNe (= Gie[ßen]Ka[ssel]Ne[uhochdeutsch]) grundlegende Fragen nach dem Verhältnis von Standard und Innovation bei der Erweiterung der Korpuslandschaft durch neue Korpora. Bei jedem neu zu erstellenden Korpus stellt sich die Frage, inwieweit man den bereits etablierten Standards folgt, oder ob es legitim oder vielleicht sogar notwendig ist, neue Modelle der Annotation linguistischer Kategorien zu entwickeln. In diesem Sinne bespricht der Beitrag die Grenzen einer reinen Modellübernahme mit Bezug auf das POS-Tagging in anderen historischen Referenzkorpora und mit Bezug auf TIGER als Baumbank für das Gegenwartsdeutsche. Um trotz der Arbeit mit einer innovativen Alternative dem Prinzip der Interoperabilität gerecht zu werden, wird im Beitrag die Arbeit mit maschinellem Lernen ins Spiel gebracht. Dieses ermöglicht es, aus den vorhandenen Textoberflächenmerkmalen und den vorliegenden Annotationen auch alternative Annotationsmodelle abzuleiten und mittels einer Mehrebenenannotation anzubieten, sodass ein Korpus den Anforderungen an interoperable Nutzbarkeit und wissenschaftlichen Erkenntnisfortschritt gleichermaßen gerecht werden kann.
Der Beitrag thematisiert den Zusammenhang von Korpusaufbereitung, Datenanreicherung und Nutzungsszenarien im Kontext des Discourse Lab, das an der TU Darmstadt und der Universität Heidelberg betrieben und in linguistischen und interdisziplinären Forschungs- und Lehrprojekten genutzt wird. Für die Diskursforschung sind Korpora genauso konstitutiv wie die Einbeziehung von Kontexten des Sprachgebrauchs in die Analyse. Daher ist die Frage nach Repräsentationsformaten von Kontexten besonders wichtig. Eine große Rolle bei der korpuslinguistischen Kontextualisierung spielen auch Annotationen. Das wird am Darmstädter-Tagblatt-Korpus, den Plenarprotokollen des Deutschen Bundestags und den Korpora der DFG-Forschungsgruppe Kontroverse Diskurse diskutiert.
Der Beitrag liefert einen Einblick in korpuslinguistische Projekte und Aktivitäten aus dem österreichischen Sprachraum. Der Fokus liegt auf zwei primär auf die Analyse gesprochener Sprache ausgerichteten Korpora (DiÖ-Korpus und WBÖ-Korpus) sowie auf dem medial wie konzeptionell schriftlich angelegten Austrian Media Corpus. Institutionell eingebettet sind die Korpora in den Spezialforschungsbereich „Deutsch in Österreich (DiÖ)“ sowie in die Aktivitäten des Austrian Centre for Digital Humanities and Cultural Heritage (ACDH-CH) an der Österreichischen Akademie der Wissenschaften. Die theoretisch-methodologische Perspektive der Diskussion ist eine variationslinguistische, wobei sozio- und systemlinguistische Aspekte im Beitrag Berücksichtigung finden.
Dieser Beitrag stellt zwei Korpora vor, die als Datengrundlage für die Bestimmung der Regionalangaben im Digitalen Wörterbuch der deutschen Sprache (DWDS) fungieren: das ZDL-Regionalkorpus und das Webmonitor-Korpus. Diese Korpora wurden am Zentrum für digitale Lexikographie der deutschen Sprache (ZDL) erstellt und stehen allen registrierten Nutzern der DWDS-Plattform für Recherchen zur Verfügung. Das ZDL-Regionalkorpus enthält Artikel aus Lokal- und Regionalressorts deutscher Tageszeitungen, die mit arealen Metadaten versehen sind. Es wird ergänzt durch regionale Internet-Quellen im Webmonitor-Korpus, die zusätzliche Areale und Ortspunkte aus dem deutschen Sprachraum einbeziehen. Die Benutzerschnittstelle der linguistisch annotierten Korpora erlaubt nicht nur komplexe sprachliche Abfragen, sondern bietet auch statistische Recherchewerkzeuge zur Bestimmung arealer Verteilungen.
Das Korpus GeWiss (Gesprochene Wissenschaftssprache kontrastiv: Deutsch im Vergleich zum Englischen und Polnischen) bietet vielfältige Möglichkeiten zur Erforschung und Vermittlung der mündlichen Hochschulkommunikation. Mit den im Projekt ZuMult entwickelten Zugangswegen zu Korpora der gesprochenen Sprache eröffnen sich für einen deutlich größeren Personenkreis umfassende Nutzungsmöglichkeiten, die sowohl für sprachdidaktische Kontexte als auch für Forschungszwecke relevant sind. In diesem Beitrag wird eine Auswahl der in ZuMult geschaffenen Werkzeuge im Hinblick auf ihr Potenzial zur Arbeit mit den GeWiss-Daten vorgestellt. Im Anschluss wird anhand von expliziten sprachlichen Positionierungsmustern aufgezeigt, wie diese Korpustools für eine sprachdidaktisch orientierte empirische Untersuchung zu den Spezifika mündlicher Wissenschaftskommunikation genutzt werden können.
Research on language politics, policy, and planning is of importance to contact linguistics, since political relations between groups of language users, the way in which the use of language(s) is organized, and how language issues are politicized fundamentally shape the political and social conditions under which language varieties are in contact. This chapter first provides a short sketch of how language policy, planning, and politics have so far been conceptualized. Major subfields will be discussed, and then relevant actors and factors in these processes will be introduced. At the end, these aspects will be discussed from a contact linguistic perspective and summarized in a graphic visualization.
Numerous academics and politicians have in recent years contributed to the description and analysis of language policy for the benefit of smaller languages. The present paper tries to add to these by taking up the notion of yet another aspect of politics and language, exemplified by two case studies. The political aspect is the decentralization of parliamentary power for the benefit of minority languages. The two case studies deal with the relationship between the Scottish Parliament and the Gaelic language on the one hand, and between the Norwegian Sarni Parliament, the Sameting, and the Sami language on the other hand. The underlying idea is to consider whether parliamentary bodies may contribute to the empowerment of speakers of minority languages regarding the language of individual choice in as many instances as possible. This applies to any domain of language use, but in particular public bodies, education, and the media, at local, regional and national levels.
In the present contribution, I investigate if and how the English and French editions of the Wiktionary collaborative dictionary can be used as a corpus for real time neology watch. This option is envisaged as a stopgap, when no satisfactory corpus is available. Wiktionary can also prove useful in addition to standard corpus analysis, to minimize the risk of overlooking new coinages and new senses. Since the collaborative dictionary’s quest for exhaustiveness makes the manual inspection of the new additions unreasonable (more than 31,000 English lemmas and 11,000 French lemmas entered the nomenclature in 2020), identifying the possibly relevant headwords is an issue. The solution proposed here is to use Wiktionary revision history to detect the (new or existing) entries that received the greatest number of modifications. The underlying hypothesis is that the most heavily edited pages can help identify the vocabulary related to “hot topics”, assuming that, in 2020, the pandemic-related vocabulary ranks high. I used two measures introduced by Lih (2004), whose aim was to estimate the quality of Wikipedia articles: the so-called rigour (number of edits per page) and diversity (number of unique contributors per page). In the present study, I propose to adapt the rigour and diversity metrics to Wiktionary in order to identify the pages that generated a particular stir, rather than to estimate the quality of the articles. I do not subscribe to the idea that – in Wiktionary – more revisions necessarily produce quality articles (more revisions often produce complete articles). I therefore adopt Lih’s notion of diversity to refer to the number of distinct contributors, but leave out the name rigour when it comes to the number of revisions. Wolfer and Müller-Spitzer (2016) used the two metrics to describe the dynamics of the German and English editions of Wiktionary. One of their findings was that the number of edits per page is correlated with corpus word frequencies. The variation in number of page edits should therefore reflect to some extent the variation of corpus word frequencies. Renouf (2013) established a relationship between the fluctuation of word frequencies in a diachronic corpus and various neological processes. In particular, she illustrated how specific events generate sudden frequency spikes for words previously unseen in the corpus. For instance, Eyjafjallajökull, the – existing – name of an Icelandic glacier, appeared in the corpus when the underlying volcano erupted in 2010 and disrupted air traffic in Europe. In order to check if the same phenomenon occurs when using Wiktionary edits instead of corpus frequencies, I manually annotated the most frequently revised entries (according to various ranking scores) with the binary tag: “related to Covid-19” (yes/no). The annotations were then used to test the ability of various configurations to detect relevant headwords from the English and French Wiktionary, namely Covid-19 neologisms and related existing words that deserve updates.
To leverage the Deaf community’s increasing online presence, the web-based platform NZSL Share was launched in March 2020 to crowdsource new and previously undocumented signs, and to encourage community validation of these signs. The platform allows users to upload sign videos, comment on videos and agree or disagree with (often new) signs being proposed. It is managed by the research team that maintains the ODNZSL, which includes the authors. NZSL Share is being used by individuals as well as Deaf community groups to record and share signs of a specialist nature (e.g., school curriculum signs). NZSL Share now has close to 50 actively contributing members. Its launch coincided with the 2020 COVID-19 outbreak in New Zealand and so some of the first signs contributed were COVID-19-related, which are the focus of this paper.
This paper arises within the current communication urgency experienced throughout the pandemic. From its onset, several new lexical units have permeated the overall media discourse, as well as social media and other channels. These units convey information to the public regarding the ‘severe acute respiratory syndrome’ namely COVID-19. In addition to its worldwide impact healthwise, the pandemic generates noteworthy influence in the linguistic landscape, and as a result, a significant number of neologisms have emerged. Within the scope of our ongoing research, we identify the neologisms in European Portuguese that are related to the term COVID-19 via form or meaning. However, not all the new lexical units identified in our corpus containing COVID-19 in its formation can unequivocally be regarded as neoterms (terminological neologisms). Accordingly, this article aims not only to reflect on the distinction between neologism and neoterm but also to explore the determinologisation process that several of these new lexical units experience.
This paper presents the main issues connected with the creation of a trilingual Hungarian-Italian-English dictionary of the COVID-19 pandemic using Lexonomy. My aim is not only to create a coronacorpus (in Hungarian, I propose my own corona-neologism or ‘coroneologism’: koronakorpusz) and a dictionary of equivalents, but also to understand how the different waves and phases of the COVID-19 pandemic are changing the Hungarian language, detect the Corona-, COVID-, pandemic-, virus-, mask-, quarantine-, and vaccine-related neologisms, and offer an overview of the most frequent or linguistically interesting Hungarian neologisms and multiword units related to COVID-19.
This article has a double objective. First, it seeks to offer an initial approach, with critical notes, to the group of pandemic-related neologisms incorporated into the DLE in the year 2020. To that end, the trends in the academic dictionary’s incorporation of neologisms will be reviewed, focusing in particular on specialized language neologisms. Second, the article presents the design of a research study that allows for the examination of any new words beginning with CORONA- added to the DLE and the DHLE. An assessment will be made of the particularities of the DLE and the DHLE regarding the incorporation of the new words, as well as the degree of correspondence or complementarity between the two works in this sense. This will show the complementary roles that the DLE and the DHLE are currently acquiring. In this sense, the new additions open up a debate on the treatment of neologisms in academic lexicography, in a particularly unique scenario.
This paper focuses on standardological and lexicographical aspects of Coronavirus-related neologisms in Croatian. The presented results are based on corpus analysis. The initial corpus for this analysis consists of terms collected for the Glossary of Coronavirus. This corpus has been supplemented by terms we collected on the Internet and from the media. The General Croatian corpora: Croatian Web Corpus – hrWaC (cf. Ljubešić/Klubička 2016) and Croatian Language Repository (cf. Brozović Rončević/Ćavar 2008: 173–186) were also used, but since they do not include neologisms that entered the language after 2013, they could be used only to check terms in the language before that time. From October 2021, a specialized Corona corpus compiled by Štrkalj Despot and Ostroški Anić (2021) became publicly available on request. The data from these corpora are analyzed by Sketch Engine (cf. Kilgarriff et al. 2004: 105–116), a corpus query system loaded with the corpora, enabling the display of lexeme context through concordances and (differential) word sketches and the extraction of keywords (terms) and N-grams. The most common collocations are sorted into syntactic categories. For English equivalents, in addition to the sources found on the Internet, enTenTen2020 corpus was consulted. In the second part of the paper, we analyze and compare the presentation of Coronavirus terminology in the descriptive Glossary of Coronavirus and the normative Croatian Web Dictionary – Mrežnik.
Within the scope of the project "Study and dissemination of COVID-19 terminology", the study reported here aims to detect, analyse and discuss the characteristics of COVID-19 terminology, in particular the role of the adjective novo [new] in this terminology, the high recurrence of terms in the plural and the resemantization of some of the terminological units used. The present paper also discusses how these characteristics influenced the choices that have guided the creation of the proposed dictionary. This paper presents, therefore, the results of the analyses of these aspects, starting with a discussion of the relation between terminology and neology and arriving at the characteristic aspects of the macrostructural and microstructural choices about which some considerations were made.
While adjusting to the COVID-19 pandemic, people around the world started to talk about the “new normal” way of life, and they conveyed feelings and thoughts on the topic through social networks and traditional communication channels resorting to a set of specific linguistic strategies, such as metaphors and neologisms. The vocabulary in different domains and in everyday speech was expanded to accommodate a complex social, cultural, and professional phenomenon of changes. Therefore, this new life gave birth to a new language – the “coronaspeak”. According to Thorne (2020), the “coronaspeak” has three stages: first, it emerged in the way medical aspects were communicated in everyday language; secondly, it occurred when speakers verbalized the experiences they had undergone and “invented their own terms”; finally, this “new” way of speaking emerged in the government and authorities’ jargon, to ensure that the new rules and policies were understood, and that population adopted socially responsible behaviours.
In this paper, we will focus on the second stage, because we intend to take stock of how speakers communicate and verbalize this new way of living, particularly on social networks, for example. Alongside, we are interested in the context in which the neologism – be it a new word, a new meaning, or a new use – emerged, is used, and understood, through the observation of the occurrence of the new word(s) either on social networks or through dissemination texts (press) to confront it with the ones that Portuguese digital dictionaries have attested so far. Different criteria regarding the insertion of new units, the inclusion date, and the lexicographic description of the entries in the dictionaries will be debated.
The present paper examines the usage of 341 COVID-19 neologisms which appeared in South Korea over a span of eighteen months (from December 2019 to May 2021) and were extracted from a corpus composed of COVID-19-related news articles and comments, the COVID-19 Corpus, in order to address the following research questions: 1) How do the 341 COVID-19 neologisms extracted rank in news articles and comments respectively?, 2) What usage trends do neologisms designating the disease and other high-frequency neologisms show in news articles and comments respectively?, 3) What characteristic differences do comments as a non-expert and subjective language resource and news articles as an expert and objective language resource show and what value may each genre add to the lexicographic description of neologisms?
Since the beginning of 2020, the Covid-19 pandemic has dominated public discourse and introduced a wealth of words and expressions to the general vocabulary of English and other world languages. The lexical adaptation necessitated by this global health crisis has been unprecedented in speed and scope, and in response, the Oxford English Dictionary (OED) has continually revised its coverage, publishing special updates of Covid-19-related words in 2020 outside of its usual quarterly publication cycle. This article describes how OED lexicographers have analysed language corpora and other text databases to monitor the development of pandemic-related words and provide a linguistic and historical context to their usage.
The syntagma gel hidroalcohólico ‘hydroalcoholic gel’ or the noun hidroalcohol ‘hydroalcohol’ cannot be found in Diccionario de la lengua española (DLE) of the Real Academia Española (‘Royal Spanish Academy’) or other general reference dictionaries of the Spanish language. This is so despite the fact that, for well over a year and to this very day, we have not been able to do anything without first sanitising our hands with this product. It is one of the many neologisms that the COVID-19 pandemic has brought us, and these have become commonly used words that dictionaries should consider as candidates for future updates.
By looking at the dictionarisability of these neologisms, in this work we try to set their boundaries on the continuum along which they fall. “Dictionarisability” means, in our context, the greater or lesser interest of these unities regarding the updating of general language dictionaries. At both ends of this continuum, there are surprising nonce words, as well as neologisms that have recently lost their status as such because they have now been incorporated into the dictionary. To identify different groups on the continuum of pandemic neologisms, we take into account the criteria proposed in the current literature and, by so doing, we are able to assess the extent to which they are discriminatory. This will allow us to address the neological process and to reflect on the various stages of it, from the time a neologism is born until the moment it ceases to be one because it has been dictionarised. Before that, however, we present the framework of our study and refer to the mechanisms available for detecting neologisms in general and pandemic neologisms in particular.
The aim of this work is to describe criteria used in the process of inclusion and treatment of neologisms in dictionaries of Spanish within the framework of pandemic instability. Our starting point will be data obtained by the Antenas Neológicas Network (https://www.upf.edu/web/antenas), whose representation in three different lexicographic tools will be analyzed with the purpose of identifying problems in the methodology used to dictionarize – that is, how and what words were selected to be included in dictionaries and how they were represented in their entries – neologisms during the COVID-19 pandemic (sources and corpora of analysis, selection criteria, types of definition, among other aspects). Two of them are monolingual and COVID-19 lexical units were included as part of their updates: the Antenario, a dictionary of neologisms of Spanish varieties, and the Diccionario de la Lengua Española [DLE], a dictionary of general Spanish, published by the Real Academia Española [RAE], Spanish Royal Academy). The other is a bilingual unidirectional English-Spanish dictionary first published as a glossary, Diccionario de COVID-19 EN-ES [TREMEDICA], entirely made up of neological and non-neological lexical units related to the virus and the pandemic. Thus, the target lexis was either included in existing works or makes up the whole of a new tool located in a portal together with other lexicographic tools. Unlike other collections of COVID-19 vocabulary that kept cropping up as the pandemic unfolded, all three have been designed and written according to well-established lexicographic practices.
Our working hypothesis is that the need to record and define words which were recently created impacts the criteria for inclusion and treatment of neologisms in dictionaries about Spanish, including a certain degree of overlap of some features which are traditionally thought to be specific to each type of dictionary.