Refine
Year of publication
Document Type
- Part of a Book (3430)
- Article (2299)
- Book (659)
- Conference Proceeding (510)
- Part of Periodical (280)
- Review (231)
- Doctoral Thesis (61)
- Working Paper (47)
- Other (34)
- Report (21)
Language
- German (6322)
- English (1058)
- Russian (141)
- French (29)
- Portuguese (14)
- Spanish (10)
- Multiple languages (9)
- Italian (8)
- Polish (5)
- Ukrainian (5)
Has Fulltext
- yes (7609) (remove)
Is part of the Bibliography
- no (7609) (remove)
Keywords
- Deutsch (4180)
- Wörterbuch (488)
- Korpus <Linguistik> (466)
- Rezension (382)
- Rechtschreibung (331)
- Konversationsanalyse (304)
- Sprachgeschichte (294)
- Grammatik (263)
- Syntax (253)
- Semantik (229)
Publicationstate
- Veröffentlichungsversion (2745)
- Zweitveröffentlichung (939)
- Postprint (221)
- Preprint (7)
- (Verlags)-Lektorat (4)
- Erstveröffentlichung (4)
- Hybrides Open Access (2)
- Ahead of Print (1)
- Verlags-Lektorat (1)
- Verlagsveröffentlichung (1)
Reviewstate
- (Verlags)-Lektorat (2755)
- Peer-Review (891)
- Verlags-Lektorat (60)
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (32)
- Peer-review (30)
- Review-Status-unbekannt (11)
- Abschlussarbeit (Bachelor, Master, Diplom, Magister) (Bachelor, Master, Diss.) (8)
- Peer-Revied (7)
- (Verlags-)Lektorat (4)
- Zweitveröffentlichung (4)
Publisher
- Institut für Deutsche Sprache (918)
- de Gruyter (900)
- Schwann (638)
- Narr (442)
- Niemeyer (199)
- Lang (156)
- De Gruyter (127)
- Leibniz-Institut für Deutsche Sprache (IDS) (127)
- Narr Francke Attempto (88)
- IDS-Verlag (72)
studierfähig – studierbar. Die semantischen Rollen von Aktiv und Passiv bei deverbativen Adjektiven
(2024)
Das Schriftsystem ist ein System und es zeigen sich Folgen, wenn Schreibungen gegen den Schreibusus geändert werden. Exemplarisch wird dies erstens an der Veränderung des Verbsuffixes -iren zu -ieren im Nachgang der Rechtschreibreform von 1876 und zweitens der Veränderung von Gruppen wie im Allgemeinen in der Reform von 1996 gezeigt. Beide verursachen unbeabsichtigte Folgefehler. Wie systematisch manche Variation und damit auch mancher Fehler ist, wird sowohl am Komma vor Vergleichssätzen als auch an Fehlern in der Getrennt- und Zusammenschreibung gezeigt. Das Statut des Rechtschreibrates besagt, dass bei der Weiterentwickung des Amtlichen Regelwerks die ständige Beobachtung der Schreibentwicklung, die Klärung von Zweifelsfällen, die Erarbeitung und die wissenschaftliche Begründung von Vorschlägen zur Anpassung des Regelwerks an den allgemeinen Wandel der Sprache im Vordergrund stehen. Das ist zu begrüßen, weil viele Zweifel bei den Zweifelsfällen grammatische und nicht orthographische Ursachen haben.
Kognitive Pretests oder auch kognitive Interviews sind semi-standardisierte Interviews, die durchgeführt werden, um Einblick in die kognitiven Prozesse zu bekommen, die Befragte beim Beantworten von Fragen durchlaufen, und wie sie zu ihrer Antwort kommen. Innerhalb der sozialwissenschaftlichen Umfrageforschung werden kognitive Interviews insbesondere zu zwei Zwecken eingesetzt: (a) in der Fragebogenentwicklung und (b) in der Übersetzung von Fragebögen. Im Rahmen der Fragebogenentwicklung wird durch Interviews mit Befragten der Zielpopulation versucht, Hinweise auf unterschiedlichste Frageprobleme zu erhalten. So kann man beispielsweise herausfinden, wie Befragte bestimmte Wörter oder Begriffe verstehen, wie schwierig oder einfach sie eine Frage finden oder wie sie ihre Antwort auf eine Frage bilden. In der Übersetzung von Fragebögen kann man beispielsweise untersuchen, ob eine übersetzte Frage so verstanden wird wie die entsprechende Frage in der Ausgangssprache oder welche gewünschten bzw. unerwünschten Konnotationen bestimmte Übersetzungen haben. Innerhalb der Orthographieforschung ließe sich diese Methode auf die Entwicklung von Kriterien zur Festlegung von Rechtschreibregeln oder zur Prüfung ihrer Akzeptanz anwenden: In kognitiven Interviews eingesetzte Techniken wie „Probing“, also gezieltes Nachfragen, oder Lautes Denken könnten genutzt werden, um zu prüfen, wie Rechtschreibregeln angewendet werden oder wie sie zielgruppenspezifisch und nutzungsfreundlich ausgestaltet werden müssten, damit sie größtmögliche Akzeptanz in weiten Teilen der Bevölkerung finden. So könnte man intuitive Entscheidungen bei Worttrennung oder Getrennt- und Zusammenschreibung untersuchen.
Gemäß Lehrplänen scheint der Rechtschreiberwerb nach der Sekundarstufe I weitgehend abgeschlossen. Aber auch auf der Sekundarstufe II, ja sogar an Universitäten verstoßen die Schreibenden gegen die gültigen Regeln. Dabei können Lernende auf diesen Stufen durch die Auseinandersetzung mit dem System der Orthografie ein besseres Verständnis für die Normen entwickeln. Ein explorativer, konstruktivistischer Ansatz eröffnet neue Perspektiven, orthografische Probleme zu untersuchen und zu verstehen. Es wird gezeigt, wie Regeln durch gezielte Aufträge selbstständig entdeckt werden können und mit welchen Strategien sich das Sprachbewusstsein durch und für die Orthografie vertiefen lässt. Ein solcher explorativer Zugang erweitert das Wissen über Rechtschreibung und fördert die korrekte Verwendung der Schriftsprache.
Orthographie
(2024)
Ausgehend von den Ergebnissen des letzten IQB-Bildungstrends (2021) zu den orthographischen Kompetenzen von Grundschüler:innen fragt der Beitrag nach Stellenwert und Funktion der Orthographie vor dem Hintergrund der Anforderungen, die an die sprachliche Bildung von Schüler:innen gestellt sind. Orthographie und orthographische Kompetenzen werden funktional im Bereich des Schreibens und einer zu entwickelnden Schreibkompetenz verortet. Wichtig ist dabei der Blick auf die Schreibflüssigkeit. Sie ist grundlegend für die anforderungsreichen Prozesse des Textschreibens. Ausgehend von Befunden neuerer Studien betrachten wir das Verhältnis von Orthographie und Schreiben und daraus resultierende Anforderungen an den schulischen (Recht-)Schreiberwerb.
Der vorliegende Beitrag beschäftigt sich mit der Rechtschreibung von Maturantinnen und Maturanten in einem österreichischen Deutschmaturatext-Korpus. Es werden Ergebnisse aus einer quantitativen und qualitativen Untersuchung dieses Lernerkorpus präsentiert. Diese haben gezeigt, dass die Rechtschreibleistungen in den untersuchten österreichischen Maturaarbeiten besser sind als in der (medialen) Öffentlichkeit angenommen, dabei jedoch bestimmte Fehlerschwerpunkte hervorstechen. Signifikante Unterschiede in Hinblick auf Leistungen bei Orthographie und Zeichensetzung bestehen zudem zwischen stift- und computergeschriebenen Arbeiten.
Anhand der Rückmeldungen auf eine Umfrage unter den Mitgliedern der Organisation EFNIL (European Federation of National Institutions for Language) wird in diesem Artikel erfasst, wie die orthographische Norm in den Staaten Europas etabliert und vermittelt wird. Es wird unter anderem beleuchtet, welche Prinzipien bei der Erstellung der Norm angewandt werden, in welchen Teilen der Gesellschaft die Regeln gelten, wie sie an die Öffentlichkeit vermittelt werden, inwieweit sie eingehalten werden, ob es alternative Normen gibt, und mit welchen Mitteln Veränderungen im Sprachgebrauch erfasst und berücksichtigt werden.
GraphVar ist ein Korpus aus über 1.600 Abiturarbeiten, die zwischen 1917 und 2018 an einem niedersächsischen Gymnasium geschrieben wurden. Das Hauptinteresse beim Aufbau bestand in der Beschreibung graphematischer Variation und ihrer Entwicklung über die Zeit. Leitend war die Frage, was Schreiberinnen und Schreiber eigentlich tatsächlich machen bzw. gemacht haben – und zwar unbeeinflusst von technischen Hilfsmitteln oder Schluss- und Endredaktion, aber unter vergleichbaren Bedingungen. Das Korpus bietet somit ein Fenster auf den unverfälschten Schreibgebrauch von Abiturientinnen und Abiturienten im Laufe der Zeit. Zum jetzigen Zeitpunkt sind 1.618 Arbeiten transkribiert, linguistisch annotiert und über eine ANNIS-Instanz erreichbar (graphvar.unibonn.de, Stand: 8.8.2023). Im Sommer 2022 konnten weitere 1.600 Arbeiten zwischen 1900 und 2021 an einem Gymnasium in Nordrhein-Westfalen digitalisiert werden. Neben schriftlinguistischen Fragestellungen ist das Korpus prinzipiell auch für syntaktische, morphologische und lexikalische Fragestellungen geeignet; auch didaktische Untersuchungen sind möglich, genau wie kulturwissenschaftliche.
Ist Deutsch eigentlich die hässlichste Sprache Europas? Dieser Beitrag analysiert, wie die deutsche Sprache im europäischen Raum ästhetisch wahrgenommen wird und was hinter dieser Wahrnehmung sprachwissenschaftlich gesehen steckt.
Die Studie kombiniert qualitative und quantitative Forschungsmethoden miteinander. So werden auf der einen Seite Sprachurteile dokumentiert und analysiert. Auf der anderen Seite wird die durchgeführte europaweite Befragung mit über 2000 Proband*innen ausgewertet, was gleichzeitig einen methodischen Ausgangspunkt für weitere Erhebungen festlegt.
Überwiegt die Wahrnehmung des Deutschen als „harte“ Sprache wirklich? Ist „hart“ denn direkt „hässlich“? Und ist die Wahrnehmung mancher Sprachen als besonders reizlos tatsächlich nur gesellschaftlich konstruiert, wie der bisherige Stand der Forschung nahelegt, oder spielen universelle kognitive Prozesse doch eine größere Rolle als gedacht? Basierend auf einem beträchtlichen Datensatz wirft diese Studie neues Licht auf eine der umstrittensten und methodisch herausforderndsten Kontroversen der Linguistik.
Neographeme wie Genderstern und Doppelpunkt werden zunehmend verwendet, um Personen unabhängig von ihrem Geschlecht einzubeziehen. Der Beitrag beleuchtet diese Sonderzeichen aus semantischer, typographischer und grammatischer Sicht, vergleicht sie mit anderen Typogrammen und diskutiert ihren Morphemstatus. Auch ihre metapragmatische Leistung der sprecherseitigen Verortung kommt in den Blick. In Bezug auf die Rezeption werden aus kognitionslinguistischer Perspektive die Lesbarkeit und die Funktionstüchtigkeit des Sterns betrachtet. Lesenden, die mit der Form vertraut sind, gelingt der Wortzugriff mühelos, und der Genderstern elizitiert inklusive mentale Repräsentationen. Diese Analysen und Befunde sprechen für die grundsätzliche Möglichkeit, Neographeme in die Sprache zu integrieren.
Seit 1996 ist das Amtliche Regelwerk zur deutschen Rechtschreibung (einschließlich Amtlichem Wörterverzeichnis) gültig. Es regelt die Orthografie für Behörden und Schulen in Deutschland sowie in den sechs weiteren Mitgliedsländern des Rats für deutsche Rechtschreibung. Für die Wörterbuchverlage bzw. alle Wörterbuchprojekte gilt es, dieses hoch abstrakte Regelwerk einerseits auf alle Einträge in den A–Z-Teilen der Wörterbücher anzuwenden und andererseits ggf. das Regelwerk selbst zu „übersetzen“ und es damit einer breiten Öffentlichkeit zugänglich zu machen.
Die ISO hat jetzt mit der ISO 24495-1 die erste Norm für Einfache Sprache veröffentlicht, die die schriftliche Kommunikation verbessern soll. Sie enthält Grundsätze für Einfache Sprache, Techniken und eine Checkliste für die konkrete Anwendung. Auf diese Weise vermittelt die ISO 24495-1 ein klares Verständnis davon, was Einfache Sprache ist und wie man sie erreichen kann. Ziel ist, Autor*innen dabei zu helfen, verständliche Texte für eine breite Leserschaft zu erstellen.
Die Schrifttypologie beschränkte sich bisher auf eine strukturelle Klassifikation von Schriftsystemen, basierend auf der sprachlichen Korrespondenzebene von Graphemen. Aufgrund dieses engen Fokus haben die resultierenden Typologien relevante Merkmale sowie Gemeinsamkeiten verschiedener Schriftsysteme und ihres Gebrauchs nicht im Blick. Zur Erarbeitung einer umfassenden Schrifttheorie mit erklärendem Anspruch ist aber eine multiperspektivische und damit interdisziplinäre Beschreibung – und in Folge ein Vergleich – unterschiedlicher Schriftsysteme notwendig. Die Erstellung nutzbringender – sowohl struktureller als auch gebrauchsbasierter – Typologien ist hierfür eine geeignete Methode. Ihre einzelnen Schritte werden hier anhand des Beispiels der graphematischen Transparenz charakterisiert.
Die normgerechte Kommasetzung ist im Deutschen deklarativ und sehr elegant von Beatrice Primus (1993, 2007) erfasst worden. Sie bindet Kommas primär an syntaktische Konzepte wie ‚Satzgrenze‘ und ‚Subordination‘. Nun gibt es allerdings ein Komma, das sich nicht ins System fügen will, das aber immer häufiger wird: das Vorfeldkomma wie in Gegen so eine starke Übermacht, konnten die deutschen Truppen nichts mehr ausrichten. Dieser Beleg stammt aus einer rezenten Abiturarbeit. Hier wird – entgegen den geltenden Rechtschreibregeln – das Vorfeld der Sätze mit einem Komma abgetrennt; es handelt sich um systematische Abweichungen von der Norm. Wir können die Faktoren, die ihre Verteilung steuern, empirisch gut erfassen. Weit weniger klar ist, ob diese Beobachtungen theoretische Konsequenzen haben sollten, und wenn ja, welche. Das soll in diesem Beitrag diskutiert werden, neben einigen anderen Problemfällen, die die Empirie der Theorie beschert.
IDS aktuell. Neues aus dem Leibniz-Institut für Deutsche Sprache in Mannheim. Jg. 2024, Heft 1
(2024)
Die Anforderungen an gegenwartssprachliche Wörterbücher beinhalten, bei der Aufbereitung der lexikalischen Informationen in Stichwortartikeln die lemmabezogenen Korrektschreibungen adäquat zu berücksichtigen. Die dazugehörigen Arbeitsgänge in der Redaktion des Digitalen Wörterbuchs der deutschen Sprache (DWDS) reichen von der Ansetzung der Nennformen in allen ggf. zulässigen orthographischen Varianten über die Anlage von Verweisen auf die einschlägige Bezugsnorm bis zur Dokumentation ausgewählter Korpusbelege mit gebrauchsfrequenten Abweichungs- und Falschschreibungen. Als besondere Herausforderungen für die lexikographische Praxis erweisen sich regelmäßig Lücken und Interpretationsspielräume in der amtlichen Regelung sowie die bei Belegrecherchen in den DWDS-Textquellen zutage tretenden Diskrepanzen zwischen orthographischer Norm und Schreibusus.
Das Ziel des Beitrages ist es, die Orthografiereform 1996–2006 in den Entwicklungsprozess der deutschen Rechtschreibung seit der Herausbildung der Einheitsorthografie einzuordnen, ihre Stellung in diesem Prozess zu kennzeichnen und ihre Ergebnisse zu benennen. Ausgehend von einer Charakterisierung der besonderen Merkmale der Orthografie als Norm der Schreibung sowie des Begriffes Orthografiereform, werden zunächst die Endphase der Herausbildung der deutschen Einheitsorthografie und ihr Abschluss durch die Orthografiereform von 1901 beschrieben. Dem folgt die Darstellung der Besonderheiten der deutschen Orthografieentwicklung im 20. Jahrhundert bis zum Jahr 1996. Ein wichtiger Bestandteil des Beitrages ist dann die Herausarbeitung der Grundlagen und Bestimmungsfaktoren einer Orthografiereform unter heutigen Bedingungen und die Anwendung dieser Grundsätze auf den Prozess der Entstehung und Umsetzung der Orthografiereform 1996–2006. Abschließend werden die Ergebnisse dieses Prozesses in vier Punkten zusammengefasst die auch gleichzeitig die Bedeutung dieser Sprachlenkungsmaßnahme in der deutschen Orthografiegeschichte kennzeichnen.
Das Rechtschreiben ist digital automatisierbar. Ist der Orthographieerwerb dann noch notwendig für den Aufbau einer bildungssprachlichen literalen Kompetenz? Der Beitrag fragt nach den Zusammenhängen zwischen der Orthographie und den sprachlichen und kognitiven Fähigkeiten, die für das Schreiben und Lesen von Texten gebraucht werden. Argumente und Forschungsergebnisse zu drei konkurrierenden Hypothesen zu diesem Zusammenhang werden vorgestellt und diskutiert: Entlastungsthese, Bewusstheitsthese, Literalisierungsthese. Auf der Grundlage der Literalisierungsthese wertet der Beitrag den Orthographieerwerb als nicht substituierbare Komponente einer Sprachkompetenz, die den Umgang mit Texten ermöglicht.
Der Beitrag behandelt Schreibvarianten der Gegenwartssprache. Es werden auf der Grundlage von vier Fallgruppen (1. Binnenmajuskel, 2. Kompositaschreibung mit Leerzeichen, 3. Kompositaschreibung mit Bindestrich, 4. genderfokussierende Schreibweisen) zwei Typen von Normvarianz unterschieden – ein politischer und ein unpolitischer. Dabei wird der Frage nachgegangen, ob unpolitische Ad-hoc-Bildungen auf dem Weg der Konventionalisierung sich von als politisch wahrgenommenen Normvarianten unterscheiden. Zur Beschreibung des Phänomens wird der Begriff der elastischen Norm eingeführt, um divergierende Schreibkonventionen im Spannungsfeld von Faktizitätsherstellung und kodifizierter Setzung zu modellieren. Zur soziolinguistischen Unterscheidung von Schreib- und Leseperspektiven werden die Schreibvarianten als drei unterschiedliche Gesten kategorisiert – als unmarkierte Nullgeste, als markierte Nullgeste und als indexikalisierte Signalgeste.
Social media, as the fifth estate, increasingly influence public discourses and play a major role in shaping public opinion. Undoubtedly, they have the potential to promote participation and democracy. On the other side, they also constitute a risk for democratic societies, as the spread of hate speech and fake news has shown. As a response, forms of counterspeech organised by civil society have emerged in social media to counter the normalisation of hate speech and democracy-threatening discourses. In order to influence discourse in social media in terms of the fifth estate, counterspeech campaigns must be visible also quantitatively. In this ethnographic contrastive study, I analysed the activities of the German and Finnish Facebook groups of the network #iamhere international. The intensity and continuity of their activities is obviously influenced by their strategic organisation: conventionalised rules support them whereas lacking or inconsequent rules seemed to be counterproductive.
Die Sprach-Checker: Der Wörter-Sammel-Koffer oder Eule Elli & ihre neuen Freunde aus der Neckarstadt
(2023)
Wie die Eule Elli erkunden große & kleine Sprach-Checker ihre Neckarstadt-West. Kommt mit auf Entdeckungsreise!
Das Buch „Der Wörter-Sammel-Koffer“ ist ein Werk der Sprach-Checker. Es entstand im Rahmen des Projekts „Die Sprach-Checker - So sprechen wir in der Neckarstadt“ (Leitung: Dr. Christine Möhrs & Elena Schoppa-Briele) des Leibniz-Instituts für Deutsche Sprache (IDS), Mannheim, in Zusammenarbeit mit der Kinderbuchautorin und Illustratorin Anke Faust, dem Campus Neckarstadt-West, den Neckarstadt-Kids sowie der Alten Feuerwache Mannheim.
Aus den vielen witzigen Ideen der Kinder entwickelte sich die Geschichte um Eule Elli, die anschließend mit Wasserfarben, Farbstiften und viel Phantasie von den Sprach-Checkern illustriert wurde.
IDS aktuell. Neues aus dem Leibniz-Institut für Deutsche Sprache in Mannheim. Jg. 2023, Heft 1
(2023)
Das KOLLokationsLEXikon Deutsch als Fremdsprache (KOLLEX DAF) ist ein
- korpusgestütztes Kollokationswörterbuch, da es typische Wortverbindungen, sog. Kollokationen und häufige Wortkombinationen nach bestimmten Kategorien mit ihren ungarischen Äquivalenten auflistet (Stichwort mit SUBSTANTIVEN, ADJEKTIVEN, VERBEN und ADVERBIEN bzw. in KOMBINATIONEN),
- syntagmatisches Lernerwörterbuch, da es außer Kollokationen auch die Valenz der Stichwörter und die der Kollokationen und Wortkombinationen angibt, ergänzt mit pragmatischen und morphosyntaktischen Verwendungsbeschränkungen sowie ggf. mit einem Symbol für mögliche Fehlerquellen,
- benutzerfreundliches Produktionswörterbuch, da es alle deutschen Wortverbindungen in blauer Farbe und in klar strukturierten Wörterbuchartikeln mit einem Übersichtsblock zu den Bedeutungen des Stichwortes auflistet, aber auch die Sprachrezeption mit einem umfangreichen Register unterstützt.
Anhand einer korpusgestützten Untersuchung komplexer Adjektive mit dem Erstelement {gender-} mit DeReKoVecs wird gezeigt, welche Möglichkeiten zur differenzierten sprachlichen Integration von neuen Diskurselementen die Wortbildung des Adjektivs bietet. Gerade die zwischen den klassischen Typen Komposition und Derivation stehenden Techniken bieten hier eine erhebliche Bandbreite an Möglichkeiten.
What is the subject of German linguistics? This seemingly simple question has no obvious answer. In the ZGL’s first issue, the editors required contributions to cover the whole of the German language and to be theoretically sound but application-orientated, whereas the current ZGL-homepage defines the German language of present and history in all its differentiations as its subject matter.
Looking through the fifty volumes of ZGL, three relationships can be identified as presumably enlightening the role of language, in particular the German language: language and mind; language and language use; language and culture. Though of a different systematic type, language and data should be added as an increasingly important pairing for conceptualizing language. On this basis, I also discuss the position of linguistic studies of the German language, mirrored in the ZGL-volumes, between social, cultural and natural sciences, as well as the corresponding epistemic approaches – like explaining vs. understanding.
Das Forschungs- und Lehrkorpus für GesprochenesDeutsch (FOLK) ist ein Korpus des gesprochenen Deutsch in natürlichen sozialen Interaktionen, das seit 2008 in der Abteilung Pragmatik am Leibniz-Institut für Deutsche Sprache in Mannheim aufgebaut wird. FOLK besteht aus Audio- und Videoaufzeichnungen natürlicher Gespräche aus verschiedensten gesellschaftlichen Bereichen (private, institutionelle und öffentliche Interaktionsdomäne), die durch Transkription, weitere Annotationen und Metadaten-Dokumentation für korpusgestützte Analysen erschlossen und zur wissenschaftlichen Nutzung bereitgestellt werden. FOLK wird auf vielfältige Weise für Untersuchungen zum gesprochenen Deutsch genutzt, insbesondere in der Gesprächsforschung, der Korpuslinguistik und anwendungsorientierten Zweigen der Linguistik.
In Dresden entsteht für den Forschungshub Digital Herrnhut der Pilot für ein agiles und multimodales Referenzkorpus der nächsten Generation (Nex-Gen Agile Reference Corpus (NARC)) in Zusammenarbeit mit der Sächsischen Landesbibliothek - Staats- und Universitätsbibliothek Dresden (SLUB). Dieses Korpus (N-ARC1) wird textliche, kartografische und audiovisuelle Quellen sowie weitere Artefakte fassen, die, miteinander vernetzt, als offene Forschungsdaten (teil-)maschinell angereichert werden können und in einer virtuellen Forschungsumgebung öffentlich und nachnutzbar zur Verfügung stehen sollen. Dafür bieten die Dokumente und Spuren der Herrnhuter Brüdergemeine - eine am Beginn des 18. Jahrhundert gegründete und in nur wenigen Jahrzehnten weltumspannende Glaubensgemeinschaft - einen idealen Ausgangspunkt. Im Beitrag werde ich exemplarisch an einigen ausgewählten Beispielen aus den Themenkreisen Datenerschließung, Datenstrukturierung, -erweiterung und -vernetzung zwischen akademischer Lehre, Forschung und bürgerwissenschaftlicher Beteiligung die Herausforderungen illustrieren, vor denen wir derzeit in der Umsetzung in Dresden stehen.
Der vorliegende Beitrag erörtert am Beispiel des aktuell im Aufbau befindlichen Korpus GiesKaNe (= Gie[ßen]Ka[ssel]Ne[uhochdeutsch]) grundlegende Fragen nach dem Verhältnis von Standard und Innovation bei der Erweiterung der Korpuslandschaft durch neue Korpora. Bei jedem neu zu erstellenden Korpus stellt sich die Frage, inwieweit man den bereits etablierten Standards folgt, oder ob es legitim oder vielleicht sogar notwendig ist, neue Modelle der Annotation linguistischer Kategorien zu entwickeln. In diesem Sinne bespricht der Beitrag die Grenzen einer reinen Modellübernahme mit Bezug auf das POS-Tagging in anderen historischen Referenzkorpora und mit Bezug auf TIGER als Baumbank für das Gegenwartsdeutsche. Um trotz der Arbeit mit einer innovativen Alternative dem Prinzip der Interoperabilität gerecht zu werden, wird im Beitrag die Arbeit mit maschinellem Lernen ins Spiel gebracht. Dieses ermöglicht es, aus den vorhandenen Textoberflächenmerkmalen und den vorliegenden Annotationen auch alternative Annotationsmodelle abzuleiten und mittels einer Mehrebenenannotation anzubieten, sodass ein Korpus den Anforderungen an interoperable Nutzbarkeit und wissenschaftlichen Erkenntnisfortschritt gleichermaßen gerecht werden kann.
Dieser Beitrag beschreibt die Prozesse der Datenerhebung, -aufbereitung und geplanten Veröffentlichung eines Teilkorpus des vom österreichischen Wissenschaftsfonds (FWF) finanzierten Spezialforschungsbereichs (SFB) „Deutsch in Österreich. Variation – Kontakt – Perzeption“ (FWF F060). Die Daten werden v. a. aus variationslinguistischer, kontaktlinguistischer wie auch perzeptionslinguistischer Perspektive analysiert, wofür eigene Tools entwickelt wurden, die – ebenso wie das Korpus selbst – mittelfristig der interessierten Öffentlichkeit zur Verfügung gestellt werden.
IDS aktuell. Neues aus dem Leibniz-Institut für Deutsche Sprache in Mannheim. Jg. 2023, Heft 4
(2023)
IDS aktuell. Neues aus dem Leibniz-Institut für Deutsche Sprache in Mannheim. Jg. 2023, Heft 2
(2023)
IDS aktuell. Neues aus dem Leibniz-Institut für Deutsche Sprache in Mannheim. Jg. 2023, Heft 3
(2023)
Das Korpus GeWiss (Gesprochene Wissenschaftssprache kontrastiv: Deutsch im Vergleich zum Englischen und Polnischen) bietet vielfältige Möglichkeiten zur Erforschung und Vermittlung der mündlichen Hochschulkommunikation. Mit den im Projekt ZuMult entwickelten Zugangswegen zu Korpora der gesprochenen Sprache eröffnen sich für einen deutlich größeren Personenkreis umfassende Nutzungsmöglichkeiten, die sowohl für sprachdidaktische Kontexte als auch für Forschungszwecke relevant sind. In diesem Beitrag wird eine Auswahl der in ZuMult geschaffenen Werkzeuge im Hinblick auf ihr Potenzial zur Arbeit mit den GeWiss-Daten vorgestellt. Im Anschluss wird anhand von expliziten sprachlichen Positionierungsmustern aufgezeigt, wie diese Korpustools für eine sprachdidaktisch orientierte empirische Untersuchung zu den Spezifika mündlicher Wissenschaftskommunikation genutzt werden können.
Der Beitrag thematisiert den Zusammenhang von Korpusaufbereitung, Datenanreicherung und Nutzungsszenarien im Kontext des Discourse Lab, das an der TU Darmstadt und der Universität Heidelberg betrieben und in linguistischen und interdisziplinären Forschungs- und Lehrprojekten genutzt wird. Für die Diskursforschung sind Korpora genauso konstitutiv wie die Einbeziehung von Kontexten des Sprachgebrauchs in die Analyse. Daher ist die Frage nach Repräsentationsformaten von Kontexten besonders wichtig. Eine große Rolle bei der korpuslinguistischen Kontextualisierung spielen auch Annotationen. Das wird am Darmstädter-Tagblatt-Korpus, den Plenarprotokollen des Deutschen Bundestags und den Korpora der DFG-Forschungsgruppe Kontroverse Diskurse diskutiert.
Die erfolgreiche Wiederverwendung gesprochener Korpora muss fachspezifischen Evaluationskritierien genügen und erfordert daher eine flexible Korpusarchitektur, die durch multirepräsentationale (Verfügbarkeit eines akustischen Signals und einer Transliteration) und multisituationale Daten (Variabilität von Situationen bzw. Aufgaben) gekennzeichnet ist. Diese Kriterien werden in einer Fallstudie zur /eː/-Diphthongisierung polnischer Deutschlerner/-innen angewendet und diskutiert. Die Fallstudie repliziert die Ergebnisse der /eː/-Diphthongisierung bei Bildbenennungen von Nimz (2016). Vor der Wiederverwendung werden weitere fachspezifische Evaluationskriterien überprüft, wie Multisituationalität, Aufnahmequalitäten, Erweiterbarkeit, vorhandene Metadaten und vorhandene Dokumentation. Nach der Replikationsstudie werden die Herausforderungen für eine Umsetzung der Wiederverwendung bezüglich Datenmanagement, Workflows und Data Literacy in Forschungs- und Lehrkontexten diskutiert.
Der Beitrag liefert einen Einblick in korpuslinguistische Projekte und Aktivitäten aus dem österreichischen Sprachraum. Der Fokus liegt auf zwei primär auf die Analyse gesprochener Sprache ausgerichteten Korpora (DiÖ-Korpus und WBÖ-Korpus) sowie auf dem medial wie konzeptionell schriftlich angelegten Austrian Media Corpus. Institutionell eingebettet sind die Korpora in den Spezialforschungsbereich „Deutsch in Österreich (DiÖ)“ sowie in die Aktivitäten des Austrian Centre for Digital Humanities and Cultural Heritage (ACDH-CH) an der Österreichischen Akademie der Wissenschaften. Die theoretisch-methodologische Perspektive der Diskussion ist eine variationslinguistische, wobei sozio- und systemlinguistische Aspekte im Beitrag Berücksichtigung finden.
Dieser Beitrag stellt zwei Korpora vor, die als Datengrundlage für die Bestimmung der Regionalangaben im Digitalen Wörterbuch der deutschen Sprache (DWDS) fungieren: das ZDL-Regionalkorpus und das Webmonitor-Korpus. Diese Korpora wurden am Zentrum für digitale Lexikographie der deutschen Sprache (ZDL) erstellt und stehen allen registrierten Nutzern der DWDS-Plattform für Recherchen zur Verfügung. Das ZDL-Regionalkorpus enthält Artikel aus Lokal- und Regionalressorts deutscher Tageszeitungen, die mit arealen Metadaten versehen sind. Es wird ergänzt durch regionale Internet-Quellen im Webmonitor-Korpus, die zusätzliche Areale und Ortspunkte aus dem deutschen Sprachraum einbeziehen. Die Benutzerschnittstelle der linguistisch annotierten Korpora erlaubt nicht nur komplexe sprachliche Abfragen, sondern bietet auch statistische Recherchewerkzeuge zur Bestimmung arealer Verteilungen.
Das Austrian Media Corpus (amc) ist mit derzeit rund 11 Mrd. Token eines der größten deutschsprachigen Korpora journalistischer Prosa. Es bietet damit weitreichende Analysemöglichkeiten für eine Vielzahl sprachwissenschaftlicher Aspekte, wie z. B. die Analyse grammatischer, orthographischer und lexikalischer Variation oder die Erforschung diskurslinguistischer wie attitudinal-perzeptiver Fragestellungen. In diesem Beitrag geben wir Einblicke in Beispielanalysen zu Standard(schrift)sprache auf Basis des amc sowie deren Bedeutung für die Erforschung von Sprachvariation in Österreich, um das enorme Potenzial des Korpus für sprachwissenschaftliche Fragestellungen zu illustrieren.
Durch die gewachsene Bedeutung der Psychoonkologie ist das Themenfeld der Krankheitsverarbeitung (Coping) vermehrt in das Blickfeld der Forschung gerückt. Gleichzeitig entstehen im Web 2.0 neue digitale Formen der intermedialen narrativen Repräsentation von Krankheit, Leid und Krankheitsbewältigung (Cybercoping), wodurch sich für Betroffene neue Möglichkeiten eröffnen, eine Erkrankung durch medienvermittelte Kommunikation und Vergemeinschaftung zu bewältigen und sich eine soziale Identität als chronisch Kranke zu verleihen (vgl. Deppermann 2018). Der Beitrag präsentiert auf theoretischer Basis der Copingforschung sowie der Gesprächsforschung zu narrativer Identitätsbildung eruierte Copingstrategien in Krankheitsnarrativen von Krebspatientinnen und -patienten. Coping wird als kommunikativer Prozess verstanden, der sich in Sprachhandlungen widerspiegelt. Das Untersuchungsmaterial bilden autobiografische Erzählungen in Internetvideos, öffentlich geteilt von zwanzig Betroffenen auf der Social-Media-Plattform YouTube. Copingmechanismen werden in den untersuchten Narrativen in Form von emotionsgeladenen Sprachäußerungen und humoristisch bzw. ironisch gefärbten Sprachhandlungen zur Emotionsregulierung und Entlastung sowie in Gestalt von metaphorischen Deutungsmustern und Personifizierungen der (Tumor-)Erkrankung angezeigt. In den Sprachhandlungen der Erzählenden wird aktives problemorientiertes Coping durch sich selbst und die Community aktivierende Sprache, eine häufig agentivische Selbstdarstellung und -positionierung der Betroffenen und eine durch Positivierung und Neubewertung sinnstiftende Kohärenz sichtbar.
У дисертації розроблено нову теоретико-методологічну концепцію для виконання когнітивно-дискурсивної реконструкції комунікативних девіацій в українсько- і німецькомовних відеоінтерв’ю. Обґрунтовано статус відеоінтерв’ю як інтегрованого мовленнєвого жанру, який включає теле- і спеціальні інтерв’ю, збережені на відеохостингу YouTube в мережі Інтернет. Уточнено визначення поняття “комунікативної девіації” на тлі суміжних термінів як динамічного й складного когнітивно-дискурсивного явища. Реконструйовано причини виникнення комунікативних девіацій і побудовано їхню модель, характерну для українсько- та німецькомовних відеоінтерв’ю. Результати дисертації можна застосовувати у зіставно-типологічних дослідженнях, у дослідженнях із теорії мови, психо- і соціолінгвістики, лінгвопрагматики, когнітивної і комунікативної лінгвістик, методології мовознавства, у курсах зіставного мовознавства, загального мовознавства, теоретичної граматики німецької мови, сучасної української літературної мови, а також у викладанні відповідних навчальних дисциплін. Підсумки дослідження можуть бути також корисними для представників мас-медійної сфери, фахівців, які спеціалізуються у галузі теорії комунікації, а також представників сфери соціальних комунікацій, дипломатичних служб, державних і приватних інституцій різного профілю з метою запобігання конфліктним ситуаціям і покращення соціальної та міжкультурної комунікації.
Funktionsverbgefüge stehen seit jeher in der Sprachkritik, die sich nun auch auf digitale Räume ausbreitet. Vertreten wird dort die These, Funktionsverbgefüge und ihre entsprechenden Basisverben seien äquivalent und könnten in allen Kontexten durch die verbalen Entsprechungen ersetzt werden. Dies kann durch die vorliegende korpusbasierte und textlinguistische Studie am Beispiel des Gefüges Frage stellen widerlegt werden. Anhand eines extensiven Datenmaterials aus den Wikipedia-Artikel-Korpora des IDS zeige ich die semantischen, grammatischen und textlinguistischen Unterschiede zwischen dem Basisverb und dem Funktionsverbgefüge im Gebrauch auf, die sich in der Anreicherung, Verdichtung, Perspektivierung, Gewichtung und Wiederaufnahme von Informationen im Text manifestieren.
Die explorative Studie untersucht anhand von Korpusbelegen, in welchen Fällen satzförmige oder infinitivische propositionale Strukturen bedeutungserhaltend durch Nominalisierungen ersetzbar sind. Auf indirekte Weise soll so ein Zugang auch zur Bedeutung von propositionalen Strukturen selbst eröffnet werden. Die in der Literatur gängige These, dass nur bei einem Teil der Denotatsorten propositionaler Strukturen (von Ereignissen über Tatsachen bis zu ,rein abstrakten Objekten‘) Nominalisierung möglich sei, wird durch die Studie widerlegt. Damit stellt sich auch die Frage nach der Haltbarkeit der gängigen Fassung des Begriffs Proposition selbst. Die von Friederike Moltmann vertretene neue Sichtweise auf Propositionen scheint hingegen auch für Nominalisierungen eine Analyse ohne die bisher auftretenden Widersprüche zu ermöglichen.
Reduzierte Parenthesen stehen in einer zweifachen Beziehung zur einschließenden Trägerstruktur. Die Trägerstruktur liefert den propositionalen Gehalt eines internen Arguments, das durch das Prädikat der Parenthese selegiert wird, während die Parenthese wie ein Modifikator in Bezug auf die Trägerstruktur fungiert. Die erstere Relation ist anaphorischer Natur, was durch ein pronominales Leerelement im parenthetischen Satz angemessen modelliert wird. Die letztere Relation lässt sich am besten durch die Sättigung eines externen (referenziellen) Arguments des parenthetischen Satzes durch die Trägerstruktur modellieren – analog zu gewöhnlichen Adverbialsätzen. Die strukturelle Bedingung dieser Relation resümiert dann darin, dass die Parenthese in die terminale Zeichenkette der Trägerstruktur eingeschlossen ist. Die Funktion der Parenthese als Modifikator wiederum ist eine Bedingung für die Lizenzierung des Leerelements innerhalb dieser Parenthese. Diese Erklärung wird durch Parallelen zu Phänomenen in Relativ- und in Vergleichsätzen untermauert.
Komposition als Element nominaler Integration passt zum Sprachtyp des Deutschen. Diese Technik wird in verschiedenen Texttypen in unterschiedlicher Weise genutzt und funktional ausdifferenziert. Zweigliedrige Komposita prägen den alltäglichen Wortschatz. Die Erfahrung damit und ihre formale Offenheit bilden den Grund für spezifische Ausweitungen des Gebrauchs. Das wird gezeigt an der die Öffnung der Muster im literarischen Bereich, dann an der Interaktion von Kompositionstypen im Hinblick auf größtmögliche Explizitheit in juristischen Texten und letztlich an der Mischung von alltäglicher Klassifikation in gängigen Komposita und textfunktionaler Kondensierung in einem Sachtext.
The present article proposes a syntactic and semantic analysis of assertive clauses that comprises their truth-conditional aspects and their speech act potential in communication. What is commonly called “illocutionary force” is differentiated into three structurally and functionally distinct layers: a judgement phrase, representing subjective epistemic and evidential attitudes; a commitment phrase, representing the social commitment related to assertions; and an act phrase, representing the relation to the common ground of the conversation. The article provides several pieces of evidence for this structure: from the interpretation and syntactic position of various classes of epistemic, evidential, affirmative and speech act-related operators, from clausal complements embedded by different types of predicates, from embedded root clauses, and from anaphora referring to different clausal projections. The syntactic assumptions are phrased within X-bar theory, and the semantic interpretation makes use of dynamic update of common ground, differentiating between informative and performative updates. The object language is German, with particular reference to verb final and verb second structure.
This paper first argues that the distinction between Propositions and States-of-Affairs is significant for understanding a number of linguistic contrasts, including contrasts between nominalizations, complement clauses, readings of modal infinitives, raising constructions, illocutions and moods, relative clauses, and nouns. Subsequently, the paper outlines a cognitive linguistic model of the distinction, according to which Propositions and States-of-Affairs differ in terms of construal. Both prompt Langackerian “processes”, but only Propositions prompt a construal of these processes as referential. The paper argues that this model has a number of advantages over a traditional, denotational understanding of the distinction.
Words and their usages are in many cases closely related to or embedded in social, cultural, technical and ideological contexts. This does not only apply to individual words and specific senses, but to many vocabulary zones as well. Moreover, the development of words is often related to aspects of socio-cultural evolution in a broad sense. In this paper I will have a look at traditional dictionaries and digital lexical systems focussing on the question how they deal with socio-cultural and discourse-related aspects of word usage. I will also propose a number of suggestions how future digital lexical systems might be enriched in this respect.
eThis paper first attempts a state-of-the art overview of what is known about women in the history of lexicography up to the early twentieth century. It then focusses more closely on the German and German-English lexicographical traditions to 1900, examining them from three different perspectives (following Russell’s 2018 study of women in English lexicography): women as users and dedicatees of dictionaries; women as contributors to and compilers of lexicographical works; and (in a very preliminary way) women and female sexuality as represented in German/English bilingual dictionaries of the eighteenth and early nineteenth centuries. Russell (2018) was able to identify some 24 dictionaries invoking women as patrons, dedicatees or potential users before 1700, and some 150 works in English lexicography by women between 1500 and 1900, besides the contribution of hundreds of women as supporters and helpers, not least as unpaid readers and sub-editors for the Oxford English Dictionary. Equivalent research in other languages is lacking, but this paper presents some of the known examples of women as lexicographers. The evidence tends to support Russell’s finding for English, that women were more likely to find a place in lexicography outside the mainstream: sometimes in a more private sphere (like Hester Piozzi); often in bilingual lexicography (such as Margrethe Thiele, working on a Danish-French dictionary), including missionary and or colonizing activity (such as Cinie Louw in Africa, Daisy Bates in Australia); and in dialect description (Coronedi Berti in Italy, Luisa Lacal and María Moliner in Spain). Within the German-speaking context, women who participated in lexicographical work themselves are hard to identify before the late nineteenth century, though those few women who did have access to education were often engaged in language learning, including translation activity, and they were likely users of bilingual and multilingual dictionaries. Christian Ludwig’s (1706) English-German dictionary – the first of its kind – was dedicated to the Electoral Princess Sophia of Hanover. Elizabeth Weir may have been the first named female compiler of a German dictionary, with her bilingual New German Dictionary (1888). Rather better known are the cases of Agathe Lasch and Luise Pusch, who, as pioneering women in the field of German linguistics, ultimately led major lexicographical projects documenting German regional varieties in the first half of the twentieth century (Middle Low German and Hamburgish in the case of Lasch; the Hessisch Nassau dialect dictionary in the case of Berthold). In the light of existing research on gender and sexuality in the history of English lexicography (e. g. Iamartino 2010; Turton 2019), I conclude with a preliminary exploration how woman and sexuality have been represented in dictionaries of German and English, taking the words Hure and woman in bilingual German-English dictionaries of the eighteenth and nineteenth centuries as my case studies.
This paper focuses on the treatment of culture bound lexical items in a novel type of online learner’s dictionary model, the Phrase Based Active Dictionary (PAD). A PAD has a strong phraseological orientation: each meaning of a word is exclusively defined in a typical phraseological context. After introducing the relevant theory of realia in translation studies, we develop a broader notion of culture specific lexical items which is more apt to serve the purposes of learner’s lexicography and thus to satisfy the needs of a larger and often undefined target group. We discuss the treatment of such words and expressions in common English learner’s dictionaries and then present various excerpts from PAD entries in English, German, and Italian which display different strategies for coping with cultural contents in the lexicon. Our aim is to demonstrate that the phraseological approach at the core of the PAD model turns out to be extremely important to convey cultural knowledge in a suitable way for users to fully grasp cultural implications in language.
In foreign language teaching the use of dictionaries, especially bilingual, has always been related to the hypotheses concerning the relationship between the native language (L1) and second language acquisition method. If the bilingual dictionary was an obvious tool in the grammar-translation method, it was banned from the classroom in the direct, audiolingual and audiovisual methods. Also in the communicative method, foreign language learners are discouraged from using a dictionary. Its use should not obstruct the goals of communicatively oriented foreign language learning – a view still held by many foreign language teachers. Nevertheless, the reality has been different: Foreign language learners have always used dictionaries, even if they no longer possess a print dictionary and mainly use online resources and applications. Dictionaries and online resources will continue to play an important role in the future. In the Council of Europe’s language policy, with its emphasis on multilingualism and lifelong learning, the adequate use of reference tools as a strategic skill is highlighted. In several European countries, educational guidelines refer to the use of dictionaries in the context of media literacy, both in mother tongue and foreign language teaching. Not only is their adequate use important, but so too is the comparison, assessment and evaluation of the information presented, in order to develop Language Awareness and Language Learning Awareness. This is good news. However, does this mean that dictionaries are actually used in class? What role do dictionaries play in foreign language teaching in schools and universities? Are foreign language learners in the digital era really competent users? And how competent are their teachers? Are they familiar with the current (online) dictionary landscape? Can they support their students? After a more in-depth study of the status quo of dictionary use by foreign language learners and teachers and the gap between their needs and the reality, this contribution discusses the challenges facing lexicographers and meta-lexicographers and what educational policy measures are necessary to make their efforts worthwhile in turning foreign language learners – and their teachers – into competent users in a multilingual and digital world.
The aim of this paper is to show how lexicographical choices reflect ideological thinking, singled out by Eagleton (2007) into the strategies of rationalizing, legitimating, action orienting, unifying, naturalizing and universalizing. It will be carried out by examining two twenty first century editions of each of the five English monolingual learner’s dictionaries published by Cambridge, Collins, Longman, Macmillan, and Oxford. The synchronic and diachronic analyses of the dictionaries and their different editions at the macro structural level (the wordlists) and at the micro structural level (the definitional styles) will show how the reduction and change of data, derived from heterogeneous social and cultural contexts of language use, to abstract essential forms, involves decisions about the central and peripheral aspects of the lexicon and the meaning of words.
Applying terminological methods to lexicography helps lexicographers deal with the terms occurring in general language dictionaries, especially when it comes to writing the definitions of concepts belonging to special fields. In the context of the lexicographic work of the Dicionário da Língua Portuguesa, an updated digital version of the last Academia das Ciências de Lisboa’ dictionary published in 2001, we have assumed that terminology – in its dual dimension, both linguistic and conceptual – and lexicography are complementary in their methodological approaches. Both disciplines deal with lexical items, which can be lexical units or terms. In this paper, we apply terminological methods to improve the treatment of terms in general language dictionaries and to write definitions as a form of achieving more precision and accuracy, and also to specify the domains to which they belong. Additionally, we highlight the consistent modelling of lexicographic components, namely the hierarchy of domain labels, as they are term identification markers instead of a flat list of domains. The need to create and make available structured, organised and interoperable lexicographic resources has led us to follow a path in which the application of standards and best practices of treating and representing specialised lexicographic content are fundamental requirements.
In a multilingual and multicultural society, dictionaries play an important role to enhance interlingual communication. A diversity of languages and different levels of dictionary culture demand innovative lexicographic approaches to establish a dictionary landscape that responds to the needs of the various speech communities. Focusing on the South African situation this paper discusses some aspects of a few dictionaries that contributed to an improvement of the local dictionary landscape. Using the metaphors of bridges, dykes and sluice gates it is shown how lexicographers need a balanced approach in their lemma selection and treatment. Whilst a too strong prescriptive approach can be to the detriment of the macrostructural selection, a lack of regulatory criteria could easily lead to a data overload. The lexicographer should strive to give a reflection of the actual language use and enable the users to retrieve the information that can satisfy their specific communication and cognitive needs. Such lexicographic products will enrich and improve the dictionary landscape.
Phonesthemes (Firth 1930) are sublexical constructions that have an effect on the lexico-grammatical continuum: they are recurring form-meaning associations that occur more often than by chance but not systematically (Abramova/Fernandez/Sangati 2013). Phonesthemes have been shown (Bergen 2004) to affect psycholinguistic language processing; they organise the mental lexicon. Phonesthemes appear over time to emerge as driven by language use as indexical rather than purely iconic constructions in the lexicon (Smith 2016; Bergen 2004; Flaksman 2020). Phonesthemes are acknowledged in construction morphology (Audring/Booij/Jackendoff 2017) as motivational schemas. Some phonesthemes also tend to have lexicographic acknowledgment, as shown by etymologist Liberman (2010), although this relevance and cohesion appears to be highly variable as we will show in this paper.
This paper describes a method for extracting collocation data from text corpora based on a formal definition of syntactic structures, which takes into account not only the POS-tagging level of annotation but also syntactic parsing (syntactic treebank model) and introduces the possibility of controlling the canonical form of extracted collocations based on statistical data on forms with different properties in the corpus. Specifically, we describe the results of extraction from the syntactically tagged Gigafida 2.1 corpus. Using the new method, 4,002,918 collocation candidates in 81 syntactic structures were extracted. We evaluate the extracted data sample in more detail, mainly in relation to properties that affect the extraction of canonical forms: definiteness in adjectival collocations, grammatical number in noun collocations, comparison in adjectival and adverbial collocations, and letter case (uppercase and lowercase) in canonical forms. The conclusion highlights the potential of the methodology used for the grammatical description of collocation and phrasal syntax and the possibilities for improving the model in the process of compilation of a digital dictionary database for Slovene.
In this paper, we present LexMeta, a metadata model for the description of human-readable and computational lexical resources in catalogues. Our initial motivation is the extension of the LexBib knowledge graph with the addition of metadata for dictionaries, making it a catalogue of and about lexicographical works. The scope of the proposed model, however, is broader, aiming at the exchange of metadata with catalogues of Language Resources and Technologies and addressing a wider community of researchers besides lexicographers. For the definition of the LexMeta core classes and properties, we deploy widely used RDF vocabularies, mainly Meta-Share, a metadata model for Language Resources and Technologies, and FRBR, a model for bibliographic records.
This paper presents a multilingual dictionary project of discourse markers. During its first stage, consisting of collecting the list of headwords, we used a parallel corpus to automatically extract units from texts written in Spanish, Catalan, English, French and German. We also applied a method to create a taxonomy structure for automatically organising the markers in clusters. As a result, we obtain an extensive, corpus-driven list of headwords. We present a prototype of the microstructure of the dictionary in the form of a standard XML database and describe the procedure to automatically fill in most of its fields (e.g., the type of DM, the equivalents in other languages, etc.), before human intervention.
In the course of the last years, digital lexicography has opened up a variety of avenues fostering the conceptualisation, application and use of constructicons, a type of lexicographical reference work which has revealed itself highly promising in terms of connectivity and flexibility, at the same time, however, also challenging as to its technical implementation. The present paper takes up the ambitious aim to propose some reflections as well as a first draft for a possible model of a multilingual ‘periphrasticon’ as a subtype of a bigger constructicon focusing on a specific typology-related structural feature, i. e. periphrasticity. Taking periphrastic verbal constructions in French, Italian and Spanish as a starting point, it tries to sketch out a unified constructional network including not only equivalent (or corresponding) constructions within Romance, but also establishing (formal and functional) cross-linguistic connections to German and English. Comprising the major languages available to most language learners in (at least) German-speaking environments, the model is also supposed to pave the way for multilingual constructicography which, on the one hand, is able to account for intra- and cross-linguistic relations and, on the other hand, can also prove a valuable tool for language learning and use.
In this paper we present Trendi, a monitor corpus of written Slovene, which has been compiled recently as part of the SLED (Monitor corpus and related resources) project. The methodology and the contents of the corpus are presented, as well as the findings of the survey that aimed to identify the needs of potential users related to topical language use. The Trendi corpus currently contains news articles and other web content from 110 different sources, with the texts being collected and linguistically annotated on a daily basis. The corpus complements Gigafida 2.0, a 1.13-billion-word reference corpus of standard written Slovene. Also discussed are the ways in which the corpus will be integrated into various lexicographic projects, helping not only in the identification of neologisms but also in monitoring changes in already identified language phenomena.
In this paper, we propose a controlled language for authoring technical documents and report the status of its development, while maintaining a specific focus on the Japanese automotive domain. To reduce writing variations, our controlled language not only defines approved and unapproved lexical elements but also prescribes their preferred location in a sentence. It consists of components of a) case frames, b) case elements, c) adverbial modifiers, d) sentence-ending functions, and e) connectives, which have been developed based on the thorough analyses of a large-scale text corpus of automobile repair manuals. We also present our prototype of a writing assistant tool that implements word substitution and reordering functions, incorporating the constructed controlled language.
Many European languages have undergone considerable changes in orthography over the last 150 years. This hampers the application of modern computer-based analysers to older text, and hence computer-based annotation and studies of text collections spanning a long period. As a step towards a functional analyser for Norwegian texts (Nynorsk standard) from the 19th century, funding was granted in 2020 for creating a full form generator for all inflected forms of headwords found in Ivar Aasen’s dictionary published in 1873 (Aasen 1873) and his grammar from 1864 (Aasen 1864). Creating this word bank led to new insight in Aasen (1873), its structure, internal organisation, and ambition level as well as its link to Aasen (1864). As a test, the full form list generated from this new word bank was used to analyse the word inventory of texts by Aa. O. Vinje, written in the period 1850–1870. The Vinje texts were also analysed using a full form list of modern standard Norwegian, to study the differences in applicability and see how Vinje’s language relates to the written standard of modern Norwegian.
The paper presents the process of developing the AirFrame database, a specialized lexical resource in which aviation terminology is defined in the form of semantic frames, following the methodology of the Berkeley FrameNet (FN). First, the structure of the database is presented, and then the methodology applied in developing and populating the database is described. The link between specialized aviation frames and general language semantic frames, of which frames defining entities, processes, attributes and events are particularly relevant, is discussed on the example of the semantic frame of Flight and its related frames. The paper ends with discussing possibilities of using AirFrame as a model for further developing resources in which general and specialized knowledge are linked.
In the currently ongoing process of retro-digitization of Serbian dialectal dictionaries, the biggest obstacle is the lack of machine readable versions of paper editions. Therefore, one essential step is needed before venturing into the dictionary-making process in the digital environment – OCRing the pages with the highest possible accuracy. Successful retro-digitization of Serbian dialectal dictionaries, currently in progress, has shown a dire need for one basic yet necessary step, lacking until now – OCRing the pages with the highest possible accuracy. OCR processing is not a new technology, as many opensource and commercial software solutions can reliably convert scanned images of paper documents into digital documents. Available software solutions are usually efficient enough to process scanned contracts, invoices, financial statements, newspapers, and books. In cases where it is necessary to process documents that contain accented text and precisely extract each character with diacritics, such software solutions are not efficient enough. This paper presents the OCR software called “SCyDia”, developed to overcome this issue. We demonstrate the organizational structure of the OCR software “SCyDia” and the first results. The “SCyDia” is a web-based software solution that relies on the open-source software “Tesseract” in the background. “SCyDia” also contains a module for semi-automatic text correction. We have already processed over 15,000 pages, 13 dialectal dictionaries, and five dialectal monographs. At this point in our project, we have analyzed the accuracy of the “SCyDia” by processing 13 dialectal dictionaries. The results were analyzed manually by an expert who examined a number of randomly selected pages from each dictionary. The preliminary results show great promise, spanning from 97.19% to 99.87%.
Wortgeschichte digital (Digital Word History) is an emerging historical dictionary of the German language that focuses on describing semantic shifts from about 1600 through today. This article provides deeper insight into the dictionary’s “cross-reference clusters,” one of its software tools that performs visualization of its reference network. Hence, the clusters are a part of the project’s macrostructure. They serve as both a means for users to find entries of interest and a tool to elucidate relations among dictionary entries. Rather than delve into technical aspects, this article focuses on the applied logics of the software and discusses the approach in light of the dictionary’s microstructure. The article concludes with some considerations about the clusters’ advantages and limitations.
Mensch-Maschine-Interaktion im lexikographischen Prozess zu lexikalischen Informationssystemen
(2022)
Dictionaries of today and tomorrow are rather digital products than print dictionaries. From the user’s perspective, electronic dictionary applications and in particular „lexical information systems“, also referred to as „digital word information systems“ are coming to the fore alongside Google searches. Given the rapid developments in the area of the automated provision of lexicographic information, more precisely the automatic creation of online dictionaries, the new role of the lexicographer in the modern lexicographic process is questionable. This article addresses this issue.
While there was arguably a need for multi authored, multi volume, metalexicographic handbooks three decades ago – when the field of metalexicography was still ‘young’ – it is a bit puzzling to make sense of the current output flurry in this field. Is it simply a matter of ‘every publisher trying to fill its shelves’? or is there really a need in the scientific community for more and (continuously) updated reference works? And once available, are such works also consulted? Which parts? By whom? How often? For what purposes? In this paper we look at an ongoing, real world metalexicographic handbook project to answer these questions.
This paper presents the project “The first Romanian bilingual dictionaries (17th century). Digitally annotated and aligned corpus” (eRomLex) which deals with the editing of the first bilingual Romanian dictionaries. The aim of the project is to compile an electronic corpus comprising six Slavonic-Romanian lexicons dating from the 17th century, based on their relatedness and the fact that they follow a common model in order to highlight the characteristics of this lexicographical network (the affiliations between the lexicons, the way they relate to the source, the innovations towards it, their potential uses) and to facilitate the access to their content. A digital edition allows exhaustive data extraction and comparison and link with other digitized resources for old Romanian or Church Slavonic, including dictionaries. After presenting the corpus, we point to the necessary stages in achieving this project, the techniques used to access the material and the challenges and obstacles we encountered along the way. We describe how the corpus was created, stored, indexed and can be searched over; we will also present and discuss some statistical analyses highlighting relations between the Romanian lexicons and their Slavonic-Ruthenian source.
This think-aloud study charts the use of online resources by five final-year MA students in Nordic and Literacy Studies based on the analysis of screen and audio recordings of an error-correction task. The article briefly presents some linguistic features of Norwegian Nynorsk that are not common in the context of other European languages, that is, norm optionality with regards to inflection and spelling. While performing the task, the participants were allowed to use all digital aids. This article examines their resource consultation behavior, and it makes use of Laporte/Gilquin’s (2018) annotation protocol. The following research questions are posed: What online resources are used by the students? What characterizes the use? Are online resources helpful? This study provides new insights into an as yet little explored topic within the Norwegian context. The findings demonstrate that the participants relied heavily on the official monolingual dictionary Nynorskordboka. Indeed, the dictionary was helpful in the vast majority of the searches, either resulting in error improvement or the validation of a word; that is, many of the searches considered correct words. The findings suggest severe norm insecurity and emphasize the need to improve norm knowledge and metalinguistic knowledge as prerequisites for better utilization of aids. It is also suggested to include necessary information on norm optionality and other commonly queried issues in the dictionary architecture.
This paper describes a method for automatic identification of sentences in the Gigafida corpus containing multi-word expressions (MWEs) from the list of 5,242 phraseological units, which was developed on the basis of several existing open-access lexical resources for Slovene. The method is based on a definition of MWEs, which includes information on two levels of corpus annotation: syntax (dependency parsing) and morphology (POS tagging), together with some additional statistical parameters. The resulting lexicon contains 12,358 sentences containing MWEs extracted from the corpus. The extracted sentences were analysed from the lexicographic point of view with the aim of establishing canonical forms of MWEs and semantic relations between them in terms of variation, synonymy, and antonymy.
The paper presents the results of a survey on lexicographic practices and lexicographers’ needs across Europe that was conducted in the context of the Horizon 2020 project European Lexicographic Infrastructure (ELEXIS) among the observer institutions of the project. The survey is a revised and upgraded version of the survey which was originally conducted among ELEXIS lexicographic partner institutions in 2018 (Kallas et al. 2019a). The main goal of this new survey was to complement the data from the ELEXIS lexicographic partner institutions in order to get a more complete picture of lexicographic practices both for born-digital and retro-digitised resources in Europe. The results offer a detailed insight into many aspects of the lexicographic process at European institutions, such as funding, training, staff, lexicographic expertise, software and tools. In addition, the survey reflects on current trends in lexicography and reveals what institutions see as the most important emerging trends that will affect lexicography in the short-term and long-term future. Overall, the results provide valuable input informing the development of tools, resources, guidelines and training materials within ELEXIS.
The focus of this paper will be on lexical information systems and the framework guidelines for the definition of the curricula within the educational system of the Autonomous Province of Bolzano/ Bozen (Italy). In Italy, the competences to be achieved at different school levels are published in the form of general guidelines. On this basis each school has to specify the general competency goals and to spell them out in a concrete curriculum. In this paper I will examine to what extent lexical information systems are represented in the framework guidelines within the German and the Italian educational system of the Autonomous Province, these being separate systems. In a second step, I will check the representations of the resources against the “Villa Vigoni Theses on Lexicography“. Finally, I will discuss the results and give an outlook for further research.
Given the relevance of interoperability, born-digital lexicographic resources as well as legacy retro-digitised dictionaries have been using structured formats to encode their data, following guidelines such as the Text Encoding Initiative or the newest TEI Lex-0. While this new standard is being defined in a stricter approach than the original TEI dictionary schema, its reuse of element names for several types of annotation as well as the highly detailed structure makes it difficult for lexicographers to efficiently edit resources and focus on the real content. In this paper, we present the approach designed within LeXmart to facilitate the editing of TEI Lex-0 encoded resources, guaranteeing consistency through all editing processes.
The long road to a historical dictionary of Lower Sorbian. Towards a lexical information system
(2022)
The Sorbian Institute has been taking preparatory steps for a historical-documentary vocabulary information system for Lower Sorbian for about 10 years. To this end, the entire extant written material (16th–21st centuries) of this strongly endangered European minority language is to be systematically evaluated. An attempt made a few years ago to organise and finance the project as a long-term scientific project was not successful in the end. Therefore, it can only be advanced step by step and via some detours. The article informs about the interim status of the project, especially with respect to the creation of a reliable database.
This paper reports on the restructuring of a bilingual (Greek Sign Language, GSL – Modern Greek) lexicographic database with the use of the WordNet semantic and lexical database. The relevant research was carried out by the Institute for Language and Speech Processing (ILSP) / Athena R.C. team within the framework of the European project Easier. The project will produce a framework for intelligent machine translation to bring down language barriers among several spoken/written and sign languages. This paper describes the experience of the ILSP team to contribute to a multilingual repository of signs and their corresponding translations and to organize and enhance a bilingual dictionary (GSL – Modern Greek) as a result of this mapping; this will be the main focus of this paper. The methodology followed relies on the use of WordNet and, more specifically, the Open Multilingual WordNet (OMW) tool to map content in GSL to WordNet synsets.
Das Ziel des Beitrags ist es, die Merkmale von Kommunikationsstörungen in Sport-Interviews aus Sicht der Interviewten festzustellen und zu analysieren. Die empirische Forschungsbasis besteht aus ukrainisch- und deutschsprachigen Videointerviews aus den Jahren 2010 bis 2019, die entweder im Fernsehen gesendet oder für YouTube produziert wurden. Die Ergebnisse der Studie ermöglichten es, die charakteristischen Merkmale von Abweichungen als Kommunikationsstörungen in Sport-Interviews auf drei Ebenen der kommunikativen Gattung zu identifizieren: auf der außenstrukturellen, binnenstrukturellen und situativen Ebene. Sowohl gemeinsame Merkmale von Kommunikationsstörungen als auch Unterschiede in den ukrainisch- und deutschsprachigen Sport-Interviews wurden bestimmt. Die Ergebnisse der Studie zeigen, dass die Arten von Kommunikationsstörungen in Sport-Interviews im Ukrainischen und Deutschen universell sind, sie spiegeln jedoch die nationalen und kulturellen Besonderheiten angesichts der Merkmale beider Sprachen und jeder Sprachkultur wider.