Refine
Year of publication
Document Type
- Part of a Book (62)
- Conference Proceeding (11)
- Working Paper (8)
- Book (3)
- Article (2)
- Other (2)
- Doctoral Thesis (1)
- Master's Thesis (1)
- Report (1)
Language
- German (91) (remove)
Keywords
- Korpus <Linguistik> (25)
- Deutsch (17)
- Computerlinguistik (16)
- Digital Humanities (14)
- Sprachwandel (11)
- Forschungsdaten (10)
- Europa (8)
- Infrastruktur (8)
- Annotation (7)
- Germanistik (7)
Publicationstate
- Veröffentlichungsversion (47)
- Zweitveröffentlichung (35)
- Postprint (1)
Reviewstate
Publisher
- de Gruyter (42)
- Universität Bielefeld (4)
- Universität zu Köln (3)
- Zenodo (3)
- De Gruyter (2)
- Institut für Deutsche Sprache (2)
- Lang (2)
- Leibniz-Institut für Deutsche Sprache (IDS) (2)
- Libri Books on Demand (2)
- Narr (2)
Der Beitrag betrachtet das Deutsche Referenzkorpus DeReKo in Bezug auf Strategien für seinen Ausbau, den Zugriff über die Korpusanalyseplattform KorAP und seine Einbettung in Forschungsinfrastrukturen und in die deutschsprachige und europäische Korpuslandschaft. Ausgehend von dieser Bestandsaufnahme werden Perspektiven zu seiner Weiterentwicklung aufgezeigt. Zu den Zukunftsvisionen gehören die Verteilung von Korpussressourcen und die Konstruktion multilingualer vergleichbarer Korpora anhand der Bestände der National- und Referenzkorpora, eine Plattform zur Abgabe und Aufbereitung von Sprachspenden als eine Anwendung von Citizen Science sowie eine Komponente zur automatischen Identifikation von übersetzten bzw. maschinenverfassten Texten.
Poster des Text+ Partners Leibniz-Institut für Deutsche Sprache Mannheim präsentiert beim Workshop "Wohin damit? Storing and reusing my language data" am 22. Juni 2023 in Mannheim. Das Poster wurde im Kontext der Arbeit des Vereins Nationale Forschungsdateninfrastruktur (NFDI) e.V. verfasst. NFDI wird von der Bundesrepublik Deutschland und den 16 Bundesländern finanziert, und das Konsortium Text+ wird gefördert durch die Deutsche Forschungsgemeinschaft (DFG) – Projektnummer 460033370. Die Autor:innen bedanken sich für die Förderung sowie Unterstützung. Ein Dank geht außerdem an alle Einrichtungen und Akteur:innen, die sich für den Verein und dessen Ziele engagieren.
Als Teil der NFDI vernetzt Text+ ortsverteilt verschiedenste Daten und Dienste für die geisteswissenschaftliche Forschung und stellt sie der wissenschaftlichen Gemeinschaft FAIR zur Verfügung. In diesem Beitrag beschreiben wir die Umsetzung beispielhaft im Bereich der Text+ Datendomäne Sammlungen anhand von Korpora, die in verschiedenen Disziplinen Verwendung finden. Die Infrastruktur ist auf Erweiterbarkeit ausgelegt, so dass auch weitere Ressourcen über Text+ verfügbar gemacht werden können. Enthalten ist auch ein Ausblick auf weitere zu erwartende Entwicklungen. Ein Beitrag zur 9. Tagung des Verbands "Digital Humanities im deutschsprachigen Raum" - DHd 2023 Open Humanities Open Culture.
Was darf die sprachwissenschaftliche Forschung? Juristische Fragen bei der Arbeit mit Sprachdaten
(2022)
Sich in der Linguistik mit rechtlichen Themen beschäftigen zu müssen, ist auf den ersten Blick überraschend. Da jedoch in den Sprachwissenschaften empirisch gearbeitet wird und Sprachdaten, insbesondere Texte und Ton- und Videoaufnahmen sowie Transkripte gesprochener Sprache, in den letzten Jahren auch verstärkt Sprachdaten internetbasierter Kommunikation, als Basis für die linguistische Forschung dienen, müssen rechtliche Rahmenbedingungen für jede Art von Datennutzung beachtet werden. Natürlich arbeiten auch andere Wissenschaften, wie z. B. die Astronomie oder die Meteorologie, empirisch. Jedoch gibt es einen grundsätzlichen Unterschied der empirischen Basis: Im Gegensatz zu Temperaturen, die gemessen, oder Konstellationen von Himmelskörpern, die beobachtet werden, basieren Sprachdaten auf schriftlichen, mündlichen oder gebärdeten Äußerungen von Menschen, wodurch sich juristisch begründete Beschränkungen ihrer Nutzung ergeben.
Vergleichende Graphematik
(2021)
Dieser Aufsatz skizziert Schritte auf dem Weg zu einer vergleichenden Graphematik. Dabei thematisiert er vier Schriftsysteme (des Deutschen, Englischen, Niederländischen, Französischen) und untersucht sechs graphematische Phänomene, unter ihnen Doppelkonsonantenschreibung und Apostroph. Zwar sind die Phänomene in allen vier Schriftsystemen zu finden, aber die Häufigkeit unterscheidet sich sehr; so weist das deutsche Schriftsystem die meisten Doppelkonsonanten auf, das französische die meisten Apostrophe. Es geht aber nicht primär um die Quantität der graphematischen Phänomene, sondern vielmehr um die Verankerung der Graphematik innerhalb der sprachspezifischen grammatischen Systeme. Auf Grundlage dieses Vergleichs werden Parameter zur Beschreibung der Phänomene entwickelt. Dadurch wird dieser Aufsatz zur Werbung für die vergleichende Graphematik.
Grammis ist eine Online-Plattform des Leibniz-Instituts für Deutsche Sprache, die Forschungsergebnisse, Erklärungen und Hintergrundwissen zur deutschen Grammatik präsentiert. Das Angebot zielt einerseits auf linguistische Laien, die sich für grammatische Phänomene interessieren; andererseits auf die Fachöffentlichkeit, indem es aktuelle wissenschaftliche Meilensteine des IDS dokumentiert. Für beide Nutzungsgruppen werden im Beitrag exemplarische Inhalte vorgestellt. Weiterhin sollen erste Ergebnisse einer explorativen Nutzungsstudie sowie jüngere technische Neuerungen vorgestellt werden.
Anhand der geografischen Distribution des hohen vorderen gerundeten Vokalphonems /y/ in Europa wird das Projekt des Phonologischen Atlas Europas (Phon@Europe) vorgestellt. Der Schwerpunkt der Diskussion liegt auf Fällen der möglichen bzw. strittigen Diffusion von /y/ durch Sprachkontakt. Dabei gilt die Aufmerksamkeit auch der Rolle, die das Deutsche bei der Verbreitung von /y/ in Europa gespielt haben könnte. Es werden Vergleiche zu ähnlich gelagerten Fällen in anderen Teilen des Kontinents gezogen. Die Möglichkeit der kontaktunabhängigen Entstehung von /y/ wird ebenfalls in Betracht gezogen. Abschließend werden die Befunde kontaktlinguistisch und areallinguistisch ausgewertet und das Deutsche in der phonologischen Landschaft Europas situiert.
In diesem Beitrag werden Präpositionalobjektsätze – also Sätze, die in der Funktion von präpositionalen Objekten stehen, – aus ausgewählten germanischen und romanischen Sprachen sprachvergleichend betrachtet. Dabei zeigen sich zwei verschiedene Strategien, die Verbindung von Präposition und Satz herzustellen: direkt, indem die Präposition einen Satz selegiert, und indirekt über die Anbindung mit einer komplexen Proform. Erstere Strategie sehen wir im Schwedischen (stellvertretend für die nordgermanischen Sprachen) und auch im Französischen und Italienischen (mit einer coverten Präposition). Im Niederländischen und Deutschen findet sich die zweite Strategie, bei der Sätze mithilfe eines Pronominaladverbs angebunden werden. Eine genauere Analyse dieser beiden germanischen Sprachen zeigt, dass im Deutschen Pronominaladverb und Satz eine Konstituente bilden können, während dies im Niederländischen nicht möglich ist. Alle analysierten Sprachen haben gemeinsam, dass das präpositionale Element (Präposition oder Pronominaladverb) abwesend sein kann oder muss. Dabei lässt sich anhand von Pronominalisierung, Topikalisierung und W-Extraktion zeigen, dass das P-Element syntaktisch präsent als leeres Element (covert) realisiert werden muss, da diese Sätze mit und ohne P-Element Eigenschaften der PO-Sätze haben und mit DO-Sätzen kontrastieren.
Sprachressourcen in digitaler Form liegen für ein immer breiteres Spektrum von Einzelsprachen vor. Linguistisch annotierte Korpora ermöglichen es, gezielt nach linguistischen Mustern auf der Wort-, Phrasen-, und Satzebene zu suchen und in quantitativer und qualitativer Hinsicht auszuwerten. In diesem Beitrag illustriere ich anhand von ausgewählten Beispielen den Mehrwert, den annotierte Textkorpora für die sprachwissenschaftliche Forschung bieten können. Viele der vorgestellten Sprachressourcen werden im Rahmen der CLARIN-Infrastruktur nachhaltig zur Verfügung gestellt. Die Korpora sind entweder durch Suchportale recherchierbar oder werden per Download zur Verfügung gestellt.
Die Sprache von Lerner/-innen einer Fremdsprache unterscheidet sich auf allen linguistischen Ebenen von der Sprache von Muttersprachler/-innen. Seit einigen Jahrzehnten werden Lernerkorpora gebaut, um Lernersprache quantitativ und qualitativ zu analysieren. Hier argumentieren wir anhand von drei Fallbeispielen (zu Modifikation, Koselektion und rhetorischen Strukturen) für eine linguistisch informierte, tiefe Phänomenmodellierung und Annotation sowie für eine auf das jeweilige Phänomen passende formale und quantitative Modellierung. Dabei diskutieren wir die Abwägung von tiefer, mehrschichtiger Analyse einerseits und notwendigen Datenmengen für bestimmte quantitative Verfahren andererseits und zeigen, dass mittelgroße Korpora (wie die meisten Lernerkorpora) interessante Erkenntnisse ermöglichen, die große, flacher annotierte Korpora so nicht erlauben würden.
„Deutsch in Europa“ findet sich nicht nur in den mehrheitlich deutschsprachigen Ländern in der Mitte Europas, sondern auch in mehreren direkt an diese angrenzenden Gebieten der Nachbarstaaten. Die Situation des Deutschen ist in diesen Grenzräumen jeweils sehr unterschiedlich, etwa hinsichtlich der Kontaktsprachen, aber auch hinsichtlich der rechtlichen Rahmenbedingungen, der kollektiven und individuellen Mehrsprachigkeit sowie der Einstellungen der Sprecherinnen und Sprecher u.v.m. Der Beitrag skizziert zunächst überblicksartig die aktuellen Situationen einiger deutscher Grenzminderheiten. Fokussiert wird sodann die Situation in Ost- Lothringen. Anhand von neu erhobenen Daten eines laufenden Projekts am IDS wird gezeigt, dass die Konstruktion der sprachlichen Identität in diesem spezifischen Kontext für die Sprecherinnen und Sprechern eine besondere Herausforderung darstellt.
Die heutige Stellung des Deutschen in Europa beruht auf vielfältigen
Faktoren: Historische Entwicklungen, politische Rahmenbedingungen oder unterschiedliche Traditionen in den Bildungssystemen der Mitgliedsländer der Europäischen Union kommen dabei ebenso zum Tragen wie das hochaktuelle Thema der Fachkräftezuwanderung. Diese Bestandsaufnahme betrachtet die Hintergründe der Entwicklung der Stellung der deutschen Sprache und zeigt dabei auch Trends und Perspektiven für die Zukunft auf. An diesen setzt das Goethe-Institut als Sprach- und Kulturinstitut der Bundesrepublik Deutschland gemeinsam mit seinen Partnern an, um die Kenntnis und die Stellung der deutschen Sprache in Europa im Rahmen einer gelebten Mehrsprachigkeit gezielt zu fördern.
Dieser Beitrag präsentiert die neue multilinguale Ressource CoMParS (Collection of Multilingual Parallel Sequences). CoMParS versteht sich als eine funktional-semantisch orientierte Datenbank von Parallelsequenzen des Deutschen und anderer europäischer Sprachen, in der alle Daten neben den sprachspezifischen und universellen (im Sinne von Universal Dependencies) morphosyntaktischen Annotationen auch nach sprachübergreifenden funktional-semantischen Informationen auf der neudefinierten Annotationsebene Functional Domains annotiert und auf mehreren Ebenen (auch ebenenübergreifend) miteinander verlinkt sind. CoMParS wird in TEI P5 XML kodiert und sowohl als monolinguale wie auch als multilinguale Sprachressource modelliert.
Die Korpusanalyseplattform KorAP ist von Grund auf sprachenunabhängig konzipiert. Dies gilt sowohl in Bezug auf die Lokalisierung der Benutzeroberfläche als auch hinsichtlich unterschiedlicher Anfragesprachen und der Unterstützung fremdsprachiger Korpora und ihren Annotationen. Diese Eigenschaften dienen im Rahmen der EuReCo Initiative aktuell besonders der Bereitstellung weiterer National- und Referenzkorpora neben DeReKo. EuReCo versucht, Kompetenzen beim Aufbau großer Korpora zu bündeln und durch die Verfügbarmachung vergleichbarer Korpora quantitative Sprachvergleichsforschung zu erleichtern. Hierzu bietet KorAP inzwischen, neben dem Zugang durch die Benutzeroberfläche, einen Web API Client an, der statistische Erhebungen, auch korpusübergreifend, vereinfacht.
Vorwort
(2021)
In verschiedenen europäischen Ländern ist in letzter Zeit in der Soziolinguistik die Frage diskutiert worden, ob sich zwischen der traditionellen Standardsprache und den regionalen bzw. Substandardvarietäten ein neuer Standard („Neo-Standard“) herausgebildet hat; ein Standard, der sich nicht nur strukturell vom alten unterscheidet, sondern sich auch durch ein anderes Prestige auszeichnet als dieser: Er wirkt (im Vergleich) informeller, subjektiver, moderner, kreativer etc.In diesem Beitrag werden einige wesentliche Eigenschaften von Neo Standards diskutiert und ihre Entwicklung als Folge der „Demotisierung“ (Mattheier) der Standardsprache beschrieben. Neben dem potenziellen Neo-Standard in Deutschland werden auch die Entwicklungen in Dänemark, Belgien und Italien diskutiert.
Der Beitrag behandelt das Thema Deutsch in Europa aus der Perspektive der internationalen Germanistik und ihrer Nachhaltigkeit. Ausgehend von der Geschichte des Fachs in Europa wird die Germanistik als ein „Ökosystem“ präsentiert, d. h. als ein dynamischer Komplex bildungsspezifischer Elemente,welcher auch heute – im Zeitalter von Big Data und Real-Time Artificial Intelligence – über die DaF-Vermittlung und die Lehrerausbildung hinaus eine insgesamt wichtige soziale Funktion ausüben kann. Welche Rolle das IDS dabei spielen könnte, wird im Schlussteil skizziert.
Der Beitrag weist auf verschiedene Typen des Erwerbs des Deutschen jenseits des Standardszenarios hin, dem muttersprachlichen Erwerb in einem deutschsprachigen Land. Es werden dann im Detail die Ergebnisse einer Langzeitstudie beschrieben, die Kinder mit russischer und türkischer Familiensprache und dem Deutschen als Zweitsprache vom Kindergartenalter bis in die Grundschule begleitete. Es zeigt sich, dass die typischen Verläufe des früheren mehrsprachigen Spracherwerbs von monolingualen Erwerbsverläufen abweichen können, und dass ein früher L2 Erwerbsbeginn sowie ein reicher und nachhaltiger Input wie explizite Sprachfördermaßnahmen den Erwerb des Deutschen fördern. Im Einzelnen weist die Studie auf die Prädiktoren der früheren Literalität hin.
Geeignete Such- und Visualisierungswerkzeuge, idealiter in Form von Webapplikationen, sind für den benutzerfreundlichen Zugang zu Sprachressourcen von großer Bedeutung. In diesem Beitrag stellen wir die Webapplikationen Rover und TüNDRA vor, die am CLARIN-D Zentrum Tübingen im Rahmen des BMBF-Projekts CLARIN-D entwickelt wurden.
Das vom BMBF geförderte Verbundprojekt CLARIAH-DE, an dem über 25 Partnerinstitutionen mitwirken, unter ihnen auch das IDS, hat zum Ziel, mit der Entwicklung einer Forschungsinfrastruktur zahlreiche Angebote zur Verfügung zu stellen, die die Bedingungen der Forschungsarbeit mit digitalen Werkzeugen, Diensten sowie umfangreichen Datenbeständen im Bereich der geisteswissenschaftlichen Forschung und benachbarter Disziplinen verbessern. Die in CLARIAH-DE entwickelte Infrastruktur bietet den Forschenden Unterstützung bei der Analyse und Aufbereitung von Sprachdaten für linguistische Untersuchungen in unterschiedlichsten Anwendungskontexten und leistet somit einen Beitrag zur Entwicklung der NFDI.
Das Projekt InterCorp startete 2005 in Prag mit dem Ziel ein mehrsprachiges Parallelkorpus für akademische Zwecke zu entwickeln. Prinzipiell ist InterCorp eine Reihe von einsprachigen Korpora mit synchronen Texten verschiedener Genres und stellt somit ein einmaliges Instrument für sowohl kontrastive als auch intrasprachliche Untersuchungen dar. Die meisten Parallelen sind auch lemmatisiert und morpho-syntaktisch annotiert, somit lassen sich auch rasch statistische Daten über die Texte abrufen.
Das ZDL-Regionalkorpus umfasst Zeitungsartikel aus Lokal- und Regionalressorts deutschsprachiger Tageszeitungen. Es dient als empirische Grundlage für die lexikografische Beschreibung der diatopischen Variation im Digitalen Wörterbuch der deutschen Sprache (DWDS). Darüber hinaus steht es allen angemeldeten Nutzern der DWDS-Korpusplattform für die Recherche zur Verfügung. Die Abfrage kann auf bestimmte diatopische Areale oder diachrone Zeiträume beschränkt werden. Die Verteilung der Treffer über Areale und Zeiträume lässt sich in verschiedener Form darstellen; dabei werden neben absoluten Trefferzahlen auch normalisierte PPM-Werte ausgegeben.
Der Beitrag beschreibt die Motivation und Ziele des Europäischen Referenzkorpus EuReCo, einer offenen Initiative, die darauf abzielt, dynamisch definierbare virtuelle vergleichbare Korpora auf der Grundlage bestehender nationaler, Referenz- oder anderer großer Korpora bereitzustellen und zu verwenden. Angesichts der bekannten Unzulänglichkeiten anderer Arten mehrsprachiger Korpora wie Parallel- bzw. Übersetzungskorpora oder rein webbasierte vergleichbare Korpora, stellt das EuReCo eine einzigartige linguistische Ressource dar, die neue Perspektiven für germanistische und vergleichende wie angewandte Korpuslinguistik, insbesondere im europäischen Kontext, eröffnet.
Die deutsche Sprache hat sich innerhalb Europas als Teil einer europäischen Sprachengemeinschaft entwickelt. Von besonderem wissenschaftlichen Interesse ist die Frage, wie sich Sprachen untereinander beeinflussen, verändern und mit welchen methodischen Zugängen und Sprachressourcen das zu untersuchen ist. Der ständige Austausch zwischen diesen Sprachen und die politischen Rahmenbedingungen in der Europäischen Union werfen darüber hinaus konkrete sprach- und bildungspolitische Fragen auf.
Der Beitrag geht der Frage nach, welche Akteure die Stellung des Deutschen im heutigen Europa beeinflussen (können). Als Grundlage für die Untersuchung wird die Sprachmanagementtheorie gewählt, die sich mit dem Verhalten verschiedener Akteure gegenüber der Sprache beschäftigt. Diese metasprachlichen Aktivitäten definieren das Schlüsselkonzept Sprachmanagement. Auseinandergehende sprachenpolitische Interessen und Konflikte werden in Abhängigkeit von der Macht des jeweiligen Akteurs gelöst. Es werden konkrete Beispiele analysiert, die sich auf der EU Ebene, der Ebene eines EU-Mitgliedsstaates wie auch in Regionen abspielen.
Die durch die Covid-19-Pandemie bedingte Umstellung der Präsenzlehre auf digitale Lehr- und Lernformate stellte Lehrende und Studierende gleichermaßen vor eine Herausforderung. Innerhalb kürzester Zeit musste die Nutzung von Plattformen und digitalen Tools erlernt und getestet werden. Der Beitrag stellt exemplarisch Dienste und Werkzeuge von CLARIAH-DE vor und erläutert, wie die digitale Forschungsinfrastruktur Lehrende und Studierende auch im Rahmen der digitalen Lehre unterstützen kann.
Die zentrale Aufgabenstellung des Verbundprojektes TextTransfer (Pilot) war eine Machbarkeitsprüfung für die Entwicklung eines Text-Mining-Verfahrens, mit dem Forschungsergebnisse automatisiert auf Hinweise zu Transfer- und Impactpotenzialen untersucht werden können. Das vom Projektkoordinator IDS verantwortete Teilprojekt konzentrierte sich dabei auf die Entwicklung der methodischen Grundlagen, während der Projektpartner TIB vornehmlich für die Bereitstellung eines geeigneten Datensatzes verantwortlich war. Solchen automatisierten Verfahren liegen zumeist textbasierte Daten als physisches Manifest wissenschaftlicher Erkenntnisse zugrunde, die im Falle von TextTransfer (Pilot) als empirische Grundlage herangezogen wurden. Das im Verbund zur Anwendung gebrachte maschinelle Lernverfahren stützte sich ausschließlich auf deutschsprachige Projektendberichte öffentlich geförderter Forschung. Diese Textgattung eignet sich insbesondere hinsichtlich ihrer öffentlichen Verfügbarkeit bei zuständigen Gedächtnisorganisationen und aufgrund ihrer im Vergleich zu anderen Formaten wissenschaftlicher Publikation relativen strukturellen wie sprachlichen Homogenität. TextTransfer (Pilot) ging daher grundsätzlich von der Annahme struktureller bzw. sprachlicher Ähnlichkeit in Berichtstexten aus, bei denen der Nachweis tatsächlich erfolgten Transfers zu erbringen war. Im Folgenden wird in diesen Fällen von Texten bzw. textgebundenen Forschungsergebnissen mit Transfer- und Impactpotenzial gesprochen werden. Es wurde ferner postuliert, dass sich diese Indizien von sprachlichen Eigenschaften in Texten zu Projekten ohne nachzuweisenden bzw. ggf. auch niemals erfolgtem, aber potenziell möglichem Transfer oder Impact unterscheiden lassen. Mit einer Verifizierung dieser Annahmen war es möglich, Transfer- oder Impactwahrscheinlichkeiten in großen Mengen von Berichtsdaten ohne eingehende Lektüre zu prognostizieren.
Das vorliegende Papier fasst den bisherigen Diskussionsstand zur Konzeption eines Organisationsmodells für die institutionelle Verstetigung des Verbundforschungsprojektes TextGrid zusammen und bündelt die bisherigen Arbeitsergebnisse im Arbeitspaket 3 – Strukturelle und organisatorische Nachhaltigkeit. Das hier skizzierte Organisationsmodell basiert auf den in D-Grid und WissGrid erarbeiteten Nachhaltigkeitskonzepten und adaptiert das Konzept der Virtuellen Organisation (VO) für TextGrid. Insgesamt strebt TextGrid eine institutionelle Verstetigung seiner Aktivitäten nach Ende der Projektlaufzeit an und beabsichtigt gemeinsam mit Virtuellen Forschungsumgebungen aus anderen Wissenschaftsdisziplinen Wege und Prozesse etablieren zu können. Am 24./25. Februar 2011 hat TextGrid einen Strategie-Workshop in Berlin ausgerichtet, zu dem sich eine Expertenrunde zur „Nachhaltigkeit von Virtuellen Forschungsumgebungen“ eingefunden hat. Diskutiert werden wird, wie Virtuelle Forschungsumgebungen basierend auf heutigen finanziellen und organisatorischen Strukturen nachhaltig sein können und welche Empfehlungen sich daraus für TextGrid ableiten. Die Diskussionsergebnisse der Expertenrunde werden zusammen mit den Überlegungen in diesem Papier in die Konzeption eines umfassenderen Organisationsmodells einfließen, das die Grundlage für eine Verstetigung von TextGrid bilden wird.
In TextGrid gibt es verschiedene Content-Provider, deren Ressourcen nicht ohne weiteres in der TextGrid-Infrastruktur zur Verfügung gestellt werden können. Die Ursache hierfür ist, dass die erforderlichen Zugriffsbeschränkungen bislang nicht von der existierenden Autorisierungsinfrastruktur abgebildet werden können. Beispielsweise ist es für den Zugriff auf einige Ressourcen am Institut für Deutsche Sprache notwendig, dass Benutzer einen Lizenzvertrag akzeptieren. Um diesen Content-Providern die Bereitstellung ihrer Ressourcen in TextGrid zu ermöglichen, muss die bestehende Autorisierungsinfrastruktur erweitert werden, um feinere Zugriffsbeschränkungen zu ermöglichen.
Für die Lizenzierung der in TextGrid bereitgestellten Software und Daten wird künftig eine Lizenzierung benötigt, welche der offenen Struktur der angestrebten Forschungsplattform gerecht wird. Hierfür entwickelt AP 3.2 Musterlizenzvereinbarungen mit unterschiedlichen Content-Providern. Im Folgenden soll ein Überblick über unterschiedliche Möglichkeiten der Lizenzierung gegeben werden, um sowohl potenziell für TextGrid heranzuziehende Fremd-Software zu evaluieren als auch eine Orientierung für die Lizenzierung eigener Produkte und Daten zu geben. Letztendlich soll eine Empfehlung für ein möglicherweise in TextGrid angewandtes Modell gegeben werden.
Im zweiten Teil dieses Textes wird ein Konzept für die neue TextGrid-Middleware-Komponente TG-license vorgestellt, durch die auch lizensierter Content im Rahmen von TextGridRep zur Verfügung gestellt werden kann.
Die moderne sprachwissenschaftliche Forschung nutzt in zunehmender Weise digitale Forschungsinfrastrukturen und Informationssysteme. Diese Entwicklung begann um die Jahrtausendwende und beschleunigt sich seither. Der Band thematisiert nationale und europäische Infrastrukturverbünde und verschiedene Sprachressourcen aus der germanistischen Sprachwissenschaft, die über digitale Infrastrukturen auffindbar, zugreifbar und (wieder-)verwendbar sind.
Seit Mitte der 1990er Jahre wird am Institut für deutsche Sprache (IDS) in Mannheim erforscht, wie der hochkomplexe Gegenstandsbereich „Grammatik“ unter Ausnutzung digitaler Sprachressourcen und hypertextueller Navigationsstrukturen gleichermaßen wissenschaftlich fundiert und anschaulich vermittelt werden kann. Die grammatischen Online-Informationssysteme des IDS wenden sich nicht allein an Forscher und die interessierte Öffentlichkeit in Deutschland, sondern in gleichem Maße an Germanisten und Deutsch-Lernende in der ganzen Welt. Der vorliegende Beitrag beschreibt die damit verbundenen Hoffnungen und Anspruche. Daran anschließend thematisiert er praktische Einsatzmöglichkeiten und skizziert die funktionale und inhaltliche Weiterentwicklung der digitalen Grammatik-Angebote.
Deutsche Geschichte-Digital: Ergebnisse der TEI-Konvertierung und Integration in Pilotprojekten
(2018)
Das hier vorgeführte Schienenbild ist das in Anlehnung an Wittenburg (2009) als Erweiterungsinstrument gewählte Mittel in dem Versuch, Computertechnologie, linguistische Forschung und Vernetzung am Institut für Deutsche Sprache in deren rasch wachsenden Vielschichtigkeit zu beschreiben. Hier werden u. a. drei Blickwinkel, der des Technologie entwickelnden Wissenschaftlers, des entwickelnden Nutzers und des Nutzers von Informationstechnologie in der linguistischen Forschung vereint und um eine für den Sprachvergleich neue Dimension, die sprachspezifische Parameter von Analyseinstrumenten miteinander harmonisiert, erweitert.
Die Bedeutung von Forschungsdatenmanagement im wissenschaftspolitischen Diskurs und im wissenschaftlichen Arbeitsalltag nimmt stetig zu. Nationale und internationale Forschungsinfrastrukturen, Verbünde, disziplinäre Datenzentren und institutionelle Kompetenzzentren nähern sich den Herausforderungen aus unterschiedlichen Perspektiven. Dieser Beitrag stellt das Data Center for the Humanities an der Universität zu Köln als Beispiel für ein universitäres Datenzentrum mit fachlicher Spezialisierung auf die Geisteswissenschaften vor.
Der vorliegende Band befasst sich mit dem Stand und der Entwicklung von Forschungsinfrastrukturen für die germanistische Linguistik und einigen angrenzenden Bereichen. Einen zentralen Aspekt dabei bildet die Notwendigkeit, Kooperativität in der Wissenschaft im institutionellen Sinne, aber auch in Hinsicht auf die wissenschaftliche Praxis zu organisieren. Dies geschieht in Verbunden als Kooperationsstrukturen, wobei Sprachwissenschaft und Sprachtechnologie miteinander verbunden werden. Als zentraler Forschungsressource kommen dabei Korpora und ihrer Erschließung durch spezielle, linguistisch motivierte Informationssysteme besondere Bedeutung zu. Auf der Ebene der Daten werden durch Annotations- und Modellierungsstandards die Voraussetzung für eine nachhaltige Nutzbarkeit derartiger Ressourcen geschaffen.
In diesem Beitrag wird an einigen Beispielen aus der nominalen Morphologie bzw. der Morphosyntax der deutschen Substantivgruppe gezeigt, wie sich in den Veränderungen in diesem Bereich, die sich über das 20. Jahrhundert hin beobachten lassen, Fragen eines langfristigen Systemwandels mit Regularitäten des Sprachgebrauchs überlagern. Im Mittelpunkt soll die Frage der Markierung der Kasus – insbesondere in den allgemein als „kritisch“ angesehenen Fällen von Genitiv und Dativ – stehen. Wenn man die Daten dazu betrachtet, sieht man, dass in den meisten Fällen schon zum Anfang des 20. Jahrhunderts eine weitgehende Anpassung an die Regularitäten der Monoflexion erfolgt war, auch, dass dieser Prozess über das Jahrhundert hin fortschreitet. Bemerkenswert ist, dass insgesamt die als „alt“ angesehenen Fälle in den untersuchten Korpora geschriebener Sprache (sehr) selten auftauchen, dass aber in zunehmendem Ausmaß die daraus folgende Markiertheit in der einen oder anderen Weise funktional genutzt wird. Einen Fall eigener Art stellt in diesem Zusammenhang der Genitiv dar, der sich bei den starken Maskulina und Neutra bekanntlich dem Trend zur „Einmalmarkierung“ der Kasus an den flektierten, das Substantiv begleitenden Elementen widersetzt. Das führt zu der bekannten Orientierung dieser Formen auf die Nicht-Objekt-Verwendungen und auch zu einem auffälligen Maß an Variation in der Nutzung der entsprechenden Flexionsformen.
Sprachverfall? Einleitung
(2014)
Diskurse, die in der nichtlinguistischen Welt über Sprache geführt werden, sind typischerweise Sprachverfallsdiskurse – gleich, ob es um Neue Medien, Anglizismen, Orthographie oder Schülerleistungen geht. Linguistische Laien neigen dazu, Sprache als etwas Homogenes, Monolithisches, das stabilen Normen unterliegt, zu sehen. Variation und Sprachwandel werden, so sie denn zur Kenntnis genommen werden, vielfach als Bedrohung wahrgenommen; häufig werden sie sozial interpretiert. Tatsächlich aber findet die Mehrzahl der Phänomene, die Anlass für sprachkritische Debatten der Öffentlichkeit geben, ihren systematischen Ort im Bereich von Variation oder von Sprachwandelprozessen.
Der vorliegende Band versammelt die Vorträge der 49. Jahrestagung des Instituts für Deutsche Sprache; er liefert einerseits eine sprachhistorische und variationslinguistische Einordnung der vom Sprachverfalls-Diskurs betroffenen Systembereiche, andererseits bietet er eine sprachsoziologische Analyse der dem öffentlichen Diskurs zugrundeliegenden Prozesse.
Der Beitrag beschäftigt sich mit der Frage, wie und inwieweit korpusbasierte Ansätze zur Untersuchung und Bewertung von Sprachwandel beitragen können. Die Bewertung von Sprachwandel erscheint in dieser Hinsicht interessant, da sie erstens von größerem öffentlichen Interesse ist, zweitens nicht zu den Kernthemen der Sprachwissenschaft zählt und drittens sowohl die geisteswissenschaftlichen Aspekte der Sprachwissenschaft berührt als auch die empirischen, die eher für die so genannten harten Wissenschaften typisch sind. Letzteres trifft bei der Frage nach Sprachverfall (gutem vs. schlechtem Deutsch diachron) vermutlich unbestrittener zu als bei der Frage nach richtigem vs. falschem Deutsch, da zu ihrer Beantwortung offensichtlich einerseits empirische, messbare Kriterien herangezogen werden müssen, andererseits aber auch weitere Kriterien notwendig sind und es außerdem einer Entscheidung zur Einordnung und Gewichtung der verschiedenartigen Kriterien sowie einer Begründung dieser Entscheidung bedarf. Zur Annäherung an die Fragestellung werden zunächst gängige, leicht operationalisierbare Hypothesen zu Symptomen eines potenziellen Verfalls des Deutschen auf verschiedenen DeReKo-basierten Korpora überprüft und im Hinblick auf ihre Verallgemeinerbarkeit und Tragweite diskutiert. Im zweiten Teil werden weitere empirische Ansätze zur Untersuchung von Wandel, Variation und Dynamik skizziert, die zur Diskussion spezieller Aspekte von Sprachverfall beitragen könnten. Im Schlussteil werden die vorgestellten Ansätze in den Gesamtkontext einer sprachwissenschaftlichen Untersuchung von Sprachverfall gestellt und vor dem Hintergrund seines gesellschaftlichen Diskurses reflektiert.
Communication across all language barriers has long been a goal of humankind. In recent years, new technologies have enabled this at least partially. New approaches and different methods in the field of Machine Translation (MT) are continuously being improved, modified, and combined, as well. Significant progress has already been achieved in this area; many automatic translation tools, such as Google Translate and Babelfish, can translate not only short texts, but also complete web pages in real time. In recent years, new advances are being made in the mobile area; Googles Translate app for Android and iOS, for example, can recognize and translate words within photographs taken by the mobile device (to translate a restaurant menu, for instance). Despite this progress, a “perfect” machine translation system seems to be an impossibility because a machine translation system, however advanced, will always have some limitations. Human languages contain many irregularities and exceptions, and consequently go through a constant process of change, which is difficult to measure or to be processed automatically. This paper gives a short introduction of the state of the art of MT. It examines the following aspects: types of MT, the most conventional and widely developed approaches, and also the advantages and disadvantages of these different paradigms.
Betrachtet man "Verfallserscheinungen" des Verbalsystems wie Übergänge stark > schwach, so zeigt sich, dass hier weder Rezenz noch Verfall zu konstatieren ist. Mit diachroner und analytischer Tiefe offenbart sich ein gestaffelter, systematischer Komplexitätsabbau, der seine Hochphase im Frühneuhochdeutschen hat und sich schlecht mit der Passivität und Chaos implizierenden Verfallsmetapher verträgt: Reorganisation statt Dekadenz. Entwicklungen wie der präteritale Numerusausgleich ('ich sang' – 'wir sungen' > 'ich sang' – 'wir sangen') oder die Herausbildung der vereinfachten Ablautalternanz X–o–o sind nie nur Komplexitätsreduktion, sondern immer auch Systematisierung; sie bremsen Verfall. Dabei ist der Gewinn an Systematik i.d.R. nicht Normautoritäten geschuldet, sondern ihm liegen sprachsystematische, kognitive und frequenzielle Faktoren zugrunde.
Johann Leo Weisgerbers bekannter Titel bezieht sich auf Humboldts Energeia-Begriff, also auf die Sprache als wirkende Kraft. Auch in diesem Beitrag soll den wirkenden Kräften nachgegangen werden, freilich nicht als Unterstellung eines wesenhaften Sprachvermögens, sondern als Versuch, die wirksamen Motive der sprachkritischen Einstellungen, Publikationen und publizistischen Erscheinungen an einem Raster sozialwissenschaftlicher Begriffe darzulegen. An einigen ausgewählten Presseberichten und grammatischen Beispielen (Veränderungen im Bereich der deutschen Zeitenfolge) wird zunächst gezeigt, dass sich Sprachkritik oft schon von ihrem Gegenstand, der deutschen Sprache, weitgehend gelöst hat. Auch angesichts neuer Formen von substandardsprachlichen Erscheinungen (z.B. Jugendsprache, Jargon, Kiezsprache usw.) kann oft nachgewiesen werden, dass es sich in vielen Fällen um kommunikativ funktionale Sprachformen handelt. Um es schlagwortartig zusammenzufassen: Es gibt Sprachkritik ohne Sprache. Die „wirkenden Kräfte“ der Sprachkritik sichern vielmehr die Wahrnehmung gesellschaftlicher Differenzen und machen damit das Gefüge unterschiedlicher Lebensformen deutlich. Sie werden hier mit systemtheoretischen Begrifflichkeiten nach Niklas Luhmanns Theorie sozialer Systeme beschrieben und damit auch erklärt. Während das für die 80er-Jahre des vorigen Jahrhunderts charakteristische Programm der „Kritik der Sprachkritik“ auf eine sprachwissenschaftliche Aufklärung zielt, scheint heute vielmehr eine soziologische Aufklärung diese metakritische Funktion erfüllen zu können. Es könnte sich aber auch zeigen, dass Sprachkritik ihren Beitrag zur Stabilisierung des gesellschaftlichen Zusammenwirkens leistet — wenn man sie nicht als Sprachkritik im engeren Sinn versteht.
In der emotional geführten Sprachverfallsdebatte wird besonders die Apostrophsetzung vor dem Genitiv- und dem Plural-t, vulgo Deppen-Apostroph, kritisiert und als vermeintliche Entlehnung aus dem Englischen stigmatisiert. Erst seit kurzem liegen mit Scherer (2010, 2013) korpusbasierte Untersuchungen vor, die eine angemessene Interpretation dieses graphematischen Wandels erlauben, der weitaus älter ist als gemeinhin vermutet. Generell erweist sich, dass viele als neu und bedrohlich empfundene Sprachveränderungen bereits vor über hundert Jahren meist ebenso emotional gegeißelt wurden. Der Beitrag befasst sich hauptsächlich mit der diachronen Entwicklung des phonographischen Apostrophs zu einem morphographischen, dessen Funktion nun nicht mehr darin besteht, nicht-artikulierte Laute zu markieren, sondern morphologische Grenzen (Uschis, Joseph K.’s, CD’s). Deutlich wird, dass der Apostroph der Gestaltschonung komplexer Basen dient, deren Gros aus Eigennamen besteht. Anschließend wird in einem kürzeren Teil nach der Entstehung und Beschaffenheit dieser s-Flexive selbst gefragt. Diese sind ihrerseits Ergebnis flexionsmorphologischer Umstrukturierungen und garantieren maximale Konstanthaltung des Wortkörpers. Abschließend wird noch die neueste Entwicklung gestreift, die in der Deflexion ebendieser s-Flexive besteht und die sich wieder am deutlichsten bei den Eigennamen manifestiert. Diese haben als Quelle all dieser Entwicklungen zu gelten (vgl. des Irak, des Helmut Kohl, auch des Perfekt, des LKW, des Gegenüber). Insgesamt ist festzustellen: Nicht nur die Apostrophsetzung vor s-Flexiven, sondern auch die s-Flexive selbst sowie ihr derzeitiger Abbau dienen ein und derselben Funktion: Der Schonung durch Konstanthaltung markierter Wortkörper, worunter mehrheitlich Eigennamen fallen, daneben auch Fremdwörter, Kurzwörter und Konversionen. Damit sind es die Eigennamen, die Ausgangspunkt und Ursache tiefgreifenden flexionsmorphologischen und graphematischen Wandels bilden.
Der Fokus des Beitrags liegt auf Spracheinstellungen von Deutschlehrerinnen und Deutschlehrern an weiterführenden Schulen in Österreich, Deutschland und der Schweiz. Auf Basis einer aktuellen und großangelegten empirischen Studie wird der Frage nachgegangen, welche Einstellungen Lehrpersonen in den drei Ländern zu Variation und Wandel des Deutschen und seinen Varietäten haben. Neben der quantitativen und qualitativen Analyse von ausgewählten Einzelergebnissen setzt sich der Beitrag zum Ziel, mittels des Klassifizierungsverfahrens einer Clusteranalyse interindividuelle Einstellungsmuster herauszuarbeiten und diese — in einem zweiten Schritt — auf ihre soziodemographische Zusammensetzung hin zu analysieren.
Vielbeachtete neue Studien zeigen, dass zwischen aktuellem ökonomisch relevantem Handeln und den traditionellen Dialekträumen ein signifikanter Zusammenhang besteht. In dem Beitrag wird dieser Zusammenhang aus der Dynamik der modernen Regionalsprachen erklärt. Unter dem Druck der omnipräsenten Standardsprache wird einerseits das alte landschaftliche Hochdeutsch zum Regiolekt um- und abgewertet, andererseits hat sich im Regiolekt die alte sprachraumkonstituierende und identitätsstiftende Funktion der großräumigen Dialektlandschaften bewahrt. In Abhängigkeit von der diffusionsabweisenden oder diffusionslizensierenden Qualität sprachkognitiver Gegensätze fallen alte Dialektgrenzen mit den Grenzen regiolektaler Neuerungsräume zusammen. Da für die Sprecher die sprachkognitiven Gegensätze, die sich hinter den vermeintlich geringen, die Verstellbarkeit nicht behindernden Unterschieden zwischen benachbarten Regiolekten verbergen, nicht erkennbar sind, bewerten sie diese nicht linguistisch-regional, sondern emotional, auf der Beziehungsebene und ästhetisch. Die „mentalen Gegensätze“, die die Raumwahrnehmung konstituieren, beruhen auf empirisch zugänglichen sprachkognitiven Differenzen. Die kulturelle Identität hat — jedenfalls soweit es die modernen deutschen Regionalsprachen betrifft — eine direkte linguistische Basis.
Die Normierung der deutschen Standardaussprache geht in ihren Ursprüngen auf die 1898 durch die Siebs-Kommission beschlossenen Regelungen für die deutsche Bühnenaussprache zurück. Seit 1964 bildet der Nachrichtensprecher bei der Ausübung seines Berufs die Grundlage für die gegenwärtigen deutschen Aussprachekodizes. Diese eingeschränkte empirische Basis zusammen mit einem primär präskriptiven Anspruch der Kodifikatoren führt dazu, dass auch das aktuellste Aussprachewörterbuch des Deutschen (DAW) in vielen Fällen den tatsächlichen Standardsprachgebrauch in Deutschland nur unzureichend repräsentiert. Dies wird im vorliegenden Beitrag durch den Vergleich mit Sprachdaten aus dem Korpus „Deutsch heute“, das Lese- und Spontansprache v.a. von Oberstufenschülern am Gymnasium aus dem ganzen deutschen Sprachraum enthält, anhand von acht unterschiedlichen sprachlichen Phänomenen gezeigt. Der Beitrag schließt mit einem Plädoyer für realitätsnähere Kodifikationen, die sich am Sprachgebrauch der „educated speaker“ orientieren (wie es v.a. im englischsprachigen Raum der Fall ist), weil sie der aktuellen Sprachsituation im Deutschen weit besser Rechnung tragen als die derzeit existierenden Kodizes.
Der Beitrag verortet die internetbasierten Kommunikationsformen in einem größeren sprach- und varietätengeschichtlichen Rahmen und macht deutlich, dass sich die neuen interaktionsorientierten Schreibformen — chatten, posten, twittern, skypen etc. — in einem Bereich etablieren, in dem bislang überwiegend mündlich kommuniziert wurde. Auf dieser Basis wird gezeigt, dass es bislang keine empirische Evidenz dafür gibt, dass der interaktionsorientierte Schreibstil auf das textorientierte Schreiben „abfärbt“, dass vielmehr kompetente Schreiber und selbst Jugendliche durchaus dazu in der Lage sind, situationsangemessen zwischen verschiedenen Schreibhaltungen und -stilen zu wechseln. Abschließend werden Desiderate für die korpusgestützte Begleitforschung zu diesen Entwicklungen formuliert und die Herausforderungen erläutert, die sich durch das Nebeneinander von interaktions- und textorientiertem Schreiben für die schulische Sprach- und Schreibförderung ergeben.
Aus der Perspektive der Sprachbenutzerinnen ist der Genitiv vom Sprachverfall bedroht. Jedoch lässt sich in der Geschichte des Deutschen kein geradliniger Abbau nachweisen. Die kurze Genitivendung -s (aus -es) setzte sich zwar schon im Frühneuhochdeutschen als die häufigere Variante durch, im weiteren Sprachwandel entwickelte sich dann aber eine komplex gesteuerte Variation beider Endungen. Mit dem Abbau des verbalen und attributiven Genitivs gehen zwar wichtige Funktionsbereiche verloren, doch zeichnet sich in der neuesten Sprachgeschichte ein unerwarteter Aufbau des Genitivs als Präpositionalkasus ab. In diesem Beitrag wird dafür plädiert, dass die formale und funktionale Entwicklung des Genitivs stark durch sprachliche Unsicherheit beeinflusst wurde und wird, die eine Reaktion auf bestehende Varianz darstellt. Es wird dafür argumentiert, dass die stilistische Aufwertung der langen Genitivform und des Genitivs gegenüber dem Dativ den Sprach-wandel aufhält bzw. sogar in eine andere Richtung lenkt.
Üblicherweise wird behauptet und erwartet, dass für den Deutschunterricht die deutsche Standardsprache zumindest als Zielsprache, wenn nicht gar als Unterrichtssprache gilt. Die Forschungen der germanistischen Soziolinguistik und Sprachlehrforschung zeigen allerdings, dass keinesfalls Einigkeit darüber besteht, was denn ,die deutsche Standardsprache‘ überhaupt sei, ob, und wenn ja, wie viel Variation sie beinhaltet, und wie mit Normabweichungen seitens der Schüler/innen umzugehen sei.
Unser Beitrag beschäftigt sich mit der Rolle der Deutschlehrenden — sowohl an deutschsprachigen Schulen als auch im Rahmen des DaF-Unterrichts an britischen Hochschulen — um zu erörtern, welche Erwartungen sie an die sprachliche Normenkonformität ihrer Schüler/innen haben und welche praktischen Probleme ihnen hierbei begegnen. Unterstützt durch historische Belege aus dem Schulalltag im 19. Jahrhundert, diskutieren wir Kontinuitäten und Innovationen in der Selbsteinschätzung von Deutsch- und DaF-Lehrer/innen zu ihrer Rolle als Sprachnormvermittler/ innen und stellen die Frage, wie groß ihre Rolle tatsächlich ist.
Sprachverfall wird in der öffentlichen Sprachdiskussion nicht selten mit der Unkenntnis oder Missachtung von sprachlichen Regeln in Verbindung gebracht. Als Instanzen, wo sich (explizite) Sprachregeln gesellschaftlich relevant verkörpern, können Sprachkodizes gesehen werden. Vor diesem Hintergrund wird im Text der Begriff des Sprachkodex in verschiedenen Dimensionen präzisiert und eine Subklassifikation in Kern- und Parakodex vorgeschlagen. Dem folgt ein Plädoyer für eine Sprachkodexforschung, in der die traditionell eher marginalen Perspektiven auf Sprachkodizes zu erweitern und zu systematisieren sind.
Die Vorstellung eines Verfalls der deutschen Sprache lässt sich mindestens bis in das 16. Jahrhundert zurückverfolgen, als Schulmeister sich beschwert haben, dass ihre Schüler wegen der um sich greifenden Variation nicht mehr wüssten, was korrektes Deutsch sei. Ähnliche Vorstellungen treten etwa gleichzeitig in anderen europäischen Ländern auf und können vielleicht mit dem langsamen Ersatz des Lateins als vorherrschender Sprache des Schrifttums und der Bildung in Zusammenhang gebracht werden. Sie beruhen auf verbreiteten irrtümlichen Annahmen über das Wesen der Sprache, insbesondere dass die zugrundeliegende Form jeder Sprache homogen und unwandelbar sei und seit sehr langem — eventuell seit Babel — so existiert habe. Diese Annahmen muss man mit Watts (2011) als Mythen werten, sie sind jedoch sehr beharrlich, und in der frühen Neuzeit dienten sie als Grundlage für die Erschaffung der heutigen deutschen Standardsprache, die aus diesem Grunde genauso wie alle anderen europäischen Kultur- oder Standardsprachen eigentlich als ein rezentes kulturelles Artefakt anzusehen ist.
In diesem Beitrag wird anhand von Material aus einem neuen elektronischen Korpus der deutschen Sprache des 17. und 18. Jahrhunderts gezeigt, wie die Standardsprache entstanden ist als Ergebnis dieser Annahmen sowie aus der Vorstellung, nur auf diese Weise sei die deutsche Sprache vor dem endgültigen Verfall zu retten. Im Laufe dieses Vorgangs wurde wo möglich jede Variation aus der Schriftsprache eliminiert und dabei auch sprachliche Varianten stigmatisiert, die heute noch häufig sind, auch wenn sie als „substandard“, „nicht korrekt“ oder „nicht hochsprachlich“ gelten. Auch wurden Regeln des „guten“ hochdeutschen Sprachgebrauchs festgelegt (oder erdacht), die Muttersprachler im spontanen Gespräch immer noch kaum beachten. Aber die Sprachgeschichte lehrt, dass Variation und Wandel nicht zum Verfall der Sprache führen, sondern die dynamische Flexibilität gewährleisten, die für die Sprache nötig ist, wenn sie allen sozial und kulturell erforderlichen Bedürfnissen der menschlichen Kommunikation gerecht werden muss.
Lexikonstatistik 2.0
(2014)
In der Mitte des 20. Jahrhunderts gab es diverse Versuche, die Klassifikation von Sprachen mit Hilfe von Wortlisten, die dem Grundvokabular der betreffenden Sprachen entnommen sind, zu automatisieren. Diese Methoden wurden und werden in der historischen Sprachwissenschaft gemeinhin kritisch diskutiert, da sich die erzielten Ergebnisse häufig als fehlerhaft erwiesen.
In den letzten Jahren erleben wir einen neuen Aufschwung lexikostatistischer und glottochronologischer Ansätze. Deren Erfolgsaussichten sind heute wesentlich besser als vor einem halben Jahrhundert, da uns jetzt große Mengen an sprachvergleichenden Daten in elektronischer Form zur Verfügung stehen und die Computerlinguistik und Bioinformatik mächtige Werkzeuge bereitstellt, diese Daten statistisch auszuwerten.
Im vorliegenden Artikel wird eine Fallstudie vorgestellt, die das Potenzial lexikostatistischer Methoden im 21. Jahrhundert illustriert.
Forschungsdatenmanagement in den Geisteswissenschaften am Beispiel der germanistischen Linguistik
(2013)
Die Kernaufgabe des Instituts für Deutsche Sprache (IDS) ist die Erforschung und Dokumentation der deutschen Sprache. Dazu sammelt und archiviert das IDS einen umfangreichen Bestand an Forschungsprimärdaten in Form von Korpora der geschriebenen und gesprochenen Sprache sowie Sekundärdaten, wie zum Beispiel lexikographische Ressourcen. Dieser Beitrag gibt einen Überblick über den Datenbestand des IDS und die laufenden Forschungskooperationen im Bereich der Langzeitarchivierung. In diesem Kontext wird das im Aufbau befindliche Langzeitarchivdes IDS mit seiner Architektur, den zugrundeliegenden Prinzipien zur Daten- und Metadatenmodellierung sowie den daraus abgeleiteten Erfassungsprozessen vorgestellt. Der Beitrag schließt ab mit einem Ausblick auf die Herausforderungen und Perspektiven des Forschungsdatenmanagements aus Sicht der germanistischen Linguistik.
Anhand von Texten aus den Jahren 1972 und 2002 wurden die Schreibkompetenzen von 530 Viertklässlern aus dem östlichen Ruhrgebiet untersucht und miteinander verglichen. In einer Nachfolgestudie kamen im Dezember 2012 noch 437 Texte hinzu, die zurzeit ausgewertet werden. Als außersprachliche Variablen wurden u.a. soziale Schicht, Ein-/Mehrsprachigkeit, Geschlecht und die Sekundarschulempfehlung erfasst. Die Texte wurden in Bezug auf Schriftbild, Textlänge, Wortschatz, Textgestaltung, Rechtschreibung, Zeichensetzung und Grammatik untersucht. Neben der grundsätzlichen Frage nach den historisch bedingten Unterschieden im Schreibverhalten ermöglicht das Untersuchungsdesign eine differenzierte Analyse des Schriftsprachwandels in der Grundschule über einen Zeitraum von 40 Jahren.
Die Ergebnisse zeigen, dass sich generell keine Entwicklung zu defizitären Texten („Sprachverfall“) beobachten lässt. Stattdessen ergibt sich ein differenziertes Bild schriftsprachlichen Wandels mit erfreulichen und weniger erfreulichen Tendenzen. Während beispielsweise für die Bereiche Wortschatz und Textgestaltung beachtliche Verbesserungen erzielt werden konnten, finden sich in den neueren Texten beinahe doppelt so viele Rechtschreibfehler. Es zeigt sich auch, dass 2002 und 2012 die soziale Schicht und die Zuordnung der Schülerinnen und Schüler nach Sekundarschulen (Übergangsempfehlung) in einem wesentlich stärkeren Bezug zu den schriftsprachlichen Leistungen stehen als 1972. Positive Entwicklungen lassen sich vor allem bei Kindern aus der oberen Mittelschicht beobachten, während Kinder aus der Unterschicht mit einer Hauptschulempfehlung gegenüber 1972 deutlich schlechtere Leistungen zeigen. Gegenwärtig wird untersucht, ob sich der Trend bis heute fortgesetzt hat. Zur Rechtschreibung liegen bereits erste Ergebnisse vor.
This paper describes the effort of the Institut für Deutsche Sprache (IDS), the central research institution for the German language, connected with Information and Communications Technology (ICT). Use of ICT in a language research institute is twofold. On the one hand, ICT provides basic services for researches to accomplish their daily work. On the other hand, several national and international institutions have a strong interest in ICT. Therefore, ICT can also be seen as an amplifier for language research. The first part of this paper reports on the activates of the IDS in internal and external ICT-related projects and initiatives. The second part describes a general strategy towards an ICT strategy that could be useful both for the IDS and other national language institutes. We think such a general strategy is necessary to create a strong foundation not only for the ICT-related projects, but as a basis for a modem research institute.
We present SPLICR, the Web-based Sustainability Platform for Linguistic Corpora and Resources. The system is aimed at people who work in Linguistics or Computational Linguistics: a comprehensive database of metadata records can be explored in order to find language resources that could be appropriate for one’s specific research needs. SPLICR also provides an interface that enables users to query and to visualise corpora. The project in which the system is being developed aims at sustainably archiving the ca. 60 language resources that have been constructed in three collaborative research centres. Our project has two primary goals: (a) To process and to archive sustainably the resources so that they are still available to the research community in five, ten, or even 20 years time. (b) To enable researchers to query the resources both on the level of their metadata as well as on the level of linguistic annota-tions. In more general terms, our goal is to enable solutions that leverage the interoperability, reusability, and sustainability of heterogeneous collections of language resources.
Grundlage dieses Artikels* 1 ist das Verbundprojekt „Nachhaltigkeit linguistischer Daten“ der drei Sonderforschungsbereiche 441, 538 und 632, dessen Ziel es ist, Lösungen für die nachhaltige Verfügbarkeit der an den SFBs vorhandenen Korpora zu entwickeln. Ein zentraler Aspekt betrifft die Klärung der Rechtslage für die Nutzung und Weitergabe linguistischer Ressourcen, die durch das Urheber- sowie das Datenschutzrecht geschützt sind. Eine als indifferent wahrgenommene rechtliche Situation wird in der Praxis oft als das entscheidende Hindernis für die Weitergabe linguistischer Daten angeführt. Tatsächlich jedoch sind Nutzung und Weitergabe von Daten zu wissenschaftlichen Zwecken normativ geregelt. Problematisch ist oftmals die Einordnung der speziellen linguistischen Daten als Schutzgegenstand sowie die Tatsache, dass an linguistische Daten und Datensammlungen aufgrund ihrer komplexen und vielschichtigen Beschaffenheit durchaus mehrere Urheber Rechte besitzen können, die sich auf verschiedene Inhalte beziehen. Der Beitrag gibt einen Überblick über das geltende Recht sowie die juristischen und natürlichen Personen, die potentiell Rechte an linguistisch aufbereiteten Datenkollektionen besitzen. Es ist nicht Gegenstand dieses Artikels, rechtsverbindliche Aussagen zu treffen, die auf eine Nutzung und Weitergabe jedweder Daten angewandt werden. Der Artikel orientiert sich in seiner Struktur und thematischen Tiefe bewusst nicht an einem juristischen Publikum, sondern beschreibt die Problematik aus geisteswissenschaftlicher Perspektive. Zusammen mit einem Überblick über das vom Umgang mit linguistischen Datensammlungen betroffene Recht, das Urheberrechtsgesetz (Abschnitt 1) und das Bundesdatenschutzgesetz (Abschnitt 2), wird in den jeweiligen Abschnitten auch eine Klassifikation der Daten aus juristischer Sicht vorgenommen. Anschließend werden Lösungsansätze vorgestellt, die im Rahmen des o. g. Verbundprojektes erarbeitet werden (Abschnitt 3).
In the mid-1990s, the Faculty of Linguistics and Literary-Studies at Bielefeld University began to establish the field Text technology, both in research and education. Text technology is a new field of research on the border of Computational Linguistics and Computational Philology.
This paper focuses on Text technology in academic education. In 2002, Text Technology was introduced as a minor subject for B.A. Programs. It is organized in modules: Module 1 introduces the characteristics of electronic texts and documents, typography, typesetting systems and hypertext. Module 2 introduces one or two programming languages relevant to the field of humanities computing. Markup languages and the principles of information structuring are the main topics of Module 3. The formal fundamentals of computer-based text processing, as formal languages and their grammars, Logics et cetera are subjects of another module. The paper ends with a short description of other Bachelor- and Master-Programs at Bielefeld University which contain text technological themes.
Gegenstand des Workshop-Beitrags ist die Verknüpfung heterogener linguistischer Ressourcen. Eine bedeutende Teilmenge von Ressourcen in der gegenwärtigen linguistischen Forschung und Anwendung besteht zum einen aus XML-annotierten Textdokumenten und zum anderen aus externen Ressourcen wie Grammatiken, Lexika oder Ontologien. Es wird eine Architektur vorgestellt, die eine Integration heterogener Ressourcen erlaubt, wobei die Methoden zur Integration unabhängig von der jeweiligen Anwendung sind und somit verschiedene Verknüpfungen ermöglichen. Eine exemplarische Anwendung der Methodologie ist die Analyse anaphorischer Beziehungen.
Linguistische Korpora
(2004)
Im Zentrum der Dissertation steht der Begriff Informationsmodellierung oder genauer der Begriff der "textuellen Informationsmodellierung", wobei auf einer bereits vorgeschlagenen Unterscheidung einer primären und einer sekundären Ebene der Informationsstrukturierung aufgebaut wird. Der Gegenstand der primären Ebene sind die textuellen Daten selbst sowie ihre Strukturierung, wohingegen die sekundäre Ebene beschreibt, wie die für die primären Ebenen verwendeten Regelwerke mit alternativen Regelwerken in Beziehung gesetzt werden können. Der Einteilung in eine primäre und eine sekundäre Informationsstrukturierung wird in der Dissertation das Konzept der multiplen Informationsstrukturierung nebengeordnet. Dieses Konzept ist so zu verstehen, dass die primäre Ebene bei Bedarf vervielfacht wird - jedoch bezieht sich jede dieser Ebenen auf dieselbe Datengrundlage. Hierbei ergeben sich auch Auswirkungen auf die sekundäre Informationsstrukturierung. Die Informationsmodellierung erfolgt mit Auszeichnungssprachen. Die Standard Generalized Markup Language (SGML) stellt hierfür einen Rahmen dar, jedoch wurde dieser Formalismus seit seiner 1986 erfolgten Standardisierung nicht nur weiterentwickelt, sondern es wurde mit der Extensible Markup Language (XML) im Jahr 1998 eine wesentlich einfachere Untermenge dieser Sprache definiert, die zudem das derzeitige Zentrum weiterer Entwicklungen auf dem Gebiet der Auszeichnungssprachen darstellt. Der entwickelte Ansatz zur Modellierung linguistischer Information basiert auf der Extensible Markup Language (XML), wobei die weitergehenden Möglichkeiten von SGML selbstverständlich ebenfalls dargestellt und diskutiert werden. Mittels XML können Informationen, die sich nicht in bestimmten Hierarchien (mittels mathematischer Bäume) strukturieren lassen, nicht in einer natürlichen Weise repräsentiert werden. Eine Lösung dieses Problems liegt in der Aufteilung der Strukturierung auf verschiedene Ebenen. Diese neue Lösung wird dargestellt, diskutiert und modelliert.
Im Folgenden wird eine texttechnologische Komponente zur Expansion eines XML- annotierten Stammformenlexikons, das auf Einträgen eines Standardwörterbuchs basiert, vorgestellt. Diese Expansion wurde in der Document Style Semantics and Specification Language implementiert. Ihr Ergebnis ist ein Vollformenlexikon, das ebenfalls in XML repräsentiert ist.
SGML und Linguistik
(1999)
Der grammatiktheoretische Anteil des Linguistikstudiums und die damit verbundenen Forschungsfelder in verschiedenen Anwendungsgebieten sind heute an vielen Universitäten "ökumenisch" ausgerichtet. Das soll heißen, dass man sich - als Studierender wie als Wissenschaftler - nicht auf eine theoretische Schule einschwören muss, sondern mit verschiedenen Ansätzen experimentieren kann.
Sprachverarbeitung mit getypten Attribut-Wert-Matrizen. Dependenzgrammatik und Konzeptuelle Semantik
(1996)
In dieser Arbeit wurden die Dependenzgrammatik und die Konzeptuelle Semantik formalisiert. Als Ausgangspunkt dafür diente eine detaillierte Darstellung der formalen Grundlage. Diese wurden im Kapitel 1 erarbeitet. Nicht alle in diesem Kapitel entwickelten Konzepte wurden in den späteren Kapiteln aufgegriffen. Ich halte es aber für sinnvoll die mathematischen Eigenschaften eines Formalismus ausführlich darzustellen, bevor dieser zur Anwendung gebracht wird. Die beschriebenen Eigenschaften sind dem Formalismus immanent. Auf die Einführung von Erweiterungen, z.B. die Definition von Mengen, wurde verzichtet, da sie im weiteren Verlauf keine Verwendung finden.
Im Kapitel 2 wird gezeigt, dass die Dependenzgrammatik mit dem dargestellten Formalismus beschrieben werden kann. Damit wurde eine Formalisierung erreicht, die zeigt, dass der seltene Einsatz dieser traditionsreichen Grammatiktheorie in der Computerlinguistik, zumindest aus formalen Gründen, nicht gerechtfertigt ist.
Das Kapitel 3 stellt die Konzeptuelle Semantik vor. Die ursprüngliche Formalisierung dieser Theorie wurde kritisiert. Es wurde gezeigt, dass die Beschreibung der Konzepte durch getypte Attribut-Wert-Matrizen eine bessere Alternative der formalen Darstellung ist. Desweiteren wurden einerseits Vereinfachungen (z.B. der Verzicht auf die Dekomposition der Konzepte) und andererseits Erweiterungen (d.h. insbesondere eine Erweiterung des Inventars der ontologischen Kategorien) vorgeschlagen.
Nachdem diese beiden linguistischen Theorien mit demselben formalen Apparat dargestellt wurden, wurde im Kapitel 4 dargestellt, dass sie sich ergänzen. In dem skizzierten Sprachverarbeitungssystem werden die syntaktische und die semantische Struktur parallel aufgebaut. Es ist erkennbar, dass sich beide Theorien ergänzen. Es wurde darüber hinaus gezeigt, dass ein solches System eine sehr gut geeignete Basis zur maschinellen Verarbeitung defizitärer sprachlicher Äußerungen bildet.