Refine
Year of publication
Document Type
- Part of a Book (167)
- Article (15)
- Review (9)
- Report (1)
Has Fulltext
- yes (192)
Is part of the Bibliography
- no (192) (remove)
Keywords
- Deutsch (78)
- Sprachvariante (28)
- Korpus <Linguistik> (26)
- Sprachgebrauch (17)
- Rechtschreibung (15)
- Germanistik (14)
- Fremdsprache (13)
- Grammatik (12)
- Soziolinguistik (12)
- Sprachwandel (12)
Publicationstate
- Zweitveröffentlichung (192) (remove)
Reviewstate
- (Verlags)-Lektorat (170)
- Peer-Review (22)
Publisher
- de Gruyter (192) (remove)
Der Beitrag behandelt Schreibvarianten der Gegenwartssprache. Es werden auf der Grundlage von vier Fallgruppen (1. Binnenmajuskel, 2. Kompositaschreibung mit Leerzeichen, 3. Kompositaschreibung mit Bindestrich, 4. genderfokussierende Schreibweisen) zwei Typen von Normvarianz unterschieden – ein politischer und ein unpolitischer. Dabei wird der Frage nachgegangen, ob unpolitische Ad-hoc-Bildungen auf dem Weg der Konventionalisierung sich von als politisch wahrgenommenen Normvarianten unterscheiden. Zur Beschreibung des Phänomens wird der Begriff der elastischen Norm eingeführt, um divergierende Schreibkonventionen im Spannungsfeld von Faktizitätsherstellung und kodifizierter Setzung zu modellieren. Zur soziolinguistischen Unterscheidung von Schreib- und Leseperspektiven werden die Schreibvarianten als drei unterschiedliche Gesten kategorisiert – als unmarkierte Nullgeste, als markierte Nullgeste und als indexikalisierte Signalgeste.
Seit 1996 ist das Amtliche Regelwerk zur deutschen Rechtschreibung (einschließlich Amtlichem Wörterverzeichnis) gültig. Es regelt die Orthografie für Behörden und Schulen in Deutschland sowie in den sechs weiteren Mitgliedsländern des Rats für deutsche Rechtschreibung. Für die Wörterbuchverlage bzw. alle Wörterbuchprojekte gilt es, dieses hoch abstrakte Regelwerk einerseits auf alle Einträge in den A–Z-Teilen der Wörterbücher anzuwenden und andererseits ggf. das Regelwerk selbst zu „übersetzen“ und es damit einer breiten Öffentlichkeit zugänglich zu machen.
Neographeme wie Genderstern und Doppelpunkt werden zunehmend verwendet, um Personen unabhängig von ihrem Geschlecht einzubeziehen. Der Beitrag beleuchtet diese Sonderzeichen aus semantischer, typographischer und grammatischer Sicht, vergleicht sie mit anderen Typogrammen und diskutiert ihren Morphemstatus. Auch ihre metapragmatische Leistung der sprecherseitigen Verortung kommt in den Blick. In Bezug auf die Rezeption werden aus kognitionslinguistischer Perspektive die Lesbarkeit und die Funktionstüchtigkeit des Sterns betrachtet. Lesenden, die mit der Form vertraut sind, gelingt der Wortzugriff mühelos, und der Genderstern elizitiert inklusive mentale Repräsentationen. Diese Analysen und Befunde sprechen für die grundsätzliche Möglichkeit, Neographeme in die Sprache zu integrieren.
GraphVar ist ein Korpus aus über 1.600 Abiturarbeiten, die zwischen 1917 und 2018 an einem niedersächsischen Gymnasium geschrieben wurden. Das Hauptinteresse beim Aufbau bestand in der Beschreibung graphematischer Variation und ihrer Entwicklung über die Zeit. Leitend war die Frage, was Schreiberinnen und Schreiber eigentlich tatsächlich machen bzw. gemacht haben – und zwar unbeeinflusst von technischen Hilfsmitteln oder Schluss- und Endredaktion, aber unter vergleichbaren Bedingungen. Das Korpus bietet somit ein Fenster auf den unverfälschten Schreibgebrauch von Abiturientinnen und Abiturienten im Laufe der Zeit. Zum jetzigen Zeitpunkt sind 1.618 Arbeiten transkribiert, linguistisch annotiert und über eine ANNIS-Instanz erreichbar (graphvar.unibonn.de, Stand: 8.8.2023). Im Sommer 2022 konnten weitere 1.600 Arbeiten zwischen 1900 und 2021 an einem Gymnasium in Nordrhein-Westfalen digitalisiert werden. Neben schriftlinguistischen Fragestellungen ist das Korpus prinzipiell auch für syntaktische, morphologische und lexikalische Fragestellungen geeignet; auch didaktische Untersuchungen sind möglich, genau wie kulturwissenschaftliche.
Anhand der Rückmeldungen auf eine Umfrage unter den Mitgliedern der Organisation EFNIL (European Federation of National Institutions for Language) wird in diesem Artikel erfasst, wie die orthographische Norm in den Staaten Europas etabliert und vermittelt wird. Es wird unter anderem beleuchtet, welche Prinzipien bei der Erstellung der Norm angewandt werden, in welchen Teilen der Gesellschaft die Regeln gelten, wie sie an die Öffentlichkeit vermittelt werden, inwieweit sie eingehalten werden, ob es alternative Normen gibt, und mit welchen Mitteln Veränderungen im Sprachgebrauch erfasst und berücksichtigt werden.
Orthographie
(2024)
Ausgehend von den Ergebnissen des letzten IQB-Bildungstrends (2021) zu den orthographischen Kompetenzen von Grundschüler:innen fragt der Beitrag nach Stellenwert und Funktion der Orthographie vor dem Hintergrund der Anforderungen, die an die sprachliche Bildung von Schüler:innen gestellt sind. Orthographie und orthographische Kompetenzen werden funktional im Bereich des Schreibens und einer zu entwickelnden Schreibkompetenz verortet. Wichtig ist dabei der Blick auf die Schreibflüssigkeit. Sie ist grundlegend für die anforderungsreichen Prozesse des Textschreibens. Ausgehend von Befunden neuerer Studien betrachten wir das Verhältnis von Orthographie und Schreiben und daraus resultierende Anforderungen an den schulischen (Recht-)Schreiberwerb.
Gemäß Lehrplänen scheint der Rechtschreiberwerb nach der Sekundarstufe I weitgehend abgeschlossen. Aber auch auf der Sekundarstufe II, ja sogar an Universitäten verstoßen die Schreibenden gegen die gültigen Regeln. Dabei können Lernende auf diesen Stufen durch die Auseinandersetzung mit dem System der Orthografie ein besseres Verständnis für die Normen entwickeln. Ein explorativer, konstruktivistischer Ansatz eröffnet neue Perspektiven, orthografische Probleme zu untersuchen und zu verstehen. Es wird gezeigt, wie Regeln durch gezielte Aufträge selbstständig entdeckt werden können und mit welchen Strategien sich das Sprachbewusstsein durch und für die Orthografie vertiefen lässt. Ein solcher explorativer Zugang erweitert das Wissen über Rechtschreibung und fördert die korrekte Verwendung der Schriftsprache.
Der vorliegende Beitrag beschäftigt sich mit der Rechtschreibung von Maturantinnen und Maturanten in einem österreichischen Deutschmaturatext-Korpus. Es werden Ergebnisse aus einer quantitativen und qualitativen Untersuchung dieses Lernerkorpus präsentiert. Diese haben gezeigt, dass die Rechtschreibleistungen in den untersuchten österreichischen Maturaarbeiten besser sind als in der (medialen) Öffentlichkeit angenommen, dabei jedoch bestimmte Fehlerschwerpunkte hervorstechen. Signifikante Unterschiede in Hinblick auf Leistungen bei Orthographie und Zeichensetzung bestehen zudem zwischen stift- und computergeschriebenen Arbeiten.
Das Rechtschreiben ist digital automatisierbar. Ist der Orthographieerwerb dann noch notwendig für den Aufbau einer bildungssprachlichen literalen Kompetenz? Der Beitrag fragt nach den Zusammenhängen zwischen der Orthographie und den sprachlichen und kognitiven Fähigkeiten, die für das Schreiben und Lesen von Texten gebraucht werden. Argumente und Forschungsergebnisse zu drei konkurrierenden Hypothesen zu diesem Zusammenhang werden vorgestellt und diskutiert: Entlastungsthese, Bewusstheitsthese, Literalisierungsthese. Auf der Grundlage der Literalisierungsthese wertet der Beitrag den Orthographieerwerb als nicht substituierbare Komponente einer Sprachkompetenz, die den Umgang mit Texten ermöglicht.
Das Schriftsystem ist ein System und es zeigen sich Folgen, wenn Schreibungen gegen den Schreibusus geändert werden. Exemplarisch wird dies erstens an der Veränderung des Verbsuffixes -iren zu -ieren im Nachgang der Rechtschreibreform von 1876 und zweitens der Veränderung von Gruppen wie im Allgemeinen in der Reform von 1996 gezeigt. Beide verursachen unbeabsichtigte Folgefehler. Wie systematisch manche Variation und damit auch mancher Fehler ist, wird sowohl am Komma vor Vergleichssätzen als auch an Fehlern in der Getrennt- und Zusammenschreibung gezeigt. Das Statut des Rechtschreibrates besagt, dass bei der Weiterentwickung des Amtlichen Regelwerks die ständige Beobachtung der Schreibentwicklung, die Klärung von Zweifelsfällen, die Erarbeitung und die wissenschaftliche Begründung von Vorschlägen zur Anpassung des Regelwerks an den allgemeinen Wandel der Sprache im Vordergrund stehen. Das ist zu begrüßen, weil viele Zweifel bei den Zweifelsfällen grammatische und nicht orthographische Ursachen haben.
Kognitive Pretests oder auch kognitive Interviews sind semi-standardisierte Interviews, die durchgeführt werden, um Einblick in die kognitiven Prozesse zu bekommen, die Befragte beim Beantworten von Fragen durchlaufen, und wie sie zu ihrer Antwort kommen. Innerhalb der sozialwissenschaftlichen Umfrageforschung werden kognitive Interviews insbesondere zu zwei Zwecken eingesetzt: (a) in der Fragebogenentwicklung und (b) in der Übersetzung von Fragebögen. Im Rahmen der Fragebogenentwicklung wird durch Interviews mit Befragten der Zielpopulation versucht, Hinweise auf unterschiedlichste Frageprobleme zu erhalten. So kann man beispielsweise herausfinden, wie Befragte bestimmte Wörter oder Begriffe verstehen, wie schwierig oder einfach sie eine Frage finden oder wie sie ihre Antwort auf eine Frage bilden. In der Übersetzung von Fragebögen kann man beispielsweise untersuchen, ob eine übersetzte Frage so verstanden wird wie die entsprechende Frage in der Ausgangssprache oder welche gewünschten bzw. unerwünschten Konnotationen bestimmte Übersetzungen haben. Innerhalb der Orthographieforschung ließe sich diese Methode auf die Entwicklung von Kriterien zur Festlegung von Rechtschreibregeln oder zur Prüfung ihrer Akzeptanz anwenden: In kognitiven Interviews eingesetzte Techniken wie „Probing“, also gezieltes Nachfragen, oder Lautes Denken könnten genutzt werden, um zu prüfen, wie Rechtschreibregeln angewendet werden oder wie sie zielgruppenspezifisch und nutzungsfreundlich ausgestaltet werden müssten, damit sie größtmögliche Akzeptanz in weiten Teilen der Bevölkerung finden. So könnte man intuitive Entscheidungen bei Worttrennung oder Getrennt- und Zusammenschreibung untersuchen.
Die normgerechte Kommasetzung ist im Deutschen deklarativ und sehr elegant von Beatrice Primus (1993, 2007) erfasst worden. Sie bindet Kommas primär an syntaktische Konzepte wie ‚Satzgrenze‘ und ‚Subordination‘. Nun gibt es allerdings ein Komma, das sich nicht ins System fügen will, das aber immer häufiger wird: das Vorfeldkomma wie in Gegen so eine starke Übermacht, konnten die deutschen Truppen nichts mehr ausrichten. Dieser Beleg stammt aus einer rezenten Abiturarbeit. Hier wird – entgegen den geltenden Rechtschreibregeln – das Vorfeld der Sätze mit einem Komma abgetrennt; es handelt sich um systematische Abweichungen von der Norm. Wir können die Faktoren, die ihre Verteilung steuern, empirisch gut erfassen. Weit weniger klar ist, ob diese Beobachtungen theoretische Konsequenzen haben sollten, und wenn ja, welche. Das soll in diesem Beitrag diskutiert werden, neben einigen anderen Problemfällen, die die Empirie der Theorie beschert.
Die Anforderungen an gegenwartssprachliche Wörterbücher beinhalten, bei der Aufbereitung der lexikalischen Informationen in Stichwortartikeln die lemmabezogenen Korrektschreibungen adäquat zu berücksichtigen. Die dazugehörigen Arbeitsgänge in der Redaktion des Digitalen Wörterbuchs der deutschen Sprache (DWDS) reichen von der Ansetzung der Nennformen in allen ggf. zulässigen orthographischen Varianten über die Anlage von Verweisen auf die einschlägige Bezugsnorm bis zur Dokumentation ausgewählter Korpusbelege mit gebrauchsfrequenten Abweichungs- und Falschschreibungen. Als besondere Herausforderungen für die lexikographische Praxis erweisen sich regelmäßig Lücken und Interpretationsspielräume in der amtlichen Regelung sowie die bei Belegrecherchen in den DWDS-Textquellen zutage tretenden Diskrepanzen zwischen orthographischer Norm und Schreibusus.
Das Ziel des Beitrages ist es, die Orthografiereform 1996–2006 in den Entwicklungsprozess der deutschen Rechtschreibung seit der Herausbildung der Einheitsorthografie einzuordnen, ihre Stellung in diesem Prozess zu kennzeichnen und ihre Ergebnisse zu benennen. Ausgehend von einer Charakterisierung der besonderen Merkmale der Orthografie als Norm der Schreibung sowie des Begriffes Orthografiereform, werden zunächst die Endphase der Herausbildung der deutschen Einheitsorthografie und ihr Abschluss durch die Orthografiereform von 1901 beschrieben. Dem folgt die Darstellung der Besonderheiten der deutschen Orthografieentwicklung im 20. Jahrhundert bis zum Jahr 1996. Ein wichtiger Bestandteil des Beitrages ist dann die Herausarbeitung der Grundlagen und Bestimmungsfaktoren einer Orthografiereform unter heutigen Bedingungen und die Anwendung dieser Grundsätze auf den Prozess der Entstehung und Umsetzung der Orthografiereform 1996–2006. Abschließend werden die Ergebnisse dieses Prozesses in vier Punkten zusammengefasst die auch gleichzeitig die Bedeutung dieser Sprachlenkungsmaßnahme in der deutschen Orthografiegeschichte kennzeichnen.
Die Schrifttypologie beschränkte sich bisher auf eine strukturelle Klassifikation von Schriftsystemen, basierend auf der sprachlichen Korrespondenzebene von Graphemen. Aufgrund dieses engen Fokus haben die resultierenden Typologien relevante Merkmale sowie Gemeinsamkeiten verschiedener Schriftsysteme und ihres Gebrauchs nicht im Blick. Zur Erarbeitung einer umfassenden Schrifttheorie mit erklärendem Anspruch ist aber eine multiperspektivische und damit interdisziplinäre Beschreibung – und in Folge ein Vergleich – unterschiedlicher Schriftsysteme notwendig. Die Erstellung nutzbringender – sowohl struktureller als auch gebrauchsbasierter – Typologien ist hierfür eine geeignete Methode. Ihre einzelnen Schritte werden hier anhand des Beispiels der graphematischen Transparenz charakterisiert.
What is the subject of German linguistics? This seemingly simple question has no obvious answer. In the ZGL’s first issue, the editors required contributions to cover the whole of the German language and to be theoretically sound but application-orientated, whereas the current ZGL-homepage defines the German language of present and history in all its differentiations as its subject matter.
Looking through the fifty volumes of ZGL, three relationships can be identified as presumably enlightening the role of language, in particular the German language: language and mind; language and language use; language and culture. Though of a different systematic type, language and data should be added as an increasingly important pairing for conceptualizing language. On this basis, I also discuss the position of linguistic studies of the German language, mirrored in the ZGL-volumes, between social, cultural and natural sciences, as well as the corresponding epistemic approaches – like explaining vs. understanding.
In Dresden entsteht für den Forschungshub Digital Herrnhut der Pilot für ein agiles und multimodales Referenzkorpus der nächsten Generation (Nex-Gen Agile Reference Corpus (NARC)) in Zusammenarbeit mit der Sächsischen Landesbibliothek - Staats- und Universitätsbibliothek Dresden (SLUB). Dieses Korpus (N-ARC1) wird textliche, kartografische und audiovisuelle Quellen sowie weitere Artefakte fassen, die, miteinander vernetzt, als offene Forschungsdaten (teil-)maschinell angereichert werden können und in einer virtuellen Forschungsumgebung öffentlich und nachnutzbar zur Verfügung stehen sollen. Dafür bieten die Dokumente und Spuren der Herrnhuter Brüdergemeine - eine am Beginn des 18. Jahrhundert gegründete und in nur wenigen Jahrzehnten weltumspannende Glaubensgemeinschaft - einen idealen Ausgangspunkt. Im Beitrag werde ich exemplarisch an einigen ausgewählten Beispielen aus den Themenkreisen Datenerschließung, Datenstrukturierung, -erweiterung und -vernetzung zwischen akademischer Lehre, Forschung und bürgerwissenschaftlicher Beteiligung die Herausforderungen illustrieren, vor denen wir derzeit in der Umsetzung in Dresden stehen.
Die erfolgreiche Wiederverwendung gesprochener Korpora muss fachspezifischen Evaluationskritierien genügen und erfordert daher eine flexible Korpusarchitektur, die durch multirepräsentationale (Verfügbarkeit eines akustischen Signals und einer Transliteration) und multisituationale Daten (Variabilität von Situationen bzw. Aufgaben) gekennzeichnet ist. Diese Kriterien werden in einer Fallstudie zur /eː/-Diphthongisierung polnischer Deutschlerner/-innen angewendet und diskutiert. Die Fallstudie repliziert die Ergebnisse der /eː/-Diphthongisierung bei Bildbenennungen von Nimz (2016). Vor der Wiederverwendung werden weitere fachspezifische Evaluationskriterien überprüft, wie Multisituationalität, Aufnahmequalitäten, Erweiterbarkeit, vorhandene Metadaten und vorhandene Dokumentation. Nach der Replikationsstudie werden die Herausforderungen für eine Umsetzung der Wiederverwendung bezüglich Datenmanagement, Workflows und Data Literacy in Forschungs- und Lehrkontexten diskutiert.
Der vorliegende Beitrag erörtert am Beispiel des aktuell im Aufbau befindlichen Korpus GiesKaNe (= Gie[ßen]Ka[ssel]Ne[uhochdeutsch]) grundlegende Fragen nach dem Verhältnis von Standard und Innovation bei der Erweiterung der Korpuslandschaft durch neue Korpora. Bei jedem neu zu erstellenden Korpus stellt sich die Frage, inwieweit man den bereits etablierten Standards folgt, oder ob es legitim oder vielleicht sogar notwendig ist, neue Modelle der Annotation linguistischer Kategorien zu entwickeln. In diesem Sinne bespricht der Beitrag die Grenzen einer reinen Modellübernahme mit Bezug auf das POS-Tagging in anderen historischen Referenzkorpora und mit Bezug auf TIGER als Baumbank für das Gegenwartsdeutsche. Um trotz der Arbeit mit einer innovativen Alternative dem Prinzip der Interoperabilität gerecht zu werden, wird im Beitrag die Arbeit mit maschinellem Lernen ins Spiel gebracht. Dieses ermöglicht es, aus den vorhandenen Textoberflächenmerkmalen und den vorliegenden Annotationen auch alternative Annotationsmodelle abzuleiten und mittels einer Mehrebenenannotation anzubieten, sodass ein Korpus den Anforderungen an interoperable Nutzbarkeit und wissenschaftlichen Erkenntnisfortschritt gleichermaßen gerecht werden kann.
Der Beitrag thematisiert den Zusammenhang von Korpusaufbereitung, Datenanreicherung und Nutzungsszenarien im Kontext des Discourse Lab, das an der TU Darmstadt und der Universität Heidelberg betrieben und in linguistischen und interdisziplinären Forschungs- und Lehrprojekten genutzt wird. Für die Diskursforschung sind Korpora genauso konstitutiv wie die Einbeziehung von Kontexten des Sprachgebrauchs in die Analyse. Daher ist die Frage nach Repräsentationsformaten von Kontexten besonders wichtig. Eine große Rolle bei der korpuslinguistischen Kontextualisierung spielen auch Annotationen. Das wird am Darmstädter-Tagblatt-Korpus, den Plenarprotokollen des Deutschen Bundestags und den Korpora der DFG-Forschungsgruppe Kontroverse Diskurse diskutiert.
Der Beitrag liefert einen Einblick in korpuslinguistische Projekte und Aktivitäten aus dem österreichischen Sprachraum. Der Fokus liegt auf zwei primär auf die Analyse gesprochener Sprache ausgerichteten Korpora (DiÖ-Korpus und WBÖ-Korpus) sowie auf dem medial wie konzeptionell schriftlich angelegten Austrian Media Corpus. Institutionell eingebettet sind die Korpora in den Spezialforschungsbereich „Deutsch in Österreich (DiÖ)“ sowie in die Aktivitäten des Austrian Centre for Digital Humanities and Cultural Heritage (ACDH-CH) an der Österreichischen Akademie der Wissenschaften. Die theoretisch-methodologische Perspektive der Diskussion ist eine variationslinguistische, wobei sozio- und systemlinguistische Aspekte im Beitrag Berücksichtigung finden.
Dieser Beitrag stellt zwei Korpora vor, die als Datengrundlage für die Bestimmung der Regionalangaben im Digitalen Wörterbuch der deutschen Sprache (DWDS) fungieren: das ZDL-Regionalkorpus und das Webmonitor-Korpus. Diese Korpora wurden am Zentrum für digitale Lexikographie der deutschen Sprache (ZDL) erstellt und stehen allen registrierten Nutzern der DWDS-Plattform für Recherchen zur Verfügung. Das ZDL-Regionalkorpus enthält Artikel aus Lokal- und Regionalressorts deutscher Tageszeitungen, die mit arealen Metadaten versehen sind. Es wird ergänzt durch regionale Internet-Quellen im Webmonitor-Korpus, die zusätzliche Areale und Ortspunkte aus dem deutschen Sprachraum einbeziehen. Die Benutzerschnittstelle der linguistisch annotierten Korpora erlaubt nicht nur komplexe sprachliche Abfragen, sondern bietet auch statistische Recherchewerkzeuge zur Bestimmung arealer Verteilungen.
Das Korpus GeWiss (Gesprochene Wissenschaftssprache kontrastiv: Deutsch im Vergleich zum Englischen und Polnischen) bietet vielfältige Möglichkeiten zur Erforschung und Vermittlung der mündlichen Hochschulkommunikation. Mit den im Projekt ZuMult entwickelten Zugangswegen zu Korpora der gesprochenen Sprache eröffnen sich für einen deutlich größeren Personenkreis umfassende Nutzungsmöglichkeiten, die sowohl für sprachdidaktische Kontexte als auch für Forschungszwecke relevant sind. In diesem Beitrag wird eine Auswahl der in ZuMult geschaffenen Werkzeuge im Hinblick auf ihr Potenzial zur Arbeit mit den GeWiss-Daten vorgestellt. Im Anschluss wird anhand von expliziten sprachlichen Positionierungsmustern aufgezeigt, wie diese Korpustools für eine sprachdidaktisch orientierte empirische Untersuchung zu den Spezifika mündlicher Wissenschaftskommunikation genutzt werden können.
Research on language politics, policy, and planning is of importance to contact linguistics, since political relations between groups of language users, the way in which the use of language(s) is organized, and how language issues are politicized fundamentally shape the political and social conditions under which language varieties are in contact. This chapter first provides a short sketch of how language policy, planning, and politics have so far been conceptualized. Major subfields will be discussed, and then relevant actors and factors in these processes will be introduced. At the end, these aspects will be discussed from a contact linguistic perspective and summarized in a graphic visualization.
Numerous academics and politicians have in recent years contributed to the description and analysis of language policy for the benefit of smaller languages. The present paper tries to add to these by taking up the notion of yet another aspect of politics and language, exemplified by two case studies. The political aspect is the decentralization of parliamentary power for the benefit of minority languages. The two case studies deal with the relationship between the Scottish Parliament and the Gaelic language on the one hand, and between the Norwegian Sarni Parliament, the Sameting, and the Sami language on the other hand. The underlying idea is to consider whether parliamentary bodies may contribute to the empowerment of speakers of minority languages regarding the language of individual choice in as many instances as possible. This applies to any domain of language use, but in particular public bodies, education, and the media, at local, regional and national levels.
In this chapter, I will focus on the phenomenon of drop out, i.e., withdrawal from the turn due to overlapping talk, in order to reflect on the link between “unfinished” turns and participation framework. With the help of a sequential and multimodal analysis inspired by the conversation analytical approach, I will show that dropping out from a turn is strongly linked to the availability displayed by potential recipients of a turn-at-talk. Although conversation analysis has described in detail the systematics of overlapping talk, especially of its onset (Jefferson 1973, 1983, 1986) and its resolution (Scheg-loff 2000; Jefferson 2004), the phenomenon of withdrawal from a turn due to simultaneous talk has not been investigated in detail. While it seems to bedifficult to describe this interactional practice by referring exclusively to syntactic features (incompleteness of the turn), I suggest looking at turn withdrawal from a multimodal perspective (e.g. Goodwin 1980, 1981; Mondada2007a; Schmitt 2005), taking into account visible resources like gaze or gesture. The problem of continuing or stopping a turn-in-progress in overlapping talk can be closely linked to the participation framework (Goodwin and Goodwin 2004), as speakers do visibly take into account their recipient’s availability and coordinate their turn construction with the dynamic changes of the participation framework and the interactional space.
Im Corona-Diskurs prallen völlig unterschiedliche Meinungen und Positionen zur Rolle des Staates aufeinander. Die Studie untersucht diese Positionen mit korpuslinguistischen Methoden anhand der Berichterstattung von Medien und Kommentaren von Leserinnen und Lesern in der Deutschschweiz. Dabei werden auch rechte und Corona-skeptische Plattformen in die Analyse einbezogen. Grundlage des korpuspragmatischen Zugangs ist die Berechnung und Interpretation von Word Embeddings, einer Methode zur Modellierung von semantischen Räumen. Es zeigt sich, wie sich im Diskurs inkommensurable Semantiken entwickeln.
Faltungen: Die Schließung des rechten Kommunikationssystems aus korpuspragmatischer Perspektive
(2022)
Der Beitrag untersucht linguistische Prozesse, die bei der operativen Schließung politischer Kommunikationssysteme wirksam sind. Am Beispiel rechter Online-Medien während der sogenannten europäischen Flüchtlingskrise werden Praktiken der Umsemantisierung identifiziert und daraufhin befragt, wie sie an der rekursiven Organisation des rechten Kommunikationssystems mitwirken. Anhand von Aggregationen und Subjektprädikativen werden Prozesse der Umkonfigurierung konventioneller begrifflicher Relationen illustriert. Für (Um-)Semantisierungen, die zur operativen Schließung von Kommunikationssystemen beitragen, wird der Begriff der Faltung entwickelt.
Der Beitrag behandelt methodische Fragen der Korpuspragmatik im Bereich der politischen Sprache am Beispiel sprachlicher Praktiken der Moralisierung im Deutschen Bundestag. Wir stellen einen Ansatz zur Erarbeitung pragmatischer Strukturmuster – ,Pragmeme‘ – des Moralisierens vor, der auf kollaborativer Annotation basiert. Den Datensatz bildet das linguistisch aufbereitete Korpus der Plenarprotokolle des Deutschen Bundestags 1949–2017. Zur Eruierung geeigneter Beobachtungspassagen wurde ein Thesaurus von Moralwörtern erarbeitet und deren Verteilung gemessen. Dadurch haben sich drei Beobachtungsperioden für Pilotkorpora ergeben: 1949, 1983 und 2015. In diesen Beobachtungsperioden wurden Zufallsstichproben von Sätzen mit Moralwörtern gezogen und annotiert. Im Beitrag stellen wir die einzelnen Schritte und vorläufigen Ergebnisse des Projekts vor und diskutieren Möglichkeiten und Grenzen des Verfahrens.
Für die sprachbasierte Forschung in den Geistes- und Sozialwissenschaften stellt CLARIN eine Forschungsinfrastruktur bereit, die auf die hochgradig heterogenen Forschungsdaten in diesen Wissenschaftsbereichen angepasst ist. Mit Werkzeugen zum Auffinden, zur standardkonformen Aufbereitung und zur nachhaltigen Aufbewahrung von Daten sowie mit der Bereitstellung von virtuellen Forschungsumgebungen zur kollaborativen Erstellung und Auswertung von Forschungsdaten unterstützt CLARIN alle wesentlichen Aspekte des Datenmanagements und der Datenarchivierung. Diese CLARIN-Angebote werden durch Beratungs- und Schulungsmaßnahmen begleitet.
Argumentieren im Widerstand
(2022)
Widerstand gegen das NS-Regime war eine lebensbedrohliche, kräftezehrende und letztlich einsame Herausforderung für alle widerständischen Akteur/-innen. Abgelehnt von einer Mehrheit der NS-Volksgemeinschaft konnten Widerständler/-innen weder darauf bauen, dass ihre Haltungen und Handlungen verstanden noch als Vorbild wahrgenommen wurden. Zur Unterstützung und zum Verständlich-Machen ihrer Positionen bedurfte es kommunikativer Strategien der Überzeugung. Dahingehend ist es konsequent, dass dem Argumentieren in den verschiedenen widerständischen Textkommunikaten eine zentrale Rolle zukam. Anhand ausgewählter Texte des Widerstands ist es Ziel dieses Aufsatzes, das Argumentieren als widerständische kommunikative Praktik in ihrer Strukturiertheit sowie Komplexität darzustellen und hinsichtlich ihrer Akteurs-, Zeit- und Textsortengebundenheit zu reflektieren.
Der Beitrag untersucht korpuspragmatisch am Beispiel der Präpositionalphrasen mit gegen Varianten der Gegenwehr in der Zeit des Nationalsozialismus. Im Vordergrund stehen Flugblätter, Programmschriften und Zeitungsartikel, die unter den Bedingungen von Verfolgung, Exil oder Desertation kollaborativ verfasst wurden. Eine Spur zu diesen Dokumenten, die die Heterogenität und die Konfliktlinien des Widerstands auf Textebene widerspiegeln, legt die Korpusauswertung mithilfe der soziopragmatischen Annotationen aus dem Paderborner HetWik-Projekt. Methodisch werden gegen-Phrasen anhand ihrer Füllerprofile und Kollokatoren einzelnen Handlungsmustern zugeordnet. Im Ergebnis zeigt sich der Solidarisierungseffekt von situativ verfestigten Kollokationen sowie eine (selbst)kritische Reflexion von NS-Feindschaften.
In diesem Beitrag steht die sprachliche Konstitution von Eigengruppen und mit diesen assoziierten Partnergruppen im Vordergrund, deren zentrale Sprachgebrauchsmuster gezeigt werden. Der Beitrag basiert auf Auswertungen der im Projekt „Heterogene Widerkulturen: Sprachliche Praktiken des Sich-Widersetzens von 1933 bis 1945“ erstellten manuellen, soziopragmatisch orientierten Annotationen von 140 Widerstandstexten sowie auf korpuslinguistischen Auswertungen des Gesamtkorpus (554 Texte). Es soll gezeigt werden, dass eine linguistische Auseinandersetzung mit dem Gegenstand Ergebnisse der Widerstandsgeschichte produktiv vertiefen kann. So lässt allein schon die Betrachtung des pronominalen Referierens Schlüsse auf die sozialkulturelle Bindung der Widerstandsakteur/-innen zu.
Ist von empörenden Vergleichen die Rede, denken wir zuerst an Nazi- und Holocaust-Vergleiche. Diese Vergleiche und die Reaktionen darauf unterliegen sprachlichen Mustern und verfolgen politische Strategien, deren typisierende Analyse – anhand von Beispielen aus dem deutschen und nicht-deutschen Raum – im Zentrum des Aufsatzes steht. Das Frageinteresse zielt darüber hinaus auf eine Geschichte des empörenden Vergleichens in der historischen Langzeitperspektive. Empörende Vergleiche können formal als Gleichsetzungen, Komparationen oder als hierarchisierende Unterscheidungen auftreten. Ihre Hauptfunktionen sind das Diffamieren politischer Gegner, das Erheischen von Anerkennung, vor allem als Opfer erlittenen Unrechts, sowie die provozierende Verletzung von Sprachnormen zwecks Ausweitung der Grenzen des Sagbaren.
Der Beitrag beschäftigt sich mit dem Verhältnis zwischen politischer Argumentation und politischem System in der Schweiz. Vor allem mit Verweisen auf Ergebnisse aus den Sozialwissenschaften wird zunächst plausibilisiert, dass es ein anhaltendes internationales Interesse an direkter Demokratie gibt und dass die (halb)direkte Demokratie in der Schweiz insgesamt gut funktioniert. Anschließend argumentiert der Beitrag dafür, dass die politische Kommunikation und im Besonderen die politische Argumentation in der Schweiz nicht nur von der (halb)direkten Demokratie geprägt sind, sondern auch zu deren Funktionieren beitragen. Zu diesem Zweck werden vorrangig Ergebnisse verschiedener Studien aus dem SNF-Forschungsprojekt „Politisches Argumentieren in der Schweiz“ (2018–2021) aufeinander bezogen. Zusammengenommen deuten die Ergebnisse darauf hin, dass die politische Kommunikation und Argumentation für die erfolgreiche Existenz direktdemokratischer Instrumente eine nicht zu unterschätzende Bedeutung haben.
Kommunikation zwischen Regierenden und Regierten ist eine notwendige Bedingung für repräsentative Demokratien. Bürgerinnen und Bürger müssen wissen, wofür Parteien und Kandidaten stehen. Gleichzeitig müssen diese über Interessen und Bedürfnisse der Bevölkerung informiert sein. Kurzum: ohne Kommunikation funktioniert repräsentative Demokratie nicht. Politik und politische Kommunikation sind für die allermeisten von uns aber nicht unmittelbar, sondern nur mittelbar erfahrbar – hier spielen die Medien als „Fenster zur Welt“ eine zentrale Rolle. In aller Kürze werden wir uns der Bedeutung der medialen Veränderung (Radio, Fernsehen, Internet, soziale Medien) für die politische Kommunikation nähern. Hierum geht es in einem ersten Teil meines Beitrags. Daran anschließend, im zweiten Teil: Streit! Die politische Auseinandersetzung als Herzstück der Demokratie und besondere Form der Kommunikation. Hart in der Sache, anständig im Ton um die beste politische Lösung ringen – so der Idealfall. Doch wo findet diese Auseinandersetzung statt? Im dritten Teil des Beitrags wird das Konzept der Öffentlichkeit genauer beleuchtet. Vor wenigen Jahrzehnten unterhielt man sich über dieselbe Sendung, die man am Abend davor gesehen hatte – das „rituelle Zusammensein der Nation“. Heute leben wir in geteilten und getrennten Öffentlichkeiten. Filterbubbles, Echokammern. Welche Auswirkungen lassen sich daraus für die demokratische Debatte und die politische Kommunikation ableiten? Im vierten Abschnitt widmet sich der Beitrag großen Fragen, ohne abschließende Antworten zu liefern: Braucht es Regulierung? Kann Kommunikation überhaupt reguliert werden? Und von wem?
Der Beitrag beleuchtet die seit den Anfängen der Fachgeschichte geführte Debatte um die Positionierung der Sprachwissenschaft zur bzw. in der Gesellschaft mit Blick auf die Frage, inwieweit das Fach eine Deutungshoheit in sprachreflexiven Fragen beanspruche, beanspruchen könne oder solle. Es werden vier Strategien diskutiert, mit denen versucht wurde und wird, einen solchen Anspruch in der Gesellschaft zu proklamieren bzw. zu zementieren. Vor dem disziplinären Hintergrund der soziolinguistisch-sprachanthropologischen Sprachideologieforschung, die auch linguistische Positionen unter Sprachideologien fasst, werden die sprachwissenschaftlichen Positionierungsversuche dabei als diskursiv gerahmte, aber kontextsensitive Manöver in einem ‚Kampf um sprachideologische Deutungshoheit‘ verstanden.
In dem einleitenden Beitrag wird ein Überblick über die Erforschung politischer Sprache von der Nachkriegszeit an gegeben. Im Zusammenhang mit frühen Publikationen wird auf die Diskussion anfänglicher methodischer Desiderata eingegangen, die prägend für die Geschichte der Politolinguistik war. Nach einer Klärung des Gegenstandsbereichs der Politolinguistik wird die Entwicklung dieser Forschungsrichtung dargestellt, die sich als eine Bewegung von der Analyse kleinerer Einheiten (Ideologiewortschatz) hin zu größeren Einheiten (politische Kampagnen/Diskurse) darstellen lässt. Die Reflexion auf das Selbstverständnis der Politolinguistik, möglichst deskriptiv vorzugehen und von der Bewertung der analysierten Gegenstände abzusehen, scheint dabei immer wieder auf.
Das ZDL-Regionalkorpus umfasst Zeitungsartikel aus Lokal- und Regionalressorts deutschsprachiger Tageszeitungen. Es dient als empirische Grundlage für die lexikografische Beschreibung der diatopischen Variation im Digitalen Wörterbuch der deutschen Sprache (DWDS). Darüber hinaus steht es allen angemeldeten Nutzern der DWDS-Korpusplattform für die Recherche zur Verfügung. Die Abfrage kann auf bestimmte diatopische Areale oder diachrone Zeiträume beschränkt werden. Die Verteilung der Treffer über Areale und Zeiträume lässt sich in verschiedener Form darstellen; dabei werden neben absoluten Trefferzahlen auch normalisierte PPM-Werte ausgegeben.
Das Projekt InterCorp startete 2005 in Prag mit dem Ziel ein mehrsprachiges Parallelkorpus für akademische Zwecke zu entwickeln. Prinzipiell ist InterCorp eine Reihe von einsprachigen Korpora mit synchronen Texten verschiedener Genres und stellt somit ein einmaliges Instrument für sowohl kontrastive als auch intrasprachliche Untersuchungen dar. Die meisten Parallelen sind auch lemmatisiert und morpho-syntaktisch annotiert, somit lassen sich auch rasch statistische Daten über die Texte abrufen.
Der Beitrag geht der Frage nach, welche Akteure die Stellung des Deutschen im heutigen Europa beeinflussen (können). Als Grundlage für die Untersuchung wird die Sprachmanagementtheorie gewählt, die sich mit dem Verhalten verschiedener Akteure gegenüber der Sprache beschäftigt. Diese metasprachlichen Aktivitäten definieren das Schlüsselkonzept Sprachmanagement. Auseinandergehende sprachenpolitische Interessen und Konflikte werden in Abhängigkeit von der Macht des jeweiligen Akteurs gelöst. Es werden konkrete Beispiele analysiert, die sich auf der EU Ebene, der Ebene eines EU-Mitgliedsstaates wie auch in Regionen abspielen.
Die heutige Stellung des Deutschen in Europa beruht auf vielfältigen
Faktoren: Historische Entwicklungen, politische Rahmenbedingungen oder unterschiedliche Traditionen in den Bildungssystemen der Mitgliedsländer der Europäischen Union kommen dabei ebenso zum Tragen wie das hochaktuelle Thema der Fachkräftezuwanderung. Diese Bestandsaufnahme betrachtet die Hintergründe der Entwicklung der Stellung der deutschen Sprache und zeigt dabei auch Trends und Perspektiven für die Zukunft auf. An diesen setzt das Goethe-Institut als Sprach- und Kulturinstitut der Bundesrepublik Deutschland gemeinsam mit seinen Partnern an, um die Kenntnis und die Stellung der deutschen Sprache in Europa im Rahmen einer gelebten Mehrsprachigkeit gezielt zu fördern.
Vergleichende Graphematik
(2021)
Dieser Aufsatz skizziert Schritte auf dem Weg zu einer vergleichenden Graphematik. Dabei thematisiert er vier Schriftsysteme (des Deutschen, Englischen, Niederländischen, Französischen) und untersucht sechs graphematische Phänomene, unter ihnen Doppelkonsonantenschreibung und Apostroph. Zwar sind die Phänomene in allen vier Schriftsystemen zu finden, aber die Häufigkeit unterscheidet sich sehr; so weist das deutsche Schriftsystem die meisten Doppelkonsonanten auf, das französische die meisten Apostrophe. Es geht aber nicht primär um die Quantität der graphematischen Phänomene, sondern vielmehr um die Verankerung der Graphematik innerhalb der sprachspezifischen grammatischen Systeme. Auf Grundlage dieses Vergleichs werden Parameter zur Beschreibung der Phänomene entwickelt. Dadurch wird dieser Aufsatz zur Werbung für die vergleichende Graphematik.
Der Beitrag behandelt das Thema Deutsch in Europa aus der Perspektive der internationalen Germanistik und ihrer Nachhaltigkeit. Ausgehend von der Geschichte des Fachs in Europa wird die Germanistik als ein „Ökosystem“ präsentiert, d. h. als ein dynamischer Komplex bildungsspezifischer Elemente,welcher auch heute – im Zeitalter von Big Data und Real-Time Artificial Intelligence – über die DaF-Vermittlung und die Lehrerausbildung hinaus eine insgesamt wichtige soziale Funktion ausüben kann. Welche Rolle das IDS dabei spielen könnte, wird im Schlussteil skizziert.
Der Beitrag weist auf verschiedene Typen des Erwerbs des Deutschen jenseits des Standardszenarios hin, dem muttersprachlichen Erwerb in einem deutschsprachigen Land. Es werden dann im Detail die Ergebnisse einer Langzeitstudie beschrieben, die Kinder mit russischer und türkischer Familiensprache und dem Deutschen als Zweitsprache vom Kindergartenalter bis in die Grundschule begleitete. Es zeigt sich, dass die typischen Verläufe des früheren mehrsprachigen Spracherwerbs von monolingualen Erwerbsverläufen abweichen können, und dass ein früher L2 Erwerbsbeginn sowie ein reicher und nachhaltiger Input wie explizite Sprachfördermaßnahmen den Erwerb des Deutschen fördern. Im Einzelnen weist die Studie auf die Prädiktoren der früheren Literalität hin.
In verschiedenen europäischen Ländern ist in letzter Zeit in der Soziolinguistik die Frage diskutiert worden, ob sich zwischen der traditionellen Standardsprache und den regionalen bzw. Substandardvarietäten ein neuer Standard („Neo-Standard“) herausgebildet hat; ein Standard, der sich nicht nur strukturell vom alten unterscheidet, sondern sich auch durch ein anderes Prestige auszeichnet als dieser: Er wirkt (im Vergleich) informeller, subjektiver, moderner, kreativer etc.In diesem Beitrag werden einige wesentliche Eigenschaften von Neo Standards diskutiert und ihre Entwicklung als Folge der „Demotisierung“ (Mattheier) der Standardsprache beschrieben. Neben dem potenziellen Neo-Standard in Deutschland werden auch die Entwicklungen in Dänemark, Belgien und Italien diskutiert.
Anhand der geografischen Distribution des hohen vorderen gerundeten Vokalphonems /y/ in Europa wird das Projekt des Phonologischen Atlas Europas (Phon@Europe) vorgestellt. Der Schwerpunkt der Diskussion liegt auf Fällen der möglichen bzw. strittigen Diffusion von /y/ durch Sprachkontakt. Dabei gilt die Aufmerksamkeit auch der Rolle, die das Deutsche bei der Verbreitung von /y/ in Europa gespielt haben könnte. Es werden Vergleiche zu ähnlich gelagerten Fällen in anderen Teilen des Kontinents gezogen. Die Möglichkeit der kontaktunabhängigen Entstehung von /y/ wird ebenfalls in Betracht gezogen. Abschließend werden die Befunde kontaktlinguistisch und areallinguistisch ausgewertet und das Deutsche in der phonologischen Landschaft Europas situiert.
Die Sprache von Lerner/-innen einer Fremdsprache unterscheidet sich auf allen linguistischen Ebenen von der Sprache von Muttersprachler/-innen. Seit einigen Jahrzehnten werden Lernerkorpora gebaut, um Lernersprache quantitativ und qualitativ zu analysieren. Hier argumentieren wir anhand von drei Fallbeispielen (zu Modifikation, Koselektion und rhetorischen Strukturen) für eine linguistisch informierte, tiefe Phänomenmodellierung und Annotation sowie für eine auf das jeweilige Phänomen passende formale und quantitative Modellierung. Dabei diskutieren wir die Abwägung von tiefer, mehrschichtiger Analyse einerseits und notwendigen Datenmengen für bestimmte quantitative Verfahren andererseits und zeigen, dass mittelgroße Korpora (wie die meisten Lernerkorpora) interessante Erkenntnisse ermöglichen, die große, flacher annotierte Korpora so nicht erlauben würden.
Grammatik und Variation im Spannungsfeld von Sprachwissenschaft und öffentlicher Sprachreflexion
(2017)
Der Beitrag bezieht systematische und funktionale Faktoren zur Erklärung grammatischer Variation aufeinander, indem er ausgehend von der Annahme eines rekursiven Systems mit konfligierenden Teilsystemen ‚System‘ als Möglichkeitsraum für (funktional ausdifferenzierte) Variation versteht. Inwiefern die vom System bereitgestellten Möglichkeiten grammatischer Variation im Sprachgebrauch genutzt werden, diskutiert der Beitrag anhand der lexikographischen Praxis der Erfassung von grammatischer Variation im Dudenband 9 „Richtiges und gutes Deutsch“. Mit diesem Material werden nicht nur zentrale Bereiche grammatischer Variation rekonstruiert, sondern auch Zentralbereiche grammatischer Variation mit diasystematischen Variationsdimensionen korreliert.
In diesem Beitrag argumentiere ich, dass das grammatische Regelwerk „Lücken“ hat und dass „realistische“ Grammatikschreibung das in Theorie und Praxis berücksichtigen muss; insbesondere sind eventuelle Äußerungen in Lückensituationen außergrammatisch zu modellieren. Diese Konzeption wird anhand morphologischer und syntaktischer so genannter Zweifelsfälle intuitiv plausibilisiert und ihr Nutzen für die Grammatikschreibung in vergleichender Auseinandersetzung mit prominenten „lücken-losen“ Analysen von zwei Beispielen - ‚Right Node Raising‘- und gewissen Ersatzinfinitiv-Strukturen - nachgewiesen.
Traditionell wird das Genus der Nomina im Lexikon verortet. Die beiden anderen Erscheinungen des Genus, nämlich syntaktische Integration bei der Kongruenz sowie pragmatische Identifikation von Partizipanten im Diskurs, werden als Folgeerscheinungen der lexikalischen Verankerung des Genus betrachtet.
Wir wollen der lexikalistischen Theorie eine Alternative gegenüberstellen, bei der das Genus in der Syntax und Pragmatik verwurzelt ist. Erst in der Produktion einer Nominalphrase greift der Sprecher auf das Genusmerkmal (GM) für die morphologische Gestaltung der Phrase zurück. Dabei ist die Genuskodierung von Einzellexemen im Lexikon nur eine von vielen Quellen für die Gewinnung der Merkmale.
Vorgestellt werden unterschiedliche Auslösertypen für das Genus. Unter anderem werden Merkmale diskutiert, die durch den Referenten, durch morphologische und syntaktische Prozesse oder auch durch ein Begriffsfeld im Lexikon bedingt sind. Genusvariation ergibt sich demnach aus der Konkurrenz zwischen verschiedenen Auslösertypen, die auf die gleiche NP (und deren nominalen Kopf) zielen.
In diesem Beitrag wird die phonologische Variation angesprochen. Ein großer Teil des Artikels widmet sich der Allophonie der Frikative in den hessischen Dialekten. Es wird gezeigt, dass die standarddeutsche Allophonie zwischen den beiden dorsalen Frikativen - der palatalen Variante [c] und der velaren Variante [x] - durch eine Allophonie der alveo-palatalen Varianten ersetzt wird. Hier alterniert die gerundete Variante [∫] mit der ungerundeten Variante [ɕ]. Die palatale Variante [ç] ist weitgehend verschwunden, und der dorsale Frikativ [x] hat dieselbe Distribution wie in der Standardsprache.
Interindividuelle Unterschiede bei der Verarbeitung sprachlicher Strukturen haben bei experimentellen Untersuchungen zur Sprachverarbeitung mittels neurobasierter Verfahren lange Zeit keine oder bestenfalls eine untergeordnete Rolle gespielt. Während individuelle Verarbeitungsstrategien in Abhängigkeit von experimentellen Faktoren (z.B. Aufgabenstellung) relativ gut belegt sind (z.B. probandenspezifisches strategisches Verhalten bei der Verarbeitung von semantischen Relationen; Roehm et al. 2007), wurde der Einfluss von Variation in der Grammatik des Standarddeutschen in Korrelation zu Hirnprozessen bisher kaum berücksichtigt. In diesem Beitrag werde ich auf der Basis dreier EEG-Experimente aus unterschiedlichen Bereichen (Synästhesie, semantische Relationen, Auxiliarselektion bei intransitiven Verben) Beispiele für Verarbeitungskorrelate interindividueller Variation vorstellen und diskutieren.
In der Syntaxtheorie gibt es verschiedene Ansätze, um die grammatische Variation zwischen Sprachen zu erfassen. Grundsätzlich lassen sich diese auch auf die grammatische Variation innerhalb einer Sprache anwenden, etwa bei der Beschreibung zweier Dialekte. Innersprachliche Variation weist aber Eigenschaften auf, die nahelegen, eine andere Modellierung vorzunehmen: Die Syntax der Sprache ist unterspezifiziert für die Strukturen, bezüglich derer Variation vorliegt. Sie erzeugt eine Menge von Konstruktionen, die allesamt zur passiven Kompetenz der Sprecher gehören. Im soziolinguistischen Regelsystem der Sprache können dann einige dieser Konstruktionen regionalen oder sozial konstituierten Sprechergruppen oder bestimmten Registern zugeordnet werden, und (nur) diese Zuordnung definiert Dialekte, Soziolekte oder Register. Die Syntax selbst sagt dazu nichts. Neben der Variation durch Auswahl aus einer Konstruktionsmenge liegt auch Variation vor, die aus unterschiedlicher Flexibilität im Umgang mit Konstruktionen resultiert, und - weil verarbeitungsbezogenen - nicht Gegenstand soziolinguistischer Etikettierungen sein kann.
Der vorliegende Aufsatz beschäftigt sich mit einigen Aspekten der variationistischen Annotation von Korpusdaten. Anhand von mehreren Beispielen wird gezeigt, dass der Vergleich von Kategorien in einem Korpus oder der Vergleich von zwei Korpora nur unter bestimmten Bedingungen variationistisch interpretiert werden kann. Da die Definition von Variablen oft schwierig ist und die Zuordnung von Varianten zu Variablen je nach Forschungsfrage unterschiedlich sein kann, müssen Variablen und Varianten in einem Korpus (für alle transparent und nachvollziehbar) annotiert werden. Dabei wird für eine offene Korpusarchitektur argumentiert, in der in einem bestehenden Korpus jederzeit Variablen und Varianten hinzugefügt werden können.
Für die mediale Dimension grammatischer Variation spielt die Unterscheidung von Gespräch und Text eine wichtige Rolle. Implizit wird dabei die Kategorie Text mit schriftlich realisierter Sprache und die Kategorie Gespräch mit mündlich realisierter Sprache identifiziert. Diese Zuordnung wird in Anbetracht der mediatisierten, hypermedialen Präsentations- und Kommunikationsformen im Internet zunehmend fragwürdig. Der Beitrag zeichnet die Diskussion um die varietätenlinguistische Einordnung der internetbasierten Kommunikation nach und führt das Oppositionspaar „textorientiert“ vs. „interaktionsorientiert“ ein, das es ermöglicht, auf der schriftlichen (medial graphischen) Ebene zwischen zwei Konstellation zu unterscheiden, in denen nähesprachliche Sprachmerkmale gehäuft auftreten: (1) Das interaktionsorientierte Schreiben in der internetbasierten Kommunikation und (2) die fingierte Mündlichkeit in literarischen Texten, die dem textorientierten Schreiben zuzuordnen ist. Am Fallbeispiel der interaktiven Einheit HM wird illustriert, wie frei verfügbare Korpusressourcen genutzt werden können, um die Gemeinsamkeiten, Unterschiede und Interferenzen zwischen der Verwendungen interaktiver Einheiten in Gespräch, Text und internetbasierter Kommunikation zu untersuchen.
Der Beitrag thematisiert einen in der Forschung bislang kaum beachteten Parameter für grammatische Variation im Standard: die Arealität. Im ersten Teil folgen Begriffsklärungen, zunächst zum Terminus areal (mit einer Stellungnahme zur Debatte um das Deutsche als plurizentrische bzw. pluriareale Sprache), dann zu der Frage, wie Standard als Gebrauchsstandard definiert werden kann und in welcher Relation dazu der Terminus Kodex steht. Danach wird mit Blick auf das Projekt „Variantengrammatik des Deutschen“ aufgezeigt, wie areale grammatische Variation im Deutschen empirisch zu beschreiben ist. Der letzte Teil präsentiert Fallbeispiele, anhand derer sich das Erfassen von Varianten - von der Recherche in einem areal ausgewogenen Korpus bis zu ihrer Kodifikation in den Gebrauchsstandards des Deutschen - nachzeichnen lässt.
Die historische Variation als eine der zentralen Variationsdimensionen der Sprache ist gekennzeichnet durch große Variantenvielzahl, Fluktuation der Häufigkeit und zeitliche Überlagerung unterschiedlich alter Muster, aber auch durch Distributionsverschiebungen von Varianten. Sie weist enge Bezüge zur synchronen Mikro- und Makrovariation auf. Die Muster historischer Variation stellen zudem wichtige Argumente für die grammatiktheoretische Analyse dar. Die Spezifik und Dynamik historischer Variation wird exemplarisch anhand der Entwicklung der Vergleichskonstruktionen in der Geschichte des Deutschen veranschaulicht, die durch den Komparativzyklus, d.h. wiederholte Distributionsverschiebungen der Vergleichspartikeln von Äquativ- zu Komparativvergleichen gekennzeichnet ist.
Ausgangspunkt der Überlegungen ist die Beobachtung, dass bestimmte Verwendungsweisen der deutschen Sprache zwar grammatisch und lexikalisch richtig sind, aber dennoch in einem bestimmten Kontext für einen Muttersprachler merkwürdig klingen und gewöhnlich nicht gebraucht werden. Man findet diese Formen der Variation zum Beispiel bei sehr fortgeschrittenen Lernern des Deutschen und auch in Übersetzungen, die sich der Originaltreue verpflichtet sehen. In dem Beitrag soll gezeigt werden, dass Abweichungen dieser Art auf eine Komponente unseres sprachlichen Wissens verweisen, die man als Prinzipien der Informationsorganisation bezeichnen kann. Es wird argumentiert, dass solche sprachspezifischen Prinzipien, die sich u.a. auf Informationswahl, Perspektivensetzung und Kohärenzmuster beziehen, aus Eigenschaften der einzelsprachlichen Grammatik abzuleiten sind. Gezeigt werden soll dies am Beispiel von empirischen Daten zum Ausdruck von Bewegungsereignissen und zum Textaufbau in unterschiedlichen Sprachen und in Lernersprachen.
In diesem Beitrag werden nach einer kurzen methodischen Vorstellung der Elektroenzephalographie und der Ereignis-korrelierten Potenziale einige Eckpunkte, die bei der Gestaltung eines linguistischen EEG-Experimentes Beachtung finden sollten, ausgeführt. Der Beitrag schliest mit Überlegungen, die bei der Untersuchung grammatischer Variation besonders berücksichtigt werden sollten.
Mögliche Erklärungshorizonte für grammatische Variation in Übersetzungen können durch kontrastive Unterschiede sowie Textsortenkonventionen für die involvierten Sprachen hergeleitet werden. Weiterhin ausschlaggebend sind die vom Übersetzer verwendeten Übersetzungsstrategien, wie Simplifizierung und Explizierung, die mit Methoden der Korpuslinguistik und der Translationsprozessforschung untersucht werden können. Letztere betreffend liefert das Eyetracking Hinweise auf Problemstellen im Ausgangstext; das Keylogging lässt Rückschlüsse auf die Problemlösestrategien im Zieltext zu. Durch die Triangulation der gewonnenen Produkt- und Prozessdaten kann einerseits der ganzheitliche Übersetzungsprozess und andererseits die Produktion der grammatischen Variation empirisch aufgearbeitet werden.
Syntactic theory has tended to vacillate between implausible methodological extremes. Some linguists hold that our theories are accountable solely for the corpus of attested utterances; others assume our subject matter is unobservable intuitive feelings about sentences. Both extremes should be rejected. The subject matter of syntax is neither past utterance production nor the functioning of inaccessible mental machinery; it is normative - a system of tacitly grasped constraints defining correctness of structure. There are interesting parallels between syntactic and moral systems, modulo the key difference that linguistic systems are diverse whereas morality is universal. The appropriate epistemology for justifying formulations of normative systems is familiar in philosophy: it is known as the method of reflective equilibrium.
In this paper we present the results of a survey conducted among students of German Philology at Adam Mickiewicz University in Poznań in the years 2015–2017. The target group was composed of first-semester students from whom we collected data about their lexicographical competence at the start of the program. The results contain some interesting findings, e.g. students prefer online dictionaries, but the number of students using print dictionaries is comparable and we have also observed the rising number of students who use smartphone applications. The aim of the survey is to provide information for university instructors who teach German as a foreign language (DaF) and lexicography.
Zwischen Instanz und Dudenhausen. Der Duden heute – Einblicke in die moderne Verlagslexikografie
(2018)
Mit diesem Artikel möchte ich einen Überblick über die gegenwärtige Situation und die Herausforderungen geben, vor denen der traditionsreiche Dudenverlag steht, der als Imprint des Verlags Bibliographisches Institut GmbH seit 137 Jahren Wörterbücher, Grammatiken und andere Titel zum Thema deutsche Sprache publiziert. Der Umzug des Verlags von Mannheim nach Berlin im Jahr 2013 war ein tiefer Einschnitt in der Verlagsgeschichte, nach dem es galt und gilt, den Verlag wirtschaftlich wieder zu stabilisieren und Perspektiven für die Zukunft aufzuzeigen.
In diesem Beitrag diskutieren wir einen neuen Ansatz zur Erarbeitung von Wörterbüchern, bei dem eine große Zahl Freiwilliger gemeinsam ein Online-Wörterbuch entwickelt. Wir charakterisieren zunächst die wesentlichen Eckpunkte dieses nutzergetrieben-kollaborativen Vorgehens und diskutieren den aktuellen Stand der Forschung. Wir untersuchen Struktur, Dynamik und Zusammensetzung von kollaborativ erarbeiteten Wortschätzen und diskutieren, welches Innovationspotenzial in kollaborativen Wörterbüchern steckt und ob professionell erstellte Wörterbücher durch den neuen Ansatz obsolet werden.
Die Polysemie satzeinbettender Prädikate spielt eine wichtige Rolle fur deren Einbettungsverhalten. Konkret wird gezeigt, dass Polysemie mit struktureller Ambiguität als Kontroll- vs. Anhebungsverb assoziiert sein kann (Beispiel drohen/versprechen) und dass NEG-Raising auf bestimmte Lesarten eines polysemen Verbs beschränkt sein kann. Des Weiteren wird beleuchtet, welche Faktoren die syntaktische Flexibilität satzeinbettender Prädikate, d.h. das Einbettungspotenzial bzgl. der wichtigsten Satzkomplementtypen des Deutschen, begünstigen und welche Rolle dabei Umdeutungen (z.B. von bedauern zu 'mit Bedauern äußern'), die Polysemie induzieren, spielen. Alle betrachteten Phänomene deuten darauf hin, dass sie S-Selektion (semantische Selektion) eine zentrale Rolle in der Satzeinbettung spielt.
Der Beitrag beschäftigt sich mit der Frage, wie Konstruktionen in der Konstruktionsgrammatik klassifiziert werden. Da es in der Konstruktionsgrammatik keine klare Trennung von Lexikon und Grammatik gibt, zeigt dieser Beitrag, wie die Methoden der Konstruktionsgrammatik und Frame-Semantik angewendet werden können, um eine einheitliche Beschreibung von Phänomenen im Spannungsfeld zwischen Lexikon und Grammatik zu erreichen. Darüber hinaus will dieser Beitrag auf empirische Probleme aufmerksam machen, die bei der Klassifikation von Konstruktionen anhand von Korpusdaten auftreten können.
In diesem Aufsatz diskutiere ich verschiedene Lexikonkonzepte. Ich gehe aus von der Frage, was überhaupt zum Lexikon gehört (nur idiosynkratische Elemente oder auch regelmäßig ableitbare). Ich betrachte verschiedene Grammatiktheorien und erläutere, wie diese die Frage der Valenzalternationen beantwortet haben und warum es bei Weiterentwicklungen der Theorien Änderungen gab (z.B. die Wiederaufnahme der lexikalischen Repräsentation der Valenz nach Kategorialgrammatik-Art in der HPSG, nach phrasalen Ansätzen in der GPSG). Ich gehe der Frage nach, ob man Lexikon und Grammatik abgrenzen kann oder ob es sinnvoll ist, von einem Kontinuum zu sprechen, wie das in der Konstruktionsgrammatik üblich ist. Dazu werden Ansätze aus der GPSG, der TAG und der HPSG diskutiert. Ein letzter Abschnitt des Aufsatzes ist etwas formaler. Hier geht es um verschiedene Formalisierungen von Lexikonregeln und den Vergleich mit Ansätzen im Rahmen des Minimalistischen Programms, die statt Lexikonregeln leere Köpfe verwenden. Vererbungsbasierte Ansätze zur Beschreibung von Valenzalternationen werden als dritte Möglichkeit diskutiert und verworfen.
Dieser Beitrag geht der Frage nach, wie sich der Begriff der Produktivität konstruktionsgrammatisch fassen lässt und zu welchen neuen Einsichten ein solches Verständnis von Produktivität führt. Zu diesem Zweck werden einige Aspekte von Produktivität diskutiert und auf das konstruktionsgrammatische Konzept eines Netzwerks von sprachlichen Mustern bezogen. Während Produktivität typischerweise als globale Eigenschaft eines Wortbildungsmusters verstanden wird, erlaubt die Konstruktionsgrammatik eine differenziertere Sicht. Am Beispiel englischer Partizipialkomposita wird illustriert, dass verschiedene Teile eines Konstruktionsnetzwerks unterschiedlich produktiv sein können, und dass Produktivität in niedrigen Ebenen des Netzwerks nicht mit der Produktivität höherer Netzwerkknoten gleichzusetzen ist.
Deutsche Partikelverben repräsentieren eine äußerst produktive Klasse von komplexen Verben im Lexikon, die sich durch idiosynkratische Eigenschaften auf der Syntax-Semantik-Schnittstelle auszeichnet: Zum einen sind die abtrennbaren Partikeln extrem ambig. Zum anderen entstehen durch die Komposition von Partikel und Basisverb in Abhängigkeit von der semantischen Klasse des Basisverbs (reguläre) Verschiebungen bezüglich der Argumentstruktur und des Grades der Kompositionalität des Partikelverbs. In diesem Artikel stelle ich eine breite Auswahl von kognitiven und computerlinguistischen Studien vor, die verschiedene Perspektiven auf das Zusammenspiel von semantischen Verbklassen, Partikel-Bedeutungen sowie Argumentstruktur und Kompositionalität von Partikelverben ermöglichen.
Die Sprachverarbeitung beim Übersetzen unterliegt zwei gegenläufigen Forderungen: der ausgangstextbasierten Äquivalenzforderung und der funktionalistischen Zielpublikumsorientierung. So können Übersetzungen mehr oder weniger wie eine Kopie des Ausgangstextes in einer anderen Sprache wirken, je nachdem wie wörtlich oder frei übersetzt wurde. Dieses Entscheidungskontinuum lässt sich mit dem Entropiebegriff operationalisieren. Je höher die Entropie, desto mehr Übersetzungsvarianten gibt es fur einen ausgangssprachlichen Ausdruck. Welche Rolle hierbei das mentale Lexikon spielt und inwiefern die Entropie die kognitiven Prozesse beim Übersetzen beeinflusst, kann durch experimentelle Forschung untersucht werden. In einer ersten Studie haben wir den Einfluss des mentalen Lexikons auf die Übersetzungsentropie und dessen Entwicklungspotenzial bei Studierenden am Beispiel von Kognaten untersucht. Die zweite Studie belegt den Zusammenhang zwischen Entropie und der kognitiven Belastung am Beispiel verschiedener Wortarten. Durch die Datentriangulation von produkt- und prozessbasierten Ergebnissen lassen sich spezifische Verwendungsmuster ableiten.
Der Beitrag ist ein Plädoyer fur die Verwendung von Barsalou-Frames in einem neuen formalen Ansatz in der Semantik. Als Anwendungen werden illustriert: die Framerepräsentation der lexikalischen Bedeutung von Nomen, Verben und Adjektiven; die Modifikation von Nomen durch Adjektive; die Modellierung der Ableitung deverbaler Nomen und der Bedeutung von N-N-Komposita; das Zusammenspiel von syntaktischer und semantischer Komposition in Frames, die beide Strukturebenen integrieren; die Einbettung eines Satzes in einen Äußerungskontext in der Bezugswelt. Das besondere Potenzial des Frameansatzes ist darin begründet, dass er modellieren kann, wie Information zusammengeführt wird - sowohl innerhalb einer Beschreibungsebene als auch ebenenubergreifend.
Nomen werden vermeintlich früher erworben als Verben, da sie dem Noun Bias zufolge konzeptuell einfacher sind. In Studien zum frühen Wortschatzerwerb spielen Verben folglich häufig keine prominente Rolle. Am Beispiel des Deutschen zeigt dieser Beitrag auf, wie sich die Verbbedeutung entwickelt. Dem hier vertretenen Ansatz des Event Structural Bootstrapping zufolge erschließen Kinder sich die Verbbedeutung durch eine Fokussierung auf den Endzustand. Daher spielen telische Verben fur den frühen Spracherwerb eine zentrale Rolle. Ergebnisse aus verschiedenen Spracherwerbsstudien zur Produktion und zur Interpretation von Verben bestätigen, dass deutschsprachige Kinder eine klare Endzustandsorientierung zeigen. Dass Verben und deren Semantik früher erworben werden als bis dato angenommen, spricht gleichzeitig gegen einen starken Noun Bias.
Dieser Beitrag liefert eine Skizze eines gebrauchsbasierten integrativen soziokognitiven Modells des dynamischen Lexikons. Das Modell besteht aus drei Kernkomponenten: Handlungen in der aktuellen Sprachverwendung, kognitiven Prozessen und sozialen Prozessen. Die Komponenten des Modells werden zunächst einzeln beschrieben und dann zusammengefügt. Es wird gezeigt und anhand von zwei Beispielen illustriert, wie das Modell durch die systematische Beschreibung der Interaktion zwischen diesen Komponenten gleichzeitig Stabilität und Struktur sowie Variation und Wandel im Lexikon vorhersagt.
This paper argues that a lectometric approach may shed light on the distinction between destandardization and demotization, a pair of concepts that plays a key role in ongoing discussions about contemporary trends in standard languages. Instead of a binary distinction, the paper proposes three different types of destandardization, defined as quantitatively measurable changes in a stratigraphic language continuum. The three types are illustrated on the basis of a case study describing changes in the vocabulary of Dutch in The Netherlands and Flanders between 1990 and 2010.
Der Beitrag thematisiert Eigenschaften der strukturellen, thematischen und partizipativen Dynamik kollaborativ erzeugter lexikalischer Netzwerke am Beispiel von Wiktionary. Ausgehend von einem netzwerktheoretischen Modell in Form so genannter Mehrebenennetzwerke wird Wiktionary als ein skalenfreies Lexikon beschrieben. Systeme dieser Art zeichnen sich dadurch aus, dass ihre inhaltliche Dynamik durch die zugrundeliegende Kollaborationsdynamik bestimmt wird, und zwar so, dass sich die soziale Struktur der entsprechenden inhaltlichen Struktur aufprägt. Dieser Auffassung gemäß führt die Ungleichverteilung der Aktivitäten von Lexikonproduzenten zu einer analogen Ungleichverteilung der im Lexikon dokumentierten Informationseinheiten. Der Beitrag thematisiert Grundlagen zur Beschreibung solcher Systeme ausgehend von einem Parameterraum, welcher die netzwerkanalytische Betrachtung von Wiktionary als Big-Data-Problem darstellt.
Dulko ist ein im Aufbau befindliches fehlerannotiertes deutsch-ungarisches Lernerkorpus an der Universität Szeged. Es wird seit Sommer 2017 von der Alexander-von-Humboldt-Stiftung gefördert im Rahmen einer Institutspartnerschaft zwischen dem IDS und dem Institut für Germanistik an der Universität Szeged („Deutsch-ungarischer Sprachvergleich: korpustechnologisch, funktional-semantisch und sprachdidaktisch (DeutUng)“). Die in Dulko erhobenen Lernerdaten setzen sich zusammen aus kontrolliert erhobenen deutschsprachigen Essays und Übersetzungen aus dem Ungarischen ins Deutsche. Die Probanden sind Studierende am Institut für Germanistik der Universität Szeged mit Ungarisch als Muttersprache und Deutsch als erster oder zweiter Fremdsprache.
In diesem Beitrag soll ein Nachschlagewerk zur arealen Variation in der Grammatik des Deutschen kurz vorgestellt werden: die in Form eines Online-Wikis erschienene „Variantengrammatik des Standarddeutschen“. Sie ist das Hauptergebnis einer langjährigen Zusammenarbeit der Projektgruppe „Variantengrammatik“ unter der Leitung der Autorin und der Autoren dieses Beitrags. Für das Projekt wurde ein areal gewichtetes und annotiertes Korpus erstellt, das aus Lokal- und Regionalteilen der Online-Ausgaben von 68 regional verbreiteten Zeitungen besteht. Die ausgewählten Zeitungen sind nach fünfzehn Arealen des zusammenhängenden deutschsprachigen Raums unterteilt. Das tokenisierte, lemmatisierte und nach Wortarten annotierte Gesamtkorpus, auf das sich die Variantengrammatik stützt, umfasst ca. 600 Millionen Wörter.
Der Spezialforschungsbereich (SFB) „Deutsch in Österreich: Variation – Kontakt – Perzeption“ ist ein vom Fonds zur Förderung der wissenschaftlichen Forschung (FWF) geförderter Spezialforschungsbereich, der seit 2016 an den Universitäten Wien, Salzburg und Graz sowie an der Österreichischen Akademie der Wissenschaft durchgeführt wird. Thema dieses SFB ist das Gesamtspektrum an Variation und Varietäten des Deutschen in Österreich, kurz „DiÖ“. Dieses Gesamtspektrum wird aus den Perspektiven erstens der Variationslinguistik, zweitens der Sprachkontakt- und Mehrsprachigkeitsforschung sowie drittens der soziolinguistisch basierten Perzeptions- und Spracheinstellungsforschung angegangen.
REDE ist zunächst einmal die Abkürzung für den Projekttitel „Regionalsprache.de“ (für eine ausführliche Beschreibung des Projekts siehe Ganswindt/Kehrein/Lameli 2015). Dieses Projekt wird seit 2008 bis einschließlich 2026 von der Akademie der Wissenschaften und der Literatur Mainz gefördert. Inhaltlich setzt sich das Projekt mit den modernen Regionalsprachen des Deutschen auseinander. Grob vereinfacht umfassen moderne Regionalsprachen alle Varietäten und Sprechlagen, die durch kommunikativ saliente Regionalismen gekennzeichnet sind (vgl. Schmidt/Herrgen 2011). Diesen Regionalsprachen steht auf der vertikalen Dimension sprachlicher Variation die Standardsprache gegenüber. Die Struktur der Regionalsprachen erstmals mit vergleichbaren Methoden in ganz Deutschland zu untersuchen, ist eines der Projektziele. Das andere übergeordnete Ziel ist der Aufbau eines forschungszentrierten Informationssystems zu den modernen Regionalsprachen. Es handelt sich dabei um ein geografisches Informationssystem (GIS) für Sprache: das REDE SprachGIS.
Der Blick auf die Syntax und generell auf die Grammatik ist traditionell aszendent, 'von unten nach oben' gerichtet: Einer Wortgrammatik folgt eine Satzgrammatik und dieser eventuell eine Textgrammatik. Doch wir schreiben und sprechen weder in Wörtern noch in Sätzen, sondern wir produzieren Texte und Gespäche. Deshalb musste auch der diametral entgegengesetzte Blick, der zu einer deszendenten Grammatik fuhrt, möglich sein. Eine solche Grammatik liegt mit der Grammatischen Textanalyse (= GTA), einer funktionalen Syntax des Gegenwartsdeutschen vor, die das grammatische System 'von oben nach unten' - von der Text- (Textglieder) über die Satz- (Satzglieder) zur Wortgruppenebene (Wortgruppenglieder) - modelliert. Im Beitrag werden Grundlagen und Leitbegriffe der GTA vorgestellt und an ausgewählten Phänomenen exemplifiziert.
Nach einigen Überlegungen zu Wörterbüchern und Informationssystemen soll der Frage im Titel des Vortrags auf drei Ebenen nachgegangen werden: (a) aktueller Stand der allgemeinen einsprachigen Online-Wörterbücher des Deutschen; (b) die Situation der praktischen Lexikographie und der für sie zuständigen Theorien; (c) die Lage der Wörterbuchforschung an deutschen Universitäten. Dabei soll die kulturelle und gesellschaftliche Verantwortung der praktischen Lexikographie, aber auch der Metalexikographie verdeutlicht werden. Zu wenig Beachtung findet die Lexikographie als kulturelle Praxis der Dokumentation sprachlicher, kultureller und gesellschaftlicher Verhältnisse. Zu wenig Beachtung findet die Metalexikographie als Gesellschaftswissenschaft, die sich mit den Zusammenhängen von Datenermittlung, -verwendung, -interpretation und -präsentation in der Internetlexikographie befasst. Die Ausführungen werden durch Detailanalysen des Datenangebots auf Informationsportalen zur deutschen Sprache und unter Berücksichtigung ausgewählter Benutzungssituationen gestützt. Abschliesend werden Thesen zur Zukunft der Lexikographie formuliert.
Die Universität als Vorbild/Spiegelbild/Zerrbild für Spracheinstellungen und Sprachgebrauch heute?
(2019)
Der folgende Beitrag beschäftigt sich mit der Frage, wie weit der mündliche Sprachgebrauch an der Universität und die damit verbundenen Spracheinstellungen Vorbild, Spiegelbild oder aber Zerrbild des alltäglichen Sprachgebrauchs und allgemeiner Spracheinstellungen sind. Aus heuristischen Gründen liegt der Fokus dabei auf Sprachformen jenseits des Standards, die üblicherweise nicht mit einem universitären Sprachgebrauch in Verbindung gebracht werden. Die Datenerhebung dokumentiert exemplarisch die Situation an der Universität Salzburg, die Auswertung kombiniert in einem Mixed-Methods-Ansatz quantitative und qualitative Methoden.
Im Projekt „Einstellungen gegenüber regionalen Sprachformen in der Großstadt: Niederdeutsch in Hamburg“ soll geklärt werden, inwieweit regionale Sprachformen in einer Metropole als Kennzeichen stadttypischer Räume und Einrichtungen im Bewusstsein der Bewohner verankert sind. Im Mittelpunkt des Beitrags steht der theoretisch-methodische Rahmen der Studie mit einem Modell, das die Bedeutung von Spracheinstellungen und Sprachbiografie im Verhältnis zu Identitätskonstruktionen fokussiert und damit den Analyserahmen darstellt. Anhand von Beispielen wird der Zusammenhang von Spracheinstellungen, Ortseinstellungen, Biografie und darauf bezogenen Identitätskonstruktionen am stereotyp ausgeprägten Themenkomplex „Niederdeutsch als Hafensprache“/„Niederdeutsch spricht man im Hafen“ erlautert.
Aufklärende Sprachkonsultation kann profiliert werden, indem man sie als prospektive Sprachbetrachtung konzipiert. Im Aufsatz werden die Ausgangspunkte und Konsequenzen für diese These erläutert. Drei Blickrichtungen lassen sich unterscheiden: Mikro-, Medio- und Makroprospektiven. Die Mikroprospektivität wird in Verbindung mit sprachnormativen Problemen näher in Augenschein genommen. In allen Ausblicken auf die Zukunft spielt die Thematisierung von individuellen oder kollektiven Handlungsspielräumen eine besondere Rolle, um aufklärende Sprachkonsultation zu verwirklichen.
Der Sprachwissenschaft und der Soziologie eröffnen sich angesichts der Digitalisierung vielversprechende Räume zur produktiven Zusammenarbeit. In unserem Beitrag zeigen wir, dass eine sozialstrukturelle Perspektive auf die Online-Kommunikation neue Erkenntnisse uber das Verhältnis von sprachlichem Kapital und sozialer Ungleichheit generieren kann. In Teilen der Sozialtheorie dominiert die Auffassung, dass die sprachliche Praxis ein überwiegend eigendynamisches, von sozialstrukturellen Determinanten weitestgehend unabhängiges System sei. Fur ein umfassendes Verständnis der neuen digitalen Interaktionssphären erscheint jedoch eine systematische Berücksichtigung lagebedingter sprachlicher Fähigkeiten notwendig. Der Beitrag wird dies am Beispiel sozialer Medien veranschaulichen.
Dieser Beitrag berichtet nicht nur über „Neues vom heutigen Deutsch“, sondern auch „vom alten Deutsch“, das bislang nicht gehoben wurde. Tief in grammatische Strukturen eingelassen verstecken sich (historische) Geschlechterkonzepte, die weit über das hinausgehen, was die Linguistik zu eindimensional unter Sexus versteht. Vielmehr geht es um Gender, um Geschlechterordnungen, die Frauen und Männern ihre sozialen Plätze zuweisen. Zuwiderhandlungen werden durch grammatische Devianzen und ‚Fehlklassifikationen‘ geahndet. Dabei werden die beiden Nominalklassifikationen des Genus (die Tunte, das Weib) und der Deklinationsklasse (die Vögte vs. die Strolche) analysiert. Als Drittes werden syntaktisch verfestigte Sprachgebrauchsmuster in Gestalt von Binomialen beleuchtet. Als gehärtete Folgen koordinierter Personenbezeichnungen kodieren sie geschlechterhierarchische Rangfolgen (Mann und Frau, Mama und Papa) und erweisen sich dabei ebenfalls als Reflexe von Sozial- und Geschlechterordnungen: Männer treten dabei (immer noch) vor Frauen, Mütter aber zunehmend vor Väter und vor allem Mamas vor Papas.
Der Beitrag behandelt das Zusammenspiel von Text und Interaktion im Internet. Abschnitt 2 erläutert am Beispiel der Wikipedia, wie sich die textorientierte Arbeit an den Artikeln und das interaktionsorientierte Diskutieren funktional ergänzen. Abschnitt 3 untersucht Links als digitale Kohärenzbildungshilfen und zeigt an einem Fallbeispiel, wie diese in den schriftlichen Diskussionen dafür genutzt werden, relevante Informationen im „virtuellen“ Aufmerksamkeitsbereich präsent und für phorische und deiktische Bezugnahmen zugänglich zu machen. Abschnitt 4 diskutiert Ergebnisse aus zwei Vergleichsstudien zum Gebrauch der Konnektoren 'weil' sowie 'sprich' und 'd.h.' in Wikipedia-Artikeln und Diskussionen, die auf der Basis von Wikipedia-Korpora in der DeReKo-Sammlung des IDS durchgefuhrt wurden.
Die Sprache in Sozialen Medien zeigt auf allen Ebenen eine hohe Variabilität und wurde daher als eine Mischung verschiedener Register (Tagliamonte/Denis 2008) analysiert, die sowohl informelle als auch formelle Formen umfassen. Im Gegensatz zu herkömmlichen schriftlichen Medien, wie z.B. Zeitungstexten, sind Soziale Medien wie Chat, Twitter, Forumsdiskussionen, Facebook oder Blogs für diverse Autor/innen zugänglich, sind spontaner, und unterliegen weniger den sprachlichen Standards. Ein Teil der in diesen Kommunikationskanälen gefundenen Variabilität wird häufig auf Fehler zurückgeführt, es gibt jedoch viele Phänomene, die eigenen Regeln folgen. In Bezug auf das Kontinuum von konzeptueller/medialer Mündlichkeit/Schriftlichkeit (Koch/Oesterreicher 1985) befinden sich die meisten Social-Media-Beitrage in der Mitte des konzeptuellen Oralitätskontinuums, obwohl deren genaue Position bisher weitgehend unbestimmt ist. Soweit Nicht-Standard-Merkmale untersucht wurden, wurde meist die Orthographie, Morphologie, das Lexikon und die Syntax (z.B. Abkürzungen, Emoticons, Ellipsis) berücksichtigt.
Im Gegensatz dazu wählen wir einen pragmatischen, diskursorientierten Standpunkt: Welche Diskursstrategien wählen Sprecher/innen in Sozialen Medien und wie unterscheiden sich diese von bisher untersuchten Medienformen?
Der Mythos „Künstliche Intelligenz“ wird besonders von der sogenannten „transhumanistischen“ Community im Silicon Valley propagiert, deren Vertreter wie der Physiker Ray Kurzweil davon ausgehen, dass wir in spätestens 30 Jahren mit KIs kommunizieren könnten, wie mit einem Menschen (Kurzweil 2005). Saudi Arabien hat 2017 bereits dem anthropomorphen Roboter mit Sprachinterface Sophia die Staatsbürgerschaft zugesprochen (Arab News 2017). Künstliche Intelligenzen wie Apples Assistenzsystem Siri oder Amazons Alexa halten derzeit Einzug in unseren Alltag. Chatbots und Social-Bots wie der Twitter-Bot Tay nehmen Einfluss auf öffentliche Diskurse und interaktives Spielzeug mit Dialogfunktion führt bereits unsere Jüngsten an die Interaktion mit dem artifiziellen Gegenüber heran. Hier entsteht eine völlig neue Form der Dialogizität, die wir aus linguistischer Perspektive noch kaum verstehen. Unabhängige Studien zur Mensch-Maschine-Interaktion stellen also ein großes Desiderat dar.
Im Projekt fussballlinguistik.de baue ich Korpora mit schriftlichen und mündlichen Texten aus dem Bereich der Fußballberichterstattung auf und mache sie über das webbasierte Tool CQPweb (Hardie 2012) der Fachöffentlichkeit zuganglich (Meier 2017). Die Korpora (www.fussballlinguistik.de/korpora) enthalten vornehmlich internetbasierte Texte wie etwa Liveticker, Spielberichte und Taktikanalysen, aber auch transkribierte Radioreportagen im Umfang von 44,8 Mio. Tokens (Stand Marz 2019) in den Sprachen Deutsch, Englisch, Niederländisch und Russisch in vollständig annotierter Form. Ein Teil der Daten ist zudem in das Deutsche Referenzkorpus (DeReKo 2018–II) eingegangen. Die seit gut 50 Jahren etablierte sprachwissenschaftliche Forschung zur Sprache des Fußballs hat dadurch eine in ihrer Themenspezifik einzigartige empirische Ressource erhalten.
Für den öffentlichen Sprachgebrauch im Internet ist Facebook, das mit 15 Jahren zur älteren Generation von Social-Media-Sites zählt, nach wie vor hochrelevant. Im deutschsprachigen Raum ist es die am meisten genutzte Social-Media-Plattform (Newman et al. 2019). Zu den Diensten gehören unter anderem Facebook-Seiten (Pages), die von Unternehmen, Parteien, Medien und anderen Institutionen oder Individuen betrieben werden und als öffentliche Angebote prinzipiell auch von nicht bei Facebook angemeldeten Personen eingesehen werden können. Solche öffentlichen Facebook-Seiten sind als sites of engagement zwischen gesellschaftlichen Institutionen und Individuen reichhaltige Quellen für die linguistische Forschung.
Im Vergleich zu anderen Plattformen bietet Facebook aber nur einen eingeschränkten Zugriff auf diese öffentlichen Sprach- und Interaktionsdaten (Freelon 2018). Während beispielsweise für Twitter viele Tools zur Datensammlung existieren und auch die Plattform selbst eine ausgebaute Suchmaske bietet, erschweren die limitierten Suchmöglichkeiten der Facebook-Plattform und das fehlende Angebot von einfach nutzbarer Software linguistische Projekte in Forschung und Lehre. Gleichzeitig stellen sich neben den praktischen Fragen an vielen Stellen auch forschungsethische Fragen im Umgang mit Onlinedaten.