Refine
Year of publication
Document Type
- Part of a Book (120)
- Article (22)
- Conference Proceeding (12)
- Book (4)
- Master's Thesis (1)
- Other (1)
Has Fulltext
- yes (160)
Keywords
- Deutsch (33)
- Korpus <Linguistik> (24)
- Rechtschreibung (24)
- Sprachgebrauch (18)
- Social Media (14)
- Digitalisierung (13)
- Computerlinguistik (12)
- Schriftsprache (12)
- Sprachwandel (11)
- Texttechnologie (10)
Publicationstate
- Zweitveröffentlichung (160) (remove)
Reviewstate
Publisher
- de Gruyter (93)
- Erich Schmidt (5)
- Aisthesis Verlag (4)
- Gesellschaft für Informatik e.V. (3)
- Libri Books on Demand (3)
- Campus (2)
- Narr (2)
- Stauffenburg Verlag (2)
- VS Verlag für Sozialwissenschaften (2)
- Westdeutscher Verlag (2)
XML-Dokumentgrammatiken, die als DTDs oder neuerdings als XML-Schemata spezifiziert werden, spezifizieren zwar die syntaktischen Eigenschaften einer Klasse von Dokumenten, für sie existiert aber normalerweise kein formales semantisches Modell des Gegenstandsbereichs, auf das Dokumentstrukturen abgebildet werden können. Der Beitrag zeigt am Beispiel der Tabelle, wie semantische Netze für diese Aufgabe herangezogen werden können. Die konkrete Umsetzung geschieht dabei auf der Grundlage des Topic-Map-Standards in Verbindung mit XPath-Ausdrücken, die aus dem semantischen Netz in die Dokumentinstanz bzw. in ein XML-Schema verweisen.
Vorwort
(2021)
Vorwort
(2024)
Thema der 59. Jahrestagung des Leibniz-Instituts für Deutsche Sprache war vom 14. bis zum 16. März 2023 erstmals nach mehreren Jahrzehnten wieder die Orthografie des Deutschen, und zwar „in Wissenschaft und Gesellschaft“. Einen unmittelbaren Anlass dafür bildete der bevorstehende Abschluss der siebenjährigen Arbeitsphase des Rats für deutsche Rechtschreibung Ende 2023, dessen Tätigkeit das IDS seit seiner Gründung wissenschaftlich begleitet. Aber auch die Orthografieforschung selbst hat sich seit der Rechtschreibreform im Jahr 1996 in einer Weise entwickelt, dass die Wahl dieses schriftlinguistischen Querschnittsthemas angezeigt erschien.
In der wissenschaftlichen Auseinandersetzung spielen derzeit Entwicklungen in den theoretischen und empirischen Erkenntnissen zur Orthographie(entwicklung), zum Schrift- und Orthographieerwerb und zur Orthographiedidaktik sowie aktuelle Entwicklungen im Schreibgebrauch eine zentrale Rolle. Globalisierung und Internationalisierung befördern in der gesprochenen und der geschriebenen Sprache die Aufnahme zahlreicher neuer Fremdwörter, vor allem Entlehnungen aus dem anglo-amerikanischen Sprachraum, in den deutschen Fach- und Allgemeinwortschatz und damit Entwicklungen im Schreibgebrauch. Auch neue digitale Medien begünstigen veränderte, nutzungsorientierte Vermittlungsstrategien orthographischer Inhalte. Und nicht zuletzt stellt die intensiv geführte Debatte über gendersensible Schreibung unter Verwendung von Sonderzeichen (wie Asterisk oder Doppelpunkt im Wortinneren) die Schreibgemeinschaft vor Herausforderungen.
Im Folgenden wird eine texttechnologische Komponente zur Expansion eines XML- annotierten Stammformenlexikons, das auf Einträgen eines Standardwörterbuchs basiert, vorgestellt. Diese Expansion wurde in der Document Style Semantics and Specification Language implementiert. Ihr Ergebnis ist ein Vollformenlexikon, das ebenfalls in XML repräsentiert ist.
The present paper reports the first results of the compilation and annotation of a blog corpus for German. The main aim of the project is the representation of the blog discourse structure and relations between its elements (blog posts, comments) and participants (bloggers, commentators). The data included in the corpus were manually collected from the scientific blog portal SciLogs. The feature catalogue for the corpus annotation includes three types of information which is directly or indirectly provided in the blog or can be construed by means of statistical analysis or computational tools. At this point, only directly available information (e.g., title of the blog post, name of the blogger etc.) has been annotated. We believe, our blog corpus can be of interest for the general study of blog structure or related research questions as well as for the development of NLP methods and techniques (e.g. for authorship detection).
Der vorliegende Artikel untersucht die Frage, wie sich die Angebote im Bereich von Social Media heute darstellen und wie sie sich in den nächsten Jahren voraussichtlich entwickeln werden. Der Fokus liegt dabei auf der Entwicklung der technischen Infrastruktur und deren Einfluss auf die verschiedenen Aspekte wissenschaftlicher Kommunikation. Einen Schwerpunkt bilden dabei einerseits die Auswirkungen der Automatisierung, im Bereich der Wissenschaftskommunikation die Entwicklung von spezifischen Scores und Altmetriken, andererseits die Etablierung neuartiger Vermittlungskanäle für wissenschaftliche Themen.
In multimodal scholarly presentations supported by presentation software, spoken and written language, various visualizations on the projected slides as well as the contributors’ gestures and facial expressions build a meaningful oneness. On the one hand, communication scientists as well as linguists have for a relatively long time neglected the presentation as a complex form of communication. On the other hand, since Tafte (2003 ), columnists of major German newspapers have been dealing with the question of the value, the quality and the place of PowerPoint in science, they have even tried to find the answer to the question whether PowerPoint is evil or not.
The presentation practice is perceived as fundamentally deficient of systematic empirical research on presentations. Also Grabowski called attention to this desideratum with two critical articles (Grabowski 2003, 2008). Various questions - still unanswered - have motivated the implementation of a number of experiments (in the summer of 2010) for analyzing the knowledge and learning effects and the communicational impact of scientific presentations. The general aim of these experiments was to conduct empirical research on selected presentations in order to find out what kind of presentation is successful. The main interest is to find out which model of scholarly presentation produces the best results regarding learning effect and communicative impact.
Präsentationstechnologien bedingen Konvergenzprozesse verschiedener Kommunikationsmodi. In wissenschaftlichen Präsentationen werden unterschiedliche kommunikative Elemente (unter anderem Text, Bild und redebegleitende Gesten) miteinander verbunden, wodurch eine komplexe, mehrdimensionale Form der Multimodalität entsteht Die multimodale Struktur von Präsentationen kann durch eine neuartige Betrachtungsweise mit linguistischem Instrumentarium beschrieben und analysiert werden. Die Grundlage eines solchen linguistischen Ansatzes bildet die Annahme, dass Präsentationen als komplexe, multimodale Texte verstanden werden können. Der Beitrag zeigt, wie auf Basis dieser Annahme die Funktionsweise wissenschaftlicher Präsentationen theoretisch modelliert werden kann.
We had found ourselves in the “Gutenberg-Galaxy” before the digitalization made its rise. The development of the book printing by Johannes Gutenberg and developments based on it as well as the following industrialization of printing are decisive for the expansion of the cultural revolution. It has meanwhile been transformed, upgraded and replaced by something which has been called “Turing Galaxy”. One of the most important changes is the automatic processing of data, the program-controlled production or manipulation of texts, images, sounds, formulas, tables and videos. The internet has led us to new distribution channels. The paper shows which trends of development concerning the cultural skills of writing and reading have been realized up to now as a result of the digitalization. Three aspects of development will be discussed: how the way of writing has changed to the present moment by the means of automation, multimodality and networking.
In the project SemDok (Generic document structures in linearly organised texts) funded by the German Research Foundation DFG, a discourse parser for a complex type (scientific articles by example), is being developed. Discourse parsing (henceforth DP) according to the Rhetorical Structure Theory (RST) (Mann and Taboada, 2005; Marcu, 2000) deals with automatically assigning a text a tree structure in which discourse segments and rhetorical relations between them are marked, such as Concession. For identifying the combinable segments, declarative rules are employed, which describe linguistic and structural cues and constraints about possible combinations by referring to different XML annotation layers of the input text, and external knowledge bases such as a discourse marker lexicon, a lexico-semantic ontology (later to be combined with a domain ontology), and an ontology of rhetorical relations. In our text-technological environment, the obvious choice of formalism to represent such ontologies is OWL (Smith et al., 2004). In this paper, we describe two OWL ontologies and how they are consulted from the discourse parser to solve certain tasks within DP. The first ontology is a taxononomy of rhetorical relations which was developed in the project. The second one is an OWL version of GermaNet, the model of which we designed together with our project partners.
Knowledge in textual form is always presented as visually and hierarchically structured units of text, which is particularly true in the case of academic texts. One research hypothesis of the ongoing project Knowledge ordering in texts - text structure and structure visualisations as sources of natural ontologies1 is that the textual structure of academic texts effectively mirrors essential parts of the knowledge structure that is built up in the text. The structuring of a modern dissertation thesis (e.g. in the form of an automatically generated table of contents - toes), for example, represents a compromise between requirements of the text type and the methodological and conceptual structure of its subject-matter. The aim of the project is to examine how visual-hierarchical structuring systems are constructed, how knowledge structures are encoded in them, and how they can be exploited to automatically derive ontological knowledge for navigation, archiving, or search tasks. The idea to extract domain concepts and semantic relations mainly from the structural and linguistic information gathered from tables of contents represents a novel approach to ontology learning.
The paper investigates the evolution of document grammars from a linguistic point of view. Document grammars have been developed in the past decades in order to formalize knowledge on the structure of textual information. A well-known instance of a document grammar is the »Document Type Definition« (DTD) as part of the Extensible Markup Language (XML). DTDs allow to define so-called tree grammars that constrain the application of tag-sets in the process of annotation of a document. In an XML-based document workflow, DTDs play a crucial role for validation and transforming huge amounts of texts in standardized data formats. An interesting point in the development of XML DTDs is the fact that the restriction of the formal expressiveness paved the way to understand the formal properties of document grammars better and to develop more a powerful version like XML Schema recently. In this sense, the simplicity of the original approach, resulting from the necessary restriction of previous approaches, yielded new complexity on formally understood grounds.
Extending the possibilities for collaborative work with TEI/XML through the usage of a wiki system
(2013)
This paper presents and discusses an integrated project-specific working environment for editing TEI/XML-files and linking entities of interest to a dedicated wiki system. This working environment has been specifically tailored to the workflow in our interdisciplinary digital humanities project GeoBib. It addresses some challenges that arose while working with person-related data and geographical references in a growing collection of TEI/XML-files. While our current solution provides some essential benefits, we also discuss several critical issues and challenges that remain.
Sprache und digitale Medien
(1997)
Durch das Aufkommen der Computer als Kommunikationsmedium hat sich für die Linguistik ein weiteres neues Gebiet erschlossen, bei dem es nicht um die maschinelle Simulation von Sprachverstehens- und -Produktionsprozessen geht. Die Nutzung des Computers als Medium erfordert auch die Darstellung von Texten in digitaler Form, so dass sie durch den Computer bearbeitet und dargestellt werden können. Texte im Computer - oft wird von elektronischen Texten gesprochen - brauchen dabei allerdings nicht die auf Papier gedruckten Texte nachzubilden, sie stellen vielmehr eine eigene Realisationsform von Textinhalten dar, die sich in vielem vom traditionellen Textbegriff unterscheidet.
Syntax und Morphologie
(1997)
Wissenschaftliche Kommunikation zeichnet sich durch ein besonders hohes Maß an Standardisierung und Organisation aus. Anforderungen der Objektivität, der Nachvollziehbarkeit und der Authentizität schlagen sich in der Struktur aller wissenschaftlichen Textsorten nieder. Die Kulturtechniken der Schrift sind auf diese Bedingungen ausgerichtet, weshalb das Lesen und Schreiben wissenschaftlicher Texte traditionell besonderen Bedingungen unterliegt, die üblicherweise im Studium vermittelt werden. In diesem Beitrag soll zunächst gezeigt werden, welches die wichtigsten wissenschaftlichen Textsorten sind, welche Eigenschaften sie besitzen und welche Ziele mit Ihnen kommunikativ verfolgt werden. Im zweiten Abschnitt geht es um die Digitalisierung von Texten: Welche Merkmale besitzen digitale Texte und welchen technischen Bedingungen unterliegen sie. Auch wird es hier um das Schreiben digitaler Texte überhaupt gehen. Im letzten Abschnitt dieses Beitrags sehen wir uns die Auswirkungen daraus auf die wissenschaftliche Kommunikation an. Digitale Texte weisen Eigenschaften auf, die die kommunizierten Inhalte zu verändern vermögen. Wie ändert sich das wissenschaftliche Schreiben dadurch?
Multimedia
(1997)
In recent times presentations have drawn the attention of scientific interest as a new form of communication. In visualization of abstract structures or relationships in scholarly presentations using diagrams, different medial layers of meaning are conjoined in a very special way. The present paper examines firstly the multimodal structure of presentations and the mechanisms of establishing cross-modality coherence. Then the results of a reception experiment are discussed that gives rise to the assumption that multimodality can in fact improve the understanding of scholarly presentations. In the final part of the paper the production of an abstract visualization in a scholarly presentation is exemplified with regard to the solution of disambiguation and linearization problems. We claim that abstract visualizations in presentations are used to produce narratives by the speaker, and without such narratives this kind of visualization cannot be understood properly.
Schreiben nach Engelbart
(2014)
Douglas Engelbart hat 1968 mit seinem On-Line System das erste Mal gezeigt, wie ein Computer als interaktives Schreibwerkzeug genutzt werden kann. Der Beitrag zeichnet diese Urszene der Textverarbeitung nach, beschreibt die wesentlichen Entwicklungslinien, die das digitale Schreiben seitdem genommen hat, und erläutert die zentralen Konzepte, die es zunehmend prägen: Hybridität, Multimedialität und Sozialität.
Der folgende Artikel ist ein bearbeiteter Auszug aus Henning Lobins “Engelbarts Traum. Wie der Computer uns Lesen und Schreiben abnimmt” Frankfurt am Main / New York: Campus, 2014.
Lesen und lesen lassen
(2015)
Der vorliegende Artikel skizziert die Möglichkeiten, die durch den Gebrauch offener Standards im Bereich des eLearning und Web Based Trainig (WBT) eröffnet werden. Ausgehend von den Erfahrungen aus dem BMBF-Projekt MiLCA ("Medienintensive Lehrmodule in der Computerlinguistik-Ausbildung") werden die Vorteile einer XML basierten Markupsprache in Verbindung mit einer Open Source WBT-Plattform für die Strukturierung von Lernobjekten diskutiert. Dabei ist die Realisierung eines vollständigen XML Imports in das WBT-System nur der erste Schritt in einer sehr viel weiter gehenden Entwicklung, in der textlinguistische und computerlinguistische Methoden mehr und mehr an Bedeutung gewinnen. So wird zum Beispiel der Gebrauch von didaktisch motivierten Metadaten Autoren in die Lage versetzen, Lernobjekte adaptiv und lernerzentriert aufzubereiten. Die Integration von Ontologien und Taxonomien ist ein weiterer Aspekt, der noch präzisere Möglichkeiten der Wartung und Wiederverwendung von Lernobjekten eröffnet. Teil dieses Artikels ist ein annotiertes Beispiel-Lernobjekt zur Verdeutlichung der oben angesprochenen Entwicklungen und deren Auswirkungen auf die zukünftige akademische Ausbildung.
Wohlgeformte XML-Dokumente lassen sich als Bäume interpretieren und diese wiederum durch Grammatiken beschreiben. Dokumentgrammatiken weisen einige Besonderheiten auf, die sie von Grammatiken für natürliche Sprachen oder Programmiersprachen unterscheidet. Dieser Beitrag erläutert die Verarbeitungsmöglichkeiten, die aus der Nutzung von formalen Dokumentgrammatiken erwachsen.
The administration of electronic publication in the Information Era congregates old and new problems, especially those related with Information Retrieval and Automatic Knowledge Extraction. This article presents an Information Retrieval System that uses Natural Language Processing and Ontology to index collection’s texts. We describe a system that constructs a domain specific ontology, starting from the syntactic and semantic analyses of the texts that compose the collection. First the texts are tokenized, then a robust syntactic analysis is made, subsequently the semantic analysis is accomplished in conformity with a metalanguage of knowledge representation, based on a basic ontology composed of 47 classes. The ontology, automatically extracted, generates richer domain specific knowledge. It propitiates, through its semantic net, the right conditions for the user to find with larger efficiency and agility the terms adapted for the consultation to the texts. A prototype of this system was built and used for the indexation of a collection of 221 electronic texts of Information Science written in Portuguese from Brazil. Instead of being based in statistical theories, we propose a robust Information Retrieval System that uses cognitive theories, allowing a larger efficiency in the answer to the users queries.
From Open Source to Open Information. Collaborative Methods in Creating XML-based Markup Languages
(2000)
In dependenzsyntaktischen Systemen wie denen von Engel (1982), Hudson (1984), Schubert (1987), Mel'čuk (1988) oder Starosta (1988) können gemeinhin nur Wörter andere Wörter oder Phrasen regieren. Auch wenn diese Annahme durchaus praktikabel ist, führt sie doch zu einer ganzen Reihe von syntaxtheoretischen Unzulänglichkeiten, die ausgearbeitete Dependenzgrammatiken gegenüber konkurrierenden Grammatiktheorien als unzulänglich erscheinen lassen. Ziel des vorliegenden Beitrages ist es, die Notwendigkeit darzulegen, auch komplexeren Einheiten Rektionsfähigkeit zuzugestehen, und mit dem Konzept des 'komplexen Elements' ein geeignetes formales Instrument dafür zur Verfügung zu stellen.
This paper presents challenges and opportunities resulting from the application of geographical information systems (GIS) in the (digital) humanities. First, we provide an overview of the intersection and interaction between geography (and cartography), and the humanities. Second, the “GeoBib” project is used as a case study to exemplify challenges for such collaborative, interdisciplinary projects, both for the humanists and the geoscientists. Finally, we conclude with an outlook on further applications of GIS in the humanities, and the potential scientific benefit for both sides, humanities and geosciences.
Uncertain about Uncertainty: Different ways of processing fuzziness in digital humanities data
(2014)
The GeoBib project is constructing a georeferenced online bibliography of early Holocaust and camp literature published between 1933 and 1949 (Entrup et al. 2013a). Our immediate objectives include identifying the texts of interest in the first place, composing abstracts for them, researching their history, and annotating relevant places and times. Relations between persons, texts, and places will be visualized using digital maps and GIS software as an integral part of the resulting GeoBib information portal. The combination of diverse data from varying sources not only enriches our knowledge of these otherwise mostly forgotten texts; it also confronts us with vague, uncertain or even conflicting information. This situation yields challenges for all researchers involved – historians, literary scholars, geographers and computer scientists alike. While the project operates at the intersection of historical and literary studies, the involved computer scientists are in charge of providing a working environment (Entrup et al. 2013b) and processing the collected information in a way that is formalized yet capable of dealing with inevitable vagueness, uncertainty and contradictions. In this paper we focus on the problems and opportunities of encoding and processing fuzzy data.
Sprachverarbeitung mit getypten Attribut-Wert-Matrizen. Dependenzgrammatik und Konzeptuelle Semantik
(1996)
In dieser Arbeit wurden die Dependenzgrammatik und die Konzeptuelle Semantik formalisiert. Als Ausgangspunkt dafür diente eine detaillierte Darstellung der formalen Grundlage. Diese wurden im Kapitel 1 erarbeitet. Nicht alle in diesem Kapitel entwickelten Konzepte wurden in den späteren Kapiteln aufgegriffen. Ich halte es aber für sinnvoll die mathematischen Eigenschaften eines Formalismus ausführlich darzustellen, bevor dieser zur Anwendung gebracht wird. Die beschriebenen Eigenschaften sind dem Formalismus immanent. Auf die Einführung von Erweiterungen, z.B. die Definition von Mengen, wurde verzichtet, da sie im weiteren Verlauf keine Verwendung finden.
Im Kapitel 2 wird gezeigt, dass die Dependenzgrammatik mit dem dargestellten Formalismus beschrieben werden kann. Damit wurde eine Formalisierung erreicht, die zeigt, dass der seltene Einsatz dieser traditionsreichen Grammatiktheorie in der Computerlinguistik, zumindest aus formalen Gründen, nicht gerechtfertigt ist.
Das Kapitel 3 stellt die Konzeptuelle Semantik vor. Die ursprüngliche Formalisierung dieser Theorie wurde kritisiert. Es wurde gezeigt, dass die Beschreibung der Konzepte durch getypte Attribut-Wert-Matrizen eine bessere Alternative der formalen Darstellung ist. Desweiteren wurden einerseits Vereinfachungen (z.B. der Verzicht auf die Dekomposition der Konzepte) und andererseits Erweiterungen (d.h. insbesondere eine Erweiterung des Inventars der ontologischen Kategorien) vorgeschlagen.
Nachdem diese beiden linguistischen Theorien mit demselben formalen Apparat dargestellt wurden, wurde im Kapitel 4 dargestellt, dass sie sich ergänzen. In dem skizzierten Sprachverarbeitungssystem werden die syntaktische und die semantische Struktur parallel aufgebaut. Es ist erkennbar, dass sich beide Theorien ergänzen. Es wurde darüber hinaus gezeigt, dass ein solches System eine sehr gut geeignete Basis zur maschinellen Verarbeitung defizitärer sprachlicher Äußerungen bildet.
Vergleichende Graphematik
(2021)
Dieser Aufsatz skizziert Schritte auf dem Weg zu einer vergleichenden Graphematik. Dabei thematisiert er vier Schriftsysteme (des Deutschen, Englischen, Niederländischen, Französischen) und untersucht sechs graphematische Phänomene, unter ihnen Doppelkonsonantenschreibung und Apostroph. Zwar sind die Phänomene in allen vier Schriftsystemen zu finden, aber die Häufigkeit unterscheidet sich sehr; so weist das deutsche Schriftsystem die meisten Doppelkonsonanten auf, das französische die meisten Apostrophe. Es geht aber nicht primär um die Quantität der graphematischen Phänomene, sondern vielmehr um die Verankerung der Graphematik innerhalb der sprachspezifischen grammatischen Systeme. Auf Grundlage dieses Vergleichs werden Parameter zur Beschreibung der Phänomene entwickelt. Dadurch wird dieser Aufsatz zur Werbung für die vergleichende Graphematik.
For a long time, the lecture dominated performatively presented scientific communication. Given academic traditions, it is possible to make a connection between the lecture and classical rhetoric, a highly differentiated instrument of analysis. The tradition of the lecture has been perpetuated in the presentation of research results, first in the use of transparencies and subsequently through computer-based projections. Yet the use of media technology has also allowed new practices to emerge, including mediation practices hitherto neglected in the theory of rhetoric.
Grammis ist eine Online-Plattform des Leibniz-Instituts für Deutsche Sprache, die Forschungsergebnisse, Erklärungen und Hintergrundwissen zur deutschen Grammatik präsentiert. Das Angebot zielt einerseits auf linguistische Laien, die sich für grammatische Phänomene interessieren; andererseits auf die Fachöffentlichkeit, indem es aktuelle wissenschaftliche Meilensteine des IDS dokumentiert. Für beide Nutzungsgruppen werden im Beitrag exemplarische Inhalte vorgestellt. Weiterhin sollen erste Ergebnisse einer explorativen Nutzungsstudie sowie jüngere technische Neuerungen vorgestellt werden.
Der Beitrag beschäftigt sich mit der Frage, wie Konstruktionen in der Konstruktionsgrammatik klassifiziert werden. Da es in der Konstruktionsgrammatik keine klare Trennung von Lexikon und Grammatik gibt, zeigt dieser Beitrag, wie die Methoden der Konstruktionsgrammatik und Frame-Semantik angewendet werden können, um eine einheitliche Beschreibung von Phänomenen im Spannungsfeld zwischen Lexikon und Grammatik zu erreichen. Darüber hinaus will dieser Beitrag auf empirische Probleme aufmerksam machen, die bei der Klassifikation von Konstruktionen anhand von Korpusdaten auftreten können.
Die Sprachverarbeitung beim Übersetzen unterliegt zwei gegenläufigen Forderungen: der ausgangstextbasierten Äquivalenzforderung und der funktionalistischen Zielpublikumsorientierung. So können Übersetzungen mehr oder weniger wie eine Kopie des Ausgangstextes in einer anderen Sprache wirken, je nachdem wie wörtlich oder frei übersetzt wurde. Dieses Entscheidungskontinuum lässt sich mit dem Entropiebegriff operationalisieren. Je höher die Entropie, desto mehr Übersetzungsvarianten gibt es fur einen ausgangssprachlichen Ausdruck. Welche Rolle hierbei das mentale Lexikon spielt und inwiefern die Entropie die kognitiven Prozesse beim Übersetzen beeinflusst, kann durch experimentelle Forschung untersucht werden. In einer ersten Studie haben wir den Einfluss des mentalen Lexikons auf die Übersetzungsentropie und dessen Entwicklungspotenzial bei Studierenden am Beispiel von Kognaten untersucht. Die zweite Studie belegt den Zusammenhang zwischen Entropie und der kognitiven Belastung am Beispiel verschiedener Wortarten. Durch die Datentriangulation von produkt- und prozessbasierten Ergebnissen lassen sich spezifische Verwendungsmuster ableiten.
In diesem Aufsatz diskutiere ich verschiedene Lexikonkonzepte. Ich gehe aus von der Frage, was überhaupt zum Lexikon gehört (nur idiosynkratische Elemente oder auch regelmäßig ableitbare). Ich betrachte verschiedene Grammatiktheorien und erläutere, wie diese die Frage der Valenzalternationen beantwortet haben und warum es bei Weiterentwicklungen der Theorien Änderungen gab (z.B. die Wiederaufnahme der lexikalischen Repräsentation der Valenz nach Kategorialgrammatik-Art in der HPSG, nach phrasalen Ansätzen in der GPSG). Ich gehe der Frage nach, ob man Lexikon und Grammatik abgrenzen kann oder ob es sinnvoll ist, von einem Kontinuum zu sprechen, wie das in der Konstruktionsgrammatik üblich ist. Dazu werden Ansätze aus der GPSG, der TAG und der HPSG diskutiert. Ein letzter Abschnitt des Aufsatzes ist etwas formaler. Hier geht es um verschiedene Formalisierungen von Lexikonregeln und den Vergleich mit Ansätzen im Rahmen des Minimalistischen Programms, die statt Lexikonregeln leere Köpfe verwenden. Vererbungsbasierte Ansätze zur Beschreibung von Valenzalternationen werden als dritte Möglichkeit diskutiert und verworfen.
Anhand der geografischen Distribution des hohen vorderen gerundeten Vokalphonems /y/ in Europa wird das Projekt des Phonologischen Atlas Europas (Phon@Europe) vorgestellt. Der Schwerpunkt der Diskussion liegt auf Fällen der möglichen bzw. strittigen Diffusion von /y/ durch Sprachkontakt. Dabei gilt die Aufmerksamkeit auch der Rolle, die das Deutsche bei der Verbreitung von /y/ in Europa gespielt haben könnte. Es werden Vergleiche zu ähnlich gelagerten Fällen in anderen Teilen des Kontinents gezogen. Die Möglichkeit der kontaktunabhängigen Entstehung von /y/ wird ebenfalls in Betracht gezogen. Abschließend werden die Befunde kontaktlinguistisch und areallinguistisch ausgewertet und das Deutsche in der phonologischen Landschaft Europas situiert.
In diesem Beitrag werden Präpositionalobjektsätze – also Sätze, die in der Funktion von präpositionalen Objekten stehen, – aus ausgewählten germanischen und romanischen Sprachen sprachvergleichend betrachtet. Dabei zeigen sich zwei verschiedene Strategien, die Verbindung von Präposition und Satz herzustellen: direkt, indem die Präposition einen Satz selegiert, und indirekt über die Anbindung mit einer komplexen Proform. Erstere Strategie sehen wir im Schwedischen (stellvertretend für die nordgermanischen Sprachen) und auch im Französischen und Italienischen (mit einer coverten Präposition). Im Niederländischen und Deutschen findet sich die zweite Strategie, bei der Sätze mithilfe eines Pronominaladverbs angebunden werden. Eine genauere Analyse dieser beiden germanischen Sprachen zeigt, dass im Deutschen Pronominaladverb und Satz eine Konstituente bilden können, während dies im Niederländischen nicht möglich ist. Alle analysierten Sprachen haben gemeinsam, dass das präpositionale Element (Präposition oder Pronominaladverb) abwesend sein kann oder muss. Dabei lässt sich anhand von Pronominalisierung, Topikalisierung und W-Extraktion zeigen, dass das P-Element syntaktisch präsent als leeres Element (covert) realisiert werden muss, da diese Sätze mit und ohne P-Element Eigenschaften der PO-Sätze haben und mit DO-Sätzen kontrastieren.
Vorwort
(2022)
Dieser Beitrag analysiert auf der Grundlage der Wikipedia-Korpora des Leibniz-Instituts für Deutsche Spra-che morphosyntaktische Phänomene im deutsch-italienischen Vergleich. Konkret fokussiert die Fallstudie Konfixe, die ursprünglich lateinischen bzw. griechischen Ursprungs waren und zunächst überwiegend für den Bereich der Medizinfachsprache entlehnt wurden. Mittlerweile werden diese mit veränderter Semantik jedoch auch für gemeinsprachliche Wortbildungsprodukte eingesetzt: So finden sich -phob- (D) und -fob- (IT) sowie -man- (D) und -man- (IT) in gemeinsprachlichen Wortbildungsprodukten, die formale und funk-tionale Äquivalenzen im Deutschen und Italienischen aufweisen. Wikipedia-Autor/-innen nutzen die als Krankheitsmetaphern zu deutenden Termini wie Lösch(o)manie oder cancellomania auf den Diskussionsseiten der Online-Enzyklopädie dazu, das Verhalten anderer Autor/-innen in der kollaborativen Textproduktion der Wikipedia metadiskursiv zu normieren.
Der Beitrag untersucht vorhandene Lösungen und neue Möglichkeiten des Korpusausbaus aus Social Media- und internetbasierter Kommunikation (IBK) für das Deutsche Referenzkorpus (DEREKO). DEREKO ist eine Sammlung gegenwartssprachlicher Schriftkorpora am IDS, die der sprachwissenschaftlichen Öffentlichkeit über die Korpusschnittstellen COSMAS II und KorAP angeboten wird. Anhand von Definitionen und Beispielen gehen wir zunächst auf die Extensionen und Überlappungen der Konzepte Social Media, Internetbasierte Kommunikation und Computer-mediated Communication ein. Wir betrachten die rechtlichen Voraussetzungen für einen Korpusausbau aus Sozialen Medien, die sich aus dem kürzlich in relevanten Punkten reformierten deutschen Urheberrecht, aus Persönlichkeitsrechten wie der europäischen Datenschutz-Grundverordnung ergeben und stellen Konsequenzen sowie mögliche und tatsächliche Umsetzungen dar. Der Aufbau von Social Media-Korpora in großen Textmengen unterliegt außerdem korpustechnologischen Herausforderungen, die für traditionelle Schriftkorpora als gelöst galten oder gar nicht erst bestanden. Wir berichten, wie Fragen der Datenaufbereitung, des Korpus-Encoding, der Anonymisierung oder der linguistischen Annotation von Social Media Korpora für DEREKO angegangen wurden und welche Herausforderungen noch bestehen. Wir betrachten die Korpuslandschaft verfügbarer deutschsprachiger IBK- und Social Media-Korpora und geben einen Überblick über den Bestand an IBK- und Social Media-Korpora und ihre Charakteristika (Chat-, Wiki Talk- und Forenkorpora) in DEREKO sowie von laufenden Projekten in diesem Bereich. Anhand korpuslinguistischer Mikro- und Makro-Analysen von Wikipedia-Diskussionen im Vergleich mit dem Gesamtbestand von DEREKO zeigen wir charakterisierende sprachliche Eigenschaften von Wikipedia-Diskussionen auf und bewerten ihren Status als Repräsentant von IBK-Korpora.
Die Korpusanalyseplattform KorAP wird als Nachfolgesystem zu COSMAS II am Leibniz-Institut für Deutsche Sprache (IDS) entwickelt und erlaubt einen umfassenden Zugriff auf einen Teil von DeReKo (Kupietz et al. 2010). Trotz einiger noch fehlender Funktionalitäten ist KorAP bereits produktiv einsetzbar. Im Folgenden wollen wir am Beispiel der Untersuchung von Social-Media-Korpora einige neue Möglichkeiten und Besonderheiten vorstellen.
Im alltäglichen Leben sind Sozialen Medien kaum mehr entbehrlich: ob zum Zweck der Kommunikation, wie auf WhatsApp, zum Teilen von Inhalten und Fotos, z.B. durch Facebook und Instagram, oder zur Teilhabe am Weltgeschehen über Twitter. Der Band untersucht, ob und wie Soziale Medien unsere Kommunikation und auch unsere Sprache verändern und welche neuartigen kommunikativen Formen der Gebrauch Sozialer Medien hervorgebracht hat.
Der Beitrag beschäftigt sich mit kommunikativen Praktiken in audiovisuellen Webformaten am Beispiel von sogenannten „Let’s Plays“, in denen ein Videospiel im Internet für Zuschauende gespielt und kommentiert wird. An live ausgestrahlten Let’s Plays zeigen wir, wie Zuschauende mit Produzierenden während der Ausstrahlung interagieren und so integraler Bestandteil des entstehenden Produkts werden. Live ausgestrahlte Let’s Plays machen eine Trennung zwischen Produktion, Produkt und Rezeption, wie wir sie von traditionellen Medien kennen, obsolet. Wir sprechen daher von sogenannten Medienketten. Sie zeichnen sich dadurch aus, dass die drei genannten Elemente, aufgrund der gegebenen medialen Affordanzen ineinander übergehen, sich dynamisch beeinflussen oder gegenseitig hervorbringen.
Mit der Verfügbarkeit immer größerer und vielfältigerer Korpora wird im Übergang zum 21. Jahrhundert in der Lexikonforschung ein neues Kapitel aufgeschlagen. Der korpuslinguistische Zugang zum Lexikon hat die Lexikografie mit einer neuen empirischen Basis versehen und die klassische Abgrenzung zwischen Lexikon und Grammatik wird in sprachtheoretischen Debatten zunehmend in Frage gestellt. Der vorliegende Band nimmt eine Positionsbestimmung dieser Entwicklungen vor. Er setzt ein mit der Diskussion zur Rolle des Lexikons im Sprachsystem. Im zweiten Teil, “Kookkurrenz und Konstruktion”, geht es um Phänomene, die über die Ebene des einzelnen Wortes hinausgehen und seit einiger Zeit immer größeres Interesse auf sich ziehen. Mentale Prozesse und Repräsentationen des Lexikons bilden den Fokus im Teil “Kognition und Semantik”. Mit “Komplexität und Dynamik” werden im vierten Teil zwei weitere zentrale Begriffe der aktuellen linguistischen Diskussion über das Lexikon thematisiert, bevor abschließend auch auf die Implikationen für Wortschatzforschung und Lexikografie eingegangen wird.
Ulrich Engel hat mit seinen Publikationen zur deutschen Grammatik, zur Verbvalenz und zur kontrastiven Linguistik große Wirkung auf die internationale germanistische Linguistik ausgeübt. Weniger bekannt ist, dass er mit seinem Werk auch andere linguistische Teildisziplinen beeinflusst hat, die davon bis heute profitieren. Dependenzielle Ansätze spielen bei der maschinellen Syntaxanalyse mittlerweile eine zentrale Rolle, und bei der Entwicklung von Systemen zur maschinellen Übersetzung haben Engels Arbeiten ebenfalls ihre Spur hinterlassen. Der Aufbau von Sprachressourcen in Gestalt von „Baumbanken“ kann auf Engels Grammatikkonzeption zurückgreifen, und auch zur neuerlich florierenden Konstruktionsgrammatik bestehen klare Bezüge. Im Beitrag werden diese weniger bekannten Einwirkungen von Engels Werk in andere Bereiche dargestellt und in ihrer andauernden Aktualität gewürdigt.
Text und Sprache digital
(2020)
Die Sozialen Medien haben sich zunehmend zu einem Raum öffentlicher Meinungsbildung entwickelt. Die öffentliche Diskussion um Hass-Kommentare im Internet macht deutlich, dass Soziale Medien über die epistemische Dimension rationaler Diskurse hinaus emotionalisierte, strategische und identitätsorientierte Diskurse begünstigen, die das deliberative Paradigma öffentlicher Meinungsbildung und die Prinzipien politischer Rationalität und logischen Argumentierens in Frage stellen. Der Beitrag untersucht am Beispiel der drei Plattformen Facebook, Twitter und Youtube den Zusammenhang von Plattformlogik und Interaktionsstrukturen mit einem Schwerpunkt auf den Diskurspraktiken des Emotionalisierens. Es wird auch die Frage geklärt, inwiefern die vorhandenen Ansätze der Konversations- und Dialoganalyse auf Interaktionen in Sozialen Medien anwendbar sind.
Der Beitrag diskutiert Interpunktion als ein Teilsystem des Deutschen, an dem das Verhältnis zwischen Sprachwandel und dem gesamtgesellschaftlichen Wandelprozess der Digitalisierung besonders gut ablesbar ist. Der Gebrauch von Interpunktionszeichen im interaktionsorientierten digitalen Schreiben ist gekennzeichnet durch eine distributive Umstrukturierung des Interpunktionsinventars sowie durch Prozesse der Pragmatikalisierung, Syntaktisierung und Ikonizität, die verschiedene Satzzeichen betreffen. In der privaten und öffentlichen metasprachlichen Reflexion zeigen sich eine nicht-binäre Wahrnehmung digitaler Interpunktion und eine Registrierung einzelner Interpunktionspraktiken mit sozialen Gruppen. Die Verlagerung interpersonaler Kommunikation auf digitale Schriftlichkeit führt insgesamt zu einer Ausfächerung des interaktionalen Umgangs mit Interpunktion und zur Herausbildung domänenspezifischer Interpunktionsstile.
♀ ☺ = ♂ ☺? Oder: Das Gelächter der Geschlechter 2.0: Emojigebrauch in der WhatsApp-Kommunikation
(2020)
Praktiken des 'doing', 'undoing' und 'indexing' von Gender finden sich auch in der computervermittelten Kommunikation, und es ist zu erwarten, dass sie sich dort ganz besonders im Gebrauch von Emojis niederschlagen. Zu erwarten ist dies, weil Emojis ein wichtiges Mittel zur Hervorbringung von Nähe, Emotionalität und Gruppenzugehörigkeit sind, und Gender ist ein Parameter, der bei diesen Aspekten eine Rolle spielt. In dem vorliegenden Beitrag soll auf der Basis der Mobile Communication Database 2 (MoCoDa2), einer Datenbank mit WhatsApp-Interaktionen, aus quantitativer und qualitativer Perspektive gefragt werden, welche Gemeinsamkeiten und Unterschiede sich im Emojigebrauch von Männern und Frauen finden lassen.
Was macht eigentlich die Netzwerkforschung im Zusammenhang mit Beziehungen und deren Struktur in der digitalen Welt? Wie hängt Struktur und die Herausbildung von Kultur und Sprache zusammen? Obwohl Kultur noch mehr als Sprache umfasst, sind die Aushandlung von Kultur und die Anwendung von Kulturelementen kaum ohne Sprache vorstellbar. Sprache ist also integrativer Teil von Kultur - ohne Sprache keine Kultur. Die Herausbildung von Sprachkulturen ist wesentlicher Teil dieser Entwicklungen. Wenn wir nun auf den Zusammenhang von Netzwerken und Kultur schauen, so können wir feststellen, dass hier kaum eine Kausalität behauptet werden kann, sondern beides ist miteinander tief verwoben. Zunächst werden einige wichtige Aspekte der Netzwerkforschung exemplarisch angesprochen und mit eigener Forschung illustriert. Danach gehe ich auf einen Shitstorm ein, an dem ich einige Aspekte aus dem Anfangsteil noch einmal aufnehme.
Seit dem Präsidentschaftswahlkampf in den USA sorgen „Fake News“ für eine lebhafte wissenschaftliche Debatte. Bisherige Definitionen sind allerdings weder einheitlich noch widerspruchsfrei und werden zudem nicht nachvollziehbar entwickelt, sondern meist einfach gesetzt. Unser Beitrag will dieses Theoriedefizit mittels einer Begriffsexplikation unter Rückgriff auf Literatur zu Desinformation, Lüge und (öffentliche) Kommunikation abstellen. Dabei ersetzen wir den Begriff „Fake News“ durch „aktuelle Desinformation“ und erörtern systematisch, welche Bedingungen notwendig sind, um von diesem Phänomen sprechen zu können. Wir definieren aktuelle Desinformation als Kommunikation wissentlich und empirisch falscher Informationen zu neuen und relevanten Sachverhalten mit dem Anspruch auf Wahrheit.
Zum (Fremdsprachen-)Lernen mit Sozialen Medien existieren verschiedene Hypothesen, von denen ein paar eine große Stoßkraft entwickelt haben, obwohl sie sich empirisch nicht belegen lassen. In diesem Artikel werden einige von ihnen dekonstruiert, gleichzeitig wird aber auch gezeigt, warum und mit welchen Zielen ein Einsatz Sozialer Medien im Deutsch-als-Fremdsprache-Unterricht sinnvoll ist. Möglichkeiten des Einsatzes werden beispielhaft für die Förderbereiche des kooperativen Schreibens sowie für eine Verbindung von informellem und formalem Lernen thematisiert. Dabei wird ein besonderer Schwerpunkt auf die Betrachtung sozialer Netzwerke gelegt. Abschließend wird auf Herausforderungen eingegangen, die sich im Zusammenhang mit dem Einsatz Sozialer Medien im Deutsch-als-Fremdsprache-Unterricht stellen.
Viele neue Orte des akademischen Lesens und Schreibens sind Anfang der 2000er im Mitmachnetz „Web 2.0“ entstanden, die heute als „Soziale Medien“ Forschung und Lehre sowohl hinsichtlich Produktion und Rezeption als auch als Gegenstand massiv beeinflussen. Zu diesen Formen zählt u.a. auch die Wissenschaftsvermittlung auf (Micro-)Blogs, an der (beinahe typisch) die nicht immer reibungslosen Annäherungen einer Fachkultur an digitale Formen der Textproduktion im Beitrag nachgezeichnet werden. Angesichts der ambivalenten Bewertung dieser neuen Formen der Fachkommunikation wird dafür votiert, (Micro-)Blogs als Arbeitsplattformen zur Kollaboration und nur als solche zu begreifen.
In internetgestützten Medien ist eine Reihe von medienspezifischen Kommunikationspraktiken entstanden - vom Flaming und Trolling aus der Frühzeit des Internet bis zum für die Sozialen Medien charakteristischen Shitstorm. In diesem Beitrag befasse ich mich anhand einer Fallstudie eines von mir als „personalisiert“ bezeichneten Shitstorms gegen die Sprachwissenschaftlerin Luise Pusch mit der Frage, inwiefern diese Form des Shitstorms mit den medialen Eigenschaften sozialer Netze - speziell, des Netzwerks Twitter - zusammenhängt und welche gesellschaftlichen Rahmenbedingungen er benötigt.
In dem einleitenden Beitrag wird in groben Zügen 1. ein Überblick über die digitale Entwicklung und die Entwicklung der Internetlinguistik gegeben und 2. auf Probleme und Desiderata hinsichtlich theoretischer und empirisch-methodischer Aspekte in der Forschung eingegangen, wobei 3. perspektivisch auf Vernetzung und Netzwerkanalysen fokussiert wird. Dies wird schlaglichtartig reflektiert vor dem Hintergrund der Entwicklung eines maschinenbasierten Digitalkapitalismus.
Wie wirkt sich das Schreiben kürzerer Texte in interaktionsorienterter Online-Kommunikation langfristig auf das Schreiben und die Qualität monologischer Texte aus? Auf diese Frage geht der Beitrag ein und präsentiert dazu empirische Daten aus einer Korpus-Vergleichsstudie, in der die Verwendung ausgewählter Konnektoren in einem Facebook-Korpus quantitativ und qualitativ analysiert und mit der Verwendung in dialogischen Texten von Wikipedia-Diskussionsseiten einerseits und in monologischen Texten wie Zeitungskommentaren und Schulertexten anderseits verglichen wurde. Die Analysen fokussieren darauf, wie Konnektoren in Online-Texten eingesetzt werden, ob sich spezifische Online-Verwendungen etablieren und ob „Spuren“ typischer Online-Verwendungen auch in normgebundener Umgebung nachweisbar sind.
Einleitend stellt der Beitrag unter Bezugnahme auf die Jahrestagungen des Leibniz-Instituts für Deutsche Sprache von 2019 und 1999 die Bezeichnungen Soziale Medien und neue Medien gegenüber. Dann steht die schriftbasierte Whats-App-Kommunikation im Fokus, es werden aber auch Beispiele aus anderen Kommunikationsformen angeführt (z.B. Zeitungsartikel auf Facebook, Texte aus der Unternehmenskommunikation). Gezeigt werden soll, wie sich die Verwendung von Emojis in diesen Texten gestaltet. Im Anschluss daran geht es um die Frage, welchen Stellenwert das Schreiben in Sozialen Medien in der Schule hat und welchen Stellenwert es künftig haben wird. Diese Frage leitet über zu dem im Titel unter Perspektiven angedeuteten Blick in die Zukunft: Hier wird zum einen diskutiert, ob die Popularität von Emojis noch zunehmen wird, zum anderen wird gefragt, ob das digitale Schreiben in Zukunft möglicherweise von anderen Praktiken abgelöst wird.
Die Polysemie satzeinbettender Prädikate spielt eine wichtige Rolle fur deren Einbettungsverhalten. Konkret wird gezeigt, dass Polysemie mit struktureller Ambiguität als Kontroll- vs. Anhebungsverb assoziiert sein kann (Beispiel drohen/versprechen) und dass NEG-Raising auf bestimmte Lesarten eines polysemen Verbs beschränkt sein kann. Des Weiteren wird beleuchtet, welche Faktoren die syntaktische Flexibilität satzeinbettender Prädikate, d.h. das Einbettungspotenzial bzgl. der wichtigsten Satzkomplementtypen des Deutschen, begünstigen und welche Rolle dabei Umdeutungen (z.B. von bedauern zu 'mit Bedauern äußern'), die Polysemie induzieren, spielen. Alle betrachteten Phänomene deuten darauf hin, dass sie S-Selektion (semantische Selektion) eine zentrale Rolle in der Satzeinbettung spielt.
Der Beitrag behandelt die Frage, wie sich das spezifisch Neue internetbasierter Kommunikation unter linguistischer Perspektive fassen und in Traditionen des sprachlichen Handelns einordnen lässt. Es wird gezeigt, dass sich die internetbasierte Kommunikation weder als Interaktion noch als Textkommunikation hinreichend beschreiben lasst, zugleich aber Merkmale mit beiden Formen teilt. Mit dem Konzept der Textformen-basierten Interaktion wird ein Vorschlag formuliert, wie dieses Dilemma aufgelöst werden kann: Das Innovationspotenzial internetbasierter Kommunikationstechnologien liegt gerade darin, dass diese durch Indienstnahme von Textformen die Möglichkeiten von Interaktion erweitern. Das hat einerseits Konsequenzen fur die linguistische Analyse und lässt sich andererseits fruchtbar machen fur die Entwicklung von Standards fur die Repräsentation von Korpora.
Texte aus Sozialen Medien finden in linguistischen Diskursanalysen bisher noch wenig Berücksichtigung. Viele Diskursanalysen konzentrieren sich auf Zeitungstexte als Untersuchungsgegenstände. Dieser Beitrag unterbreitet einen Vorschlag zur Überwindung dieses Newspaper Bias, um das Programm und das Methodeninventar der Diskurslinguistik am Beispiel der Wikipedia hin zu digitalen Diskursanalysen zu erweitern. Neben den besonderen Eigenschaften digitaler Diskurse wird die Bedeutung digitaler Objekte (v.a. Links) in den Diskursfragmenten der Wikipedia thematisiert. Zuletzt wird ein Analysemodell präsentiert, das einen umfassenden Rahmen für die Untersuchung von digitalen Diskursen bietet.
Für den öffentlichen Sprachgebrauch im Internet ist Facebook, das mit 15 Jahren zur älteren Generation von Social-Media-Sites zählt, nach wie vor hochrelevant. Im deutschsprachigen Raum ist es die am meisten genutzte Social-Media-Plattform (Newman et al. 2019). Zu den Diensten gehören unter anderem Facebook-Seiten (Pages), die von Unternehmen, Parteien, Medien und anderen Institutionen oder Individuen betrieben werden und als öffentliche Angebote prinzipiell auch von nicht bei Facebook angemeldeten Personen eingesehen werden können. Solche öffentlichen Facebook-Seiten sind als sites of engagement zwischen gesellschaftlichen Institutionen und Individuen reichhaltige Quellen für die linguistische Forschung.
Im Vergleich zu anderen Plattformen bietet Facebook aber nur einen eingeschränkten Zugriff auf diese öffentlichen Sprach- und Interaktionsdaten (Freelon 2018). Während beispielsweise für Twitter viele Tools zur Datensammlung existieren und auch die Plattform selbst eine ausgebaute Suchmaske bietet, erschweren die limitierten Suchmöglichkeiten der Facebook-Plattform und das fehlende Angebot von einfach nutzbarer Software linguistische Projekte in Forschung und Lehre. Gleichzeitig stellen sich neben den praktischen Fragen an vielen Stellen auch forschungsethische Fragen im Umgang mit Onlinedaten.
Die Sprache in Sozialen Medien zeigt auf allen Ebenen eine hohe Variabilität und wurde daher als eine Mischung verschiedener Register (Tagliamonte/Denis 2008) analysiert, die sowohl informelle als auch formelle Formen umfassen. Im Gegensatz zu herkömmlichen schriftlichen Medien, wie z.B. Zeitungstexten, sind Soziale Medien wie Chat, Twitter, Forumsdiskussionen, Facebook oder Blogs für diverse Autor/innen zugänglich, sind spontaner, und unterliegen weniger den sprachlichen Standards. Ein Teil der in diesen Kommunikationskanälen gefundenen Variabilität wird häufig auf Fehler zurückgeführt, es gibt jedoch viele Phänomene, die eigenen Regeln folgen. In Bezug auf das Kontinuum von konzeptueller/medialer Mündlichkeit/Schriftlichkeit (Koch/Oesterreicher 1985) befinden sich die meisten Social-Media-Beitrage in der Mitte des konzeptuellen Oralitätskontinuums, obwohl deren genaue Position bisher weitgehend unbestimmt ist. Soweit Nicht-Standard-Merkmale untersucht wurden, wurde meist die Orthographie, Morphologie, das Lexikon und die Syntax (z.B. Abkürzungen, Emoticons, Ellipsis) berücksichtigt.
Im Gegensatz dazu wählen wir einen pragmatischen, diskursorientierten Standpunkt: Welche Diskursstrategien wählen Sprecher/innen in Sozialen Medien und wie unterscheiden sich diese von bisher untersuchten Medienformen?
Der Mythos „Künstliche Intelligenz“ wird besonders von der sogenannten „transhumanistischen“ Community im Silicon Valley propagiert, deren Vertreter wie der Physiker Ray Kurzweil davon ausgehen, dass wir in spätestens 30 Jahren mit KIs kommunizieren könnten, wie mit einem Menschen (Kurzweil 2005). Saudi Arabien hat 2017 bereits dem anthropomorphen Roboter mit Sprachinterface Sophia die Staatsbürgerschaft zugesprochen (Arab News 2017). Künstliche Intelligenzen wie Apples Assistenzsystem Siri oder Amazons Alexa halten derzeit Einzug in unseren Alltag. Chatbots und Social-Bots wie der Twitter-Bot Tay nehmen Einfluss auf öffentliche Diskurse und interaktives Spielzeug mit Dialogfunktion führt bereits unsere Jüngsten an die Interaktion mit dem artifiziellen Gegenüber heran. Hier entsteht eine völlig neue Form der Dialogizität, die wir aus linguistischer Perspektive noch kaum verstehen. Unabhängige Studien zur Mensch-Maschine-Interaktion stellen also ein großes Desiderat dar.
Im Projekt fussballlinguistik.de baue ich Korpora mit schriftlichen und mündlichen Texten aus dem Bereich der Fußballberichterstattung auf und mache sie über das webbasierte Tool CQPweb (Hardie 2012) der Fachöffentlichkeit zuganglich (Meier 2017). Die Korpora (www.fussballlinguistik.de/korpora) enthalten vornehmlich internetbasierte Texte wie etwa Liveticker, Spielberichte und Taktikanalysen, aber auch transkribierte Radioreportagen im Umfang von 44,8 Mio. Tokens (Stand Marz 2019) in den Sprachen Deutsch, Englisch, Niederländisch und Russisch in vollständig annotierter Form. Ein Teil der Daten ist zudem in das Deutsche Referenzkorpus (DeReKo 2018–II) eingegangen. Die seit gut 50 Jahren etablierte sprachwissenschaftliche Forschung zur Sprache des Fußballs hat dadurch eine in ihrer Themenspezifik einzigartige empirische Ressource erhalten.
Die MoCoDa 2 (https://db.mocoda2.de) ist eine webbasierte Infrastruktur für die Erhebung, Aufbereitung, Bereitstellung und Abfrage von Sprachdaten aus privater Messenger-Kommunikation (WhatsApp und ähnliche Anwendungen). Zentrale Komponenten bilden (1) eine Datenbank, die für die Verwaltung von WhatsApp-Sequenzen eingerichtet ist, die von Nutzer/innen gespendet und für linguistische Recherche- und Analysezwecke aufbereitet wurden, (2) ein Web-Frontend, das die Datenspender/innen dabei unterstützt, gespendete Sequenzen um analyserelevante Metadaten anzureichern und zu pseudonymisieren, und (3) ein Web-Frontend, über das die Daten für Zwecke in Forschung und Lehre abgefragt werden können. Der Aufbau der MoCoDa-2-Infrastruktur wurde im Rahmen des Programms „Infrastrukturelle Forderung für die Geistes- und Gesellschaftswissenschaften“ vom Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen gefordert. Ziel des Projekts ist es, ein aufbereitetes Korpus zur Sprache und Interaktion in der deutschsprachigen Messenger-Kommunikation bereitzustellen, das speziell auch für qualitative Untersuchungen eine wertvolle Grundlage bildet.