Refine
Year of publication
Document Type
- Part of a Book (74)
- Article (32)
- Other (26)
- Conference Proceeding (19)
- Book (12)
Language
- German (138)
- English (22)
- Multiple languages (2)
- Chinese (1)
Keywords
- Deutsch (33)
- Sprachpolitik (21)
- Computerlinguistik (18)
- Dependenzgrammatik (16)
- Syntax (16)
- Digitalisierung (15)
- Korpus <Linguistik> (12)
- Sprache (12)
- Sprachwandel (12)
- Texttechnologie (10)
Publicationstate
- Zweitveröffentlichung (72)
- Veröffentlichungsversion (51)
- Postprint (13)
- (Verlags)-Lektorat (1)
Reviewstate
Publisher
恩格尔巴特的梦:计算机是如何减轻我们阅读和写作负担的?
(2019)
zentripetal
(2016)
zentrifugal
(2013)
Dieser Beitrag skizziert die Möglichkeiten, die die Extensible Markup Language (XML) im Umfeld von eLearning und Web Based Training (WBT) eröffnet. Bisherige eLearning-Angebote kranken an verschiedenen Problemen, die durch die Verwendung von XML-basierten Learning Objects vermieden werden können. Ausgehend vom aktuellen Stand im Projekt MiLCA - Medienintensive Lehrmodule in der Computerlinguistik-Ausbildung - soll zudem ein Ausblick auf zukünftige technische Möglichkeiten des Computer-gestützten Lernens gegeben werden.
Leicht hat es die Duden-Redaktion derzeit nicht. Im Sommer erst musste sie sich ungerechtfertigterweise vorhalten lassen, mit der Aufnahme neuer Wörter in die 28. Auflage des Rechtschreibdudens eine links-grüne Agenda zu verfolgen. Vor kurzem hieß es nun, im Online-Duden werde heimlich eine Sprachveränderung betrieben, die zum Verschwinden des generischen Maskulinums führe. Kürzlich hat deshalb der “Verein Deutsche Sprache”, jener umstrittene Verein konservativer Sprachschützer*innen, sogar einen öffentlichen Aufruf gegen den Dudenverlag gestartet. Was ist also dran an diesem Vorwurf?
Wissenschaftliche Kommunikation zeichnet sich durch ein besonders hohes Maß an Standardisierung und Organisation aus. Anforderungen der Objektivität, der Nachvollziehbarkeit und der Authentizität schlagen sich in der Struktur aller wissenschaftlichen Textsorten nieder. Die Kulturtechniken der Schrift sind auf diese Bedingungen ausgerichtet, weshalb das Lesen und Schreiben wissenschaftlicher Texte traditionell besonderen Bedingungen unterliegt, die üblicherweise im Studium vermittelt werden. In diesem Beitrag soll zunächst gezeigt werden, welches die wichtigsten wissenschaftlichen Textsorten sind, welche Eigenschaften sie besitzen und welche Ziele mit Ihnen kommunikativ verfolgt werden. Im zweiten Abschnitt geht es um die Digitalisierung von Texten: Welche Merkmale besitzen digitale Texte und welchen technischen Bedingungen unterliegen sie. Auch wird es hier um das Schreiben digitaler Texte überhaupt gehen. Im letzten Abschnitt dieses Beitrags sehen wir uns die Auswirkungen daraus auf die wissenschaftliche Kommunikation an. Digitale Texte weisen Eigenschaften auf, die die kommunizierten Inhalte zu verändern vermögen. Wie ändert sich das wissenschaftliche Schreiben dadurch?
Wird aus Sprache Gewalt?
(2019)
Nach dem Mord am Kasseler Regierungspräsidenten Walter Lübcke und weiteren Mordanschlägen in der jüngsten Vergangenheit wurde in Kommentaren und Stellungnahmen immer wieder behauptet, dass hier Sprache in Gewalt umgeschlagen sei. Dies ist einerseits naheliegend vor dem Hintergrund dessen, was wir über die Täter und ihre Äußerungen wissen. Was aber sagt die Wissenschaft dazu? Wie ist aus sprach- und kommunikationswissenschaftlicher Sicht dieser angenommene Zusammenhang zu bewerten?
Wenn ich am Ende dieses Jahres an die Diskussionen zur deutschen Sprache zurückdenke, die ich bei Medienauftritten und in Veranstaltungen geführt habe, dann ist dabei immer wieder eine ganz bestimmte Frage gestellt worden: Wer entscheidet eigentlich darüber, wie wir sprechen und schreiben, was wir sagen dürfen und was nicht? Wer hat die Entscheidungsbefugnis über die Aufnahme neuer Wörter ins Deutsche, über gendergerechte Sprache oder über Rechtschreibregeln?
Der vorliegende Beitrag beschreibt, wie die Verfügbarkeit digitaler Textkorpora den Wandel von einer systemorientierten hin zu einer gebrauchsorientierten Sprachforschung ermöglicht hat. Doch die korpusbasierte Beschreibung des Sprachgebrauchs kann nur so realistisch sein wie die Korpora, mit denen sie arbeitet. Deshalb ist es von großer Bedeutung, auch besondere Textsorten zu berücksichtigen und Herangehensweisen zu entwickeln, das dafür nötige Vertrauen bei den Datenspendern zu erzeugen. Im Zentrum des Beitrags steht deshalb die Diskussion von einigen derartigen Textsorten und den Herausforderungen, die sich mit ihnen in Hinsicht auf den Korpusaufbau verbinden. Der Beitrag endet mit einem Ausblick auf das Forum Deutsche Sprache, das einen solchen Ort des Vertrauens für Spracherhebungen bieten möchte.
Kontroversen wie die um gendergerechten Sprachgebrauch haben eindeutig eine politische Dimension. Das ist aber nur die eine Seite der Medaille. Jenseits der politischen Auseinandersetzung stellt sich die Frage, in welcher Weise die verschiedenen Positionen in der Gesellschaft verankert sind und warum die Kontroversen überhaupt entstehen. Die Analyse der postindustriellen Gesellschaft des Soziologen Andreas Reckwitz bietet dafür die Möglichkeit einer Erklärung.
Vorwort
(2022)
Vorwort
(2019)
Vorwort
(2021)
Vorwort
(2024)
Thema der 59. Jahrestagung des Leibniz-Instituts für Deutsche Sprache war vom 14. bis zum 16. März 2023 erstmals nach mehreren Jahrzehnten wieder die Orthografie des Deutschen, und zwar „in Wissenschaft und Gesellschaft“. Einen unmittelbaren Anlass dafür bildete der bevorstehende Abschluss der siebenjährigen Arbeitsphase des Rats für deutsche Rechtschreibung Ende 2023, dessen Tätigkeit das IDS seit seiner Gründung wissenschaftlich begleitet. Aber auch die Orthografieforschung selbst hat sich seit der Rechtschreibreform im Jahr 1996 in einer Weise entwickelt, dass die Wahl dieses schriftlinguistischen Querschnittsthemas angezeigt erschien.
Vorwort
(2023)
In recent times presentations have drawn the attention of scientific interest as a new form of communication. In visualization of abstract structures or relationships in scholarly presentations using diagrams, different medial layers of meaning are conjoined in a very special way. The present paper examines firstly the multimodal structure of presentations and the mechanisms of establishing cross-modality coherence. Then the results of a reception experiment are discussed that gives rise to the assumption that multimodality can in fact improve the understanding of scholarly presentations. In the final part of the paper the production of an abstract visualization in a scholarly presentation is exemplified with regard to the solution of disambiguation and linearization problems. We claim that abstract visualizations in presentations are used to produce narratives by the speaker, and without such narratives this kind of visualization cannot be understood properly.
Nach dem Mord am Kasseler Regierungspräsidenten Walter Lübcke und weiteren Mordanschlägen in der jüngsten Vergangenheit wurde in Kommentaren und Stellungnahmen immer wieder behauptet, dass hier Sprache in Gewalt umgeschlagen sei. Dies ist einerseits naheliegend vor dem Hintergrund dessen, was wir über die Täter und ihre Äußerungen wissen. Was aber sagt die Wissenschaft dazu?
This paper presents challenges and opportunities resulting from the application of geographical information systems (GIS) in the (digital) humanities. First, we provide an overview of the intersection and interaction between geography (and cartography), and the humanities. Second, the “GeoBib” project is used as a case study to exemplify challenges for such collaborative, interdisciplinary projects, both for the humanists and the geoscientists. Finally, we conclude with an outlook on further applications of GIS in the humanities, and the potential scientific benefit for both sides, humanities and geosciences.
Uncertain about Uncertainty: Different ways of processing fuzziness in digital humanities data
(2014)
The GeoBib project is constructing a georeferenced online bibliography of early Holocaust and camp literature published between 1933 and 1949 (Entrup et al. 2013a). Our immediate objectives include identifying the texts of interest in the first place, composing abstracts for them, researching their history, and annotating relevant places and times. Relations between persons, texts, and places will be visualized using digital maps and GIS software as an integral part of the resulting GeoBib information portal. The combination of diverse data from varying sources not only enriches our knowledge of these otherwise mostly forgotten texts; it also confronts us with vague, uncertain or even conflicting information. This situation yields challenges for all researchers involved – historians, literary scholars, geographers and computer scientists alike. While the project operates at the intersection of historical and literary studies, the involved computer scientists are in charge of providing a working environment (Entrup et al. 2013b) and processing the collected information in a way that is formalized yet capable of dealing with inevitable vagueness, uncertainty and contradictions. In this paper we focus on the problems and opportunities of encoding and processing fuzzy data.
Translativ
(2014)
This study examines what kind of cues and constraints for discourse interpretation can be derived from the logical and generic document structure of complex texts by the example of scientific journal articles. We performed statistical analysis on a corpus of scientific articles annotated on different annotations layers within the framework of XML-based multi-layer annotation. We introduce different discourse segment types that constrain the textual domains in which to identify rhetorical relation spans, and we show how a canonical sequence of text type structure categories is derived from the corpus annotations. Finally, we demonstrate how and which text type structure categories assigned to complex discourse segments of the type “block” statistically constrain the occurrence of rhetorical relation types.
For a long time, the lecture dominated performatively presented scientific communication. Given academic traditions, it is possible to make a connection between the lecture and classical rhetoric, a highly differentiated instrument of analysis. The tradition of the lecture has been perpetuated in the presentation of research results, first in the use of transparencies and subsequently through computer-based projections. Yet the use of media technology has also allowed new practices to emerge, including mediation practices hitherto neglected in the theory of rhetoric.
Text und Sprache digital
(2020)
A text parsing component designed to be part of a system that assists students in academic reading an writing is presented. The parser can automatically add a relational discourse structure annotation to a scientific article that a user wants to explore. The discourse structure employed is defined in an XML format and is based the Rhetorical Structure Theory. The architecture of the parser comprises pre-processing components which provide an input text with XML annotations on different linguistic and structural layers. In the first version these are syntactic tagging, lexical discourse marker tagging, logical document structure, and segmentation into elementary discourse segments. The algorithm is based on the shift-reduce parser by Marcu (2000) and is controlled by reduce operations that are constrained by linguistic conditions derived from an XML-encoded discourse marker lexicon. The constraints are formulated over multiple annotation layers of the same text.
Syntax und Morphologie
(1997)
Streit um Sprache
(2021)
Sprachpolitik war in der Bundesrepublik Deutschland seit 1949 nie ein größeres Thema in Wahlkämpfen. Seit der Bundestagswahl 2017 hat sich dies jedoch geändert. Damals waren unter dem Eindruck des großen Migrationsandrangs im Jahr 2016 von einigen Parteien Positionen zu sprachlicher Integration in die Wahlprogramme aufgenommen worden. Unter Positionen sei hier der explizite sprachliche Ausdruck einer Haltung zu einem politischen Thema bzw. Themenbereich zu verstehen, der unter anderem im Rahmen von parteilichen Grundsatz- und Wahlprogrammen Orientierung hinsichtlich des (zukünftig zu erwartenden) politischen Handelns parteilicher Akteur/-innen bieten soll. Und auch die zunehmende Diversität der deutschen Gesellschaft führte schon bei der Wahl im Jahr 2017 zu einer Berücksichtigung von Themen der sprachlichen Bildung in der Programmatik der Parteien. Dieser Beitrag untersucht somit die Grundsatz- und Wahlprogramme der größten Parteien anhand der sprachpolitischen Ausdrucksweise.
Deutsch ins Grundgesetz? Verbot für Fremdwörter? Gendern oder nicht? Deutsch in der EU? Sprachpolitik hat sich in den letzten Jahren als ein lohnendes Politikfeld etabliert. Von den Sprachschlachten im 17. Jahrhundert bis zu aktuellen sprachpolitischen Verschwörungstheorien - dieses Buch analysiert die Auseinandersetzungen zum Thema Sprache und Politik. Es zeigt, welchen hohen Stellenwert das Thema Sprache im Programm der AfD einnimmt. Was steckt dahinter? Und was kann der Vereinnahmung der Sprache für politische Zwecke entgegengesetzt werden? „Auf 160 Seiten setzt Lobin sich vor allem mit derjenigen Variante des „Sprachkampfes“ auseinander, die er treffend als „nationalidentitär“ bezeichnet. Und womöglich das Verdienstvollste an seinem Buch ist die Begründung für diese Auswahl. Kurz zusammengefasst: Zwar gibt es eine Indienstnahme von Sprache und Sprachkritik für identitätspolitische Zwecke sowohl auf der äußersten rechten als auch auf der linken Seite des politischen Spektrums. Aber feministische oder antirassistische „Sprachpolitik“ trägt selbst dann, wenn sie mal ins sprachlich Fragwürdige überschießt, noch den emanzipatorischen Impetus in sich, der prinzipiell auf Gleichberechtigung zielt. Die nationalidentitäre Ideologie mitsamt ihren Forderungen an die Sprache folgt dagegen gerade einem exklusiven, bestimmte gesellschaftliche Gruppen ausschließenden Wegweiser“ (Frankfurter Rundschau)
Sprache und digitale Medien
(1997)
Durch das Aufkommen der Computer als Kommunikationsmedium hat sich für die Linguistik ein weiteres neues Gebiet erschlossen, bei dem es nicht um die maschinelle Simulation von Sprachverstehens- und -Produktionsprozessen geht. Die Nutzung des Computers als Medium erfordert auch die Darstellung von Texten in digitaler Form, so dass sie durch den Computer bearbeitet und dargestellt werden können. Texte im Computer - oft wird von elektronischen Texten gesprochen - brauchen dabei allerdings nicht die auf Papier gedruckten Texte nachzubilden, sie stellen vielmehr eine eigene Realisationsform von Textinhalten dar, die sich in vielem vom traditionellen Textbegriff unterscheidet.
Die Vernetzung von Computern bewirkt die Entstehung eines Netzes aus Texten und, als Folge davon, sozialen Netzen von Nutzern dieser Texte als Schreibern und Lesern. Netzwerke sprachlicher Objekte gab und gibt es zwar auch ohne Digitalisierung und Vernetzung, jedoch weniger umfangreich und wesentlich schwerer, möglicherweise gar nicht in großer Menge analysierbar. Der vorliegende Beitrag befasst sich mit den verschiedenen Typen sprachlicher Netzwerke: Textgeweben, Interaktionsnetzwerken und sozialen Netzwerken. Es werden zentrale Begrifflichkeiten der Netzwerkanalyse erläutert und anhand von Beispielen gezeigt, wie sprachliche Kommunikation auf der Grundlage der Methoden der Netzwerkanalyse aus einer anderen, neuen Perspektive betrachtet werden kann.
Situiertheit
(1993)
„Revolutionen sind die Lokomotiven der Geschichte“, lautet ein berühmter Ausspruch von Karl Marx. Kann man dies auch auf die Sprachgeschichte übertragen? Und was sind deren Lokomotiven? Eine neuere These besagt, dass Pandemien, Kriege und andere “revolutionäre” Ereignisse mit starker Auswirkung auf die Demografie sprachhistorisches Geschehen in Gang setzen können.
Schreiben nach Engelbart
(2014)
Douglas Engelbart hat 1968 mit seinem On-Line System das erste Mal gezeigt, wie ein Computer als interaktives Schreibwerkzeug genutzt werden kann. Der Beitrag zeichnet diese Urszene der Textverarbeitung nach, beschreibt die wesentlichen Entwicklungslinien, die das digitale Schreiben seitdem genommen hat, und erläutert die zentralen Konzepte, die es zunehmend prägen: Hybridität, Multimedialität und Sozialität.
Der folgende Artikel ist ein bearbeiteter Auszug aus Henning Lobins “Engelbarts Traum. Wie der Computer uns Lesen und Schreiben abnimmt” Frankfurt am Main / New York: Campus, 2014.
Regens
(2016)
Discourse parsing of complex text types such as scientific research articles requires the analysis of an input document on linguistic and structural levels that go beyond traditionally employed lexical discourse markers. This chapter describes a text-technological approach to discourse parsing. Discourse parsing with the aim of providing a discourse structure is seen as the addition of a new annotation layer for input documents marked up on several linguistic annotation levels. The discourse parser generates discourse structures according to the Rhetorical Structure Theory. An overview of the knowledge sources and components for parsing scientific joumal articles is given. The parser’s core consists of cascaded applications of the GAP, a Generic Annotation Parser. Details of the chart parsing algorithm are provided, as well as a short evaluation in terms of comparisons with reference annotations from our corpus and with recently developed Systems with a similar task.
Plexus
(2016)
In the project SemDok (Generic document structures in linearly organised texts) funded by the German Research Foundation DFG, a discourse parser for a complex type (scientific articles by example), is being developed. Discourse parsing (henceforth DP) according to the Rhetorical Structure Theory (RST) (Mann and Taboada, 2005; Marcu, 2000) deals with automatically assigning a text a tree structure in which discourse segments and rhetorical relations between them are marked, such as Concession. For identifying the combinable segments, declarative rules are employed, which describe linguistic and structural cues and constraints about possible combinations by referring to different XML annotation layers of the input text, and external knowledge bases such as a discourse marker lexicon, a lexico-semantic ontology (later to be combined with a domain ontology), and an ontology of rhetorical relations. In our text-technological environment, the obvious choice of formalism to represent such ontologies is OWL (Smith et al., 2004). In this paper, we describe two OWL ontologies and how they are consulted from the discourse parser to solve certain tasks within DP. The first ontology is a taxononomy of rhetorical relations which was developed in the project. The second one is an OWL version of GermaNet, the model of which we designed together with our project partners.
In der wissenschaftlichen Auseinandersetzung spielen derzeit Entwicklungen in den theoretischen und empirischen Erkenntnissen zur Orthographie(entwicklung), zum Schrift- und Orthographieerwerb und zur Orthographiedidaktik sowie aktuelle Entwicklungen im Schreibgebrauch eine zentrale Rolle. Globalisierung und Internationalisierung befördern in der gesprochenen und der geschriebenen Sprache die Aufnahme zahlreicher neuer Fremdwörter, vor allem Entlehnungen aus dem anglo-amerikanischen Sprachraum, in den deutschen Fach- und Allgemeinwortschatz und damit Entwicklungen im Schreibgebrauch. Auch neue digitale Medien begünstigen veränderte, nutzungsorientierte Vermittlungsstrategien orthographischer Inhalte. Und nicht zuletzt stellt die intensiv geführte Debatte über gendersensible Schreibung unter Verwendung von Sonderzeichen (wie Asterisk oder Doppelpunkt im Wortinneren) die Schreibgemeinschaft vor Herausforderungen.
Der vorliegende Band befasst sich mit dem Stand und der Entwicklung von Forschungsinfrastrukturen für die germanistische Linguistik und einigen angrenzenden Bereichen. Einen zentralen Aspekt dabei bildet die Notwendigkeit, Kooperativität in der Wissenschaft im institutionellen Sinne, aber auch in Hinsicht auf die wissenschaftliche Praxis zu organisieren. Dies geschieht in Verbunden als Kooperationsstrukturen, wobei Sprachwissenschaft und Sprachtechnologie miteinander verbunden werden. Als zentraler Forschungsressource kommen dabei Korpora und ihrer Erschließung durch spezielle, linguistisch motivierte Informationssysteme besondere Bedeutung zu. Auf der Ebene der Daten werden durch Annotations- und Modellierungsstandards die Voraussetzung für eine nachhaltige Nutzbarkeit derartiger Ressourcen geschaffen.
The administration of electronic publication in the Information Era congregates old and new problems, especially those related with Information Retrieval and Automatic Knowledge Extraction. This article presents an Information Retrieval System that uses Natural Language Processing and Ontology to index collection’s texts. We describe a system that constructs a domain specific ontology, starting from the syntactic and semantic analyses of the texts that compose the collection. First the texts are tokenized, then a robust syntactic analysis is made, subsequently the semantic analysis is accomplished in conformity with a metalanguage of knowledge representation, based on a basic ontology composed of 47 classes. The ontology, automatically extracted, generates richer domain specific knowledge. It propitiates, through its semantic net, the right conditions for the user to find with larger efficiency and agility the terms adapted for the consultation to the texts. A prototype of this system was built and used for the indexation of a collection of 221 electronic texts of Information Science written in Portuguese from Brazil. Instead of being based in statistical theories, we propose a robust Information Retrieval System that uses cognitive theories, allowing a larger efficiency in the answer to the users queries.
Nexus
(2016)
XML-Dokumentgrammatiken, die als DTDs oder neuerdings als XML-Schemata spezifiziert werden, spezifizieren zwar die syntaktischen Eigenschaften einer Klasse von Dokumenten, für sie existiert aber normalerweise kein formales semantisches Modell des Gegenstandsbereichs, auf das Dokumentstrukturen abgebildet werden können. Der Beitrag zeigt am Beispiel der Tabelle, wie semantische Netze für diese Aufgabe herangezogen werden können. Die konkrete Umsetzung geschieht dabei auf der Grundlage des Topic-Map-Standards in Verbindung mit XPath-Ausdrücken, die aus dem semantischen Netz in die Dokumentinstanz bzw. in ein XML-Schema verweisen.
Nektiv
(2014)
Nektion
(2016)
Nachruf auf Ulrich Engel
(2020)
In der Geschichte der Sprachwissenschaft hat das Lexikon in unterschiedlichem Maße Aufmerksamkeit erfahren. In jüngerer Zeit ist es vor allem durch die Verfügbarkeit sprachlicher Massendaten und die Entwicklung von Methoden zu ihrer Analyse wieder stärker ins Zentrum des Interesses gerückt. Dies hat aber nicht nur unseren Blick für lexikalische Phänomene geschärft, sondern hat gegenwärtig auch einen profunden Einfluss auf die Entstehung neuer Sprachtheorien, beginnend bei Fragen nach der Natur lexikalischen Wissens bis hin zur Auflösung der Lexikon-Grammatik-Dichotomie. Das Institut für Deutsche Sprache hat diese Entwicklungen zum Anlass genommen, sein aktuelles Jahrbuch in Anknüpfung an die Jahrestagung 2017 – „Wortschätze: Dynamik, Muster, Komplexität“ – der Theorie des Lexikons und den Methoden seiner Erforschung zu widmen.
Vor dem Hintergrund einer neuen linguistischen Betrachtungsweise, die wissenschaftliche Präsentationen als eine eigenständige, komplexe, multimodale Textsorte auffasst, wird in diesem Beitrag zunächst der Aspekt der Multimodalität von Präsentationen fokussiert. Die analytische Beschäftigung mit wissenschaftlichen Präsentationen wird dann um erste Ergebnisse unserer Rezeptionsexperimente ergänzt, in denen unter anderem Erhebungen zur Wissensvermittlung unterschiedlicher wissenschaftlicher Präsentationen durchgeführt wurden.
Multimedia
(1997)
Lesen und lesen lassen
(2015)
Lektürehinweis
(2019)
Das Handbuch ist eine periodische und mehrsprachige Online-Publikation. Die bisher veröffentlichten Bände wurden bereits über 8.500 Mal heruntergeladen. Für Leserinnen und Leser, die das haptische Leseerlebnis bevorzugen, ist die Publikation zudem im Printformat erhältlich. Zu ausgewählten Konzepten der Sprachkritik werden sukzessive enzyklopädische Artikel veröffentlicht, die ein sprachkritisches Schlüsselkonzept betreffen und die für die europäische Perspektive von kultureller Bedeutung sind. Das Ziel ist demnach, eine Konzeptgeschichte der europäischen Sprachkritik zu präsentieren. Zum einen liefert das Handbuch einen spezifischen Blick auf die jeweiligen Sprachkulturen. Zum anderen werden diese vergleichend in den Blick genommen.
Despite being an official language of several countries in Central and Western Europe, German is not formally recognised as the official language of the Federal Republic of Germany. However, in certain situations the use of the German language, including the spelling rules, is subject to state regulation (by acts of Federal Parliament orby administrative decisions). This article presents the content of this regulation, its scope, and the historical context in which it was adopted.
Wissenschaftlich basierte allgemeine Wörterbücher des Deutschen werden heute meist korpusbasiert erarbeitet, d. h. die in ihnen beschriebene Sprache wird vor der lexikografischen Beschreibung empirisch erforscht. Diese Korpora sind allerdings, wie die großen linguistischen Textsammlungen zum Deutschen allgemein, durch Zeitungstexte dominiert. Daher beruhen die in Wörterbüchern beschriebenen Kollokationen und typischen Verwendungskontexte zumindest teilweise auf dieser Textsorte. Wir untersuchen in unserem Beitrag anhand einer Fallstudie zu Mann und Frau, wie stark sich die Beschreibung solcher Kollokationssets ändern würde, wenn als Korpusgrundlage nicht Zeitungen, sondern Publikumszeitschriften oder belletristische Texte herangezogen würden und wie unterschiedlich demnach Geschlechterstereotype dargestellt würden. Damit diskutieren wir auch die Frage, ob Zeitungstexte in diesem Fall ein adäquates und vielseitiges Abbild des Gebrauchsstandards zeigen. Auf einer allgemeineren Ebene wird dadurch ein grundlegendes Problem korpuslinguistischer Forschungsarbeiten tangiert, nämlich die Frage, inwieweit durch Korpora überhaupt ein ‚objektives‘ Bild der sprachlichen Wirklichkeit gezeichnet werden kann.
Die fast unüberschaubare Vielfalt koordinationssyntaktischer Phänomene ist eines der schwierigsten Probleme für eine kohärente Grammatiktheorie. Die vorliegende Untersuchung sieht Koordination nicht als grammatisches Phänomen per se, sondern als eine Technik, die es Sprecher und Hörer erlaubt, eine syntaktische Struktur in effizienter Weise ein zweites Mal zu verwenden. Statt koordinationssyntaktischer Strukturen werden deshalb Ersetzungs- und Linearisierungsprozesse als grundlegend angenommen. Das Buch zeigt, wie diese Idee für die Entwicklung einer einheitlichen und allgemeinen Koordinationstheorie genutzt werden kann, die neben allen Spielarten der Koordination auch andere Erscheinungsformen regulärer Ellipse erklären kann.
Die Untersuchungen erfolgen auf der Grundlage einer formalisierten Version der Dependenzgrammatik, lassen sich aber auch auf andere Grammatiktheorie übertragen, die eine getrennte Darstellung von syntaktischer Struktur und Wortstellung erlauben.
Kontrastive Korpuslinguistik versteht sich als eine Bezeichnung für sprachvergleichende Studien, deren Ergebnisse mit Analysen sprachlicher Daten erreicht und empirisch fundiert sind. Die Bezeichnung contrastive corpus linguistics für eine neue, sich entwickelnde Disziplin wurde 1996 von Karin Aijmer und Bengt Altenberg (Schmied 2009: 1142) eingeführt. Der Einsatz der sprachlichen Korpora bei der Beschreibung kontrastiver Studien bedeutet in den 1990er-Jahren für die kontrastive Linguistik eine Wiederbelebung, nachdem die weit gesteckten Ziele und Hoffnungen in den 50er- und 60er-Jahren, die mit der Fremdsprachendidaktik zusammenhingen, vor etwa 50 Jahren aufgegeben wurden.
The paper investigates the evolution of document grammars from a linguistic point of view. Document grammars have been developed in the past decades in order to formalize knowledge on the structure of textual information. A well-known instance of a document grammar is the »Document Type Definition« (DTD) as part of the Extensible Markup Language (XML). DTDs allow to define so-called tree grammars that constrain the application of tag-sets in the process of annotation of a document. In an XML-based document workflow, DTDs play a crucial role for validation and transforming huge amounts of texts in standardized data formats. An interesting point in the development of XML DTDs is the fact that the restriction of the formal expressiveness paved the way to understand the formal properties of document grammars better and to develop more a powerful version like XML Schema recently. In this sense, the simplicity of the original approach, resulting from the necessary restriction of previous approaches, yielded new complexity on formally understood grounds.
In dependenzsyntaktischen Systemen wie denen von Engel (1982), Hudson (1984), Schubert (1987), Mel'čuk (1988) oder Starosta (1988) können gemeinhin nur Wörter andere Wörter oder Phrasen regieren. Auch wenn diese Annahme durchaus praktikabel ist, führt sie doch zu einer ganzen Reihe von syntaxtheoretischen Unzulänglichkeiten, die ausgearbeitete Dependenzgrammatiken gegenüber konkurrierenden Grammatiktheorien als unzulänglich erscheinen lassen. Ziel des vorliegenden Beitrages ist es, die Notwendigkeit darzulegen, auch komplexeren Einheiten Rektionsfähigkeit zuzugestehen, und mit dem Konzept des 'komplexen Elements' ein geeignetes formales Instrument dafür zur Verfügung zu stellen.
Researchers in many disciplines, sometimes working in close cooperation, have been concerned with modeling textual data in order to account for texts as the prime information unit of written communication. The list of disciplines includes computer science and linguistics as well as more specialized disciplines like computational linguistics and text technology. What many of these efforts have in common is the aim to model textual data by means of abstract data types or data structures that support at least the semi-automatic processing of texts in any area of written communication.
Die Digitalisierung hat uns neue Möglichkeiten eröffnet, miteinander zu kommunizieren, Informationen zu verarbeiten, zu speichern und zu publizieren. Hat das auch unser Schreiben, unser Lesen, unsere Texte oder gar unser Bild von Sprache verändert? Und ist die Sprachwissenschaft heute noch dieselbe wie vor dreißig Jahren? Über diese Fragen sprach Monika Obrist, Leiterin des GfdS-Zweigs Bozen, mit Prof. Dr. Henning Lobin, dem Direktor des IDS Mannheim.