Refine
Year of publication
Document Type
- Part of a Book (74)
- Article (32)
- Other (26)
- Conference Proceeding (19)
- Book (12)
Language
- German (138)
- English (22)
- Multiple languages (2)
- Chinese (1)
Keywords
- Deutsch (33)
- Sprachpolitik (21)
- Computerlinguistik (18)
- Dependenzgrammatik (16)
- Syntax (16)
- Digitalisierung (15)
- Korpus <Linguistik> (12)
- Sprache (12)
- Sprachwandel (12)
- Texttechnologie (10)
Publicationstate
- Zweitveröffentlichung (72)
- Veröffentlichungsversion (51)
- Postprint (13)
- (Verlags)-Lektorat (1)
Reviewstate
Publisher
Kontrastive Korpuslinguistik versteht sich als eine Bezeichnung für sprachvergleichende Studien, deren Ergebnisse mit Analysen sprachlicher Daten erreicht und empirisch fundiert sind. Die Bezeichnung contrastive corpus linguistics für eine neue, sich entwickelnde Disziplin wurde 1996 von Karin Aijmer und Bengt Altenberg (Schmied 2009: 1142) eingeführt. Der Einsatz der sprachlichen Korpora bei der Beschreibung kontrastiver Studien bedeutet in den 1990er-Jahren für die kontrastive Linguistik eine Wiederbelebung, nachdem die weit gesteckten Ziele und Hoffnungen in den 50er- und 60er-Jahren, die mit der Fremdsprachendidaktik zusammenhingen, vor etwa 50 Jahren aufgegeben wurden.
The present paper reports the first results of the compilation and annotation of a blog corpus for German. The main aim of the project is the representation of the blog discourse structure and relations between its elements (blog posts, comments) and participants (bloggers, commentators). The data included in the corpus were manually collected from the scientific blog portal SciLogs. The feature catalogue for the corpus annotation includes three types of information which is directly or indirectly provided in the blog or can be construed by means of statistical analysis or computational tools. At this point, only directly available information (e.g. title of the blog post, name of the blogger etc.) has been annotated. We believe, our blog corpus can be of interest for the general study of blog structure or related research questions as well as for the development of NLP methods and techniques (e.g. for authorship detection).
Dieser Artikel gibt einen Einblick in das GeoBib-Projekt und die Problematik der Verwendung von historischen Karten und der daraus abgeleiteten Geodaten in einem WebGIS. Das GeoBib-Projekt hat zum Ziel, eine annotierte und georeferenzierte Online-Bibliographie der frühen deutsch- bzw. polnischsprachigen Holocaust- und Lagerliteratur von 1933 bis 1949 bereitzustellen. Zu diesem Zeitraum werden historische Karten und Geodaten gesammelt, aufbereitet und im zugehörigen WebGIS des GeoBib-Portals visualisiert. Eine Besonderheit ist die aufwendige Recherche von Geodaten und Kartenmaterial für den Zeitraum zwischen 1933 und 1949. Die Problematiken bezüglich der Recherche und späteren Visualisierung historischer Geodaten und des Kartenmaterials sind ein Hauptaugenmerk in diesem Artikel. Weiterhin werden Konzepte für die Visualisierung von historischem, unvollständigem Kartenmaterial präsentiert und ein möglicher Lösungsweg für die bestehenden Herausforderungen aufgezeigt.
This paper presents challenges and opportunities resulting from the application of geographical information systems (GIS) in the (digital) humanities. First, we provide an overview of the intersection and interaction between geography (and cartography), and the humanities. Second, the “GeoBib” project is used as a case study to exemplify challenges for such collaborative, interdisciplinary projects, both for the humanists and the geoscientists. Finally, we conclude with an outlook on further applications of GIS in the humanities, and the potential scientific benefit for both sides, humanities and geosciences.
From Open Source to Open Information. Collaborative Methods in Creating XML-based Markup Languages
(2000)
Wissenschaftlich basierte allgemeine Wörterbücher des Deutschen werden heute meist korpusbasiert erarbeitet, d. h. die in ihnen beschriebene Sprache wird vor der lexikografischen Beschreibung empirisch erforscht. Diese Korpora sind allerdings, wie die großen linguistischen Textsammlungen zum Deutschen allgemein, durch Zeitungstexte dominiert. Daher beruhen die in Wörterbüchern beschriebenen Kollokationen und typischen Verwendungskontexte zumindest teilweise auf dieser Textsorte. Wir untersuchen in unserem Beitrag anhand einer Fallstudie zu Mann und Frau, wie stark sich die Beschreibung solcher Kollokationssets ändern würde, wenn als Korpusgrundlage nicht Zeitungen, sondern Publikumszeitschriften oder belletristische Texte herangezogen würden und wie unterschiedlich demnach Geschlechterstereotype dargestellt würden. Damit diskutieren wir auch die Frage, ob Zeitungstexte in diesem Fall ein adäquates und vielseitiges Abbild des Gebrauchsstandards zeigen. Auf einer allgemeineren Ebene wird dadurch ein grundlegendes Problem korpuslinguistischer Forschungsarbeiten tangiert, nämlich die Frage, inwieweit durch Korpora überhaupt ein ‚objektives‘ Bild der sprachlichen Wirklichkeit gezeichnet werden kann.
Researchers in many disciplines, sometimes working in close cooperation, have been concerned with modeling textual data in order to account for texts as the prime information unit of written communication. The list of disciplines includes computer science and linguistics as well as more specialized disciplines like computational linguistics and text technology. What many of these efforts have in common is the aim to model textual data by means of abstract data types or data structures that support at least the semi-automatic processing of texts in any area of written communication.
Discourse segmentation is the division of a text into minimal discourse segments, which form the leaves in the trees that are used to represent discourse structures. A definition of elementary discourse segments in German is provided by adapting widely used segmentation principles for English minimal units, while considering punctuation, morphology, sytax, and aspects of the logical document structure of a complex text type, namely scientific articles. The algorithm and implementation of a discourse segmenter based on these principles is presented, as well an evaluation of test runs.
Knowledge in textual form is always presented as visually and hierarchically structured units of text, which is particularly true in the case of academic texts. One research hypothesis of the ongoing project Knowledge ordering in texts - text structure and structure visualisations as sources of natural ontologies1 is that the textual structure of academic texts effectively mirrors essential parts of the knowledge structure that is built up in the text. The structuring of a modern dissertation thesis (e.g. in the form of an automatically generated table of contents - toes), for example, represents a compromise between requirements of the text type and the methodological and conceptual structure of its subject-matter. The aim of the project is to examine how visual-hierarchical structuring systems are constructed, how knowledge structures are encoded in them, and how they can be exploited to automatically derive ontological knowledge for navigation, archiving, or search tasks. The idea to extract domain concepts and semantic relations mainly from the structural and linguistic information gathered from tables of contents represents a novel approach to ontology learning.
This chapter addresses the requirements and linguistic foundations of automatic relational discourse analysis of complex text types such as scientific journal articles. It is argued that besides lexical and grammatical discourse markers, which have traditionally been employed in discourse parsing, cues derived from the logical and generical document structure and the thematic structure of a text must be taken into account. An approach to modelling such types of linguistic information in terms of XML-based multi-layer annotations and to a text-technological representation of additional knowledge sources is presented. By means of quantitative and qualitative corpus analyses, cues and constraints for automatic discourse analysis can be derived. Furthermore, the proposed representations are used as the input sources for discourse parsing. A short overview of the projected parsing architecture is given.
A text parsing component designed to be part of a system that assists students in academic reading an writing is presented. The parser can automatically add a relational discourse structure annotation to a scientific article that a user wants to explore. The discourse structure employed is defined in an XML format and is based the Rhetorical Structure Theory. The architecture of the parser comprises pre-processing components which provide an input text with XML annotations on different linguistic and structural layers. In the first version these are syntactic tagging, lexical discourse marker tagging, logical document structure, and segmentation into elementary discourse segments. The algorithm is based on the shift-reduce parser by Marcu (2000) and is controlled by reduce operations that are constrained by linguistic conditions derived from an XML-encoded discourse marker lexicon. The constraints are formulated over multiple annotation layers of the same text.
Der vorliegende Artikel skizziert die Möglichkeiten, die durch den Gebrauch offener Standards im Bereich des eLearning und Web Based Trainig (WBT) eröffnet werden. Ausgehend von den Erfahrungen aus dem BMBF-Projekt MiLCA ("Medienintensive Lehrmodule in der Computerlinguistik-Ausbildung") werden die Vorteile einer XML basierten Markupsprache in Verbindung mit einer Open Source WBT-Plattform für die Strukturierung von Lernobjekten diskutiert. Dabei ist die Realisierung eines vollständigen XML Imports in das WBT-System nur der erste Schritt in einer sehr viel weiter gehenden Entwicklung, in der textlinguistische und computerlinguistische Methoden mehr und mehr an Bedeutung gewinnen. So wird zum Beispiel der Gebrauch von didaktisch motivierten Metadaten Autoren in die Lage versetzen, Lernobjekte adaptiv und lernerzentriert aufzubereiten. Die Integration von Ontologien und Taxonomien ist ein weiterer Aspekt, der noch präzisere Möglichkeiten der Wartung und Wiederverwendung von Lernobjekten eröffnet. Teil dieses Artikels ist ein annotiertes Beispiel-Lernobjekt zur Verdeutlichung der oben angesprochenen Entwicklungen und deren Auswirkungen auf die zukünftige akademische Ausbildung.
Dieser Beitrag skizziert die Möglichkeiten, die die Extensible Markup Language (XML) im Umfeld von eLearning und Web Based Training (WBT) eröffnet. Bisherige eLearning-Angebote kranken an verschiedenen Problemen, die durch die Verwendung von XML-basierten Learning Objects vermieden werden können. Ausgehend vom aktuellen Stand im Projekt MiLCA - Medienintensive Lehrmodule in der Computerlinguistik-Ausbildung - soll zudem ein Ausblick auf zukünftige technische Möglichkeiten des Computer-gestützten Lernens gegeben werden.
Der vorliegende Band befasst sich mit dem Stand und der Entwicklung von Forschungsinfrastrukturen für die germanistische Linguistik und einigen angrenzenden Bereichen. Einen zentralen Aspekt dabei bildet die Notwendigkeit, Kooperativität in der Wissenschaft im institutionellen Sinne, aber auch in Hinsicht auf die wissenschaftliche Praxis zu organisieren. Dies geschieht in Verbunden als Kooperationsstrukturen, wobei Sprachwissenschaft und Sprachtechnologie miteinander verbunden werden. Als zentraler Forschungsressource kommen dabei Korpora und ihrer Erschließung durch spezielle, linguistisch motivierte Informationssysteme besondere Bedeutung zu. Auf der Ebene der Daten werden durch Annotations- und Modellierungsstandards die Voraussetzung für eine nachhaltige Nutzbarkeit derartiger Ressourcen geschaffen.
Vorwort
(2019)
Die Digitalisierung hat uns neue Möglichkeiten eröffnet, miteinander zu kommunizieren, Informationen zu verarbeiten, zu speichern und zu publizieren. Hat das auch unser Schreiben, unser Lesen, unsere Texte oder gar unser Bild von Sprache verändert? Und ist die Sprachwissenschaft heute noch dieselbe wie vor dreißig Jahren? Über diese Fragen sprach Monika Obrist, Leiterin des GfdS-Zweigs Bozen, mit Prof. Dr. Henning Lobin, dem Direktor des IDS Mannheim.
Sprache und digitale Medien
(1997)
Durch das Aufkommen der Computer als Kommunikationsmedium hat sich für die Linguistik ein weiteres neues Gebiet erschlossen, bei dem es nicht um die maschinelle Simulation von Sprachverstehens- und -Produktionsprozessen geht. Die Nutzung des Computers als Medium erfordert auch die Darstellung von Texten in digitaler Form, so dass sie durch den Computer bearbeitet und dargestellt werden können. Texte im Computer - oft wird von elektronischen Texten gesprochen - brauchen dabei allerdings nicht die auf Papier gedruckten Texte nachzubilden, sie stellen vielmehr eine eigene Realisationsform von Textinhalten dar, die sich in vielem vom traditionellen Textbegriff unterscheidet.
Discourse parsing of complex text types such as scientific research articles requires the analysis of an input document on linguistic and structural levels that go beyond traditionally employed lexical discourse markers. This chapter describes a text-technological approach to discourse parsing. Discourse parsing with the aim of providing a discourse structure is seen as the addition of a new annotation layer for input documents marked up on several linguistic annotation levels. The discourse parser generates discourse structures according to the Rhetorical Structure Theory. An overview of the knowledge sources and components for parsing scientific joumal articles is given. The parser’s core consists of cascaded applications of the GAP, a Generic Annotation Parser. Details of the chart parsing algorithm are provided, as well as a short evaluation in terms of comparisons with reference annotations from our corpus and with recently developed Systems with a similar task.
Präsentationstechnologien bedingen Konvergenzprozesse verschiedener Kommunikationsmodi. In wissenschaftlichen Präsentationen werden unterschiedliche kommunikative Elemente (unter anderem Text, Bild und redebegleitende Gesten) miteinander verbunden, wodurch eine komplexe, mehrdimensionale Form der Multimodalität entsteht Die multimodale Struktur von Präsentationen kann durch eine neuartige Betrachtungsweise mit linguistischem Instrumentarium beschrieben und analysiert werden. Die Grundlage eines solchen linguistischen Ansatzes bildet die Annahme, dass Präsentationen als komplexe, multimodale Texte verstanden werden können. Der Beitrag zeigt, wie auf Basis dieser Annahme die Funktionsweise wissenschaftlicher Präsentationen theoretisch modelliert werden kann.
Der vorliegende Artikel untersucht die Frage, wie sich die Angebote im Bereich von Social Media heute darstellen und wie sie sich in den nächsten Jahren voraussichtlich entwickeln werden. Der Fokus liegt dabei auf der Entwicklung der technischen Infrastruktur und deren Einfluss auf die verschiedenen Aspekte wissenschaftlicher Kommunikation. Einen Schwerpunkt bilden dabei einerseits die Auswirkungen der Automatisierung, im Bereich der Wissenschaftskommunikation die Entwicklung von spezifischen Scores und Altmetriken, andererseits die Etablierung neuartiger Vermittlungskanäle für wissenschaftliche Themen.
We had found ourselves in the “Gutenberg-Galaxy” before the digitalization made its rise. The development of the book printing by Johannes Gutenberg and developments based on it as well as the following industrialization of printing are decisive for the expansion of the cultural revolution. It has meanwhile been transformed, upgraded and replaced by something which has been called “Turing Galaxy”. One of the most important changes is the automatic processing of data, the program-controlled production or manipulation of texts, images, sounds, formulas, tables and videos. The internet has led us to new distribution channels. The paper shows which trends of development concerning the cultural skills of writing and reading have been realized up to now as a result of the digitalization. Three aspects of development will be discussed: how the way of writing has changed to the present moment by the means of automation, multimodality and networking.
The paper investigates the evolution of document grammars from a linguistic point of view. Document grammars have been developed in the past decades in order to formalize knowledge on the structure of textual information. A well-known instance of a document grammar is the »Document Type Definition« (DTD) as part of the Extensible Markup Language (XML). DTDs allow to define so-called tree grammars that constrain the application of tag-sets in the process of annotation of a document. In an XML-based document workflow, DTDs play a crucial role for validation and transforming huge amounts of texts in standardized data formats. An interesting point in the development of XML DTDs is the fact that the restriction of the formal expressiveness paved the way to understand the formal properties of document grammars better and to develop more a powerful version like XML Schema recently. In this sense, the simplicity of the original approach, resulting from the necessary restriction of previous approaches, yielded new complexity on formally understood grounds.
Syntax und Morphologie
(1997)