Refine
Year of publication
Document Type
- Conference Proceeding (122)
- Article (109)
- Part of a Book (55)
- Book (11)
- Part of Periodical (3)
- Review (2)
- Other (1)
- Working Paper (1)
Language
- English (218)
- German (83)
- French (2)
- Multiple languages (1)
Keywords
- Korpus <Linguistik> (304) (remove)
Publicationstate
- Veröffentlichungsversion (232)
- Zweitveröffentlichung (53)
- Postprint (17)
- Ahead of Print (1)
Reviewstate
- Peer-Review (304) (remove)
Publisher
- IDS-Verlag (20)
- Institut für Deutsche Sprache (20)
- European Language Resources Association (18)
- de Gruyter (14)
- Association for Computational Linguistics (13)
- Leibniz-Institut für Deutsche Sprache (12)
- Linköping University Electronic Press (11)
- CLARIN (8)
- Erich Schmidt (8)
- Universitäts- und Landesbibliothek Darmstadt (8)
Der Artikel diskutiert Ziele, Methoden und Probleme einer geplanten deutsch-französischen Übersetzungsplattform. Auf der Basis paralleler und vergleichbarer Korpora sollen mit Hilfe dieses elektronischen Werkzeuges nicht nur Übersetzungsvorschläge für Einzelwörter, sondern auch für Kollokationen, Phrasen und systematisierte Verwendungskontexte gemacht werden. Dabei geht es vor allem um die Erfassung jener Einheiten, die nicht in traditionellen Wörterbüchern stehen, aber bereits Usus sind. Das Projekt integriert drei Herangehensweisen: Korpusbasiertheit, Orientierung auf Idiomatizität als relevanes Übersetzungsprinzip, Kontextbezogenheit. Der Beitrag umreißt den Projektansatz anhand der Kollokationsproblematik.
Der Aufsatz diskutiert neue Möglichkeiten, die sich durch die Potenzen elektronischer Medien für eine umfassende und komplexe Beschreibung von Wortschatz ergeben. Dabei wird vor allem auf drei zentrale Problembereiche eingegangen: Zunächst werden die Vor- und Nachteile von Hypertext als Medium der Wissens-Präsentation besprochen. Darauf aufbauend wird erläutert, inwiefern die Potenzen von Hypertext gleichsam eine neue Dimension der Lexikografie eröffnen. Drittens wird der linguistische Mehrwert diskutiert, der zum einen mit dem Aufbau eines computergestützten lexikalisch-lexikologischen Informationssystems verbunden ist, sich zum anderen aus der Nutzung eines solchen Systems für die linguistische Forschung ergibt. Diese drei Problembereiche werden vor dem Hintergrund der Konzipierung eines lexikalisch-lexikologischen, korpusbasierten Such- und Informations-Systems behandelt (LEXXIS), einem neuen Projekt des Instituts für deutsche Sprache.
Usuelle Wortverbindungen des Deutschen. Linguistisches Konzept und lexikografische Möglichkeiten
(2000)
Der Artikel schlägt ein für lexikografische Zwecke adaptierbares linguistisches Modell von üblichen Wortverbindungen vor, das die verschiedenen Herangehensweisen der Idiomatikforschung integriert, das streng korpusbasiert ist und die Kontexte von Wortverbindungen konsequent einbezieht. Das Modul 'Usuelle Wortverbindungen des Deutschen' ist ein zentrales Konzept des IDS-Projektes "Wissen über Wörter", ein hypertextbasiertes, lexikalisch-lexikologisches Informationssystem, das in seinem Endausbau circa 300 000 Stichwörter enthalten wird. Korpusstatistische Kookkurenzanalysen stellen hierbei ein wichtiges lexikografisches Arbeitsinstrument für die Rekonstruktion von Lesarten, von semantischen Merkmalen und Eigenschaften der Lemmata dar. Usuelle Wortverbindungen (Kollokationen, Phraseologismen und andere nicht-idiomatische Wendungen) werden in diesem elektronischen Nachschlagewerk darüber hinaus selbst zum Gegenstand lexikografischer Beschreibung, zum einen als Kookkurrenzangaben zu jedem Einwortlemma und zum anderen in einem eigenständigen Artikeltyp 'Mehrwortlemma'. Schließlich bietet diese kookkurrenzbezogene Herangehensweise eine fundierte empirische Basis für linguistische Untersuchungen.
In the context of the HyTex project, our goal is to convert a corpus into a hypertext, basing conversion strategies on annotations which explicitly mark up the text-grammatical structures and relations between text segments. Domain-specific knowledge is represented in the form of a knowledge net, using topic maps. We use XML as an interchange format. In this paper, we focus on a declarative rule language designed to express conversion strategies in terms of text-grammatical structures and hypertext results. The strategies can be formulated in a concise formal syntax which is independend of the markup, and which can be transformed automatically into executable program code.
Online Access Tools for Spoken German: The Resources of the Deutsches Spracharchiv in a Database
(2002)
This paper shows some details of the modernization of the Deutsches Spracharchiv (DSAv). It explores some future possibilities of linguistical documentation and analysis using the Web. The Institut für Deutsche Sprache (IDS) in Mannheim is the central institution for linguistic research in Germany. The DSAv in the IDS is the center for documentation and research of spoken German. These archives include the largest collection of sound recordings of spoken German (dialects and colloquial speech, including e.g. lots of extinct dialects of former German territories in Eastern Europe) - altogether more than 15,000 sound recordings. The lacking clarification and accessibility of this data material has been felt as an essential deficit. The opportunity to edit the sound signal digitally offers a much easier access to spoken language. Through the integration of the already existing information about the corpora and the transcribed texts in an information- and full text databank, as well as the linking of the data with the acoustic signal (alignment), arises a data-pool with considerably better documentation of the materials and a fast direct grasp of the recorded sounds. Thus, the DSAv initiates totally new research questions for the work at the IDS, as well as for linguistics altogether.
In this paper, we investigate the practical applicability of Co-Training for the task of building a classifier for reference resolution. We are concerned with the question if Co-Training can significantly reduce the amount of manual labeling work and still produce a classifier with an acceptable performance.
We describe a simple and efficient Java object model and application programming interface (API) for (possibly multi-modal) annotated natural language corpora. Corpora are represented as elements like Sentences, Turns, Utterances, Words, Gestures and Markables. The API allows linguists to access corpora in terms of these discourse-level elements, i.e. at a conceptual level they are familiar with, with the flexibility offered by a general purpose programming language. It is also a contribution to corpus standardization efforts because it is based on a straightforward and easily extensible data model which can serve as a target for conversion of different corpus formats.