Refine
Year of publication
- 2015 (318) (remove)
Document Type
- Part of a Book (137)
- Article (77)
- Conference Proceeding (39)
- Book (37)
- Part of Periodical (10)
- Working Paper (8)
- Other (7)
- Master's Thesis (1)
- Preprint (1)
- Review (1)
Keywords
- Deutsch (116)
- Korpus <Linguistik> (52)
- Verb (21)
- Gesprochene Sprache (16)
- Interaktion (14)
- Wörterbuch (14)
- Computerlinguistik (13)
- Computerunterstützte Lexikographie (13)
- Englisch (13)
- Annotation (12)
Publicationstate
- Veröffentlichungsversion (141)
- Zweitveröffentlichung (20)
- Postprint (13)
- Preprint (2)
- Erstveröffentlichung (1)
Reviewstate
Publisher
- Institut für Deutsche Sprache (50)
- De Gruyter (32)
- de Gruyter (25)
- Lang (12)
- Narr Francke Attempto (11)
- Narr (10)
- Springer (7)
- Winter (7)
- Frank & Timme (4)
- IDS (4)
Der vorliegende Sammelband präsentiert zentrale im Deutschunterricht zu behandelnde Gebiete rund um Sprache auf der Basis eines einheitlichen topologisch-strukturellen Modells. Er bietet neben der Einführung zum Thema mit einem Basisartikel thematische Beiträge zu Anwendungsmöglichkeiten des topologischen Modells mit konkreten schulpraktischen Vorschlägen in zu unterrichtenden Lern- und Kompetenzbereichen.
Im Fokus dieses Aufsatzes steht die Bereitstellung und Illustration eines Werkzeugs für die Visualisierung bzw. Kontrastierung syntaktischer Strukturen im Lehramtsstudium sowie im (fächerübergreifenden, integrativen) Deutsch- oder Fremdsprachenunterricht höherer Jahrgangsstufen (Sek. II, Ende Sek. I): das „Generalisierte Lineare Satzmodell“ (kurz Gelisa-Modell)1. Das Gelisa-Modell, das auf dem topologischen Satzmodell fußt (vgl. u.a. Reis 1980, Höhle 1986, Pafel 2009, Wöllstein 2010), ermöglicht es, wie bei einem Baukastensystem jegliche Satztypen aus verschiedenen Sprachen (und dann natürlich auch aus einer spezifischen Einzelsprache) in direkter visueller Gegenüberstellung miteinander zu vergleichen. Dabei werden die Sätze und Satztypen distinkter Sprachen unabhängig von der jeweiligen Komplexität auf ein einheitliches Muster bezogen. Die für die grammatische Wohlgeformtheit erforderlichen linearen Strukturzusammenhänge können so auf schematisch anschauliche Weise erfasst und insbesondere zur Basis und zum Ankerpunkt grammatischer Unterrichtsdiskurse und Werkstätten gemacht werden.
This paper summarizes essential steps of a workshop-like presentation of lexicographic practice and reflects an application-oriented demonstration. As a point of departure the question is raised of how different linguistic information is extracted from a corpus for the inclusion in a dictionary. The introductory part on lexicographic objectives is followed by insights into methodological aspects (e. g. online dictionary elexiko). A conclusive example is provided to illustrate the procedure.
Transkriptionsaufwand
(2015)
Während die Erhebung von Gesprächsdaten zwar zeitaufwändig, aber doch noch relativ zügig zu bewältigen ist, handelt es sich bei der Transkription um eine langwierige Aufgabe, die oft unterschätzt wird. Damit Studierende, Promovierende sowie WissenschaftlerInnen, die Exposés, Arbeitspläne usw. aufstellen oder Zuschüsse für Projekte beantragen müssen, zukünftig über fundiertere Werte verfügen und damit realistischere Aussagen über den benötigten Aufwand (zeitliche wie personelle Ressourcen) treffen können, stellt der Beitrag die Ergebnisse einer Erhebung des Transkriptionsaufwandes im FOLK-Projekt vor.
Maskierung
(2015)
Aus forschungsethischen Gründen müssen die Daten aus Gesprächsaufzeichnungen, die Metadaten sowie die Transkripte maskiert werden. Der Beitrag stellt Arbeitsschritte der Maskierung vor, die auf den Erfahrungen bei der Datenaufbereitung der Daten des Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) für die Veröffentlichung in der Datenbank für Gesprochenes Deutsch (DGD) basieren.
With an increasing amount of text data available it is possible to automatically extract a variety of information about language. One way to obtain knowledge about subtle relations and analogies between words is to observe words which are used in the same context. Recently, Mikolov et al. proposed a method to efficiently compute Euclidean word representations which seem to capture subtle relations and analogies between words in the English language. We demonstrate that this method also captures analogies in the German language. Furthermore, we show that we can transfer information extracted from large non-annotated corpora into small annotated corpora, which are then, in turn, used for training NLP systems.
The IMS Open Corpus Workbench (CWB) software currently uses a simple tabular data model with proven limitations. We outline and justify the need for a new data model to underlie the next major version of CWB. This data model, dubbed Ziggurat, defines a series of types of data layer to represent different structures and relations within an annotated corpus; each such layer may contain variables of different types. Ziggurat will allow us to gradually extend and enhance CWB’s existing CQP-syntax for corpus queries, and also make possible more radical departures relative not only to the current version of CWB but also to other contemporary corpus-analysis software.
The availability of large multi-parallel corpora offers an enormous wealth of material to contrastive corpus linguists, translators and language learners, if we can exploit the data properly. Necessary preparation steps include sentence and word alignment across multiple languages. Additionally, linguistic annotation such as partof- speech tagging, lemmatisation, chunking, and dependency parsing facilitate precise querying of linguistic properties and can be used to extend word alignment to sub-sentential groups. Such highly interconnected data is stored in a relational database to allow for efficient retrieval and linguistic data mining, which may include the statistics-based selection of good example sentences. The varying information needs of contrastive linguists require a flexible linguistic query language for ad hoc searches. Such queries in the format of generalised treebank query languages will be automatically translated into SQL queries.