Refine
Year of publication
- 2014 (160) (remove)
Document Type
- Part of a Book (89)
- Article (26)
- Conference Proceeding (19)
- Book (18)
- Working Paper (5)
- Preprint (2)
- Part of Periodical (1)
Is part of the Bibliography
- yes (160) (remove)
Keywords
- Deutsch (56)
- Korpus <Linguistik> (25)
- Computerunterstützte Lexikographie (20)
- Institut für Deutsche Sprache <Mannheim> (18)
- Wörterbuch (9)
- Benutzer (8)
- Konversationsanalyse (7)
- Gesprochene Sprache (6)
- Rumänisch (6)
- Sprachvariante (6)
Publicationstate
- Veröffentlichungsversion (55)
- Postprint (1)
- Zweitveröffentlichung (1)
Reviewstate
- (Verlags)-Lektorat (38)
- Peer-Review (18)
- Peer-review (6)
- Verlags-Lektorat (4)
- (Verlags)Lektorat (1)
- (Verlags-)Lektorat (1)
- Peer-Revied (1)
Publisher
- Institut für Deutsche Sprache (37)
- De Gruyter (33)
- European Language Resources Association (ELRA) (9)
- Stauffenburg (6)
- Winter (6)
- Cambridge Scholars Publ. (4)
- Benjamins (3)
- Erich Schmidt Verlag (3)
- Lang (3)
- de Gruyter (3)
Der Blick zurück nach vorn
(2014)
Topologisches Satzmodell
(2014)
We start by trying to answer a question that has already been asked by de Schryver et al. (2006): Do dictionary users (frequently) look up words that are frequent in a corpus. Contrary to their results, our results that are based on the analysis of log files from two different online dictionaries indicate that users indeed look up frequent words frequently. When combining frequency information from the Mannheim German Reference Corpus and information about the number of visits in the Digital Dictionary of the German Language as well as the German language edition of Wiktionary, a clear connection between corpus and look-up frequencies can be observed. In a follow-up study, we show that another important factor for the look-up frequency of a word is its temporal social relevance. To make this effect visible, we propose a de-trending method where we control both frequency effects and overall look-up trends.
Gegenstand des Aufsatzes sind Sätze mit so genannten inneren Objekten, das sind Akkusativobjekte, die im Wesentlichen intransitive Verben gelegentlich zu sich nehmen. Sie weisen die Besonderheit auf, dass das Objektsnomen und das Verb morphologisch, etymologisch und/oder semantisch miteinander verwandt sind. Aufgrund von Form- und vor allem Bedeutungsunterschieden lassen sich in beiden Sprachen verschiedene Gruppen von inneren Objekten ausmachen, die genauer beschrieben und unter sprachvergleichenden Gesichtspunkten betrachtet werden. Dazu werden u.a. die syntaktischen Eigenschaften von Sätzen mit inneren Objekten herangezogen. Einige auffallende sprachbezogene Unterschiede werden beschrieben, beispielsweise ist im Rumänischen bei einigen Verben ein präpositionaler Anschluss möglich, wo im Deutschen das innere Objekt ausschließlich im Akkusativ stehen kann. Sätze mit inneren Objekten können als ein Typ von Argumentstrukturmustern betrachtet werden. In diesem Sinne sind sie Form-Bedeutungs-Paare, deren Beziehungen untereinander innerhalb eines Konzepts von Familienähnlichkeiten dargestellt werden, wie man sie auch innerhalb anderer Cluster von Argumentstrukturmustern beobachten kann.
Part-of-speech tagging (POS-tagging) of spoken data requires different means of annotation than POS-tagging of written and edited texts. In order to capture the features of German spoken language, a distinct tagset is needed to respond to the kinds of elements which only occur in speech. In order to create such a coherent tagset the most prominent phenomena of spoken language need to be analyzed, especially with respect to how they differ from written language. First evaluations have shown that the most prominent cause (over 50%) of errors in the existing automatized POS-tagging of transcripts of spoken German with the Stuttgart Tübingen Tagset (STTS) and the treetagger was the inaccurate interpretation of speech particles. One reason for this is that this class of words is virtually absent from the current STTS. This paper proposes a recategorization of the STTS in the field of speech particles based on distributional factors rather than semantics. The ultimate aim is to create a comprehensive reference corpus of spoken German data for the global research community. It is imperative that all phenomena are reliably recorded in future part-of-speech tag labels.
The chapter provides a review of research literature on the use of electronic dictionaries. Because the central terms electronic dictionary and research into dictionaiy use are sometimes used in different ways in the research, it is necessary first of all to examine these more closely, in Order to clarify their use in this research review. The main chapter presents several individual studies in chronological order.
Once a new word or a new meaning is added to a monolingual dictionary, the lexicographer is to provide a definition of this item. This paper focuses on the methodological challenges in writing such definitions. After a short discussion of the central terminology (method and definition), the article describes factors which inform this process: linguistic theories, linguistic and lexicographical methods, and types of definitions. Using the example of elexiko, a dictionary project of the Institute for the German language (IDS) in Mannheim, Germany, the paper finally showcases the compilation of definitions in a monolingual online dictionary of contemporary German.
German lexical items with similar or related morphological roots and similar meaning potential are easily confused by native speakers and language learners. These include so-called paronyms such as effektiv/effizient , sensitive/sensibel, formell/formal/förmlich . Although these are generally not regarded as synonyms, empirical studies suggest that in some cases items of a paronym set have undergone meaning change and developed synonymous notions. In other cases, they remain similar in meaning, but show subtle differences in definition and restrictions of usage. Whereas the treatment of synonyms has received attention from corpus-linguists (cf. Partington 1998; Taylor 2003), the subject of paronyms has not been revisited with empirical, data-driven methods neither in terms of semantic theory nor in terms of practical lexicography. As a consequence, we also need to search for suitable corpus methods for detailed semantic investigation. Lexicographically, some German paronyms have been documented in printed dictionaries (e.g. Müller 1973; Pollmann & Wolk 2010). However, there is no corpus-assisted reference guide describing paronyms empirically and enabling readers to find the correct contemporary usage. Therefore, solutions to some lexicographic challenges are required.
Der Beitrag diskutiert ausgehend von einem historischen Sprachbeispiel die Korrelation zwischen lexikalisierten Wortverbindungen, die durch bestimmte außersprachliche Faktoren zu solchen geworden sind, und Wortschatzeinheiten ähnlicher Art, die ihrerseits Muster konstituieren. Es wird gezeigt, dass unauffällige Syntagmen zu verfestigten Wortschatzeinheiten werden können, dass dies aber gleichzeitig nicht im luftleeren Formulierungsraum geschieht. Vielmehr liegt auch hier syntagmatische Musterhaftigkeit in einem Netz graduell verfestigter Einheiten des Lexikons zugrunde. Solche Netze sind immer durch fragmentarischen Gebrauch und Überlappung von spezifischen Komponenten geprägt. Je nach Kommunikationssituation und -bedürfnissen werden Teilstrukturen fokussiert und aktualisiert, während andere im Hintergrund bleiben.
Hugo-Moser-Stiftung
(2014)
In diesem Wörterbuch finden sich von App bis Zickenalarm mehr als 570 Stichwörter, die die aktuelle Wortschatzerweiterung im Deutschen als Ausdruck der Anpassung des Wortschatzes an neue Gegebenheiten und Sachverhalte spiegeln. Erfasst und in umfangreichen Wortartikeln beschrieben und dokumentiert sind die Neulexeme und Neubedeutungen, die im Zeitraum von 2001 bis 2010 aufgekommen sind und sich weitgehend im allgemeinsprachlichen Teil des Wortschatzes der deutschen Standardsprache etabliert haben.
In diesem Wörterbuch finden sich von App bis Zickenalarm mehr als 570 Stichwörter, die die aktuelle Wortschatzerweiterung im Deutschen als Ausdruck der Anpassung des Wortschatzes an neue Gegebenheiten und Sachverhalte spiegeln. Erfasst und in umfangreichen Wortartikeln beschrieben und dokumentiert sind die Neulexeme und Neubedeutungen, die im Zeitraum von 2001 bis 2010 aufgekommen sind und sich weitgehend im allgemeinsprachlichen Teil des Wortschatzes der deutschen Standardsprache etabliert haben.
Die Basislemmaliste (BLL) der neuhochdeutschen (nhd.) Standardsprache ist eine korpusbasierte, frequenzsortierte Lemmaliste mit mehr als 325.000 Einträgen. Jedes Lemma wird ergänzt durch Wortarten- und Häufigkeitsangaben. Die im Folgenden vorgestellte Version 1.0 der BLL wurde aus DeReKo, dem Deutschen Referenzkorpus des Instituts für Deutsche Sprache, mit 5 Milliarden Wortformen erstellt. Weitere Sprachressourcen sind linguistische Korpusannotationen, die von linguistischen Annotationswerkzeugen wie Lemmatisierern, Part-of-Speech-Taggern oder Parsern stammen. Für die Erstellung der BLL ist das Lemma und das Part-of-Speech-Tag relevant. Die Distanz zwischen lexikografischen Konventionen und maschineller Realität in Form von automatisch vergebenen Lemma-Annotationen erfordert einen Abgleich der aus den Korpusannotationen automatisch generierten Lemmalisten mit der digital verfügbaren Lemmastrecke eines Wörterbuches. Zum einen, um die Vollständigkeit der Einträge frequenter Wörter und das Vorkommen seltener Simplizia in der BLL zu gewährleisten, zum anderen, um die Lemmaform und die Lemmagranularität an die Erwartungen anzupassen, die ein menschlicher Benutzer an ein lexikalisches Verzeichnis der neuhochdeutschen Standardsprache stellt.
Bezeichnungen für Personen, die sich nicht in ihrem Heimatland aufhalten (z.B. Migrant, Ausländer, Flüchtling) werden in der Sprachgemeinschaft häufig wertend und kontrovers verwendet. In dem Beitrag wird gezeigt, dass die allgemeinsprachige Lexikografie diesen Aspekt bislang nicht angemessen berücksichtigt – weder in der korpusgestützten, methodischen Erfassung und Analyse von Sprachdaten noch in der beschreibenden Darstellung. Am Beispiel von elexiko werden Ansätze vorgestellt, die das Potenzial besitzen, dieses Desiderat einzulösen.
We present a novel NLP resource for the explanation of linguistic phenomena, built and evaluated exploring very large annotated language corpora. For the compilation, we use the German Reference Corpus (DeReKo) with more than 5 billion word forms, which is the largest linguistic resource worldwide for the study of contemporary written German. The result is a comprehensive database of German genitive formations, enriched with a broad range of intra- und extralinguistic metadata. It can be used for the notoriously controversial classification and prediction of genitive endings (short endings, long endings, zero-marker). We also evaluate the main factors influencing the use of specific endings. To get a general idea about a factor’s influences and its side effects, we calculate chi-square-tests and visualize the residuals with an association plot. The results are evaluated against a gold standard by implementing tree-based machine learning algorithms. For the statistical analysis, we applied the supervised LMT Logistic Model Trees algorithm, using the WEKA software. We intend to use this gold standard to evaluate GenitivDB, as well as to explore methodologies for a predictive genitive model.
EXMARaLDA
(2014)
"FOLK is the ""Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK)"" (eng.: research and teaching corpus of spoken German). The project has set itself the aim of building a corpus of German conversations which a) covers a broad range of interaction types in private, institutional and public settings, b) is sufficiently large and diverse and of sufficient quality to support different qualitative and quantitative research approaches, c) is transcribed, annotated and made accessible according to current technological standards, and d) is available to the scientific community on a sound legal basis and without unnecessary restrictions of usage. This paper gives an overview of the corpus design, the strategies for acquisition of a diverse range of interaction data, and the corpus construction workflow from recording via transcription an annotation to dissemination."
The Database for Spoken German (Datenbank für Gesprochenes Deutsch, DGD2, http://dgd.ids-mannheim.de) is the central platform for publishing and disseminating spoken language corpora from the Archive of Spoken German (Archiv für Gesprochenes Deutsch, AGD, http://agd.ids-mannheim.de) at the Institute for the German Language in Mannheim. The corpora contained in the DGD2 come from a variety of sources, some of them in-house projects, some of them external projects. Most of the corpora were originally intended either for research into the (dialectal) variation of German or for studies in conversation analysis and related fields. The AGD has taken over the task of permanently archiving these resources and making them available for reuse to the research community. To date, the DGD2 offers access to 19 different corpora, totalling around 9000 speech events, 2500 hours of audio recordings or 8 million transcribed words. This paper gives an overview of the data made available via the DGD2, of the technical basis for its implementation, and of the most important functionalities it offers. The paper concludes with information about the users of the database and future plans for its development.
Der vorliegende Beitrag besteht aus zwei größeren Teilen: Zum einen (vgl. Abschnitt 2) werden strukturelle Eigenschaften des Infinitivs, oder vielmehr der Infinitive, im Deutschen und Rumänischen erörtert und miteinander verglichen. Leitthema ist dabei die Frage nach dem Verhältnis von Verbalität und Nominalität der Formen. Berücksichtigt werden die Beschreibungsbereiche Morphologie, externe und interne Syntax. Dieser empirischen Erörterung vorausgeschickt (vgl. Abschnitt 1) wird der Versuch einer Begriffsbestimmung: Wie kann, wenn überhaupt, ‘Infinitiv’ übereinzelsprachlich definiert werden? Auf dieser Basis wird zum anderen (vgl. Abschnitt 3) eine prototypische syntaktische Funktion von Infinitiven, die Subjektfunktion, einer vergleichenden Analyse unterzogen. Strukturelle und semantische Beschränkungen für Infinitive in Subjektfunktion in den beiden Vergleichssprachen werden untersucht. Speziell im Falle kausativer Verben als Prädikatsverben lassen sich relevante Unterschiede zwischen dem Deutschen und Rumänischen feststellen. Die Verwendungsrestriktionen für die Subjektfunktion der deutschen und rumänischen Infinitive werden in Beziehung gesetzt zu Eigenschaften der „Orientierung“ bzw. „Kontrolle“ der Infinitivformen. Ausgehend davon lassen sich tendenziell auch feine Gebrauchsunterschiede für den verbalen und nominalen Infinitiv im Deutschen ausmachen.
In dem Beitrag diskutieren die Autoren die deutschdidaktische Behauptung (u. a. Dürscheid 2007), dass ein zusätzliches Angebot von Grammatikunterricht im Fach Deutsch der Sekundarstufe II zu besseren und langfristig anhaltenden expliziten Grammatikkenntnissen des Deutschen führt. Laut curricularen Vorgaben ist für die Klassen neun bis zwölf kein Grammatikunterricht vorgesehen. Ob ein solches Angebot tatsächlich zu entsprechend besseren Ergebnissen führt, ist empirisch nicht belegt. Die Autoren konzipieren daher eine longitudinale Untersuchung zur Leistungserhebung, in der zwei Vergleichsgruppen jährlich einmal Aufgaben, aufbauend auf den VERA-8-Arbeiten, in den Klassen acht bis zwölf bearbeiten. Nur eine der beiden Gruppen hat ab Klasse neun am expliziten Grammatikunterricht in Form einer kontrollierten Selbstlerneinheit teilgenommen. Es sollen hierbei dieselben 1000 Schüler befragt werden. Die Befragung erfolgt in den Schuljahren 2014 bis 2018. Das Projekt „Grammatische Kenntnisse in der Sekundarstufe II (GramKidSII)“ wird finanziert vom Institut für Deutsche Sprache in Mannheim.
In recent years, new developments in the area of lexicography have altered not only the management, processing and publishing of lexicographical data, but also created new types of products such as electronic dictionaries and thesauri. These expand th range of possible uses of lexical data and support users with more flexibility, for instance in assisting human translation. In this article, we give a short and easy-to-understand introduction to the problematic nature of the storage, display and interpretation of lexical data. We then describe the main methods and specifications used to build and represent lexical data.
Das Beispiel ist seit der Antike ein zentraler Gegenstand der abendländischen Diskussion. In dieser ersten umfassenden Monographie zur Linguistik des Beispiels wird deshalb eine interdisziplinäre Perspektive entfaltet, in der Ansätze aus Rhetorik, Philosophie, Pädagogik und Psychologie sowie linguistischen Ansätze zur Beispielforschung behandelt werden. Die sprachwissenschaftliche Beschäftigung mit Beispielen blieb bisher jedoch ein Randphänomen, obwohl Praktiken der Beispielverwendung in der Alltagskommunikation allgegenwärtig sind.
Orientiert an ›grounded theory‹, linguistischer Hermeneutik und Handlungssemantik wird hier ein Beispielbegriff erarbeitet, demzufolge das Beispielverwenden eine komplexe Form sprachlichen Handelns und eine fundamentale menschliche Denkbewegung darstellt, die darin besteht, einen Konnex zwischen Besonderem und Allgemeinem zu konstituieren. Hierauf basierend werden Beispiele anhand eines umfangreichen Korpus von Gesprächsdaten analysiert und kommunikative Muster, sprachliche Realisierungsformen sowie Funktionen des Beispielverwendens in der Interaktion herausgearbeitet.
This contribution presents the procedure used in the Handbuch deutscher Kommunikationsverben and in its online version Kommunikationsverben in the lexicographical internet portal OWID to divide sets of semantically similar communication verbs into ever smaller sets of ever closer synonyms. Kommunikationsverben describes the meaning of communication verbs on two levels: a lexical level, represented in the dictionary entries and by sets of lexical features, and a conceptual level, represented by different types of situations referred to by specific types of verbs. The procedure starts at the conceptual level of meaning where verbs used to refer to the same specific situation type are grouped together. At the lexical level of meaning, the sets of verbs obtained from the first step are successively divided into smaller sets on the basis of the criteria of (i) identity of lexical meaning, (ii) identity of lexical features, and (iii) identity of contexts of usage. The stepwise procedure applied is shown to result in the creation of a semantic network for communication verbs.
This contribution offers a fine-grained analysis of German and Romanian ditransitive and prepositional transfer constructions. The transfer construction (TC) is shown to be realised in German by 26 argument structure patterns (ASPs), which are conceived of as form-meaning pairings which differ only minimally. The mainstream constructionist view of the different types of TCs being related by polysemy links is rejected, the ASPs being argued instead to be related by family relationships. All but six of the ASPs identified for German are shown to possess a Romanian counterpart. For some ditransitive structures, German is shown to possess two prepositional variants, one with an (‘at’) and one with zu (‘to’) or auf (‘on’), while Romanian has only one. Due to the lack of a Romanian counterpart for the German zu and auf variants, Romanian lacks some of the dative alternations found in German. However, Romanian as well as German permits the double object pattern to interact with take-verbs, verbs of removal and add-verbs, which do not allow the ditransitive construction in English. Since these verb classes also permit at least one prepositional pattern in both languages, Romanian and German show a larger number of dative alternation types than English.
Sprachverfall? Einleitung
(2014)
Die Leibniz-Gemeinschaft
(2014)