Refine
Year of publication
Document Type
- Book (186)
- Part of a Book (171)
- Article (99)
- Review (27)
- Conference Proceeding (11)
- Contribution to a Periodical (1)
- Doctoral Thesis (1)
- Other (1)
Is part of the Bibliography
- no (497) (remove)
Keywords
- Wörterbuch (497) (remove)
Publicationstate
- Veröffentlichungsversion (134)
- Zweitveröffentlichung (34)
- Postprint (2)
Reviewstate
- (Verlags)-Lektorat (116)
- Peer-Review (41)
- Verlags-Lektorat (10)
- Peer-Revied (1)
- Peer-review (1)
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (1)
- Review-Status-unbekannt (1)
Publisher
- Institut für Deutsche Sprache (50)
- de Gruyter (49)
- Weidmann (45)
- Narr (27)
- Schwann (25)
- Niemeyer (19)
- IDS-Verlag (13)
- R. Oldenbourg (12)
- Akademie-Verlag (10)
- Lang (7)
Seit 1996 ist das Amtliche Regelwerk zur deutschen Rechtschreibung (einschließlich Amtlichem Wörterverzeichnis) gültig. Es regelt die Orthografie für Behörden und Schulen in Deutschland sowie in den sechs weiteren Mitgliedsländern des Rats für deutsche Rechtschreibung. Für die Wörterbuchverlage bzw. alle Wörterbuchprojekte gilt es, dieses hoch abstrakte Regelwerk einerseits auf alle Einträge in den A–Z-Teilen der Wörterbücher anzuwenden und andererseits ggf. das Regelwerk selbst zu „übersetzen“ und es damit einer breiten Öffentlichkeit zugänglich zu machen.
Die Anforderungen an gegenwartssprachliche Wörterbücher beinhalten, bei der Aufbereitung der lexikalischen Informationen in Stichwortartikeln die lemmabezogenen Korrektschreibungen adäquat zu berücksichtigen. Die dazugehörigen Arbeitsgänge in der Redaktion des Digitalen Wörterbuchs der deutschen Sprache (DWDS) reichen von der Ansetzung der Nennformen in allen ggf. zulässigen orthographischen Varianten über die Anlage von Verweisen auf die einschlägige Bezugsnorm bis zur Dokumentation ausgewählter Korpusbelege mit gebrauchsfrequenten Abweichungs- und Falschschreibungen. Als besondere Herausforderungen für die lexikographische Praxis erweisen sich regelmäßig Lücken und Interpretationsspielräume in der amtlichen Regelung sowie die bei Belegrecherchen in den DWDS-Textquellen zutage tretenden Diskrepanzen zwischen orthographischer Norm und Schreibusus.
Eine Wörterbuchforschung für das Sprachenpaar Deutsch-Spanisch an der Schnittstelle zwischen Phraseologie und Konstruktionsgrammatik existiert bislang praktisch nicht. Ziel der vorliegenden Arbeit ist es daher, einen Beitrag zur Schließung dieser Lücke zu leisten, und zwar am Beispiel der „Idiomatik Deutsch-Spanisch" (IDSP) (Schemann et al. 2013). Die Phraseologieforschung befasst sich zwar schon lange mit nicht-kompositionalen Konstruktionen (die heterogen benannt werden z.B. Satzmuster, Phraseoschablonen, Phrasem- Konstruktionen, Schemata), die empirische Fundierung ist aber eher noch unsystematisch und bezogen auf die Lexikografie eher noch im Anfang begriffen. Es wird zum einen gezeigt, welchen großen Stellenwert solchen Mustern in der „Idiomatik Deutsch-Spanisch" (ebd.) zukommt. Zum anderen wird ein Vorschlag unterbreitet, mit dem die im Wörterbuch verzeichneten Phraseme und Muster unter einer dem Aspekt verfestigter Muster und Schemata klassifiziert und gruppiert werden können.
Der folgende Beitrag befasst sich mit Phänomenen, die sich eher am Rande der festen Wortverbindungen befinden, aber eben dort, wo die (Pseudo-)Freiheit trügerisch ist und für manche Sprecher/Schreiber zum Handicap werden kann. Fremdsprachenlerner, die sich der Grenzen ihrer Freiheit bewusst sind und dann Wörterbücher heranziehen, stoßen nämlich bei der Suche nach Definitionen oder nach dem „passenden Wort" meistens auf Ungenauigkeiten oder Gleichsetzungen, die ihnen den Eindruck einer oft unübersichtlichen, arbiträren oder gar chaotischen Lage vermitteln und ihnen jedenfalls selten aus dem Labyrinth der Synonymie heraushelfen. Ich möchte hier an einigen adjektivischen Beispielen zeigen, wie dieses Labyrinth aussieht und für den Wörterbuchnutzer bald zum Teufelskreis wird, um dann auf einige Parameter der Adjektiv-Nomen-Verbindungen einzugehen. Meine Ausgangshypothese ist, dass im Zeitalter der großen Korpora Wörterbücher sich auch bei der Beschreibung der einzelnen Lexeme unbedingt auf den heutigen konkreten Gebrauch stützen sollen, d.h. dass sowohl die Präferenzen der Wortverbindungen bei der Bedeutungsbeschreibung als auch ihre Usualität bei den angeführten Beispielen zu berücksichtigen sind. Durch die Untersuchung einiger Problemfälle werden abschließend mögliche Auswege aufgezeigt.
Das KOLLokationsLEXikon Deutsch als Fremdsprache (KOLLEX DAF) ist ein
- korpusgestütztes Kollokationswörterbuch, da es typische Wortverbindungen, sog. Kollokationen und häufige Wortkombinationen nach bestimmten Kategorien mit ihren ungarischen Äquivalenten auflistet (Stichwort mit SUBSTANTIVEN, ADJEKTIVEN, VERBEN und ADVERBIEN bzw. in KOMBINATIONEN),
- syntagmatisches Lernerwörterbuch, da es außer Kollokationen auch die Valenz der Stichwörter und die der Kollokationen und Wortkombinationen angibt, ergänzt mit pragmatischen und morphosyntaktischen Verwendungsbeschränkungen sowie ggf. mit einem Symbol für mögliche Fehlerquellen,
- benutzerfreundliches Produktionswörterbuch, da es alle deutschen Wortverbindungen in blauer Farbe und in klar strukturierten Wörterbuchartikeln mit einem Übersichtsblock zu den Bedeutungen des Stichwortes auflistet, aber auch die Sprachrezeption mit einem umfangreichen Register unterstützt.
Electronic dictionaries should support dictionary users by giving them guidance in text production and text reception, alongside a user-definable offer of lexicographic data for cognitive purposes. In this article, we sketch the principles of an interactive and dynamic electronic dictionary aimed at text production and text reception guiding users in innovative ways, especially with respect to difficult, complicated or confusing issues. The lexicographer has to do a very careful analysis of the nature of the possible problems to suggest an optimal solution for a specific problem. We are of the opinion that there are numerous complex situations where users need more detailed support than currently available in e-dictionaries, enabling them to make valid and correct choices. For highly complex situations, we suggest guidance through a decision tree-like device. We assume that the solutions proposed here are not specific to one language only but can, after careful analysis, be applied to e-dictionaries in different languages across the world.
So far, there have been few descriptions on creating structures capable of storing lexicographic data, ISO 24613:2008 being one of the latest. Another one is by Spohr (2012), who designs a multifunctional lexical resource which is able to store data of different types of dictionaries in a user-oriented way. Technically, his design is based on the principle of a hierarchical XML/OWL (eXtensible Markup Language/Web Ontology Language) representation model. This article follows another route in describing a model based on entities and relations between them; MySQL (usually referred to as: Structured Query Language) describes a database system of tables containing data and definitions of relations between them. The model was developed in the context of the project "Scientific eLexicography for Africa" and the lexicographic database to be built thereof will be implemented with MySQL. The principles of the ISO model and of Spohr's model are adhered to with one major difference in the implementation strategy: we do not place the lemma in the centre of attention, but the sense description — all other elements, including the lemma, depend on the sense description. This article also describes the contained lexicographic data sets and how they have been collected from different sources. As our aim is to compile several prototypical internet dictionaries (a monolingual Northern Sotho dictionary, a bilingual learners' Xhosa–English dictionary and a bilingual Zulu–English dictionary), we describe the necessary microstructural elements for each of them and which principles we adhere to when designing different ways of accessing them. We plan to make the model and the (empty) database with all graphical user interfaces that have been developed, freely available by mid-2015.
So far, Sepedi negations have been considered more from the point of view of lexicographical treatment. Theoretical works on Sepedi have been used for this purpose, setting as an objective a neat description of these negations in a (paper) dictionary. This paper is from a different perspective: instead of theoretical works, corpus linguistic methods are used: (1) a Sepedi corpus is examined on the basis of existing descriptions of the occurrences of a relevant verb, looking at its negated forms from a purely prescriptive point of view; (2) a "corpus-driven" strategy is employed, looking only for sequences of negation particles (or morphemes) in order to list occurring constructions, without taking into account the verbs occurring in them, apart from their endings. The approach in (2) is only intended to show a possible methodology to extend existing theories on occurring negations. We would also like to try to help lexicographers to establish a frequency-based order of entries of possible negation forms in their dictionaries by showing them the number of respective occurrences. As with all corpus linguistic work, however, we must regard corpus evidence not as representative, but as tendencies of language use that can be detected and described. This is especially true for Sepedi, for which only few and small corpora exist. This paper also describes the resources and tools used to create the necessary corpus and also how it was annotated with part of speech and lemmas. Exploring the quality of available Sepedi part-of-speech taggers concerning verbs, negation morphemes and subject concords may be a positive side result.
In this paper, the author studies the role of the dictionary in the first language acquisition, highlighting its didactic value. Based on two Romanian lexicographical works of the 19th century, Lexiconul de la Buda (Buda, 1825) [the Lexicon of Buda] et Vocabularu romano-francesu (Bucarest, 1870) [the Romanian-French Vocabulary], the author analyses the normative information recorded in the articles in order to observe which level of language (i. e. phonetical, morphological, syntactical and lexical) is concerned. Such an approach allows to distinguish between the possible changings both at the level of the perception or at the grammatical, lexical and semantical description, i. e. the settlement of the word in the first language, and at a technical level, i. e. the making of article and of dictionary.