Refine
Year of publication
Document Type
- Article (19)
- Part of a Book (18)
- Conference Proceeding (8)
- Book (3)
- Other (1)
- Review (1)
Keywords
- Deutsch (50) (remove)
Publicationstate
- Veröffentlichungsversion (28)
- Zweitveröffentlichung (9)
- Postprint (3)
Reviewstate
- (Verlags)-Lektorat (23)
- Peer-Review (12)
- Peer-review (1)
Publisher
- de Gruyter (8)
- Institut für Deutsche Sprache (4)
- Leibniz-Institut für Deutsche Sprache (IDS) (3)
- Blackwells (2)
- Erich Schmidt (2)
- Hempen (2)
- IDS-Verlag (2)
- Lexical Computing CZ s.r.o. (2)
- Narr (2)
- Winter (2)
In diesem Beitrag werden wichtige Neukonzeptionen und umfangreiche Nachbearbeitungen einzelner
Angabebereiche in elexiko erläutert. Die linguistische Konzeption dieser Angaben stellt eine Weiterentwicklung gegenüber der Konzeption dar, wie sie im Band „Grundfragen der elektronischen Lexikographie. elexiko – das Online-Informationssystem zum deutschen Wortschatz“ (2005) vorgelegt wurde. Betroffen sind z.B. die Angabebereiche der typischen Verwendungen, der sinn- und sachverwandten Wörter und der Besonderheiten des Gebrauchs.
In this paper, we will present a first attempt to classify commonly confused words in German by consulting their communicative functions in corpora. Although the use of so-called paronyms causes frequent uncertainties due to similarities in spelling, sound and semantics, up until now the phenomenon has attracted little attention either from the perspective of corpus linguistics or from cognitive linguistics. Existing investigations rely on structuralist models, which do not account for empirical evidence. Still, they have developed an elaborate model based on formal criteria, primarily on word formation (cf. Lăzărescu 1999). Looking from a corpus perspective, such classifications are incompatible with language in use and cognitive elements of misuse.
This article sketches first lexicological insights into a classification model as derived from semantic analyses of written communication. Firstly, a brief description of the project will be provided. Secondly, corpus-assisted paronym detection will be focused. Thirdly, in the main section the paper concerns the description of the datasets for paronym classification and the classification procedures. As a work in progress, new insights will continually be extended once spoken and CMC data are added to the investigations.
Dieser Beitrag beleuchtet lexikalische Ausdrücke näher, die in einer Lesart durch eine synonyme Relation verbunden sind. Im Vordergrund steht die korpusgestützte Untersuchung paradigmatischer Kontextanpassung dieser Relationspaare. Es wird gezeigt, wie diese Sinnrelation insbesondere innerhalb einer Lesart kontextuell variieren kann oder spezifiziert wird und wie anhand von Korpusdaten diese variierenden Strukturen lexikologisch erfasst und lexikografisch beschrieben werden können. Diese Beobachtungen entstanden auf der Basis der Wörterbucharbeit im Projekt elexiko und stellen erste Ergebnisse hinsichtlich variabler paradigmatischer Strukturen dar, die auf der Basis eines umfangreichen Korpus, des für lexikografische Zwecke zusammengestellten elexiko Korpus,gewonnen wurden Es wird dargestellt, wie Korpusbeobachtungen hinsichtlich synonymer Variabilität im Projekt elexiko lexikografisch umgesetzt werden. Dabei soll verdeutlicht werden, wie man ein Synonymwörterbuch gebrauchsorientierter gestalten kann, wie sich neu gewonnene Korpuserkenntnisse lexikografisch einarbeiten lassen und wie dabei gleichzeitig nach angemessenen Präsentationsformen gesucht werden muss.
Dieser Beitrag beleuchtet die Vor- und Nachteile korpusgestützter lexikografischer Methoden zur Ermittlung und Dokumentation sinnrelationaler Ausdrücke eines Stichwortes. Konkrete Beispiele aus der Praxis des elexiko-Wörterbuchs dienen der Veranschaulichung von Chancen als auch von konkreten Problemen, die die eingesetzten Methoden mit sich bringen. Für die Gewinnung potentieller Synonyme und Antonyme nutzt elexiko zwei unterschiedliche Verfahren, die mit verschiedenen Prämissen an ein Korpus als Datengrundlage herantreten (cf. Tognini-Bonelli 2001). Das korpusgesteuerte / korpusgeleitete Verfahren der Kollokationsanalyse und die zugrunde liegende Ermittlung von Ausdrücken mit verwandten Kollokationsprofi len (related profiles) (cf. Belica 2011) dienen der empirischen und statistischen Absicherung von sprachlichen Phänomenen. Sie erweisen sich aber als lückenhaft in Bezug auf einige Kontexte, in denen semantisch-konzeptuelle Beziehungen der Ähnlichkeit oder des Gegensatzes realisiert, aber nicht mit Korpustools erfasst werden. Mit der Anwendung der in elexiko komplementär genutzten korpusbasierten Vorgehensweise können diese Lücken teilweise gefüllt werden. Das Zusammenspiel beider Korpusansätze hat sich in der lexikografischen Praxis prinzipiell als vorteilhaft erwiesen, bringt jedoch auch Erkenntnisse zum Vorschein, die bisher weder linguistisch erfasst noch lexikografisch dokumentiert wurden und löst nicht, wie teilweise angenommen, das Problem inhaltlicher Inkonsistenzen (cf. Paradis/Willners 2007). Diese Aspekte werden anhand von konkreten Korpusbeispielen und Wörterbucheinträgen illustriert. Als Online-Wörterbuch profitiert elexiko von seinen schnellen Navigationsmöglichkeiten über Verlinkungen. Diese werden auch für sinnrelationale Partnerwörter wie Synonyme und Antonyme angelegt, um diverse Vernetzungsstrukturen nachvollziehbar zu machen. Die Arbeit mit einem Korpus kann bis zu einem gewissen Grad die Konsistenz der bidirektionalen Vernetzungen gewährleisten, sie aber nicht vollständig absichern. In diesem Beitrag wird auch die Frage beantwortet, inwieweit die erwähnten Korpusmethoden dazu beitragen, das gegenseitige Dokumentieren zwischen Synonym- oder Antonympaaren sicherzustellen. Anhand des für diese Zwecke entwickelten Tools vernetziko, einem Vernetzungsmanager, wird gezeigt, warum die Unterstützung zusätzlicher Software für eine konsistente Verlinkung zwischen paradigmatisch miteinander verbundenen Stichwörtern unerlässlich ist(Storjohann/Meyer 2012).
The public as linguistic authority: Why users turn to internet forums to differentiate between words
(2022)
This paper addresses the question of why we face unsatisfactory German dictionary entries when looking up and comparing two similar lexical terms that are loan words, new words, (near) synonyms, or confusables. It explains how users are aware of existing reference works but still search or post on language forums, often after consulting a dictionary and experiencing a range of dictionary based problems. Firstly, these dictionary based difficulties will be scrutinised in more detail with respect to content, function, presentation, and the language of definitions. Entries documenting loan words and commonly confused pairs from different lexical reference resources serve as examples to show the short comings. Secondly, I will explain why learning about your target group involves studying discussion forums. Forums are a valuable source for detailed user studies, enabling the examination of different communicative needs, concrete linguistic questions, speakers’ intuitions, and people’s reactions to posts and comments. Thirdly, with the help of two examples I will describe how the study of chats and forums had a major impact on the development of a recently compiled German dictionary of confusables. Finally, that same problem solving approach is applied to the idea of a future dictionary of neologisms and their synonyms.
This paper discusses changes of lexicographic traditions with respect to approaches to meaning descriptions towards more cognitive perspectives. I will uncover how cognitive aspects can be incorporated into meaning descriptions based on corpus-driven analysis. The new German Online dictionary “Paronyme − Dynamisch im Kontrast” (Storjohann 2014; 2016) is concerned with easily confused words such as effektiv/effizient, sensibel/sensitiv. It is currently in the process of being developed and it aims at adopting a more conceptual and encyclopaedic approach to meaning by incorporating cognitive features. As a corpus-guided reference work it strives to adequately reflect ideas such as conceptual structure, categorisation and knowledge. Contrastive entries emphasise aspects of usage, comparing conceptual categories and indicate the (metonymic) mapping of knowledge. Adaptable access to lexicographic details and variable search options offer different foci and perspectives on linguistic information, and authentic examples reflect prototypical structures. Some of the cognitive features are demonstrated with the help of examples. Firstly, I will outline how patterns of usage imply conceptual categories as central ideas instead of sufficiently logical criteria of semantic distinction. In this way, linguistic findings correlate better with how users conceptualise language. Secondly, it is pointed out how collocates are treated as family members and fillers in contexts. Thirdly, I will demonstrate how contextual structure and functions are included summarising referential information. Details are drawn from corpus data, they are usage-based linguistic patterns illustrating conversational interaction and semantic negotiations in contemporary public discourse. Finally, I will outline consultation routines which activate different facets of structural knowledge, e.g. through changes of the ordering of information or through the visualisation of semantic networks.