Refine
Year of publication
Document Type
- Article (28)
- Part of a Book (24)
- Book (4)
- Other (3)
- Conference Proceeding (1)
- Review (1)
Language
- German (61) (remove)
Keywords
- Deutsch (35)
- Wörterbuch (23)
- Korpus <Linguistik> (17)
- Paronym (14)
- Online-Wörterbuch (10)
- Lexikografie (8)
- Lexikographie (8)
- Paronymie (8)
- Wortschatz (8)
- Computerunterstützte Lexikographie (7)
Publicationstate
- Veröffentlichungsversion (24)
- Zweitveröffentlichung (14)
- Postprint (3)
Reviewstate
- (Verlags)-Lektorat (25)
- Peer-Review (10)
- Peer-review (1)
- Peer-reviewed (1)
- Verlags-Lektorat (1)
Publisher
- de Gruyter (10)
- Leibniz-Institut für Deutsche Sprache (IDS) (5)
- Institut für Deutsche Sprache (4)
- De Gruyter (3)
- Erich Schmidt (3)
- Hempen (3)
- Winter (3)
- Blackwells (2)
- Friedrich (2)
- Leibniz-Institut für Deutsche Sprache (2)
Since the beginning of the Covid-19 pandemic, about 2000 new lexical units have entered the German lexicon. These concern a multitude of coinings and word formations (Kuschelkontakt, rumaerosolen, pandemüde) as well as lexical borrowings mainly from English (Lockdown, Hotspot, Superspreader). In a special way, these neologisms function as keywords and lexical indicators sketching the development of the multifaceted corona discourse in Germany. They can be detected systematically by corpus-linguistic investigations of reports and debates in contemporary public communication. Keyword analyses not only exhibit new vocabulary, they also reveal discursive foci, patterns of argumentation and topicalisations within the diverse narratives of the discourse. With the help of quickly established and dominant neologisms, this paper will outline typical contexts and thematic references, but it will also identify speakers' attitudes and evaluations.
Mit diesem Papier sollen LexikografInnen an ein Automatisierungstool der Textanalyse innerhalb der Korpuslinguistik herangeführt werden. Das am IDS entwickelte statistische Recherche- und Analysewerkzeug Cosmas bietet neue Zugänge zur Gewinnung semantischer Informationen über Wörter. Die Nutzungsmöglichkeiten dieses Instrumentariums für die Lesartendisambiguierung von Lexemen und deren Verifizierung mittels Kollokations- und Kontextanalyse werden erläutert, und anhand des Beispiels cool wird gezeigt, inwieweit sich semantische Informationen durch automatische Statistik extrahieren lassen. Dabei wird auf die Vor- und Nachteile der computerbasierten Analyse eingegangen. Darüber hinaus wird dargestellt, wie empirische lexikografische Disambiguierung modellgeleitet validiert werden kann. Um die Unterschiede zwischen herkömmlichen Beschreibungsmöglichkeiten und neuen statistischen Verfahren zu verdeutlichen, werden die Lesarten zu cool, wie sie im Duden GWDS (2000) dargestellt sind, mit den identifizierten Lesarten der Analyse mit Cosmas verglichen.
Das vorliegende Handbuch vermittelt einige ausgewählte Untersuchungsperspektiven auf die Phänomene Wort und Wortschatz. Die einzelnen Beiträge ordnen die Gegenstände in einen jeweils spezifischen Zusammenhang ein und fokussieren dabei auf sprachliche Kontexte, interdisziplinäre Zusammenhänge, methodische Herangehensweisen unter dem Blickwinkel der linguistischen Theorie oder der angewandten Linguistik. Das Konzept des Wortes und des Wortschatzes erhält daher in jedem Beitrag eine eigene Bedeutung und Funktion. In Summe kommt dadurch ein komplexes Verständnis von Wort und Wortschatz zum Ausdruck, das Vielfalt und Interdisziplinarität statt Einschränkung und singuläre Ausrichtung zulässt.
Dieser Beitrag beleuchtet die Vor- und Nachteile korpusgestützter lexikografischer Methoden zur Ermittlung und Dokumentation sinnrelationaler Ausdrücke eines Stichwortes. Konkrete Beispiele aus der Praxis des elexiko-Wörterbuchs dienen der Veranschaulichung von Chancen als auch von konkreten Problemen, die die eingesetzten Methoden mit sich bringen. Für die Gewinnung potentieller Synonyme und Antonyme nutzt elexiko zwei unterschiedliche Verfahren, die mit verschiedenen Prämissen an ein Korpus als Datengrundlage herantreten (cf. Tognini-Bonelli 2001). Das korpusgesteuerte / korpusgeleitete Verfahren der Kollokationsanalyse und die zugrunde liegende Ermittlung von Ausdrücken mit verwandten Kollokationsprofi len (related profiles) (cf. Belica 2011) dienen der empirischen und statistischen Absicherung von sprachlichen Phänomenen. Sie erweisen sich aber als lückenhaft in Bezug auf einige Kontexte, in denen semantisch-konzeptuelle Beziehungen der Ähnlichkeit oder des Gegensatzes realisiert, aber nicht mit Korpustools erfasst werden. Mit der Anwendung der in elexiko komplementär genutzten korpusbasierten Vorgehensweise können diese Lücken teilweise gefüllt werden. Das Zusammenspiel beider Korpusansätze hat sich in der lexikografischen Praxis prinzipiell als vorteilhaft erwiesen, bringt jedoch auch Erkenntnisse zum Vorschein, die bisher weder linguistisch erfasst noch lexikografisch dokumentiert wurden und löst nicht, wie teilweise angenommen, das Problem inhaltlicher Inkonsistenzen (cf. Paradis/Willners 2007). Diese Aspekte werden anhand von konkreten Korpusbeispielen und Wörterbucheinträgen illustriert. Als Online-Wörterbuch profitiert elexiko von seinen schnellen Navigationsmöglichkeiten über Verlinkungen. Diese werden auch für sinnrelationale Partnerwörter wie Synonyme und Antonyme angelegt, um diverse Vernetzungsstrukturen nachvollziehbar zu machen. Die Arbeit mit einem Korpus kann bis zu einem gewissen Grad die Konsistenz der bidirektionalen Vernetzungen gewährleisten, sie aber nicht vollständig absichern. In diesem Beitrag wird auch die Frage beantwortet, inwieweit die erwähnten Korpusmethoden dazu beitragen, das gegenseitige Dokumentieren zwischen Synonym- oder Antonympaaren sicherzustellen. Anhand des für diese Zwecke entwickelten Tools vernetziko, einem Vernetzungsmanager, wird gezeigt, warum die Unterstützung zusätzlicher Software für eine konsistente Verlinkung zwischen paradigmatisch miteinander verbundenen Stichwörtern unerlässlich ist(Storjohann/Meyer 2012).
Ausdrücke wie Globalisierung und Wirtschaftskrise sind Teil unserer öffentlichen Alltagssprache. Sie stehen für politische und soziokulturell brisante Debatten und ihre semantische Analyse zeigt den engen Zusammenhang zwischen Sprache und Gesellschaft. Der alltägliche Gebrauch solcher Ausdrücke etabliert gemeingesellschaftliche Diskurse, die mit korpuslinguistischen Verfahren analysierbar sind. In diesem Beitrag wird der Diskurs der Finanz- und Wirtschaftskrise in der öffentlichen Sprache von Zeitungstexten betrachtet. Zentrales Diskursobjekt ist der lexikalische Ausdruck Wirtschaftskrise selbst. Die Ermittlung relevanter Kontextbeziehungen, wie sie in Kollokationen vorhanden sind, und regelhafter Verwendungsmuster spielt für seine Beschreibung die wichtigste Rolle, da diese Indikatoren zum einen typische Thematisierungen sind und zum anderen Lexikalisierungen mit Bewertungspotenzial darstellen. Abschließend erfolgt eine kurze kritische Betrachtung der Dokumentation diskurs-relevanter Ausdrücke in deutschen Wörterbüchern der Gegenwartssprache.
Diachrone Angaben
(2005)
Die Ordnung des öffentlichen Diskurses der Wirtschaftskrise und die (Un-)Ordnung des Ausgeblendeten
(2011)
This paper focuses on easily confused items (so-called paronyms) in German in terms of their general, technical or academic contextual uses. It outlines the semantic discrepancies between contextual usages of pairs such as Methode/Methodologie/Methodik and unehelich/nichtehelich/außerehelich depending on their linguistic registers and varieties. While previous studies lack empirical evidence and primarily operate with morphological criteria (cf. Lăzărescu 1999) the descriptions here derive from corpus-based examinations of general written and of technical discourse. It is shown that causes of lexical confusion arise from formal, phonetic resemblances or semantic similarities, regular co-occurrence, incorrect morphological analogies and political governance of language. Context, knowledge, associations and experience determine the choice of lexical terms. Speakers need to apply linguistic and extra-linguistic principles in order to create adequate contexts. With the help of paronym examples and corpus data, these will be elucidated in more detail.
Current working practice of established German dictionaries incorporates large corpora as the basis of most analyses, descriptions and presentations. It is, however, individual lexicological and/or different corpus-methodological approaches that play a crucial role in the process of extracting and documenting lexicographic information in individual reference works. This paper addresses the question of how reliable information is in some electronic German dictionaries. Objects of our investigation are different types of corpus dictionaries, e.g. a digitized dictionary, a reference work that compiles its data fully automatically, a lexicographic system combining different electronic resources, and a corpus-assisted dictionary that examines and interprets its corpus data lexicographically. Critical examinations of such reference works inevitably come up with questions of authenticity and reliability of the given dictionary information. The advantages and disadvantages of various lexicographic or corpus-linguistic methods which are individually implemented will be outlined and critically analyzed with the help of examples. According to an extensive study (cf. Müller-Spitzer 2011) reliability of given information is one of the key criteria assigned to any reference work by users. We will elicit how different corpus methods expose different descriptions of natural discourse and how they answer questions of authenticity, typicality and reliability with regard to phenomena such as meaning spectrum, collocations, antonymy and hyperonymy. Overall, this paper is a critical account of the current German lexicographic developments. It will include discussions on meta-lexicographic demands and focus on whether there are suitable complementary corpus approaches providing authentic dictionary information to a satisfactory extent.
Einleitung
(2018)
Der Beitrag führt in das Sonderheft „Paronymie im deutschen Sprachgebrauch“ ein und bündelt gewonnene Einblicke in die lexikologische, korpusanalytische sowie lexikografische Arbeit des Projektes „Paronymwörterbuch“. Er stellt wichtige Erkenntnisse zu Paronymen, ihrem Vorkommen, ihrer Ermittlung und Darstellung, aber auch zu den Methoden der Bedeutungsanalyse, ihren diskursiven Funktionen und dem Umgang mit Verwechslungspotenzial zusammenfassend dar. Vorgestellt werden Forschungsergebnisse, die sich vor allem auf die Verwendung von Paronymen in der öffentlichen Gebrauchssprache beziehen. Aber auch explorative Korpusverfahren werden erläutert sowie innovative, dynamische e-lexikografische Darstellungen präsentiert. Ausgewählte Probleme, die sowohl im Kontext der theoretischen Auseinandersetzung als auch mit der redaktionellen Erfassung von Paronymen auftreten, werden hier diskutiert. Das Sonderheft verbindet dabei theoretische und praktische lexikografische Herangehensweisen an ein bisher linguistisch wenig dokumentiertes Phänomen, das Muttersprachler/innen und Fremdsprachenlernende gleichermaßen verunsichert. Neben den Rückblicken werden ebenso die Ausblicke auf die kommenden Jahre und die damit verbundenen Fragestellungen des Projektes skizziert.