Refine
Year of publication
- 2017 (163) (remove)
Document Type
- Article (70)
- Part of a Book (35)
- Conference Proceeding (35)
- Book (10)
- Working Paper (5)
- Other (3)
- Part of Periodical (2)
- Report (2)
- Doctoral Thesis (1)
Keywords
- Deutsch (52)
- Korpus <Linguistik> (42)
- Gesprochene Sprache (16)
- Corpus linguistics (11)
- Computerunterstützte Lexikographie (7)
- Diskursmarker (7)
- Computerlinguistik (6)
- Corpus technology (6)
- Interaktionsanalyse (6)
- Texttechnologie (6)
Publicationstate
- Veröffentlichungsversion (163) (remove)
Reviewstate
Publisher
- Institut für Deutsche Sprache (43)
- de Gruyter (19)
- Verlag für Gesprächsforschung (10)
- Lexical Computing CZ s.r.o. (5)
- The Association for Computational Linguistics (5)
- Heidelberg University Publishing (4)
- Narr (4)
- Synchron (4)
- Leibniz-Institut für Deutsche Sprache (IDS) (3)
- Narr Francke Attempto (3)
Rückblick 2017
(2017)
Sprachwissenschaft geht logozentrisch vor, konzentriert sich also aufs geschriebene und seit einigen Jahrzehnten auch aufs gesprochene Wort. Das ist verständlich und sinnvoll (Schuster, bleib bei deinen Leisten!), setzt sich aber auch Scheuklappen auf und übersieht bedeutsame Erscheinungen am Rande.
Mit diesem Bild beschreibt Hermann Unterstöger in einem „Sprachlabor“- Artikel der Süddeutschen Zeitung vom 23.3.2013 die Erfolgsgeschichte, die das Substantiv (das) Narrativ in den letzten 30 Jahren vorgelegt hat. Während Unterstöger feinsinnig den intertextuellen Bezug zum „Narrenschiff“ des Sebastian Brant oder dem gleichnamigen Roman von Katherine Ann Porter bemüht, wird Matthias Heine, der Autor von „Seit wann hat geil nichts mehr mit Sex zu tun? 100 deutsche Wörter und ihre erstaunlichen Karrieren“ in einem Artikel in der WELT vom 13.11.2016, wie nach diesem Buchtitel zu erwarten, eher grob: Dort heißt es: „Hinz und Kunz schwafeln heutzutage vom ,Narrativ‘“.
Emoticons erfreuen sich auf der ganzen Welt großer Beliebtheit, vor allem in der alltäglichen elektronischen Kommunikation wie E-Mail, SMS, Forumsdiskussionen, Instant Messaging, Facebook oder Twitter. Zum ersten Mal in der Geschichte wurde 2015 von den Sprachbeobachtern der britischen Oxford Dictionaries ein Emoticon zum Wort des Jahres gewählt: das Grinsegesicht, dem die Freudentränen aus den Augen spritzen (vgl.<www.sueddeutsche.de/kultur/britisches-wortdes-jahres-was-haben wir-gelacht-1.2740952>, Stand: 8.11.2017). Die Jury begründete ihre Wahl wie folgt: „[E]moji have come to embody a core aspect of living in a digital world that is visually driven, emotionally expressive, and obsessively immediate.“
Im September 1522 erschien in Wittenberg „Das newe Testament Deutzsch“ mit einer Auflage von über 3.000 Stück und war binnen einer Woche ausverkauft. Martin Luther, der auf dem Titelblatt auf eigenen Wunsch nicht erwähnt wird, hatte die Übersetzung auf der Wartburg in nur elf Wochen angefertigt und wenig später fünf Wochen lang mit seinem Kollegen und Freund, dem Gräzisten Philipp Melanchthon, insbesondere im Hinblick auf die griechische Urfassung bearbeitet. Die Geschichte der Revisionen der Lutherbibel beginnt im gleichen Jahr – schon für den Nachdruck im Dezember hat Luther dieses so genannte „Septemberevangelium“ an vielen Stellen revidiert. In Teilen erschien danach seine Übersetzung des Alten Testaments, 1534 die vollständige Übersetzung der Bibel. Luther korrigierte den Bibeltext unablässig weiter bis zur Ausgabe von 1545, der Lutherbibel „letzter Hand“.
Verstehen und Motivieren: semantische Fluchtpunkte deutscher und italienischer Lexeme mit -log-
(2017)
Unlike traditional text corpora collected from trustworthy sources, the content of web based corpora has to be filtered. This study briefly discusses the impact of web spam on corpus usability and emphasizes the importance of removing computer generated text from web corpora.
The paper also presents a keyword comparison of an unfiltered corpus with the same collection of texts cleaned by a supervised classifier trained using FastText. The classifier was able to recognize 71% of web spam documents similar to the training set but lacked both precision and recall when applied to short texts from another data set.
Am Anfang ist das Wort
(2017)
Die Migration in die Türkei stellt für viele junge Menschen einen Wendepunkt in ihrem Leben dar. Sie kann verschiedene Gründe haben.
In der biografie- und interaktionsanalystischen Pilotstudie wird die Darstellung der narrativen Identitätsentwürfe von drei deutsch-türkischen Germanistikstudentinnen in Instanbul untersucht. Sie zeigt, wie die Informantinnen aus der Retrospektive ihre sprachlichen und sozialen Erfahrungen in Deutschland und nach der Migration in die Türkei konstituieren und welche Rolle ihre sprachlichen Ressourcen beim Ausdruck von sozialer Zugehörigkeit spielen.
Seit 2015 ist die Zahl der Migranten, die aus Bürgerkriegsländern des Nahen und Mittleren Ostens sowie aus Afrika nach Deutschland kommen, bis in die ersten Monate 2016 rasant gestiegen – auf knapp 1 Million in einem Jahr, zeitweise ohne Grenzkontrolle und Registrierung. Nach der auch von den Oppositionsparteien im Bundestag weitgehend unterstützten Positionierung der Bundeskanzlerin Merkel, Deutschland für die überwiegend als „Flüchtlinge“ bezeichneten Migranten politisch, rechtlich und gesellschaftlich zu öffnen, entwickelt sich bald ein Gegendiskurs, der nicht von den Oppositionsparteien im Deutschen Bundestag, sondern vor allem von der Führung der – an der Bundesregierung beteiligten – CSU getragen wurde, unterstützt von einigen Verfassungsrechtlern. Begriffe wie „Willkommenskultur“, „Obergrenze“, „humanitäre Katastrophe“, „Grundrecht auf Asyl“, „kulturelle Identität“, „Herrschaft des Unrechts“ etc. beginnen die öffentliche und private Kommunikation über Politik zu beherrschen.
Die Diskurslinguistik als relativ neue Teildisziplin der germanistischen Linguistik beschäftigt sich mit der Frage, wie soziale Wirklichkeiten in transtextuell organisierten Einheiten konstruiert werden. Bisher finden dabei noch kaum Texte aus digitalen Medien (z. B. aus Facebook, Twitter oder Wikipedia) Berücksichtigung. Das Netzwerk vereint die unten genannten WissenschaftlerInnen, die in ihren Projekten an der Analyse digitaler Diskurse arbeiten und dabei digitale Methoden der Korpuslinguistik bzw. Digital Methods nutzen.
Ein Teildiskurs der Digital Humanities dreht sich um die Frage, wie tradierte Wissensressourcen der Geisteswissenschaften sinnvoll mit digitalen Technologien und Tools verbunden werden können. Auch bei der Neubearbeitung des Deutschen Wörterbuchs von Jacob Grimm und Wilhelm Grimm (DWB) ist dieser Diskurs spürbar, denn mit der Ende 2016 abgeschlossenen Arbeit des traditionsreichen Unternehmens liegt ein konzeptuell einzigartiges Referenzwerk der historischen Lexikografie des Deutschen vor, das in ‘traditioneller’ Printform entstanden, dessen Umsetzung in ein digitales Format jedoch bereits beschlossen ist. Im Laufe der Arbeit am DWB sind überdies zwei Datensammlungen entstanden, die mittlerweile digitalisiert wurden und öffentlich zugänglich sind: das (digitale) Quellenverzeichnis und die Kartei Literatur zur Wortforschung (LW-Kartei). Ihre Einbindung in die Wörterbucharbeit und -benutzung trägt auf unterschiedliche Weise zum Verständnis des DWB bei; weiterhin verweisen sie als digitale Werkzeuge auf grundlegende Möglichkeiten zur Aufbereitung von lexikografischen Daten. Im Folgenden werden beide Projekte, die sich ursprünglich als innerbetriebliche lexikografische Werkzeuge aus der Wörterbuchpraxis ergaben, vorgestellt. Anschließend wird anhand mehrerer ausgewählter Beispielwörter demonstriert, inwiefern sich die LW-Kartei und das Quellenverzeichnis für ein breites Spektrum von Forschungsfragen nutzen lassen. Am Ende werden Überlegungen zur Erweiterung der Datenbanken, d. h. der jeweiligen Systeme zur elektronischen Datenverwaltung, und ihrer Vernetzung mit den jeweiligen DWB-Artikeln diskutiert – Themen, denen u. a. bei der anstehenden Retrodigitalisierung des DWB besondere Beachtung zukommen sollte.
Corpus researchers, along with many other disciplines in science are being put under continual pressure to show accountability and reproducibility in their work. This is unsurprisingly difficult when the researcher is faced with a wide array of methods and tools through which to do their work; simply tracking the operations done can be problematic, especially when toolchains are often configured by the developers, but left largely as a black box to the user. Here we present a scheme for encoding this ‘meta data’ inside the corpus files themselves in a structured data format, along with a proof-of-concept tool to record the operations performed on a file.
This article describes a series of ongoing efforts at the Stanford Literary Lab to manage a large collection of literary corpora (~40 billion words). This work is marked by a tension between two competing requirements – the corpora need to be merged together into higher-order collections that can be analyzed as units; but, at the same time, it’s also necessary to preserve granular access to the original metadata and relational organization of each individual corpus. We describe a set of data management practices that try to accommodate both of these requirements – Apache Spark is used to index data as Parquet tables on an HPC cluster at Stanford. Crucially, the approach distinguishes between what we call “canonical” and “combined” corpora, a variation on the well-established notion of a “virtual corpus” (Kupietz et al., 2014; Jakubíek et al., 2014; van Uytvanck, 2010).
Our paper describes an experiment aimed to assessment of lexical coverage in web corpora in comparison with the traditional ones for two closely related Slavic languages from the lexicographers’ perspective. The preliminary results show that web corpora should not be considered ― inferior, but rather ― different.
The Manatee corpus management system on which the Sketch Engine is built is efficient, but unable to harness the power of today’s multiprocessor machines. We describe a new, compatible implementation of Manatee which we develop in the Go language and report on the performance gains that we obtained.
Creating CorCenCC (Corpws Cenedlaethol Cymraeg Cyfoes - The National Corpus of Contemporary Welsh)
(2017)
CorCenCC is an interdisciplinary and multiinstitutional project that is creating a large-scale, open-source corpus of contemporary Welsh. CorCenCC will be the first ever large-scale corpus to represent spoken, written and electronicallymediated Welsh (compiling an initial data set of 10 million Welsh words), with a functional design informed, from the outset, by representatives of all anticipated academic and community user groups.
Many (modernist) works of literature can be understood by their associativeness, be it constructed or “free”. This network-like character of (modernist) literature has often been addressed by terms like “free association”, connotation”, “context” or “intertext”. This paper proposes an experimental and exemplary approach to intraconnect a literary corpus of the Austrian writer Ilse Aichinger with semantic web-technologies to enable interactive explorations of word-associations.
This paper outlines the broad research context and rationale for a new international comparable corpus (ICC). The ICC is to be largely modelled on the text categories and their quantities the International Corpus of English with only a few changes. The corpus will initially begin with nine European languages but others may join in due course. The paper reports on those and other agreements made at the inaugural planning meeting in Prague on 22-23 June 2017. It also sets out the project’s goals for its first two years.
Complex linguistic phenomena, such as Clitic Climbing in Bosnian, Croatian and Serbian, are often described intuitively, only from the perspective of the main tendency. In this paper, we argue that web corpora currently offer the best source of empirical material for studying Clitic Climbing in BCS. They thus allow the most accurate description of this phenomenon, as less frequent constructions can be tracked only in big, well-annotated data sources. We compare the properties of web corpora for BCS with traditional sources and give examples of studies on CC based on web corpora. Furthermore, we discuss problems related to web corpora and suggest some improvements for the future.
In German there are about twenty-five elements (like gemäß, nahe, voll) that seem to be used as a preposition along with their use as an adjective. In former approaches the preposition is interpreted as the product of grammaticalizing (and/or reanalyzing) the adjective. It is argued that the two criteria these approaches rely on, namely change of linear position and change of case government, are insufficient. In this paper, seven criteria for distinguishing adjectives form prepositions in German are put forward. What is most important is that these criteria have to be evaluated on the token level as well as on the level of type and word class/syntactic category. It can be shown that the individual ‘adjective-prepositions' as types possess a specific mixture of adjective-like and preposition-like features. On the token level, occurring as part of a postnominal restrictive attribute is indicative for preposition-like status in German. The comparison of German with English and Italian adjective-prepositions (like near, far, due and vicino, lontano) reveals a lot of differences, which counts as evidence for the language-specific nature of word classes. Nevertheless, Lehmanns functional-typological approach uncovers a fundamental functional similarity between complement governing adjectives and prepositions: the primary function of the phrases, i.e., adjective/preposition + complement, is to modify a nominal or a verbal concept, respectively. This insight explains why adjective-prepositions can be found cross-linguistically. The question whether we should propose one type or two types for gemäß and its cognates is of minor importance only.
Abschreckend beim Deutschlernen ist u. a. die Erkenntnis, dass man so viel beachten muss, um eine kleine Wortgruppe mit einem Adjektiv, einem Nomen und gegebenenfalls einem Artikel richtig bilden zu können. Es reicht nämlich nicht, zu wissen, ob das Adjektiv vor einem maskulinen, einem femininen oder einem neutralen Nomen steht. Auch das Wissen, in welchem Kasus dieses Nomen steht, reicht nicht aus, um die richtige Form des Adjektivs auszuwählen, nein, man muss auch noch berücksichtigen, ob ein Artikel vor dem Adjektiv steht und wenn ja, welcher, denn auch das beeinflusst die Form des Adjektivs.
Alles verstehen heißt alles verzeihen ist ein Satz, der im Deutschen den Charakter eines Spruchs, eines geflügelten Wortes angenommen hat, und der wahrscheinlich auf einem Zitat aus „Corinne ou l‘Italie“ von Madame de Staël (1807) (tout) comprendre c‘est (tout) pardonner basiert. Dieser Satz wurde ins Deutsche übersetzt und als Alles verstehen heißt alles verzeihen tradiert. Die Form eines Spruchs, eines geflügelten Wortes ist im Allgemeinen sehr konstant. Die Tendenz zur grammatischen Variation ist auch dann gering, wenn sie nach gängigen grammatischen Regeln möglich wäre.
Welche Sprachen sehen wir auf Schildern, Plakaten, Graffiti in der Öffentlichkeit? Wovon hängt es ab, an welchen Orten und in welchen Funktionen bestimmte sprachliche Varietäten zu finden sind? Wie spiegeln sich Mehrsprachigkeit in der Gesellschaft, Prestige von Sprachen und Machtverhältnisse von Sprechergruppen in den Texten im öffentlichen Raum?
Dieser Band widmet sich derartigen Fragen, die in der Sprachwissenschaft heute unter dem Schlagwort der Linguistic Landscapes untersucht werden, aus einer Perspektive der deutschen Sprache außerhalb des deutschsprachigen Kerngebietes. Welches – z. T. unerwartete – Auftreten des Deutschen lässt sich in Ländern wie Malta, Estland, Dänemark oder Tschechien beobachten? Was für Geschichten stehen dahinter und wie spiegeln sich in deutschen Texten und Symbolen historische Ereignisse und heutige Verbindungen zu den deutschsprachigen Ländern?
Gleichzeitig berichten die Beiträge des Bandes über Erfahrungen, die Präsenz der deutschen Sprache in der Öffentlichkeit zu Unterrichtszwecken und zum Sprachmarketing einzusetzen. Ob in Schule, Universität oder in der Werbung für Deutsch in der allgemeinen Öffentlichkeit – dieser in Anlehnung an ein Projekt auf Malta Spot German genannte Ansatz veranschaulicht nicht nur die Vielfalt der Rollen des Deutschen, er zeigt vor allem, dass Projekte zur deutschen Sprache Spaß machen und auf einfache Weise zur Nachahmung einladen können.
Harold Garfinkel, Begründer der Ethnomethodologie, wäre dieses Jahr 100 Jahre alt geworden, seine Studies in Ethnomethodology werden 50 Jahre. Grund genug diesen doppelten Geburtstag mit einer Tagung zur "deutschsprachigen Vorge-schichte, Wirkung und Rezeption des Werkes und der Person zu würdigen" (so der Ankündigungstext zur Tagung), die nicht ganz zufällig in Konstanz stattfand, lange Zeit und nach wie vor eine Hochburg rekonstruktiver Sozialforschung (auch) ethnomethodologischer Prägung. Die Tagung Harold Garfinkel's 'Studies in Ethnomethodolgy' – Fifty Years After vom 26.-28.10.2017 an der Universität Konstanz, ausgerichtet vom Lehrstuhl für Allgemeine Soziologie und Kultursoziologie und organisiert von Jörg Bergmann, Christian Meyer und Erhard Schüttpelz, tat dies in einer gebührlichen und beson-deren Weise: Die acht Kapitel der Studies in Ethnomethodology (im Folgenden kurz Studies), ein Konvolut aus Essays und Artikeln, die 1967 erschienen sind, dienten als Grundlage zur Strukturierung der Tagung und als Ausgangspunkt der einzelnen Vorträge.
Die folgenden Ausführungen zur Maskierung basieren auf den Erfahrungen bei der Aufbereitung der Daten des Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) für die Veröffentlichung in der Datenbank für Gesprochenes Deutsch (DGD). Sie sollen anderen Forschern und Forschungsprojekten als praktische Hilfestellung für die Maskierung von Aufnahmen dienen, können aber selbstverständlich nicht die gesamte Bandbreite von Einzelfallentscheidungen und Pflichten der Forschenden abdecken.
Es werden sowohl allgemeine Hinweise zur Maskierung von Audio- und Videoaufnahmen gegeben als auch praktische Tipps zur Umsetzung der Maskierung mit dem Transkriptionseditor FOLKER.
Die in den Ausführungen geschilderten arbeitsteiligen Prozesse in größeren Projekten können in kleineren Projekten einzelner Forscher selbstverständlich auch von einer einzelnen Person ausgeführt werden.
This paper presents a short insight into a new project at the "Institute for the German Language” (IDS) (Mannheim). It gives an insight into some basic ideas for a corpus-based dictionary of spoken German, which will be developed and compiled by the new project "The Lexicon of spoken German” (Lexik des gesprochenen Deutsch, LeGeDe). The work is based on the "Research and Teaching Corpus of Spoken German” (Forschungs- und Lehrkorpus Gesprochenes Deutsch, FOLK), which is implemented in the "Database for Spoken German” (Datenbank für Gesprochenes Deutsch, DGD). Both resources, the database and the corpus, have been developed at the IDS.
This article explores how close one can come to a cultural-scientific perspective on the basis of a constitution-analytical methodology. We do this on the basis of a comparison of the celebration of Totensonntag in Zotzenbach (Southern Hesse) and Sarepta (Wolgograd). In both places, there are protestant churches that perform this ritual to commemorate the dead on this “Sunday of the Dead” as a part of their church service. Our scientific interest lies in the reconstruction of the rituality produced during the in situ execution. In both services, the names of the deceased are read out and a candle is lit for each deceased person. In Zotzenbach the priest reads out the names and an assistant ignites the candles for the deceased, whereas in Sarepta the bereaved are responsible for this. Since the ritual is organised in very different ways in terms of architecture-for-interaction (statically in Zotzenbach, spatially dynamic in Sarepta), we can reconstruct two completely different models of rituality: a demonstrative one (Zotzenbach) and a participative one (Sarepta). The demonstrative model works on the basis of a finely tuned coordination between the two church representatives and is aimed at a dignified execution. The model in Sarepta is not suitable for the production of formality due to its participatory structure. Here, however, the focus is also on the aspect of socialization, which goes beyond the church service and offers the Russian-German worshipers the opportunity to situationally constitute as a culturally homogeneous group.
Der vorliegende Beitrag beschreibt auf der Basis authentischer Alltagsinteraktionen das Formen- und Funktionsspektrum der äußerungsmodalisierenden Kommen-tarphrase ohne Scheiß im gesprochenen Deutsch. Die Konstruktion wird von Inter-agierenden insbesondere als Ressource zur Steigerung des Geltungsanspruchs einer Bezugsäußerung genutzt, wodurch diese als wahr und/oder ernstgemeint modali-siert wird. Damit leistet ohne Scheiß einen wichtigen Beitrag zur Bearbeitung des Erwartungsmanagements durch den/die SprecherIn sowie zur Herstellung von In-tersubjektivität. Die Konstruktion ist syntaktisch variabel und kann somit Äußerun-gen sowohl prospektiv als auch retraktiv modalisieren. Zudem wird mit der Wahl des Lexem Scheiß ein nähesprachliches Register aktiviert, was in Verbindung mit weiteren (prosodischen und/oder lexikalischen) Elementen zu affektiver Aufladung führen kann. Eine abschließende Darstellung häufiger lexikalischer Kookkurrenz-partner und deren funktionaler Bedeutung sowie ein Abgleich zu intrakonstruktio-nalen Varianten wie ohne Witz/ohne Spaß zeigt die Produktivität der Konstruktion im alltäglichen Sprachgebrauch auf.
We present a major step towards the creation of the first high-coverage lexicon of polarity shifters. In this work, we bootstrap a lexicon of verbs by exploiting various linguistic features. Polarity shifters, such as ‘abandon’, are similar to negations (e.g. ‘not’) in that they move the polarity of a phrase towards its inverse, as in ‘abandon all hope’. While there exist lists of negation words, creating comprehensive lists of polarity shifters is far more challenging due to their sheer number. On a sample of manually annotated verbs we examine a variety of linguistic features for this task. Then we build a supervised classifier to increase coverage. We show that this approach drastically reduces the annotation effort while ensuring a high-precision lexicon. We also show that our acquired knowledge of verbal polarity shifters improves phrase-level sentiment analysis.
In the NLP literature, adapting a parser to new text with properties different from the training data is commonly referred to as domain adaptation. In practice, however, the differences between texts from different sources often reflect a mixture of domain and genre properties, and it is by no means clear what impact each of those has on statistical parsing. In this paper, we investigate how differences between articles in a newspaper corpus relate to the concepts of genre and domain and how they influence parsing performance of a transition-based dependency parser. We do this by applying various similarity measures for data point selection and testing their adequacy for creating genre-aware parsing models.
The possibilities of re-use and archiving of spoken and written corpora are affected by personality rights (depending on legal tradition also called: the right of publicity), copyright law and data protection / privacy laws. These recommendations include information about legal aspects which should be considered while creating corpora to ensure the greatest archivability and re-usability possible in compliance with current laws.
The information compiled here shall serve researchers who plan to create corpora or who are involved in evaluation of such measures as a guideline. This information is not exhaustive or to be considered as legal advice. Researchers should consult institutional legal departments and management before making legally relevant decisions. That said, further legal expertise should be sought if possible as early as project planning phases.
This paper deals with the creation of the first morphological treebank for German by merging two pre-existing linguistic databases. The first of these is the linguistic database CELEX which is a standard resource for German morphology. We build on its refurbished and modernized version. The second resource is GermaNet, a lexical-semantic network which also provides partial markup for compounds. We describe the state of the art and the essential characteristics of both databases and our latest revisions. As the merging involves two data sources with distinct annotation schemes, the derivation of the morphological trees for the unified resource is not trivial. We discuss how we overcome problems with the data and format, in particular how we deal with overlaps and complementary scopes. The resulting database comprises about 100,000 trees whose format can be chosen according to the requirements of the application at hand. In our discussion, we show some future directions for morphological treebanks. The Perl script for the generation of the data from the sources will be made publicly available on our website.
This paper discusses how cognitive aspects can be incorporated into lexicographic meaning descriptions based on corpus-driven analysis. The new German Online dictionary “Paronyme − Dynamisch im Kontrast” is concerned with easily confused words such as effektiv/effizient, sensibel/sensitiv. It is currently in the process of being developed and it aims at adopting a more conceptual and encyclopedic approach to meaning. Contrastive entries emphasize usage, comparing conceptual categories and indicating the mapping of knowledge. Adaptable access to lexicographic details offers different perspectives on information, and authentic examples reflect prototypical structures.
Some of the cognitive features are demonstrated with the help of examples. Firstly, I will outline how patterns of usage imply conceptual categories as central ideas instead of sufficiently logical criteria of semantic distinction. In this way, linguistic findings correlate better with how users conceptualize language. Secondly, it is pointed out how collocates are family members and fillers in contexts. Thirdly, I will demonstrate how contextual structure and function are included by summarizing referential information. Details are drawn from corpus data; they are usage-based patterns illustrating conversational interaction and semantic negotiation in contemporary public discourse. Finally, I will show flexible consultation routines where the focus on structural knowledge changes.
This paper gives an insight into the basic concepts for a corpus-based lexical resource of spoken German, which is being developed by the project "The Lexicon of Spoken German"(Lexik des gesprochenen Deutsch, LeGeDe) at the "Institute for the German Language" (Institut für Deutsche Sprache, IDS) in Mannheim. The focus of the paper is on initial ideas of semi-automatic and automatic resources that assist the quantitative analysis of the corpus data for the creation of dictionary content. The work is based on the "Research and Teaching Corpus of Spoken German" (Forschungs- und Lehrkorpus Gesprochenes Deutsch, FOLK).
This paper discusses changes of lexicographic traditions with respect to approaches to meaning descriptions towards more cognitive perspectives. I will uncover how cognitive aspects can be incorporated into meaning descriptions based on corpus-driven analysis. The new German Online dictionary “Paronyme − Dynamisch im Kontrast” (Storjohann 2014; 2016) is concerned with easily confused words such as effektiv/effizient, sensibel/sensitiv. It is currently in the process of being developed and it aims at adopting a more conceptual and encyclopaedic approach to meaning by incorporating cognitive features. As a corpus-guided reference work it strives to adequately reflect ideas such as conceptual structure, categorisation and knowledge. Contrastive entries emphasise aspects of usage, comparing conceptual categories and indicate the (metonymic) mapping of knowledge. Adaptable access to lexicographic details and variable search options offer different foci and perspectives on linguistic information, and authentic examples reflect prototypical structures. Some of the cognitive features are demonstrated with the help of examples. Firstly, I will outline how patterns of usage imply conceptual categories as central ideas instead of sufficiently logical criteria of semantic distinction. In this way, linguistic findings correlate better with how users conceptualise language. Secondly, it is pointed out how collocates are treated as family members and fillers in contexts. Thirdly, I will demonstrate how contextual structure and functions are included summarising referential information. Details are drawn from corpus data, they are usage-based linguistic patterns illustrating conversational interaction and semantic negotiations in contemporary public discourse. Finally, I will outline consultation routines which activate different facets of structural knowledge, e.g. through changes of the ordering of information or through the visualisation of semantic networks.
Languages employ different strategies to transmit structural and grammatical information. While, for example, grammatical dependency relationships in sentences are mainly conveyed by the ordering of the words for languages like Mandarin Chinese, or Vietnamese, the word ordering is much less restricted for languages such as Inupiatun or Quechua, as these languages (also) use the internal structure of words (e.g. inflectional morphology) to mark grammatical relationships in a sentence. Based on a quantitative analysis of more than 1,500 unique translations of different books of the Bible in almost 1,200 different languages that are spoken as a native language by approximately 6 billion people (more than 80% of the world population), we present large-scale evidence for a statistical trade-off between the amount of information conveyed by the ordering of words and the amount of information conveyed by internal word structure: languages that rely more strongly on word order information tend to rely less on word structure information and vice versa. Or put differently, if less information is carried within the word, more information has to be spread among words in order to communicate successfully. In addition, we find that–despite differences in the way information is expressed–there is also evidence for a trade-off between different books of the biblical canon that recurs with little variation across languages: the more informative the word order of the book, the less informative its word structure and vice versa. We argue that this might suggest that, on the one hand, languages encode information in very different (but efficient) ways. On the other hand, content-related and stylistic features are statistically encoded in very similar ways.