Refine
Year of publication
Document Type
- Part of a Book (992)
- Article (428)
- Conference Proceeding (81)
- Book (58)
- Review (54)
- Report (11)
- Other (6)
- Master's Thesis (3)
- Doctoral Thesis (2)
- Part of Periodical (2)
Language
Keywords
- Deutsch (715)
- Korpus <Linguistik> (203)
- Sprachgebrauch (111)
- Rechtschreibung (92)
- Grammatik (87)
- Rezension (84)
- Interaktion (68)
- Gesprochene Sprache (67)
- Linguistik (66)
- Semantik (66)
Publicationstate
- Zweitveröffentlichung (1641) (remove)
Reviewstate
- (Verlags)-Lektorat (1161)
- Peer-Review (410)
- (Verlags-)lektorat (4)
- (Verlags-)Lektorat (3)
- Abschlussarbeit (Bachelor, Master, Diplom, Magister) (Bachelor, Master, Diss.) (3)
- Peer review (2)
- Peer-reviewed (2)
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (2)
- (Verlags-)Lektoriat (1)
- Peer-review (1)
Publisher
- de Gruyter (463)
- Narr Francke Attempto (123)
- Narr (83)
- Erich Schmidt (60)
- IDS-Verlag (36)
- Niemeyer (32)
- Steiner (26)
- Stauffenburg (23)
- De Gruyter (22)
- Erich Schmidt Verlag (20)
Personalpronomina und ihre reduzierten und klitischen Formen stehen an markanten Satzpositionen, die sich von der Position der koreferenten vollen Nomina grundsätzlich unterscheiden. Sie erscheinen allerdings in manchen Sprachen verbbezogen als Enklitika, in anderen als Proklitika. Es wird zuerst erwogen,diese enklitische bzw. proklitische Position von der grundlegenden Linearitätstypologie im greenbergschen Sinne (SVO und SOV/VSO) abhängig zu machen. Wiewohl prinzipiell richtig zwingen klitische Pronomina im Skandinavischen sowie die Klitikstellung in Nichtdeklarativen zur Annahme,nach der ersten (rechtesten) thematischen Diskursposition im strukturellen Satzschema als Ort für die schwachen Pronominalformen zu suchen. Diese Annahme erscheint für eine Reihe von nichtverwandten Sprachen als haltbar. Im Blickpunkt stehen Sprachen aus den drei greenbergschen Haupttypen: SVO als V-mittelständigen Sprachen sowie SOV/VSO als V-randständige Sprachen. Je nachdem wie nichtdeklarative Satze sich aus den zugrundegelegten Strukturen ableiten, erreicht das pronominale Klitikum eine enklitische oder eine postklitische Position,die sich dadurch auszeichnet,daß sie die rechteste diskursfunktionale Themaposition ist. Diese Einsicht macht die strukturelle Verschiebung der schwachen Pronomina systematisch ableit- und voraussagbar.
Im allgemeinen ist man sich darüber einig, daß ein Zusammenhang zwischen Informationsstrukturierung (Fokus-Hintergrund-Gliederung, Topik-Kommentar-Gliederung) sowie Akzentuierung und prosodischer Phrasierung besteht (vgl. Hayes/Lahiri 1991). Gut untersucht ist die Beziehung zwischen der Unterteilung von Sätzen in prosodische Phrasen und der Fokusstruktur (vgl. Nespor/Vogel 1986). Dies trifft ebenso auf die Analyse der Akzentpositionen in Verbindung mit der Informationsstruktur zu (Féry 1993). Bezüglich der Annahmen zur prosodischen Phrasierung und ihrem Zusammenhang mit der Akzentplazierung läßt sich ein solcher minimaler Konsens nur schwer feststellen. Übereinstimmung besteht lediglich darin, daß durch Grenzsignale (Pausen, Glottisverschlußinsertion, Grenztone) die prosodische Phrasierung manifestiert wird. Ich möchte hier zeigen, daß zwischen der Akzentplazierung und der prosodischen Phrasierung ebenfalls ein Zusammenhang besteht, und Möglichkeiten erörtern, diese Verbindung sprachübergreifend und experimentell nachzuweisen.
Ich beziehe mich dabei auf Beobachtungen zur Akzentplazierung im Deutschen und Französischen und schlage darauf aufbauend eine Methode zur Determinierung prosodischer Grenzen im Russischen vor.
Ausgehend von einschlägigen typologischen Parametern (Verbstellung, Kasusmarkierung, analytische und synthetische Konstruktion) werden Aspekte einer allgemeinen morphosyntaktischen Charakterisierung des Deutschen zur Diskussion gestellt. Die deutschen Klammerbildungen werden unter dem Aspekt links- und rechtsverzweigender Serialisierung betrachtet. Es wird dabei erwogen, die Verbalklammer im Hauptsatz als die Überlagerung einer zugrundeliegenden Verbendstellung durch eine pragmatische Satzartenmarkierung anzusehen. Das Verhältnis zwischen Morphologie und syntaktischen Regeln wird im Hinblick auf die ,,Konfigurationalitäts”-Diskussion erläutert. Sowohl bei Verbkonstruktionen als auch bei der Funktionskodierung im nominalen Bereich wird auf die Analytitizität/Synthetizität-Unterscheidung Bezug genommen. Im Rahmen dieser Parameter erscheint das Deutsche als ein sprachtypologischer „Mischtyp", der aber insgesamt durch weitgehende funktionale Konvergenz der typologisch unterschiedlichen Strukturen und Verfahren gekennzeichnet ist.
Kultur ist nicht nur zu einem Schlüsselbegriff der Geisteswissenschaften geworden, sondern wird auch entterminologisiert als Alltagsbegriff benutzt. In diesem Beitrag wird untersucht, wie der Ausdruck Kultur (einschließlich Derivationen und Komposita) in der mündlichen Interaktion verwendet wird. Auf Basis von 82 Instanzen im Korpus FOLK des IDS Mannheim wurde festgestellt, dass der Ausdruck von SprecherInnen in zumeist semiformellen bis formellen Interaktionstypen benutzt wird. Es findet sich ein breites Spektrum unterschiedlicher, teils ineinander übergehender Bedeutungen, welches dem der wissenschaftlichen Literatur der Kulturtheorie ähnlich ist. Dabei lassen sich jeweils relevante Kernbedeutungen identifizieren, mit denen mehr oder weniger vage assoziierte Bedeutungen verbunden sind. Kultur zeigt sich als kontroverser Begriff: Die Referenz von Kultur, die Wertung und seine Relevanz als Erklärungsressource sind häufig umstritten.
Die 21. Arbeitstagung zur Gesprächsforschung mit dem Rahmenthema „Vergleichende Gesprächsforschung“ fand vom 21.–23. März 2018 am Institut für Deutsche Sprache in Mannheim statt. Das Ziel der Tagung war es, Forscherinnen und Forscher zusammenzubringen, die authentische Interaktionsdaten aus vergleichender Perspektive untersuchen. Das Rahmenthema der Tagung ergab sich aus dem steigenden Interesse an vergleichenden Fragestellungen innerhalb konversations- und gesprächsanalytischer Untersuchungen. Die Tagung nahm gezielt Vorgehensweisen und Methoden bei der Durchführung vergleichender Untersuchungen in den Blick. Die Vorträge, Projektpräsentationen und Datensitzungen erörterten 1. das Vergleichen als analytische Grundoperation der Konversations- und Gesprächsanalyse, 2. Vergleiche alternativer Ressourcen und Praktiken für spezifische Handlungen und Aktivitäten in der Interaktion sowie 3. methodologische Herausforderungen einer vergleichenden Gesprächsforschung.
Dieser Beitrag zeigt, inwieweit im Projekt „Paronymwörterbuch“ korpuslinguistische und kognitiv-semantische Elemente bei der Entwicklung einer neuen Online-Ressource berücksichtigt wurden. Damit sollen lexikologische und lexikografische Aspekte miteinander erfolgreich verbunden und die Kluft zwischen linguistischer Theorie und redaktioneller Praxis etwas geschlossen werden. Konzeptuell ausgerichtete Angaben, die linguistische und enzyklopädische Informationen eng miteinander verknüpfen, werden in Korpusdaten ermittelt, interpretiert und z. T. abstrahiert. Sprachliches und außersprachliches Wissen lassen sich gemeinsam abspeichern. Dadurch ist es möglich, kontextuell abhängige sprachliche Informationen mit konzeptuellen Realisierungen und mit diskursiv-thematischen Besonderheiten zusammen nachzuschlagen. Darüber hinaus werden in diesem Beitrag anhand eines Beispiels wichtige dynamische Funktionalitäten des neuen Nachschlagewerkes „Paronyme – Dynamisch im Kontrast“ vorgestellt. So wird gezeigt, wie Artikelanordnungen variieren und verschiedene Perspektiven auf linguistische Phänomene eingenommen werden können. Um Informationen bedarfsgerecht und interessenspezifisch abrufen zu können, wurde eine multifunktionale Ressource geschaffen, die sehr flexibel auf verschiedene Nachschlagesituationen reagieren kann und den Bedürfnissen der Nutzer/innen gerechter wird.
In recent decades, the investigation of spoken language has become increasingly important in linguistic research. However, the spoken word is a fleeting phenomenon which is difficult to analyse and which requires an elaborate process of examination and appraisal. The Institute for the German Language (Institut für Deutsche Sprache) has the largest collection of recordings of spoken German, the German Speech Archive (Deutsches Spracharchiv [DSAv]). Up to now, the inadequate processing and accessibility of the valuable material held by the DSAv has been regarded as its major shortcoming. A solution to this problem is at hand now that a start has been made with the systematic modernization of the DSAv and, in particular, with the digitalization of its material. In recent years, we have been able to systematically exploit the unique opportunities provided by a new and easier form of access to the spoken language via the recorded sound signal, which can be realized digitally in the computer, and its linkage to the corresponding texts and documentary data. Through the integration of the existing data about the corpora and of the written versions of the texts into an information and full text database and through the linking of these data with the acoustic signal itself, it is now possible for us to construct a data pool which allows a better documentation of the material and provides rapid internal and external access to the sound recordings. Processed in such a way, the material of the German Speech Archive can now be regarded as having been saved for posterity. As a result, entirely new areas of inquiry and entirely new research perspectives have been opened up. This is true both for the work of the Institute itself and for linguistic research in German as a whole.
The present thesis investigates the syntagmatic relations of certain Finnish emotion verbs that are formed by the derivational suffix -ua/-yä (e.g. suuttua ‘get angry’, pelästyä ‘get frightened’). Prototypically, the suffix expresses reflexivity, but in the case of the “inchoative” emotion verbs, it indicates a change of state on behalf of the experiencer, from a non-emotional state to an emotional state.
Im Rahmen der korpusgestützten Lexikografie stellt die Kookkurrenzanalyse ein bewährtes Verfahren dar, um Massendaten aus Korpora im Corpus-driven-Ansatz zu einem Einzelstichwort vorzustrukturieren. Wie diese Daten im redaktionellen lexikografischen Prozess in die Wortartikelproduktion einfließen können, wurde beispielsweise beim allgemeinen einsprachigen Online-Wörterbuch elexiko erprobt, dokumentiert und umgesetzt. Für das Wörterbuch „Paronyme - Dynamisch im Kontrast“ bildet die Kookkurrenzanalyse gleichfalls einen Ausgangspunkt für die Arbeit an Wortartikeln, allerdings unter anderen Voraussetzungen: Der folgenreichste Unterschied in methodischer Hinsicht ist, dass im Paronymwörterbuch mindestens zwei Stichwörter vergleichend gegenübergestellt werden, um so semantische Ähnlichkeiten und Unterschiede explizit zu machen. Im Beitrag wird diskutiert, wie die Verfahren der Kookkurrenzanalyse und des nachfolgenden Vergleichs für die praktische Artikelarbeit beim Paronymwörterbuch variiert, spezifiziert und nutzbar gemacht wurden.
Digitale Korpora haben die Voraussetzungen, unter denen sich Wissenschaftler mit der Erforschung von Sprachphänomenen beschäftigen, fundamental verändert. Umfangreiche Sammlungen geschriebener und gesprochener Sprache bilden mittlerweile die empirische Basis für mathematisch präzise Generalisierungen über zu beschreibende Wirklichkeitsausschnitte. Das Datenmaterial ist hochkomplex und besteht neben den Rohtexten aus diversen linguistischen Annotationsebenen sowie außersprachlichen Metadaten. Als unmittelbare Folge stellt sich die Konzeption adäquater Recherchelösungen als beträchtliche Herausforderung dar. Im vorliegenden Buch wird deshalb ein datenbankbasierter Ansatz vorgestellt, der sich der Problematiken multidimensionaler Korpusrecherchen annimmt. Ausgehend von einer Charakterisierung der Anforderungsmerkmale linguistisch motivierter Suchen werden Speicherungs- und Abfragestrategien für mehrfach annotierte Korpora entwickelt und anhand eines linguistischen Anforderungskatalogs evaluiert. Ein Schwerpunkt liegt dabei in der Einführung problemorientierter Segmentierung und Parallelisierung.
Sentiment Analysis is the task of extracting and classifying opinionated content in natural language texts. Common subtasks are the distinction between opinionated and factual texts, the classification of polarity in opinionated texts, and the extraction of the participating entities of an opinion(-event), i.e. the source from which an opinion emanates and the target towards which it is directed. With the emerging Web 2.0 which describes the shift towards a highly user-interactive communication medium, the amount of subjective content on the World Wide Web is steadily increasing. Thus, there is a growing need for automatically processing this type of content which is provided by sentiment analysis. Both natural language processing, which is the task of providing computational methods for the analysis and representation of natural language, and machine learning, which is the task of building task-specific classification models on the basis of empirical data, may be instrumental in mastering the challenges of the automatic sentiment analysis of written text. Many problems in sentiment analysis have been proposed to be solved with machine learning methods exclusively using a fairly low-level feature design, such as bag of words, containing little linguistic information. In this thesis, we examine the effectiveness of linguistic features in various subtasks of sentiment analysis. Thus, we heavily draw from the insights gained by natural language processing. The application of linguistic features can be applied on various classification methods, be it in rule-based classification, where the linguistic features are directly encoded as a classifier, in supervised machine learning, where these features complement basic low-level features, or in bootstrapping methods, where these features form a rule-based classifier generating a labeled training set from which a supervised classifier can be trained. In this thesis, we will in particular focus on scenarios where the combination of linguistic features and machine learning methods is effective. We will look at common text classification tasks, both coarse-grained and fine-grained, and extraction tasks.
While good results have been achieved for named entity recognition (NER) in supervised settings, it remains a problem that for low resource languages and less studied domains little or no labelled data is available. As NER is a crucial preprocessing step for many natural language processing tasks, finding a way to overcome this deficit in data remains of great interest. We propose a distant supervision approach to NER that is both language and domain independent where we automatically generate labelled training data using gazetteers that we previously extracted from Wikipedia. We test our approach on English, German and Estonian data sets and contribute further by introducing several successful methods to reduce the noise in the generated training data. The tested models beat baseline systems and our results show that distant supervision can be a promising approach for NER when no labelled data is available. For the English model we also show that the distant supervision model is better at generalizing within the same domain of news texts by comparing it against a supervised model on a different test set.
Einführende Bemerkungen
(1974)
Am 7. und 8. September fand an der Universität Basel die 4. Sektionentagung der Gesellschaft für Angewandte Linguistik (GAL) statt. Eine der 15 hier vertretenen Sektionen war die Migrationslinguistik, die von Peter Rosenberg (Frankfurt (Oder)) und Christoph Schroeder (Potsdam) geleitet wurde. Die sechs Vorträge dieser Sektion thematisierten laufende Projekte zur Spracharbeit mit Geflüchteten und ihre ersten Ergebnisse, die Gegenstand dieses Berichts sind.
Zur Einführung
(1979)
Tourlex: ein deutsch-italienisches Fachwörterbuch zur Tourismussprache für italienische DaF-Lerner
(2019)
Tourlex is a specialized bilingual online dictionary under construction hosted at the University of Mannheim with a particular focus on collocations and multi-word units. The languages included are German and Italian, but because of the need for online dictionaries of tourism language (Flinz 2015: 56) the framework is open to the inclusion of other languages. Tourlex is a corpus-based dictionary, i.e. the primary sources will be corpora, in particular a proper bilingual comparable corpus analysed with the tools Sketch Engine and Lexpan, and the freely accessible corpus DeReKo. The aim of this paper is to give an overview of the main actions (already done but also in planning), according to the phases of the lexicographical process of a dictionary under construction. The description of each phase will be enriched by examples taken from the project, showing also how the decisions taken to satisfy the needs of the user, the Italian learner of German as a foreign language, had influenced the microstructure of the entries. We conclude with a final reflection on the data, facts, and ongoing problems.
Opinion holder extraction is one of the most important tasks in sentiment analysis. We will briefly outline the importance of predicates for this task and categorize them according to part of speech and according to which semantic role they select for the opinion holder. For many languages there do not exist semantic resources from which such predicates can be easily extracted. Therefore, we present alternative corpus-based methods to gain such predicates automatically, including the usage of prototypical opinion holders, i.e. common nouns, denoting for example experts or analysts, which describe particular groups of people whose profession or occupation is to form and express opinions towards specific items.
In der natürlichen Sprachverarbeitung haben Frage-Antwort-Systeme in der letzten Dekade stark an Bedeutung gewonnen. Vor allem durch robuste Werkzeuge wie statistische Syntax-Parser und Eigennamenerkenner ist es möglich geworden, linguistisch strukturierte Informationen aus unannotierten Textkorpora zu gewinnen. Zusätzlich werden durch die Text REtrieval Conference (TREC) jährlich Maßstäbe für allgemeine domänen-unabhängige Frage-Antwort-Szenarien definiert. In der Regel funktionieren Frage-Antwort-Systeme nur gut, wenn sie robuste Verfahren für die unterschiedlichen Fragetypen, die in einer Fragemenge vorkommen, implementieren. Ein charakteristischer Fragetyp sind die sogenannten Ereignisfragen. Obwohl Ereignisse schon seit Mitte des vorigen Jahrhunderts in der theoretischen Linguistik, vor allem in der Satzsemantik, Gegenstand intensive Forschung sind, so blieben sie bislang im Bezug auf Frage-Antwort-Systeme weitgehend unerforscht. Deshalb widmet sich diese Diplomarbeit diesem Problem. Ziel dieser Arbeit ist zum Einen eine Charakterisierung von Ereignisstruktur in Frage-Antwort Systemen, die unter Berücksichtigung der theoretischen Linguistik sowie einer Analyse der TREC 2005 Fragemenge entstehen soll. Zum Anderen soll ein Ereignis-basiertes Antwort-Extraktionsverfahren entworfen und implementiert werden, das sich auf den Ergebnissen dieser Analyse stützt. Informationen von diversen linguistischen Ebenen sollen daten-getrieben in einem uniformen Modell integriert werden. Spezielle linguistische Ressourcen, wie z.B. WordNet und Subkategorisierungslexika werden dabei eine zentrale Rolle einnehmen. Ferner soll eine Ereignisstruktur vorgestellt werden, die das Abpassen von Ereignissen unabhängig davon, ob sie von Vollverben oder Nominalisierungen evoziert werden, erlaubt. Mit der Implementierung eines Ereignis-basierten Antwort-Extraktionsmoduls soll letztendlich auch die Frage beantwortet werden, ob eine explizite Ereignismodellierung die Performanz eines Frage-Antwort-Systems verbessern kann.
Über "Diglossie"
(1976)
Plädoyer für die Entwicklung einer digital-lexikografischen Kompetenz im Fremdsprachenunterricht
(2019)
The aim of this paper is to promote an explicit and active development of digital-lexicographical competence in foreign language teaching. The results of two online surveys conducted as part of the research project DICONALE-COMBIDIGILEX in connection with the teaching and learning process of German as a foreign language (= DaF) provide a comparative insight into the behaviour and attitude of both teachers and learners of DaF on the topic “Use of lexicographical resources in the process of DaF-acquisition”. The evaluation of the surveys shows, that the digitallexicographical competences in the process of DaF-acquisition must be promoted more intensively, since the existing lexicographic offer is not optimally used for teaching purposes both on the part of the teachers and on the part of the learners. To this end, the following three main lexicographical competences will be examined from a methodological-didactic and application-oriented perspective: (i) Adequate selection of the electronic resource regarding the communicative situation, (ii) development of disambiguation strategies for reception in L2 or translation from L2 and (iii) development of strategies for production and translation into L2. This research will ultimately lead to a debate on the use of the dictionary in the digital environment in the DaF-teaching and discuss its actual influence on the learning process.
This paper discusses new perspectives for a usage-based paremiology from a corpus-linguistic point of view. Using the example of proverb patterns, it shows different degrees of fixedness and proverb quality in German-English contrast. An interesting insight is that proverb similarities and differences can also be described by restrictions of semi-abstract schemes.
Just like most varieties of West Germanic, virtually all varieties of German use a construction in which a cognate of the English verb 'do' (standard German 'tun') functions as an auxiliary and selects another verb in the bare infinitive, a construction known as 'do'-periphrasis or 'do'-support. The present paper provides an Optimality Theoretic (OT) analysis of this phenomenon. It builds on a previous analysis by Bader and Schmid (An OT-analysis of 'do'-support in Modern German, 2006) but (i) extends it from root clauses to subordinate clauses and (ii) aims to capture all of the major distributional patterns found across (mostly non-standard) varieties of German. In so doing, the data are used as a testing ground for different models of German clause structure. At first sight, the occurrence of 'do' in subordinate clauses, as found in many varieties, appears to support the standard CP-IP-VP analysis of German. In actual fact, however, the full range of data turn out to challenge, rather than support, this model. Instead, I propose an analysis within the IP-less model by Haider (Deutsche Syntax - generativ. Vorstudien zur Theorie einer projektiven Grammatik, Narr, Tübingen, 1993 et seq.). In sum, the 'do'-support data will be shown to have implications not only for the analysis of clause structure but also for the OT constraints commonly assumed to govern the distribution of 'do', for the theory of non-projecting words (Toivonen in Non-projecting words, Kluwer, Dordrecht, 2003) as well as research on grammaticalization.
The article shows how the topic of dictionaries can be dealt with in German language teaching and how this subject has the potential to acquaint learners with a descriptive and data-driven perspective on language. The project Denkwerk, realized as cooperation among the Institute for German Language, the University of Mannheim and two regional secondary schools, fostered the students’ intellectual
curiosity and their interest in discovering linguistic details. Using empirical methods like corpus analysis, pupils learned both how to write wiki-based dictionary articles on their own and how to publish them in the Denktionary, the dictionary of the project. Our contribution describes the didactic and organisational framework of the project, its aims and contents, its schedule of events, as well as the structure of dictionary articles in the Denktionary, and the observed advantages of such a wikibased system.
In the past two decades, more and more dictionary usage studies have been published, but most of them deal with the question what users appreciate about dictionaries, which dictionaries they use and which information they need in specific situations. These studies presuppose that users indeed consult lexicographic resources. However, language teachers and lecturers of linguistics often have the impression that students use too few high-quality dictionaries in their every-day work. Against this background, we started an international cooperation project to collect empirical data evaluating that impression. Our aim was to evaluate what students (here from the Romance language area) actually do when they correct language problems. We used a new methodological setting to do this (screen recording with a thinking-aloud task). The empirical data we gained offers a broad insight into what language users really do when solving language-related tasks today.
In the project LeGeDe („Lexik des gesprochenen Deutsch”), we are developing a corpus-based lexicographical resource focusing on features of the lexicon of spoken German. To investigate the expectations of future users, two studies were conducted: interviews with a smaller group of experts and a large-scale online survey. We report on selected results, mainly from the online survey and with a focus on the learning perspective. We want to show if and to which extent the L2-learners’
expectations differ from those of native speakers and in which aspects the two groups agree. We also want to give an outlook on the possibilities that will be available to learners in the planned lexicographical resource.
Zur Kontextualisierung von sozialen Kategorien und Stereotypen in der sprachlichen Interaktion
(1995)
Im vorliegenden Aufsatz untersuche ich gesprächsanalytisch Ausbildungsinteraktionen in einer beruflichen Qualifizierungsmaßnahme, die wir im Rahmen des IDS-Projekts „Deutsch im Beruf: Die sprachlich-kommunikative Integration von Flüchtlingen“ wissenschaftlich begleitet haben. Unser Projekt startete gleich zu Beginn des Jahres 2016, also kurz nachdem die große Gruppe der Fluchtmigranten 2015 nach Deutschland kam. Somit können wir bei unserer Studie den Integrationsprozess der Geflüchteten von Anfang an dokumentieren und die wichtigsten Integrationsetappen bezüglich ihrer sprachlichen und kommunikativen Anforderungen, Implikationen und Abläufe detailliert analysieren. Sehr früh haben sich dabei neben den sprachlichen Integrationskursen vor allem die vielfältigen, bundesweit angebotenen beruflichen Qualifizierungsmaßnahmen als die Orte herauskristallisiert, an denen die ersten wichtigen Weichen hinsichtlich der beruflichen und sozialen Integration der Flüchtlinge gestellt werden. Ziel unseres Vorhabens ist die Untersuchung der mündlichen Kommunikation in beruflichen Kontexten in Bezug auf die sprachlichen und kommunikativen Anforderungen, die spezifischen Praktiken, die zur Bearbeitung dieser Anforderungen eingesetzt werden, und die typischen Probleme, die in der Interaktion durch mangelnde Sprachbeherrschung, Verständigungsprobleme und erwartungsinkongruente Interaktionspraktiken entstehen.
»Fremdenfeindlichkeit« ist ein Thema, mit dem sich PsychologInnen, SoziologInnen, Politologlnnen sowie Kommunikations- und Sprachwissenschafterlnnen - teilweise transdisziplinär, teilweise sogar im engeren Sinn interdisziplinär - auseinandersetzen. Ich will im Folgenden versuchen, aus einer spezifischen soziolinguistischen Sicht, die gesprächsanalytisch und ethnographisch geprägt ist, einen Beitrag zum Verständnis von kommunikativen Vorgängen der sozialen Ablehnung und Ausgrenzung sowie von den Anstrengungen zu ihrer Überwindung zu leisten. Die Prämisse lautet: Phänomene wie stereotype Negativbilder von Fremden bzw. Vorurteile werden in Kommunikationsprozessen geformt, verbreitet, als Alltagswissen stabilisiert, in ihrem strategischen Potenzial erfahren und als Handlungsorientierung und Legitimation eingesetzt.
Dieser Beitrag soll auf einen Verknüpfungsbereich von Grammatik und Pragmatik, speziell Gesprächsanalyse hinweisen, der sich in der Forschung der letzten fünfzehn Jahre als sehr fruchtbar erwiesen hat, zumindest für die Pragmatik und eine kommunikativ-funktional orientierte Grammatikkonzeption (vgl. dazu auch Zifonun et al. 1997). Äußerungsstrukturelle, insbesondere grammatische Gesichtspunkte spielen für die Verfahren des gesprächsanalytischen Spurenlesens im Umgang mit Dokumenten der Kommunikationswirklichkeit eine große Rolle, und die Systematisierung der dabei anfallenden Befunde macht Fortschritte. Für die folgenden Überlegungen beziehe ich mich auf die Verteilung von Redebeiträgen, das zentrale Arbeitsfeld der klassischen Konversationsanalyse. Dabei spielt die Frage der Vollständigkeit von Redebeiträgen bzw. Äußerungsstrukturen eine wichtige Rolle. Und hier gibt es eine fruchtbare Verknüpfungsstelle zwischen Gesprächsanalyse und Grammatik.
Eine am Gebrauch orientierte Sprachbeschreibung ist auch in der Grammatik mit sprachlicher Variation und mit Veränderungen des Gebrauchs konfrontiert. Anhand dreier Beispiele aus dem zentralen Bereich der deutschen Grammatik soll gezeigt werden, dass sich in der Variation, die man dort beobachtet, eine funktionale Nutzung des vorhandenen Inventars darstellt. Diese funktionale Nutzung ist dadurch gekennzeichnet, dass seltenere und daher synchron auffälligere Konstruktionen für spezifische Funktionen genutzt werden. Der Genitiv ist tatsächlich aus formalen Gründen seiner Morphologie auffällig. Er ist nicht vom Dativ unterschieden beim Femininum, doppelt markiert bei den starken Maskulina und Neutra und nur beschränkt bildbar im Plural. Diese Eigenheiten beschränken seine Nutzung als normaler Kasus. Gerade aber die auffällige Markierung mit dem Element {-(e)s} hat dazu geführt, dass der Genitiv nun zur Anzeige genereller Abhängigkeit genutzt wird, und zwar als Genitivattribut wie als unmarkierte Form bei einer Gruppe von Präpositionen (wie ‚dank‘, ‚trotz‘, ‚wegen‘, ‚entlang‘ usw.). Beim zweiten Fall, dem Verhältnis von starken und schwachen Verben, zeigt sich, dass der Übergang von der starken zur schwachen Flexion, die erkennbar den Normalfall im morphologischen System darstellt, gerade häufige und in ihrer Bedeutung grundlegende Verben (wie ‚geben‘, ‚nehmen‘ usw.) nicht betrifft, so dass die starke Flexion als Markierung für solch einen zentralen Status gelten kann. Der dritte Punkt hängt damit zusammen: das Ausgreifen der ‚würde‘-Form als Konjunktiv II (auch bei gut markierten starken Verben) ist so im größeren Zusammenhang der Nutzung von Klammerformen zu sehen.
Das Konzept von Dominanz bezieht sich auf soziale Beziehungen, die entweder auf bereits etablierten Machtverhältnissen basieren oder solche herzustellen versuchen. Dominanz im Gespräch kann sich in bestimmten Interaktionseigenschaften manifestieren, z.B. in der ständigen Beanspruchung von Rederecht, der konsistenten thematischen und perspektivischen Steuerung, der Kontrolle von Partneraktivitäten oder dem Verhindern von Initiativen anderer u.ä..
Im Folgenden werde ich mich auf eine der Möglichkeiten konzentrieren, auf das Herstellen von Dominanz durch das Dominantsetzen von Perspektiven. Durch das konsistente Dominantsetzen der eigenen Perspektive auf einen thematischen Gegenstand oder Aspekte davon ist es möglich, zumindest in Bezug auf diesen Gegenstand Dominanz über die anderen Gesprächspartner zu etablieren.
Formelhaftes Sprechen gehört zu den Konstituenten des kommunikativen sozialen Stils von Angehörigen einer sozialen Welt „kleiner Leute“ aus der Mannheimer Innenstadt. Nach einem Überblick über die verwendeten Formeltypen wird dargestellt, welche Formeln welchen Typs in welcher Funktion beim Prozess der sozialen Kategorisierung und bei der Beziehungsregulierung eingesetzt werden. Die beiden Verwendungsbereiche sind wesentlich für die Ausprägung des sozialen Stils.
In this paper, I present some aspects of a youth group’s construction of a communicative style and show how the group’s stylistic repertoire changes over the course of their growing into adulthood. My paper is based on an ethnographic case study of a group of Turkish girls, the ‘Powergirls’, who grew up in a typical Turkish migrant neighborhood in the inner city of Mannheim, Germany. The aim of the case study was, on the basis of biographical interviews with group members and long-term observation of group interactions, to reconstruct the formation of an ethnically defined ‘ghetto’-clique and its style of communication and to describe the group’s development into educated, modern, German-Turkish young women. In this process, a change in the group’s stylistic repertoire could be observed.
In diesem Beitrag wird das Redewiedergabe-Korpus (RW-Korpus) vorgestellt, ein historisches Korpus fiktionaler und nicht-fiktionaler Texte, das eine detaillierte manuelle Annotation mit Redewiedergabeformen enthält. Das Korpus entsteht im Rahmen eines laufenden DFG-Projekts und ist noch nicht endgültig abgeschlossen, jedoch ist für Frühjahr 2019 ein Beta-Release geplant, welches der Forschungsgemeinschaft zur Verfügung gestellt wird. Das endgültige Release soll im Frühjahr 2020 erfolgen. Das RW-Korpus stellt eine neuartige Ressource für die Redewiedergabe-Forschung dar, die in dieser Detailliertheit für das Deutsche bisher nicht verfügbar ist, und kann sowohl für quantitative linguistische und literaturwissenschaftliche Untersuchungen als auch als Trainingsmaterial für maschinelles Lernen dienen.
This paper describes a rule-based approach to detect direct speech without the help of any quotation markers. As datasets fictional and non-fictional texts were used. Our evaluation shows that the results appear stable throughout different datasets in the fictional domain and are comparable to the results achieved in related work.
Konstanze Marx/Axel Schmidt (Mannheim) folgen in ihrem Beitrag „Making Let’s Plays watchable - Praktiken des stellvertretenden Erlebbar-Machens von Interaktivität in vorgeführten Video-spielen“ einem - angesichts der Datenqualität multimodal erweiterten - interaktionsanalytischen Ansatz. Dabei wird der Frage nachgegangen, wie die für das Genre konstitutive Ent-Interaktivisierung entschärft wird. Hierfür wird in Sing-le-Let’s Plays die begleitende Moderation zentral gesetzt, in Multi-Let’s Plays die Interaktion zwischen den Beteiligten.
Interaktionsanalytische Zugänge zu medienvermittelter Kommunikation. Zur Einleitung in diesen Band
(2019)
Die Kategorie „Shitstorm“ ist eine Zuschreibung, die aus dem Diskurs unter den Interagierenden einerseits und den boulevardjournalistischen Berichten andererseits heraus entsteht. Die nachweislich heterogene Konstitution des diskursiven Phänomens scheint bei den Shitstorm-Etikettierungen vernachlässigt zu werden, vielmehr rücken die gezeigten negativen Emotionen in den Fokus. Im vorhegenden Aufsatz wird zunächst anhand einiger exemplarischer Shitstorms gezeigt, dass diese aus verschiedenen sprachlichen Handlungen und unterschiedlichen Werturteilen bestehen. Im Anschluss wird auf die mediale Berichterstattung eingegangen, die Äußerungen mit hohem Beleidigungspotenzial pars pro toto für den Diskurs behandelt und es werden mögliche Auswirkungen dieser Vorgehensweise skizziert, etwa im Hinblick auf die Wahrnehmung berechtigter Kritik.
Aus der etwas apophtegmatischen Formulierung des Titels lässt sich die Behauptung ableiten, eine Grammatik der politischen Sprache gebe es nicht. Das kann nun dreierlei heißen: Zum ersten könnte gemeint sein, es gebe keine politische Sprache - womit sich die Frage nach ihrer Grammatik a fortiori erübrigt. Weniger voraussetzungsreich und daher unmittelbar plausibler erscheint ein Verständnis, nach der es zwar eine politische Sprache gebe, diese aber keine eigene Grammatik habe. Vielleicht ist auch die dritte Lesart nur eine spezifischere Interpretation dieser zweiten Lesart: Es sei gar nicht so wichtig, was der Terminus „politische Sprache“ genau bedeute und was ihm in einer wahrscheinlichen Wirklichkeit entspreche. Auf jeden Fall sei sprachliches Interagieren im politischen Raum ein Spezialfall öffentlichen Agierens (unter spezifischen gesellschaftlichen/politischen Konstellationen) insgesamt und zeige daher entsprechende grammatische Präferenzen. Wir wollen in diesem Beitrag Argumente für diese letzte Position versammeln.
Bild-Makros bzw. 4Memes sind ein präsentes Internetphänomen im Social Web. In sozialen Netzwerken wie Facebook werden diese multimodalen, kulturell geprägten Kommunikate nicht nur veröffentlicht und verbreitet, sondern zudem von NutzerInnen u.a. in Form von Kommentaren rezipiert und interaktiv ausgehandelt. Diese kommunikative Einheit aus einem einerseits eindimensionalen, statischen Kommunikat mit einer andererseits dynamischen, interaktiven Aushandlung stellt dabei eine interdisziplinäre Herausforderung für eine differenzierte (medien-)linguistische Betrachtung dar, der mit einer Kombination von Sehflächenanalyse, Gattungsanalyse sowie Konversations- bzw. Gesprächsanalyse begegnet wird. In dieser Arbeit wird anhand erhobener Daten von Facebook-Gemeinschaftsseiten gezeigt, welche formalen, syntaktisch-semantischen und pragmatisch-funktionalen Mechanismen bei der Kombination der Zeichenressourcen Text und Bild zur Bedeutungskonstitution des (humoristischen) Medienprodukts zusammenspielen, dessen Verständnis auch auf intertextuellem, kulturellem (Kontext- und Gattungs)Wissen basiert. Im Anschluss daran wird dargelegt, wie sich über geteiltes Wissen verfügende RezipientInnen mit technischen und sprachlichen Folgehandlungen auf ein Bild-Makro beziehen und welche sprachlichen Mittel und kommunikativen Verfahren wie Fokussierungsaufforderung und -bestätigung, Bewertung und Übertragung auf die gemeinsame Lebenswelt Anwendung finden.
Graphenbasierte Ansätze spielen in der digitalen Lexikografie eine immer stärkere Rolle. Essentiell für die Erstellung, Verwaltung und Nutzung graphenbasierter lexikografischer Ressourcen ist jedoch eine leistungsfähige und zugleich einfach zu handhabende Zugriffsstruktur, die Suchen nach komplexen Konstellationen in solchen Graphen ermöglicht. Für heutige Graphendatenbanken stehen zahlreiche Abfragesprachen zur Verfügung, deren Verwendung jedoch verhältnismäßig voraussetzungsreich ist.
Das Poster stellt einen webbasierten, frei konfigurierbaren Query Builder vor, der die Formulierung semantisch sehr komplexer Suchabfragen an eine (mit dem Tinkerpop-Standard kompatible) Property-Graphendatenbank ermöglicht. Die Abfrage erfolgt durch einfaches visuell-interaktives Zusammenstellen hierarchisch angeordneter Abfrageelemente und liefert Antworten in Echtzeit. Dabei wird von den Komplexitäten der verwendeten Low-level-Abfragesprache Gremlin abstrahiert. Der Query Builder ist ein zentrales Modul eines derzeit entwickelten Open-Source-Softwaresystems zur Verwaltung und Online-Publikation graph-erweiterter lexikografischer Ressourcen.
Der Gegenstand der folgenden Untersuchung eröffnet Wege, die in (mindestens) drei Richtungen führen. Literatur-, Geschichts- und Sprachwissenschaft sind diejenigen Professionen, deren Pfade nicht beschritten werden k ö n n e n, sondern m ü s s e n. Wie Akzente gesetzt werden, verraten Untertitel. Politische Sprache einer literarischen Gattung zeigt: Es handelt sich um eine sprachwissenschaftlich ausgerichtete Studie über die literarische Gattung des politischen Liedes aus der historisch bedeutsamen Zeit um 1848, wobei sprachwissenschaftlich heißt, die Sprache ausgewählter Lieder unter spezifischen Fragestellungen und Konzepten textlinguistisch zu analysieren und zu beschreiben.
„[…] die Partei soll weg. Aber sonst soll sich nicht viel am Regierungssystem ändern. Man hat an sich nichts gegen das Hakenkreuz und auch nichts gegen Hitler, wiewohl die Kritik jetzt Hitler keineswegs noch immer ausnimmt. Oft heißt es: ,Er hats a net zusammenbracht.‘" (Deutschlandberichte II, 896)
Dieser Bericht vom August 1935 gibt die Haltung der Bevölkerung zum NS-Regime mit in diesem Fall dialektal gefärbter Alltagssprache wieder. Unter anderem Texte wie dieser sind Grundlage eines Projekts, dessen Konzeption im Folgenden vorgestellt wird. Der Projektplan sieht eine kulturlinguistische Verortung des Gegenstands ‚Sprachliche Sozialgeschichte 1933 bis 1945‘ vor. Die Umsetzung des kulturlinguistischen Zugangs richtet sich auf zwei Kernideen, die eine Idee ist die der Perspektivendifferenz - wir werden unsere Analysen nach Akteuren unterschieden anlegen. Die zweite Kernidee orientiert die Analysen an dem anthropologischen Leitkonzept des Authentischen. Dieses Forschungskonzept werde ich im Folgenden erläutern.
Das Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK), zugänglich über die Datenbank für Gesprochenes Deutsch (DGD), strebt den Status eines Referenzkorpus für den aktuellen mündlichen Sprachgebrauch im deutschen Sprachraum an. Es enthält einen wachsenden Bestand von Audio- und Videoaufnahmen authentischer Gespräche aus verschiedenen Bereichen des gesellschaftlichen Lebens. Die Dokumentation und Repräsentation von Interaktions- und Sprecherinformationen sind bereits seit den Anfängen des Korpusaufbaus integrale Bestandteile von FOLK. Allerdings lag bislang kein ausgearbeitetes, empirisch erprobtes und vollständig in die Korpusinfrastruktur integrierbares Stratifikationskonzept vor. Mit dem vorliegenden Artikel wird ein solches Konzept vorgeschlagen. Es knüpft an frühere Konzeptionen an und wurde anhand der vorhandenen Daten überprüft, korrigiert und erweitert. Dieser Prozess verlief parallel zur Überarbeitung des XML-Schemas zur Metadatendokumentation, um die konkrete Implementierung vorzubereiten. Im Anschluss an eine Skizzierung genereller Aspekte des Korpusdesigns werden die stratifikationsleitenden und ergänzenden Parameter vorgestellt und erläutert. Abschließend werden Ansätze und Strategien zum Korpusausbau diskutiert.
Einleitung
(2018)
Innerhalb der für das Paronymprojekt aufgestellten Stichwortliste lassen sich zahlreiche Wortbildungsmuster erkennen. Deren Übereinstimmung von theoretischer Wortbildung und praktischem Sprachgebrauch soll in diesem Beitrag anhand von zehn auf -freit-los endender Paronympaare untersucht werden. Es wird gezeigt, dass diese Wortbildungsgruppe in vielfacher Hinsicht in sich heterogen ist. So lässt sich weder eine Präferenz für eine Endung ausmachen, noch entsprechen die Endungen einer einheitlichen Bedeutung. Auch werden die Paronyme mal synonym, mal teil-synonym und mal semantisch gänzlich unabhängig voneinander verwendet. In diesem Beitrag wird anhand von konkreten Korpusbeispielen gezeigt, wie unterschiedlich sich die einzelnen, mit gleichen Endungen gebildeten Paronympaare kontextuell verhalten.
Der Beitrag führt in das Sonderheft „Paronymie im deutschen Sprachgebrauch“ ein und bündelt gewonnene Einblicke in die lexikologische, korpusanalytische sowie lexikografische Arbeit des Projektes „Paronymwörterbuch“. Er stellt wichtige Erkenntnisse zu Paronymen, ihrem Vorkommen, ihrer Ermittlung und Darstellung, aber auch zu den Methoden der Bedeutungsanalyse, ihren diskursiven Funktionen und dem Umgang mit Verwechslungspotenzial zusammenfassend dar. Vorgestellt werden Forschungsergebnisse, die sich vor allem auf die Verwendung von Paronymen in der öffentlichen Gebrauchssprache beziehen. Aber auch explorative Korpusverfahren werden erläutert sowie innovative, dynamische e-lexikografische Darstellungen präsentiert. Ausgewählte Probleme, die sowohl im Kontext der theoretischen Auseinandersetzung als auch mit der redaktionellen Erfassung von Paronymen auftreten, werden hier diskutiert. Das Sonderheft verbindet dabei theoretische und praktische lexikografische Herangehensweisen an ein bisher linguistisch wenig dokumentiertes Phänomen, das Muttersprachler/innen und Fremdsprachenlernende gleichermaßen verunsichert. Neben den Rückblicken werden ebenso die Ausblicke auf die kommenden Jahre und die damit verbundenen Fragestellungen des Projektes skizziert.
Das Phänomen der Paronymie hat bisher weder aus Sicht der Korpuslinguistik noch aus Sicht der kognitiven Linguistik große Beachtung gefunden. Bisherige Untersuchungen und erste Definitionsversuche stützten sich nicht auf empirische Analysen, sondern auf ein differenziertes strukturalistisches Modell, das, wenn nicht ausschließlich so doch primär, mit morphologischen Kriterien operiert (vgl. Läzärescu 1999). Sprachgebrauchsbasierte Befunde blieben bislang hingegen unberücksichtigt. Hier setzt dieser Artikel an: Er skizziert aus korpusbasierter und sprachgebrauchsorientierter Perspektive erste Ergebnisse zur Bestimmung und Unterscheidung von Arten der Paronymie hinsichtlich ihrer kommunikativen Funktion, ihrer Diskurszugehörigkeit sowie ihrer semantischen Eigenschaften. Ausgangspunkt ist eine kurze Darstellung des einzigen bisher vorliegenden Klassifikationsmodells von Läzärescu. Anschließend werden unterschiedliche Typen von Paronymen vorgestellt, die im Zuge der empirischen Analysen herausgearbeitet werden konnten. Der Beitrag plädiert für eine differenzierte Betrachtung des komplexen Phänomens, denn die eindimensionale, morphologisch motivierte Klassifikation wird dem Untersuchungsgegenstand nicht gerecht, da zudem sprachgebrauchs- sowie kognitiv-orientierte Parameter für eine Definition bzw. Typologisierung herangezogen werden müssen.
This paper asks whether and in which ways managing coordination tasks in traffic involve the accomplishment of intersubjectivity. Taking instances of coordinating passing an obstacle with oncoming traffic as the empirical case, four different practices were found.
1. Intersubjectivity can be presupposed by expecting others to stick to the traffic code and other mutually shared expectations.
2. Intersubjective solutions emerge step by step by mutual responsive-anticipatory adaptation of driving decisions.
3. Intersubjectivity can be accomplished by explicit interactive negotiation of passages.
4. Coordination problems can be solved without relying on intersubjectivity by unilateral, responsive-anticipatory adaptation to others’ behaviors.
We present a technique called event mapping that allows to project text representations into event lists, produce an event table, and derive quantitative conclusions to compare the text representations. The main application of the technique is the case where two classes of text representations have been collected in two different settings (e.g., as annotations in two different formal frameworks) and we can compare the two classes with respect to their systematic differences in the event table. We illustrate how the technique works by applying it to data collected in two experiments (one using annotations in Vladimir Propp’s framework, the other using natural language summaries).
Wir diskutieren in diesem Beitrag Implikationen, mit denen man zu tun bekommt, wenn man kleinste Formen situativer Vergesellschaftung – wir sprechen von kommunikativen Minimalformen – untersucht. Kommunikative Minimalformen sind kurzzeitige, nur wenige Sekunden dauernde, gemeinsam konstituierte Interaktionsereignisse. Ungeachtet ihrer Kürze weisen sie zum einen eine komplexe Interaktionsstruktur auf. Zum anderen besitzen sie auch eine klare soziale Implikation und eigene Wertigkeit. In dem hier untersuchten Fall, bei dem Passanten durch ein offenes Fenster in einen Privatraum blicken und dabei ertappt werden, zeigt sich diese soziale Implikativität als moralische Kommunikation im Sinne der interaktiven Bearbeitung eigenen Fehlverhaltens.
We explore the feasibility of contextual healthiness classification of food items. We present a detailed analysis of the linguistic phenomena that need to be taken into consideration for this task based on a specially annotated corpus extracted from web forum entries. For automatic classification, we compare a supervised classifier and rule-based classification. Beyond linguistically motivated features that include sentiment information we also consider the prior healthiness of food items.
Im Jahr 2015 ist die 7. Auflage des Duden-Aussprachewörterbuchs erschienen, für deren Bearbeitung erstmals die MitarbeiterInnen des IDS Projekts „Gesprochenes Deutsch“ verantwortlich zeichneten. Im vorliegenden Beitrag werden die konzeptionellen und inhaltlichen Veränderungen beschrieben, die in der Neuauflage umgesetzt wurden. Sie lassen sich im Wesentlichen unter dem Motto „Hinwendung zur Deskriptivität“ zusammenfassen. Neben den üblichen lexikografischen Prozeduren wie der Streichung veralteter Lemmata und der Erweiterung des Lemmabestands um bisher nicht dokumentierte Wörter sind zunächst im Einleitungsteil Kapitel ergänzt, vollständig überarbeitet oder völlig neu erstellt worden. Systematische Veränderungen wurden bei verschiedenen Transkriptionskonventionen vorgenommen (z.B. bei der Notation der Diphthonge). Die wesentlichste Neuerung ist jedoch die Einbeziehung von empirischen Daten zum deutschen Gebrauchsstandard vor allem aus dem Projektkorpus „Deutsch heute“, die es ermöglicht haben, fundierte Angaben zur regionalen Verbreitung von Aussprachevarianten zu machen.
Rechtschreibreform
(1996)
In dem Beitrag wird über die Prozeduren der Reformvorbereitung nach der Wiener Konferenz 1994 und öffentliche Reaktionen darauf berichtet, werden die letzten Änderungen genannt sowie Termine und Modalitäten der Reformeinführung und geplante Aktivitäten in der Übergangszeit bis zum Jahr 2005 erläutert.
Bei den vom Vorsitzenden der Kommission für Fragen der Sprachentwicklung des Instituts für deutsche Sprache zur Eröffnung der Tagung „Bewertungskriterien für die Sprachbewertungen” vorgetragenen allgemeinen Überlegungen geht es um die Notwendigkeit der Sprachkritik, um Maßstabe für die Sprachberatung, um die Rolle der Schule, der Medien und der sprachberatenden Institutionen und um anzustrebende Qualifikationen von Sprachkritikern und Sprachberater.
One problem of data-driven answer extraction in open-domain factoid question answering is that the class distribution of labeled training data is fairly imbalanced. In an ordinary training set, there are far more incorrect answers than correct answers. The class-imbalance is, thus, inherent to the classification task. It has a deteriorating effect on the performance of classifiers trained by standard machine learning algorithms. They usually have a heavy bias towards the majority class, i.e. the class which occurs most often in the training set. In this paper, we propose a method to tackle class imbalance by applying some form of cost-sensitive learning which is preferable to sampling. We present a simple but effective way of estimating the misclassification costs on the basis of class distribution. This approach offers three benefits. Firstly, it maintains the distribution of the classes of the labeled training data. Secondly, this form of meta-learning can be applied to a wide range of common learning algorithms. Thirdly, this approach can be easily implemented with the help of state-of-the-art machine learning software.
Theories of lexical decomposition assume that lexical meanings are complex. This complexity is expressed in structured meaning representations that usually consist of predicates, arguments, operators, and other elements of propositional and predicate logic. Lexical decomposition has been used to explain phenomena such as argument linking, selectional restrictions, lexical-semantic relations, scope ambiguities, and the inference behavior of lexical items. The article sketches the early theoretical development from noun-oriented semantic feature theories to verb-oriented complex decompositions. It also deals with a number of theoretical issues, including the controversy between decompositional and atomistic approaches to meaning, the search for semantic primitives, the function of decompositions as definitions, problems concerning the interpretability of decompositions, and the debate about the cognitive status of decompositions.
Neuer Wortschatz
(2019)
Neues von KorAP
(2019)
In Adjektivreihungen ohne Determinierer ('in neuem korpuslinguistisch-em/-en Licht') und in Fügungen aus Pronominaladjektiv und attributivem Adjektiv ('mancher ausbildend-er/-e Betrieb') treten Schwankungen zwischen Parallel- und Wechselflexion auf, die von einem komplexen Zusammenspiel verschiedener grammatischer und außergrammatischer Faktoren beeinflusst werden. Auf der Basis einer explorativen Korpusstudie werden im vorliegenden Beitrag zunächst einschlägige Einflussgrößen identifiziert und deren Effektstärken geschätzt. Im Anschluss wird gezeigt, dass entgegen bisherigen Annahmen nach Pronominaladjektiven keine allgemeine Tendenz zur schwachen Flexion vorliegt, sondern mit Ausnahme des Kontextes Dat. Sg. Mask./Neutr. diachron eine Ausbreitung der Parallelflexion (stark/stark) beobachtbar ist.
Im vorliegenden Beitrag werden Sagbarkeitsphänomene aus dem Social Web vorgestellt, die als brisante Daten eingestuft werden. Dabei werden intraterritoriale Selbstoffenbarungsphänomene von extraterritorialen Phänomenen unterschieden, die dazu beitragen, andere Personen zu diskreditieren und zu verleumden. Angesicht der spezifischen Kommunikationsbedingungen im World Wide Web wird der Sagbarkeitsraum kontinuierlich erweitert. Dabei spielt die Diffusion der beiden Aktionsräume Handlungsraum und Zeigeraum eine prominente Rolle. Als Aufgabe für die Linguistik wird herausgearbeitet, die Konturen dieser Räume für die Wahrnehmung der Sprachbenutzer*innen zu schärfen.
Diachrone Wortschatzveränderungen werden in der Regel exemplarisch anhand bestimmter Phänomene oder Phänomenbereiche untersucht. Wir widmen uns der Frage, ob und wie Wandelprozesse auch auf globaler Ebene, also ohne sich auf bestimmte Wortschatzausschnitte festzulegen, messbar sind. Zur Untersuchung dieser Frage nutzen wir das Spiegel-Korpus, in dem alle Ausgaben der Wochenzeitschrift seit 1947 enthalten sind. Dabei gehen wir auf grundlegende Herausforderungen ein, die es dabei zu lösen gilt, wie die Verteilung sprachlicher Daten und die Folgen unterschiedlicher Subkorpusgrößen, d.h. im konkreten Fall die variierende Größe des Spiegelkorpus über die Zeit hinweg. Wir stellen ein Verfahren vor, mit dem wir in der Lage sind, flankiert von einem „Lackmustest“ zur Überprüfung der Ergebnisse, Wortschatzwandelprozesse bis auf die Mikroebene, d.h. zwischen zwei Monaten oder gar Wochen, quantitativ nachzuvollziehen.
Thema des Beitrags ist die Frage, wie in einer quantitativen Herangehensweise die Spracheinstellungen von linguistischen Laien erfasst werden können. Das IDS hat 2017/18 im Rahmen des Sozio-oekonomischen Panels (SOEP) des Deutschen Instituts für Wirtschaftsforschung (DIW) eine neue bundesweite Repräsentativerhebung zu Spracheinstellungen durchgeführt. Im Beitrag präsentieren wir erste Ergebnisse dieser Erhebung und verknüpfen sie mit früheren Erhebungen. In drei Abschnitten befassen wir uns mit der Bewertung von regionalen Varietäten des Deutschen und der Bewertung des Standards, mit Meinungen zu sprachlichem Gendern sowie, aus einer methodischen Perspektive, mit der Erhebung von sprachlichen Daten im deutschen Mikrozensus.
Der Beitrag untersucht das Zusammenspiel von funktionaler Spezialisierung und phonetischer Reduktion bei pragmatischen Markern aus komplexen Syntagmen. Im Fokus steht die Reduktionsform [ˈzɐmɐ], die potenziell auf die Marker <ich sag mal> oder <sagen wir (mal)> zurückgeführt werden konnte. Anhand einer Analyse ihrer phonetischen Reduktionsformen und Interaktionsfunktionen wird gezeigt, dass eine Rückführung auf <sagen wir (mal)> plausibler ist. Im Anschluss werden Realisierungen der Wortverbindung ‚sagen wir‘ als kompositioneller Matrixsatz mit Verwendungen als pragmatischer Marker verglichen. Die Befunde deuten auf einen Einfluss der Funktion der Zielstruktur auf ihre lautliche Realisierung hin, was sich als Indiz für einen unabhängigen Zeichenstatus der reanalysierten Markerverwendung interpretieren lasst.