Refine
Year of publication
- 2015 (318) (remove)
Document Type
- Part of a Book (137)
- Article (77)
- Conference Proceeding (39)
- Book (37)
- Part of Periodical (10)
- Working Paper (8)
- Other (7)
- Master's Thesis (1)
- Preprint (1)
- Review (1)
Keywords
- Deutsch (116)
- Korpus <Linguistik> (52)
- Verb (21)
- Gesprochene Sprache (16)
- Interaktion (14)
- Wörterbuch (14)
- Computerlinguistik (13)
- Computerunterstützte Lexikographie (13)
- Englisch (13)
- Annotation (12)
Publicationstate
- Veröffentlichungsversion (141)
- Zweitveröffentlichung (20)
- Postprint (13)
- Preprint (2)
- Erstveröffentlichung (1)
Reviewstate
Publisher
- Institut für Deutsche Sprache (50)
- De Gruyter (32)
- de Gruyter (25)
- Lang (12)
- Narr Francke Attempto (11)
- Narr (10)
- Springer (7)
- Winter (7)
- Frank & Timme (4)
- IDS (4)
Pogled u e-leksikografiju
(2015)
U radu se daje pregled temeljnih pojmova i klasifikacija u području e-leksikografije. Donosi se klasifikacija e-rječnika, prikazuje se leksikografski proces izrade e-rječnika te pregled najraširenijih sustava za izradu rječnika (DWS) i sustava za pretragu korpusa (CQS). Kao primjer dobre prakse detaljnije se opisuje mrežni rječnik elexiko (Institut za njemački jezik u Mannheimu): prikazuju se njegovi ciljevi i namjena, teorijske i metodološke postavke, moduli te mogućnosti uporabe. Kao moguća osnova za izradu korpusno utemeljenoga e-rječnika hrvatskoga jezika koji bi bio u skladu s najrecentnijim leksikografskim (i uopće lingvističkim) teorijama i praksama prikazuje se rad na mrežnome leksičko-semantičkome repozitoriju hrvatskoga jezika (baza semantičkih okvira, predodžbenih shema, kognitivnih primitiva i leksičkih jedinica) u okviru projekta Repozitorij metafora hrvatskoga jezika.
Sprichwörter im Gebrauch
(2015)
Moderne Grammatiktheorien sind statisch, d.h. skriptizistisch und synchronizistisch. Dies bedeutet, dass deren Beschreibungsapparat auf die Strukturen gegenwärtiger Schrift- und Standardsprachen zugeschnitten ist. Im Beitrag wird für einen dynamischen, d.h. nichtskriptizistischen und nichtsynchronizistischen, Perspektivenwechsel in der Grammatikforschung plädiert, der auf folgenden empirisch fundierten Überlegungen basiert:
1. Literalisierung ist eine kulturelle Universalie, die kognitiv verankert ist.
2. Es sind unterschiedliche Phasen der Literalisierung zu unterscheiden.
3. Literalisierung im Allgemeinen und die Phasen der Literalisierung im Besonderen haben Konsequenzen für die grammatische Struktur.
4. Die Interpretation von grammatischen Strukturen ist nur vor der Folie der jeweiligen Phase der Literalisierung möglich.
5. Ein dynamisches Grammatikmodell muss das historische Verhältnis auch begrifflich abbilden. Dies wird an zentralen grammatischen Konzepten wie Aggregation vs. Integration, Wortgruppe vs. Phase und an der Wortstellung (Verbklammer, Stellungsfeldermodell, Satzrandglieder) veranschaulicht.
6. Historisch ist von einem dynamischen Verhältnis von Online- und Offlinesyntax, von syntaktischer Zeitlichkeit und syntaktischer Räumlichkeit, auszugehen. Was zu einer bestimmten Zeit und in einer bestimmten Varietät als Onlinestruktur zu interpretieren ist, hängt von dem jeweiligen historischen Verhältnis von Online- und Offlinestrukturen ab.
When formulating a request for an object, speakers can choose among different grammatical resources that would all serve the overall purpose. This paper examines the social contexts indexed and created by the choice of the turn format can I have x to request a shared good (the pepper grinder, a tissue from a box on the table, etc.) in British English informal interaction. The analysis is based on a video corpus of approximately 25 h of everyday interaction among family and friends. In its home environment, a request in the format can I have x treats the other as being in control over the relevant material object, a control that is the contingent outcome of ongoing courses of action. This contingent control over a shared good produces an obligation to make it available. This analysis is supported by an examination of similarly formatted request turns in other languages, of can I have x in another interactional environment (after a relevant offer has been made) in British English, and of deviant cases. The results highlight the intimate connection of request format selection to the present engagements of (prospective) request recipients.
This study examines the pitch profiles of French learners of German and German learners of French, both in their native language (L1), and in their respective foreign language (L2). Results of the analysis of 84 speakers suggest that for short read sentences, French and German speakers do not show pitch range differences in their native production. Furthermore, analyses of mean f0 and pitch range indicate that range is not necessarily reduced in L2 productions. These results are different from results reported in prior research. Possible reasons for these differences are discussed.
Satz - oberflächlich
(2015)
Das hier vorgestellte oberflächennahe Satzkonzept orientiert sich an der Definition der IDS-Grammatik: Sätze sind Konstruktionsformen, die mindestens aus einem finiten Verb und seinen Komplementen bestehen. Das semantische Korrelat des Satzes ist die Proposition, bestehend aus Prädikat und Argumenten. Die Unterscheidung der englischsprachigen Tradition zwischen sentence und clause bzw. die entsprechende Unterscheidung zwischen proposition und phrase im Französischen wird in diesem Ansatz durch die Opposition zwischen ,Vollsatz‘ und ,Teilsatz‘ erfasst. Oberflächenorientierte Satzdefinitionen können, im Gegensatz zu der hier vertretenen intern-syntaktischen Definition, auch – in syntaktischer Hinsicht – auf externen Merkmalen beruhen, nämlich auf orthografisch-prosodischen Merkmalen oder dem Kriterium der syntaktischen Unabhängigkeit gemäß Bloomfields bekannter Satzdefinition. In typologischer Perspektive zeichnen sich Sätze durch einen „satzkonstituierenden Akt“ (Sasse 1991, 77) aus bzw. eine spezifische morphosyntaktische Konstellation, die zum Ausdruck des Sachverhalts hinzukommen muss. Unter pragmatischer Perspektive ist der Satz die prototypische Mitteilungseinheit. Er kann dekontextualisiert werden, während andere Mitteilungsformen nur in ihrem jeweiligen Kontext interpretierbar sind. Ihrem semiotischen Status nach sind Sätze komplexe sprachliche Zeichen. Die ihnen zugrundeliegenden Regeln oder Konstruktionen hingegen haben keinen Zeichencharakter.
Voll Energie stecken und voller Geigen hängen - seltsame Phrasentypen und ungewöhnliche Valenzmuster
(2015)
Der Beitrag soll Anregungen geben, wie zwei verschiedene Forschungsstränge zusammengeführt werden könnten, die in der deutschen und französischen germanistischen Linguistik intensiv verfolgt werden. Es handelt sich dabei um die Forschung zu so genannten „Ellipsen“ und die Forschung zur Informations - Struktur bzw. Thema-Rhema-Struktur. Ausgehend von einem Ausschnitt aus einem literarischen Text wird eine kleine Typologie für Sequenzellipsen und ,selbstständige Text-KM‘, wie ich sie im Anschluss an die IDS-Grammatik nennen möchte, vorgestellt. Bei der informationsstrukturellen Analyse wird neben der thematischen Struktur auch der Informationsstatus herangezogen, sodass ein vergleichsweise komplexes Bild der Dynamik im Text nachgezeichnet werden kann. Am Beispiel zweigliedriger .interner Prädikationen wird gezeigt, dass sich hinter der Oberfläche der zwei möglichen Typen der Linearisierung mehrere Strategien der Informationsstrukturierung verbergen. Es bietet sich an, bei deren Beschreibung aus heuristischen Gründen nach dem Modell der Linearstruktur des Verbalsatzes zu verfahren.
Speakers’ linguistic experience is for the most part experience with language as used in conversational interaction. Though highly relevant for usage-based linguistics, the study of such data is as yet often left to other frameworks such as conversation analysis and interactional linguistics (Couper-Kuhlen and Selting 2001). On the basis of a case study of salient usage patterns of the two German motion verbs kommen and gehen in spontaneous conversation, the present paper argues for a methodological integration of quantitative corpus-linguistic methods with qualitative conversation analytic approaches to further the usage-based study of conversational interaction.
Im Fokus dieses Aufsatzes steht die Bereitstellung und Illustration eines Werkzeugs für die Visualisierung bzw. Kontrastierung syntaktischer Strukturen im Lehramtsstudium sowie im (fächerübergreifenden, integrativen) Deutsch- oder Fremdsprachenunterricht höherer Jahrgangsstufen (Sek. II, Ende Sek. I): das „Generalisierte Lineare Satzmodell“ (kurz Gelisa-Modell)1. Das Gelisa-Modell, das auf dem topologischen Satzmodell fußt (vgl. u.a. Reis 1980, Höhle 1986, Pafel 2009, Wöllstein 2010), ermöglicht es, wie bei einem Baukastensystem jegliche Satztypen aus verschiedenen Sprachen (und dann natürlich auch aus einer spezifischen Einzelsprache) in direkter visueller Gegenüberstellung miteinander zu vergleichen. Dabei werden die Sätze und Satztypen distinkter Sprachen unabhängig von der jeweiligen Komplexität auf ein einheitliches Muster bezogen. Die für die grammatische Wohlgeformtheit erforderlichen linearen Strukturzusammenhänge können so auf schematisch anschauliche Weise erfasst und insbesondere zur Basis und zum Ankerpunkt grammatischer Unterrichtsdiskurse und Werkstätten gemacht werden.
Grammatik - explorativ
(2015)
Die am IDS aufgebauten großen Korpora ermöglichen es, vermeintlich freie und aus grammatikographischer Sicht eben dadurch problematische Varianten des Standarddeutschen systematisch in den Untersuchungsfokus zu stellen. Mit spezifischen Techniken und Werkzeugen kann die korpuslinguistische Arbeit dabei eine recht theorieunabhängige Beschreibung einzelner Varianten grammatischer Phänomene leisten und deren Häufigkeit bestimmen; damit stellt sie auch eine transparente quantitativ-statistische Basis für die Validierung von in der einschlägigen Literatur vertretenen Hypothesen bereit. Wie im Beitrag gezeigt werden soll, ist die Auswertung von Korpusdaten beträchtlichen Umfangs mit modernen computerlinguistischen und statistischen Methoden ganz besonders geeignet, grammatische und außersprachliche Faktoren zu identifizieren, deren Interaktion die Wahl zwischen den vermeintlich freien Alternativen bestimmt.
Ausgangspunkt in der (komparativen) Untersuchung sind nicht-kanonische Verknüpfungen mit sein im Deutschen, die durch das Muster NP+sein+Infinitiv (Martine ist spazieren) repräsentiert sind und in der Literatur mit dem Terminus Absentiv bezeichnet werden. Das Muster NP+sein+Infinitiv - so wird behauptet - weise eine spezifische Bedeutung auf, die in anderen Fällen bspw. durch den Ausdruck weg explizit gemacht werden (Martine ist weg spazieren), aber im sog. Absentiv gerade ohne overte Determination bleibt. Geprägt hat den Terminus Absentiv De Groot (2000). Der Gegenstand selbst ist inzwischen in vielen Arbeiten aufgegriffen worden (cf. Abraham 2007, Haslinger 2007, Vogel 2007,2009). Mit wenigen Ausnahmen wird seit De Groot - so auch in fast allen darauf folgenden Arbeiten - die Auffassung vertreten, dass es sich beim Absentiv um eine (universelle) grammatische Kategorie handle, der als Komplex eine Abwesenheitsbedeutung (als Konstruktionsbedeutung) zugeschrieben wird.1 Im Deutschen insbesondere läge der Absentiv als „Vollkategorie“ vor, die sich immer aus der o.g. Form zusammensetze. Die folgende komparative Untersuchung zum Deutschen, Französischen und Italienischen widerspricht der Sichtweise einer grammatischen Kategorie für den Absentiv und skizziert eine Analyse, aus der sich Struktur und Bedeutung für das Deutsche kompositional ableiten lassen, die auch dem Sprachvergleich Stand hält, bzw. durch den Sprachvergleich Unterstützung erfährt. Unter Betrachtung einer Reihe von syntaktischen und interpretativen Eigenschaften der Instanziie- rungen des sog. Absentivs im Deutschen und den Vergleichssprachen, wird weiter gezeigt, dass einige empirische Behauptungen nicht ausreichend motiviert sind - speziell zum Französischen mit einer sog. Teilkategorie Absentiv. Auf der Grundlage der Finalitätshypothese wird dann auch die Abwesenheitsinterpretation als durch eine Implikatur hervorgerufen erschlossen (cf. Fortmann/Wöll- stein 2013, Wöllstein 2013). Der Blick auf Daten in den romanischen Sprachen Italienisch und Französisch zeigt darüber hinaus, dass die Möglichkeiten der Realisierung der beteiligten grammatischen Komponenten übereinzelsprachlich unterschiedlich beschränkt sind. Im Beitrag wird auch und gerade mit Blick auf informationsstrukturelle Phänomene dafür plädiert, von Verkürzungen abzusehen und weder Phänomene durch Konstruktionsbedeutung zu interpretieren, statt sie konventionalisierfen Lesarten zuzuordnen, noch eine Konstruktionsbedeutung direkt grammatischen Einheiten zuzuweisen, ohne dass die Strukturen ausführlichen grammatischen Untersuchungen unterzogen werden.
Die öffentliche Akzeptanz und Wirkung natur- und technikwissenschaftlicher Forschung hängt grundlegend davon ab, ob sich die Ziele und Forschungsergebnisse an die Öffentlichkeit vermitteln lassen. Doch die Inhalte aktueller Forschungsvorhaben sind für ein Laienpublikum oft nur schwer zugänglich und verständlich. Vor dem Hintergrund, die gesellschaftliche Diskussion natur- und technikwissenschaftlicher Forschung zu verbessern, untersuchen und bewerten wir im Projekt PopSci – Understanding Science einen wichtigen Sektor des populärwissenschaftlichen Diskurses in Deutschland empirisch. Hierfür identifizieren wir die linguistischen Merkmale deutscher populärwissenschaftlicher Texte durch korpusbasierte Methoden und untersuchen deren Effekt auf die kognitive Verarbeitung der Texte durch Laien. Dazu setzen wir Vor- und Nachwissenstests ein. Außerdem messen wir die Blickbewegungen der Leserinnen und Leser, während sie populärwissenschaftliche Texte lesen. Aus dieser Kombination von unterschiedlichen Methoden versuchen wir, erste Empfehlungen zur Verbesserung des linguistischen Stils und der Wissensrepräsentation populärwissenschaftlicher Texte abzuleiten.
Reading corpora are text collections that are enriched with processing data. From a corpus linguist’s perspective, they can be seen as an extension of classical linguistic corpora with human language processing behavior. From a psycholinguist’s perspective, reading corpora allow to test psycholinguistic hypotheses on subsets of language and language processing as it is ‘in the wild’ – in contrast to strictly controlled language material in isolated sentences, as used in most psycholinguistic experiments. In this paper, we will investigate a relevance-based account of language processing which states that linguistic structures, that are embedded deeper syntactically, are read faster because readers allocate less attention to these structures.
Pädiatrische Gespräche
(2015)
Maskierung
(2015)
Aus forschungsethischen Gründen müssen die Daten aus Gesprächsaufzeichnungen, die Metadaten sowie die Transkripte maskiert werden. Der Beitrag stellt Arbeitsschritte der Maskierung vor, die auf den Erfahrungen bei der Datenaufbereitung der Daten des Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) für die Veröffentlichung in der Datenbank für Gesprochenes Deutsch (DGD) basieren.
Transkriptionsaufwand
(2015)
Während die Erhebung von Gesprächsdaten zwar zeitaufwändig, aber doch noch relativ zügig zu bewältigen ist, handelt es sich bei der Transkription um eine langwierige Aufgabe, die oft unterschätzt wird. Damit Studierende, Promovierende sowie WissenschaftlerInnen, die Exposés, Arbeitspläne usw. aufstellen oder Zuschüsse für Projekte beantragen müssen, zukünftig über fundiertere Werte verfügen und damit realistischere Aussagen über den benötigten Aufwand (zeitliche wie personelle Ressourcen) treffen können, stellt der Beitrag die Ergebnisse einer Erhebung des Transkriptionsaufwandes im FOLK-Projekt vor.
In dem Beitrag werden Argumentstrukturmuster mit inneren Objekten genauer untersucht. Als innere Objekte werden Akkusativobjekte bezeichnet, die gelegentlich von normalerweise intransitiven Verben zu sich genommen werden und deren Objekts-Nomen mit dem Verb etymologisch, morphologisch und/oder semantisch verwandt ist. Das heißt, es handelt sich um Sätze wie Maria lachte ihr fröhliches Lachen, Alles geht seinen geordneten Gang oder Er kämpft einen aussichtslosen Kampf. Wie man an diesen wenigen Beispielsätzen bereits sehen kann, wird mit dem inneren Objekt etwas explizit zum Ausdruck gebracht, was bereits in der Verbbedeutung implizit enthalten bzw. angelegt ist, denn lachen bedeutet ja ‘Freude zum Ausdruck bringen, indem man ein Lachen von sich gibt’ und kämpfen heißt ‘einen Kampf führen, Kampfhandlungen vollziehen, sich mit jmdm. oder etw. auseinandersetzen’.
This paper investigates evidence for linguistic coherence in new urban dialects that evolved in multiethnic and multilingual urban neighbourhoods. We propose a view of coherence as an interpretation of empirical observations rather than something that would be ‘‘out there in the data’’, and argue that this interpretation should be based on evidence of systematic links between linguistic phenomena, as established by patterns of covariation between phenomena that can be shown to be related at linguistic levels. In a case study, we present results from qualitative and quantitative analyses for a set of phenomena that have been described for Kiezdeutsch, a new dialect from multilingual urban Germany. Qualitative analyses point to linguistic relationships between different phenomena and between pragmatic and linguistic levels. Quantitative analyses, based on corpus data from KiDKo (www.kiezdeutschkorpus.de), point to systematic advantages for the Kiezdeutsch data from a multiethnic and multilingual context provided by the main corpus (KiDKo/Mu), compared to complementary corpus data from a mostly monoethnic and monolingual (German) context (KiDKo/Mo). Taken together, this indicates patterns of covariation that support an interpretation of coherence for this new dialect: our findings point to an interconnected linguistic system, rather than to a mere accumulation of individual features. In addition to this internal coherence, the data also points to external coherence: Kiezdeutsch is not disconnected on the outside either, but fully integrated within the general domain of German, an integration that defies a distinction of ‘‘autochthonous’’ and ‘‘allochthonous’’ German, not only at the level of speakers, but also at the level of linguistic systems.
Abtönung
(2015)
Abstufung
(2015)
The present study introduces articulography, the measurement of the position of tongue and lips during speech, as a promising method to the study of dialect variation. By using generalized additive modeling to analyze articulatory trajectories, we are able to reliably detect aggregate group differences, while simultaneously taking into account the individual variation across dozens of speakers. Our results on the basis of Dutch dialect data show clear differences between the southern and the northern dialect with respect to tongue position, with a more frontal tongue position in the dialect from Ubbergen (in the southern half of the Netherlands) than in the dialect of Ter Apel (in the northern half of the Netherlands). Thus articulography appears to be a suitable tool to investigate structural differences in pronunciation at the dialect level.
Opinion Holder and Target Extraction for Verb-based Opinion Predicates – The Problem is Not Solved
(2015)
We offer a critical review of the current state of opinion role extraction involving opinion verbs. We argue that neither the currently available lexical resources nor the manually annotated text corpora are sufficient to appropriately study this task. We introduce a new corpus focusing on opinion roles of opinion verbs from the Subjectivity Lexicon and show potential benefits of this corpus. We also demonstrate that state-of-the-art classifiers perform rather poorly on this new dataset compared to the standard dataset for the task showing that there still remains significant research to be done.
We present an approach for opinion role induction for verbal predicates. Our model rests on the assumption that opinion verbs can be divided into three different types where each type is associated with a characteristic mapping between semantic roles and opinion holders and targets. In several experiments, we demonstrate the relevance of those three categories for the task. We show that verbs can easily be categorized with semi-supervised graphbased clustering and some appropriate similarity metric. The seeds are obtained through linguistic diagnostics. We evaluate our approach against a new manually-compiled opinion role lexicon and perform in-context classification.
We examine the combination of pattern-based and distributional similarity for the induction of semantic categories. Pattern-based methods are precise and sparse while distributional methods have a higher recall. Given these particular properties we use the prediction of distributional methods as a back-off to pattern-based similarity. Since our pattern-based approach is embedded into a semi-supervised graph clustering algorithm, we also examine how distributional information is best added to that classifier. Our experiments are carried out on 5 different food categorization tasks.
In this article, we explore the feasibility of extracting suitable and unsuitable food items for particular health conditions from natural language text. We refer to this task as conditional healthiness classification. For that purpose, we annotate a corpus extracted from forum entries of a food-related website. We identify different relation types that hold between food items and health conditions going beyond a binary distinction of suitability and unsuitability and devise various supervised classifiers using different types of features. We examine the impact of different task-specific resources, such as a healthiness lexicon that lists the healthiness status of a food item and a sentiment lexicon. Moreover, we also consider task-specific linguistic features that disambiguate a context in which mentions of a food item and a health condition co-occur and compare them with standard features using bag of words, part-of-speech information and syntactic parses. We also investigate in how far individual food items and health conditions correlate with specific relation types and try to harness this information for classification.
Korrekte Verwendung konnektoraler Satzverknüpfungen ist insbesondere in Bezug auf die Textproduktion, aber auch für das Verständnis bzw. die Interpretation von Texten von essenzieller Bedeutung. Wenn nämlich einzelne Propositionen inhaltliche Bausteine von Texten sind, so spielen Satzverknüpfungen eine Rolle als strukturelle Bausteine. Das Anwenden des topologischen Modells im Schulunterricht ist nicht nur ein hilfreiches Mittel zur Veranschaulichung syntaktisch variablen Gebrauchs unterschiedlicher Klassen von Satzverknüpfungsmitteln, sondern auch die Möglichkeit, Schüler auf semantische, pragmatische und mediale Unterschiede bei der Interpretation und Verwendung von Satzverknüpfungen (u.a. auch im gesprochenen Deutsch) aufmerksam zu machen, die sich beispielsweise durch den Positionswechsel ergeben.
Formal learning in higher education creates its own challenges for didactics, teaching, technology, and organization. The growing need for well-educated employees requires new ideas and tools in education. Within the ROLE project, three personal learning environments based on ROLE technology were used to accompany “traditional” teaching and learning activities at universities. The test beds at the RWTH Aachen University in Germany, the School of Continuing Education of Shanghai Jiao Tong University in China, and the Uppsala University in Sweden differ in learning culture, the number of students and their individual background, synchronous versus distant learning, etc. The big range of test beds underlines the flexibility of ROLE technology. For each test bed, the learning scenario is presented and analyzed as well as the particular ROLE learning environment. The evaluation methods are described and the research results discussed in detail. The learned lessons provide an easy way to benefit from the ROLE research work which demonstrates the potential for new ideas based on flexible e-learning concepts and tools in “traditional” education.
1993 erscheint mit Langenscheidts Großwörterbuch Deutsch als Fremdsprache das erste eigens für nichtmuttersprachliche Deutschlerner konzipierte einsprachige Wörterbuch. Genau zwanzig Jahre später, 2013, geben Duden/Cornelsen das Duden - Basiswörterbuch Deutsch als Fremdsprache heraus. Damit könnte bereits der Schlussstein unter die kurze Epoche der DaF-Print-Lexikografie gesetzt sein, denn weitere Planungen für gedruckte DaF-Wörterbücher gibt es vonseiten der Verlage nicht. Das bedeutet allerdings nur ein Ende für die DaF-Wörterbücher in ihrer bisherigen Erscheinung, denn das Bedürfnis des Nachschlagens beziehungsweise der Bedarf an sprachlichen Daten bleiben weiterhin bestehen, solange Deutsch als Fremdsprache gelernt wird. Der Beitrag beschreibt, wie Wörterbücher ihre äußere Form ändern können, um unter den sich wandelnden gesellschaftlichen Bedingungen zu überleben. Dabei existieren zwei Möglichkeiten: Die Wörterbücher können entweder quasi unsichtbar werden, wenn sie in intelligenten Textumgebungen aufgehen, oder sie können in umfangreiche Lernportale integriert werden. Der Beitrag untersucht bestehende Angebote und macht Vorschläge für eine Weiterentwicklung dieser Wörterbücher.
This article reports on the on-going CoRoLa project, aiming at creating a reference corpus of contemporary Romanian (from 1945 onwards), opened for online free exploitation by researchers in linguistics and language processing, teachers of Romanian, students. We invest serious efforts in persuading large publishing houses and other owners of IPR on relevant language data to join us and contribute the project with selections of their text and speech repositories. The CoRoLa project is coordinated by two Computer Science institutes of the Romanian Academy, but enjoys cooperation of and consulting from professional linguists from other institutes of the Romanian Academy. We foresee a written component of the corpus of more than 500 million word forms, and a speech component of about 300 hours of recordings. The entire collection of texts (covering all functional styles of the language) will be pre-processed and annotated at several levels, and also documented with standardized metadata. The pre-processing includes cleaning the data and harmonising the diacritics, sentence splitting and tokenization. Annotation will include morpho-lexical tagging and lemmatization in the first stage, followed by syntactic, semantic and discourse annotation in a later stage.
To optimize the sharing and reuse of existing data, many funding organizations now require researchers to specify a management plan for research data. In such a plan, researchers are supposed to describe the entire life cycle of the research data they are going to produce, from data creation to formatting, interpretation, documentation, short-term storage, long-term archiving and data re-use. To support researchers with this task, we built DMPTY, a wizard that guides researchers through the essential aspects of managing data, elicits information from them, and finally, generates a document that can be further edited and linked to the original research proposal.
Wir können auch Hochdeutsch – Das Institut für Deutsche Sprache in Mannheim – ein Ort der Ideen
(2015)
In a project called "A Library of a Billion Words" we needed an implementation of the CTS protocol that is capable of handling a text collection containing at least 1 billion words. Because the existing solutions did not work for this scale or were still in development I started an implementation of the CTS protocol using methods that MySQL provides. Last year we published a paper that introduced a prototype with the core functionalities without being compliant with the specifications of CTS (Tiepmar et al., 2013). The purpose of this paper is to describe and evaluate the MySQL based implementation now that it is fulfilling the specifications version 5.0 rc.1 and mark it as finished and ready to use. Further information, online instances of CTS for all described datasets and binaries can be accessed via the projects website.
Introduction
(2015)
We analyze the linguistic evolution of selected scientific disciplines over a 30-year time span (1970s to 2000s). Our focus is on four highly specialized disciplines at the boundaries of computer science that emerged during that time: computational linguistics, bioinformatics, digital construction, and microelectronics. Our analysis is driven by the question whether these disciplines develop a distinctive language use—both individually and collectively—over the given time period. The data set is the English Scientific Text Corpus (scitex), which includes texts from the 1970s/1980s and early 2000s. Our theoretical basis is register theory. In terms of methods, we combine corpus-based methods of feature extraction (various aggregated features [part-of-speech based], n-grams, lexico-grammatical patterns) and automatic text classification. The results of our research are directly relevant to the study of linguistic variation and languages for specific purposes (LSP) and have implications for various natural language processing (NLP) tasks, for example, authorship attribution, text mining, or training NLP tools.
In a previous article (Faaß et al., 2012), a first attempt was made at documenting and encoding morphemic units of two South African Bantu languages, i.e. Northern Sotho and Zulu, with the aim of describing and storing the morphemic units of these two languages in a single relational database, structured as a hierarchical ontology. As a follow-up, the current article describes the implementation of our part-of-speech ontology. We give a detailed description of the morphemes and categories contained in the database, highlighting the need and reasons for a flexible ontology which will provide for both language specific and general linguistic information. By giving a detailed account of the methodology for the population of the database, we provide linguists from other Bantu languages with a road map for extending the database to also include their languages of specialization.
Digressions
(2015)
Der Beitrag von Bruno Strecker Digressions ist auf Französisch geschrieben (der Muttersprache von Jacqueline Kubczak) und handelt von unterschiedlichen Exkursen. Er macht die Verbindung zwischen Kommunikationssituation und Arten der Exkurse sichtbar und bietet eine darauf basierende Typologie der Exkurse an. In einem zweiten Schritt werden die formalen Möglichkeiten, einen Exkurs einzuleiten und zu formulieren, dargestellt (z. B. durch Appositionen, Parenthesen, festgelegte Ausdrucksformen wie A propos xxx, Ça me rappelle oder nicht eingebettete Phrasen). Schließlich zeigt er, wie man aus dem Exkurs wieder „in die Spur“ kommt.
Sinnrelationen wurden lange als stabile Beziehungen zwischen Wörtern betrachtet. Dabei zeigen gebrauchsorientierte Untersuchungen, dass Sinnrelationen dynamische Phänomene sind, die sich kommunikativen Bedürfnissen anpassen. Neuere Studien erforschen die Prozesse, die zur Herstellung von Gegensatz bzw. Ähnlichkeit erforderlich sind. Sie untersuchen variable Strukturen, ihre Funktionen sowie kontextuelle Bedingungen und erklären, warum einige Antonyme bessere Gegensatzpaare bilden als andere. Dieser Beitrag konzentriert sich auf deutsche und englische Synonyme und Antonyme aus korpus- und psycholinguistischer Perspektive. Im Mittelpunkt stehen Beschreibungen kontextbasierter und variabler Strukturen, in denen sinnverwandte Wörter regelhaft vorkommen. Es wird gezeigt, dass diese Strukturen über diverse Funktionen verfügen und dass mithilfe kognitiver Prozesse unterschiedlich stark konventionalisierte Muster entstehen. Traditionelle Klassifikationen und Definitionen werden im Lichte neuer empirischer Studien kritisch hinterfragt. Neuere Theorien, die sich um die Einbettung flexibler Beziehungen bemühen, werden erörtert.
In this paper, general problems with easily confused words among a language community are addressed. Serving as an example, the difficulties of semantic differentiation between the use of German sensibel and sensitiv are discussed. One the one hand, the question is raised as to how a speech community faces challenges of semantic shifts and how monolingual dictionaries document lexical items with similar semantic aspects. On the other hand, I will demonstrate the discrepancies of information on meaning as retrieved and interpreted from large corpus data. It will be shown how the semantics of words change and hence cause confusion among speakers. As a result, empirical evidence opens up several questions concerning the prescriptive vs. descriptive treatment of paronymic items such as sensibel/sensitiv and it demands different approaches to the lexicographic description of such words in future reference works.
The book investigates the diachronic dimension of contact-induced language change based on empirical data from Pennsylvania German (PG), a variety of German in long-term contact with English. Written data published in local print media from Pennsylvania (USA) between 1868 and 1992 are analyzed with respect to semantic changes in the argument structure of verbs, the use of impersonal constructions, word order changes in subordinate clauses and in prepositional phrase constructions.
The research objective is to trace language change based on diachronic empirical data, and to assess whether existing models of language contact make provisions to cover the long-term developments found in PG. The focus of the study is thus twofold: first, it provides a detailed analysis of selected semantic and syntactic changes in Pennsylvania German, and second, it links the empirical findings to theoretical approaches to language contact.
Previous investigations of PG have drawn a more or less static, rather than dynamic, picture of this contact variety. The present study explores how the dynamics of language contact can bring about language mixing, borrowing, and, eventually, language change, taking into account psycholinguistic processes in (the head of) the bilingual speaker.
During the second half of the 19th century, extended regions of the South Pacific came to be part of the German colonial empire. The colonial administration included repeated and diverse efforts to implement German as the official language in several settings (administration, government, education) in the colonial areas. Due to unfamiliar sociological and linguistic conditions, to competition with English as a(nother) prestigious colonizer language, and to the short time-span of the German colonial rule, these efforts rendered only little language-related effect. Nevertheless, some linguistic traces remained, and these seem to reflect in what areas language implementation was organized most thoroughly. The study combines two directions of investigation: First, taking a historical approach, legal and otherwise official documents and information are considered in order to understand how the implementation process was planned and (intended to be) carried out. Second, from a linguistic perspective, documented lexical borrowings and other traces of linguis tic contact are identified that can corroborate the historical findings by reflecting a greater effect of contact in such areas where the implementation of German was carried out most strictly. The goal of this paper is, firstly, to trace the political and missionary activities in language planning with regard to German in the colonial Pacific, rather similar to a modem language policy scenario when a new code of prestige or national unity is implemented. Secondly, these activities are evaluated in the face of the outcome that can be observed, in the historical practice as well as in long-term effects of language contact up until today.
Linguistic usage patterns are not just coincidental phenomena on the textual surface but constitute a fundamental constructional principle of language. At the same time, however, linguistic patterns are highly idiosyncratic in the sense that they tend to be item-specific and unpredictable, thus defying all attempts at capturing them by general abstract rules. […] What all these approaches [that deal with constructions, collocations, patterns, etc. K.S.] share, in addition to their interest in recurrent patterns, is a strong commitment to the value of usage, be it in the wider sense of usage as an empirical basis for sound linguistic analysis and description or in the narrower sense of usage as constituting the basis for the emergence and consolidation of linguistic knowledge. (Herbst et al. 2014: 1)
In consequence of the feasibility of studying language data in new quantitative dimensions, the phraseology faces a paradigm shift. The traditional focus on strongly lexicalized, often idiomatic multi-word expressions (MWE) has led to an overestimation of their unique status in the mental lexicon. The majority of MWEs are typical lexical realisations of templates (‘MW patterns’) that emerged from repeated usage and can be instantiated with ever changing lexical elements. The – primarily functional – pattern restrictions cannot always be predicted with rules, but are the result of recurring context factors. In this article, at first, it has been shown the nature and the interrelations of MW patterns that are reconstructed with complex corpus-driven methods. Furthermore, a vision of a new phraseography of MW pattern that described their hierarchies and functions based on authentic corpus data like KWIC bundles, slot filler tables and collocation profiles has been discussed.
We present a quantitative approach to disambiguating flat morphological analyses and producing more deeply structured analyses. Based on existing morphological segmentations, possible combinations of resulting word trees for the next level are filtered first by criteria of linguistic plausibility and then by weighting procedures based on the geometric mean. The frequencies for weighting are derived from three different sources (counts of morphs in a lexicon, counts of largest constituents in a lexicon, counts of token frequencies in a corpus) and can be used either to find the best analysis on the level of morphs or on the next higher constituent level. The evaluation shows that for this task corpus-based frequency counts are slightly superior to counts of lexical data.
Das Wörterbuch "Neuer Wortschatz" präsentiert den deutschen Wortschatz, der zwischen 2001 und 2010 aufgekommen und in die Allgemeinsprache eingegangen ist. Lexikografisch umfassend beschrieben sind mehr als 570 neue Wörter (z.B. Umweltzone, twittern), neue feste Wortverbindungen (z.B. grünes Rezept, etwas ist kein Ponyhof) und neue Bedeutungen etablierter Wörter (z.B. Heuschrecke 'Finanzinvestor', Stolperstein 'Gedenkstein'). Zu den aus herkömmlichen Wörterbüchern bekannten Angaben z.B. zur Aussprache, Grammatik, Bedeutung treten neue, z.B. zur Wortbildung, zu Enzyklopädischem, die den erhöhten Informationsbedarf in Bezug auf neuen Wortschatz befriedigen helfen. Zusätzlich finden sich neologismusspezifische Angaben zu Aufkommen und Ausbreitung im Erfassungszeitraum - unter Einbeziehung von Zeitverlaufsgrafiken - sowie zur Erstbuchung in einschlägigen Wörterbüchern.
Das Wörterbuch "Neuer Wortschatz" präsentiert den deutschen Wortschatz, der zwischen 2001 und 2010 aufgekommen und in die Allgemeinsprache eingegangen ist. Lexikografisch umfassend beschrieben sind mehr als 570 neue Wörter (z.B. Umweltzone, twittern), neue feste Wortverbindungen (z.B. grünes Rezept, etwas ist kein Ponyhof) und neue Bedeutungen etablierter Wörter (z.B. Heuschrecke 'Finanzinvestor', Stolperstein 'Gedenkstein'). Zu den aus herkömmlichen Wörterbüchern bekannten Angaben z.B. zur Aussprache, Grammatik, Bedeutung treten neue, z.B. zur Wortbildung, zu Enzyklopädischem, die den erhöhten Informationsbedarf in Bezug auf neuen Wortschatz befriedigen helfen. Zusätzlich finden sich neologismusspezifische Angaben zu Aufkommen und Ausbreitung im Erfassungszeitraum - unter Einbeziehung von Zeitverlaufsgrafiken - sowie zur Erstbuchung in einschlägigen Wörterbüchern.
Gegenstand des Beitrags sind Phraseologismen, die seit den 1990er-Jahren in den deutschen Wortschatz eingegangen sind und im Neoglogismenwörterbuch (www.owid.de) präsentiert werden. Dargestellt werden u.a. Funktionen von Phraseologismen wie Schließung von Benennungslücken und Ausdrucksverstärkung. Entstehungsprozesse wie Metaphorisierung und elliptische Kürzung, Wortbildungsprozesse auf der Basis von Phraseologismen sowie Einflüsse aus dem Englischen.
Der Trickster ist ein mythisch-literarischer Archetyp, dessen listenreicher, verwandlungsfähiger Charakter seit Ende des 19. Jahrhunderts Mythenforscher, Literaturwissenschaftler, Soziologen und Psychologen fasziniert. Erstmals wird in dieser Arbeit mit den Methoden der linguistischen Gesprächsanalyse und dem semiotischen Vergleich gezeigt, wie sich der Trickster als kommunikative Identität in Alltagsgesprächen manifestiert.
In den Gesprächen männlicher Erwerbsloser auf einem Hamburger Platz entsteht die Identität des Tricksters als Ausdruck und Bearbeitung sozialer Marginalisierungsprozesse: durch sprachliche Mittel, wie z. B. im Fiktionalisieren als Gestaltwandler und Doppelgänger, im Rätselspiel als ‚Meister des sprachlichen Kodes‘, im Klatschgespräch als ein die gesellschaftlichen Absurditäten karikierender Schelm. Damit knüpft die Arbeit an die linguistische Identitätsforschung an und eröffnet mit der Methode des kultursemiotischen Vergleichs zudem neue Perspektiven auf diese.
Vorwort
(2015)
Der Beitrag befasst sich mit der Beschwerdenexploration und Diagnosemitteilung als zentrale Elemente eines Arzt-Patient-Gesprächs. Damit verbunden sind verschiedene komplementäre Handlungsaufgaben, die von Arzt und Patient bearbeitet werden müssen. So ist es etwa Aufgabe des Arztes, beschwerdenrelevante Sachverhalte zu erfragen, die Ausführungen des Patienten mit dem eigenen medizinischen Fachwissen abzugleichen, körperliche Untersuchungen vorzunehmen und zu erläutern sowie prädiagnostische und schließlich diagnostische Mitteilungen zu formulieren. In den Aufgabenbereich des Patienten fallen indes Aktivitäten wie die Darstellung der Beschwerden vor dem Hintergrund des persönlichen Erfahrungs- und Erlebenswissens, die Relevanzmarkierung wichtiger Beschwerdenaspekte sowie die Legitimation des Arztbesuches. Eine adäquate Bearbeitung dieser Aufgaben ermöglicht einen Abgleich der verschiedenen Wissenswelten von Arzt und Patient und ebnet so den Weg für eine effektive therapeutische Zusammenarbeit.
The relative order of dative and accusative objects in older German is less free than it is today. The reason for this could be that speakers of the direct predecessor of Old High German organized the referents according to the Thematic Hierarchy. If one applies a Case Hierarchy Nom>Acc>Dat to this, the order Nom - Dat - Acc falls out. It becomes apparent that the status of the Thematic Hierarchy is not a factor governing underlying word order, but a factor inducing scrambling. Arguments from binding theory, whose validity is discussed, indicate that the underlying order is ‘accusative before dative’
Der Aufsatz untersucht die grammatische Gestaltung zweigliedriger Nominalgruppen mit quantifizierendem nominalem Erstglied (Nquant) und quantifiziertem, durch ein Adjektivattribut erweitertem, nominalem Zweitglied (Adj+N), z.B. (mit) einem Glas kaltem Wasser. In der deutschen Gegenwartssprache ist in solchen Fügungen mit Varianten zu rechnen: (mit) einem Glas kalten Wassers, (mit) einem Glas kaltes Wasser. Insgesamt lassen sich fünf Konstruktionstypen unterscheiden. Anhand einer Belegsammlung aus literarischen Prosatexten vom 17. bis zum 20. Jahrhundert wird insbesondere die quantitative Verteilung von Konstruktionen mit Genitiv vs. Kasusübereinstimmung ins Auge gefasst. Anders als bei Nquant+N-Gruppen ohne Adjektivattribut im Zweitglied zeigt sich ein kräftiger Anstieg im Anteil der Genitivkonstruktion vom 17. bis zum 19. und nur ein leichter Rückgang im 20. Jahrhundert. Dieser Befund stimmt nur zum Teil mit den Darstellungen in der Standardliteratur überein. Eine mögliche Erklärung für die quantitative Entwicklung der Genitivkonstruktion in der Literatursprache liegt im Einfluss normativer Grammatiken.
Diese Arbeit beschreibt und analysiert die soziale und sprachliche Welt von Orchestermusikern. Am Beispiel des „Mikrokosmos“ eines Orchesters untersucht sie das Zusammenspiel von beruflich-strukturellen Bedingungen, kulturell vermittelten Orientierungen und sprachlichen Handlungsmustern. Dabei werden das notwendige Hintergrundwissen über die soziale Kategorien, Leitbilder und Kriterien für Professionalität sowie die Handlungsdispositionen von Orchestermusikern dargestellt. Elemente einer historischen Entwicklung der Institution Orchester werden ebenso wie biografische Erfahrungen der Musiker und Musikerinnen auf ihre Relevanz für die Kommunikation im Orchester hin untersucht.
In this paper, I present the COW14 tool chain, which comprises a web corpus creation tool called texrex, wrappers for existing linguistic annotation tools as well as an online query software called Colibri2. By detailed descriptions of the implementation and systematic evaluations of the performance of the software on different types of systems, I show that the COW14 architecture is capable of handling the creation of corpora of up to at least 100 billion tokens. I also introduce our running demo system which currently serves corpora of up to roughly 20 billion tokens in Dutch, English, French, German, Spanish, and Swedish
Corpus-assisted analyses of public discourse often focus on the level of the lexicon. This article argues in favour of corpus-assisted analyses of discourse, but also in favour of conceptualising salient lexical items in public discourse in a more determined way. It draws partly on non-Anglophone academic traditions in order to promote a conceptualisation of discourse keywords, thereby highlighting how their meaning is determined by their use in discourse contexts. It also argues in favour of emphasising the cognitive and epistemic dimensions of discourse-determined semantic structures. These points will be exemplified by means of a corpus-assisted, as well as a frame-based analysis of the discourse keyword financial crisis in British newspaper articles from 2009. Collocations of financial crisis are assigned to a generic matrix frame for ‘event’ which contains slots that specify possible statements about events. By looking at which slots are more, respectively less filled with collocates of financial crisis, we will trace semantic presence as well as absence, and thereby highlight the pragmatic dimensions of lexical semantics in public discourse. The article also advocates the suitability of discourse keyword analyses for systematic contrastive analyses of public/political discourse and for lexicographical projects that could serve to extend the insights drawn from corpus-guided approaches to discourse analysis.
Usenet is a large online resource containing user-generated messages (news articles) organised in discussion groups (newsgroups) which deal with a wide variety of different topics. We describe the download, conversion, and annotation of a comprehensive German news corpus for integration in DeReKo, the German Reference Corpus hosted at the Institut für Deutsche Sprache in Mannheim.
Die Stichwortliste bildet eine tragende Säule von gedruckten als auch von Online-Wörterbüchern. Daher ist die Konzeption und Erarbeitung einer Stichwortliste auch eine zentrale Aufgabe in der Anfangsphase des am IDS in Angriff genommenen Paronymwörterbuchs. Welche Überlegungen dabei angestellt, welche Ideen entwickelt und welche Pläne bzw. Entscheidungen schließlich umgesetzt wurden, wird in dem Beitrag aufgezeigt.
This paper summarizes essential steps of a workshop-like presentation of lexicographic practice and reflects an application-oriented demonstration. As a point of departure the question is raised of how different linguistic information is extracted from a corpus for the inclusion in a dictionary. The introductory part on lexicographic objectives is followed by insights into methodological aspects (e. g. online dictionary elexiko). A conclusive example is provided to illustrate the procedure.
Wortschatz
(2015)
Die Beschäftigung mit ‚dem Wortschatz‘ ist insofern komplex, als man sich zunächst einer riesigen Menge von Wörtern gegenübersieht. Hilfreich ist es, grundsätzlich zwischen dem Wortschatz einer Sprache und dem Wortschatz einer bestimmten Person(engruppe) zu unterscheiden. Egal, welche Wörtermenge man weiter einkreisen möchte, die Annäherungsschritte sind grundsätzlich die gleichen: sammeln – segmentieren – klassifizieren – interpretieren – ordnen/vernetzen. In dem Beitrag wird für einen dynamischen, prozessualen Wortschatzbegriff plädiert: Die Reflexion über acht Leitfragen soll es Fachleuten wie Laien ermöglichen, das Konzept Wortschatz für ihre Zwecke zu präzisieren: – Wie lässt sich ein Wortschatz ermitteln? – Woraus kann ein Wortschatz bestehen? – Welche Arten von Wortschätzen gibt es? – Auf welcher Textbasis werden Wortschätze erhoben? – Welche Fachdisziplinen widmen sich der Untersuchung von Wortschätzen? – Wie ist ein Wortschatz in sich strukturiert? – Wo (bzw. wie) wird Wortschatz gespeichert? – Wie lassen sich ein Wortschatz und dessen Einheiten adäquat beschreiben?
In diesem Aufsatz werden Positionierungsverfahren analysiert, welche die Macher einer Talkshow einsetzen, um ihre Gäste den Fernsehzuschauern als relevante Gesprächspartner für das Thema „Steuerhinterziehung durch Prominente” zu präsentieren. Es wird untersucht, wie es den Machern der Talkshow gelingt, die Gäste bereits bei der Erstvorstellung durch das Zusammenspiel einer Stimme aus dem Off und der Kameraführung als „prototypische Vertreter” zu präsentieren und zueinander zu positionieren. Von den insgesamt fünf Teilnehmern der Talkshow werden zwei dieser Erstvorstellungen detailliert analysiert. Es handelt sich um die Präsentation zweier Gäste, die in einer deutlich antagonistischen Beziehung zueinander stehen. Diese Gäste werden unmittelbar hintereinander vorgestellt. Auf der Grundlage aller fünf Gastpräsentationen, die wir detailliert rekonstruiert haben, jedoch aus Platzgründen hier leider nicht ebenfalls präsentieren können, wird ein strukturiertes Positionierungsgeflecht deutlich. Dieses Geflecht weist im Zentrum die von uns rekonstruierte thematische und personelle „Gegnerschaft“ auf. In der Peripherie sind dann insgesamt vier Vertreter relevanter gesellschaftlicher Positionen zum Thema der Talkshow beigeordnet. Dabei handelt es sich um Vertreter der Rechtsprechung, der Politik, der Alltagsmoral und der Psychologie und Theologie. Die Analysen werden in theoretischer Hinsicht auf der Grundlage multimodaler Vorstellungen zur Positionierung und zum Recipient Design durchgeführt. In methodisch-methodologischer Perspektive orientiert sich die Analyse an der multimodalen Interaktionsanalyse.
Freiraum schaffen im Klassenzimmer: Fallbasierte methodologische Überlegungen zur Raumanalyse
(2015)
Mit dem cGAT-Handbuch stellt das FOLK-Projekt eine Richtlinie für das computergestützte Transkribieren nach GAT 2 zur Verfügung. Das Handbuch wurde anhand der Transkriptionspraxis in FOLK entwickelt und enthält eine Vielzahl von authentischen Beispielen, die mit dem zugehörigen Audio auch über die Datenbank für Gesprochenes Deutsch (DGD) abgerufen werden können.
Der Beitrag stellt dar, in welch hohem Maße sprachliche Spielfreude zur Ausbildung großer Kompositagruppen rund um ein anregendes Musterwort führen kann und wie dieser Spieltrieb auch eine Fülle von Varianten zu interessanten literarischen oder politischen Formulierungen hervorbringt. Um solche Formulierspiele quer durch aktuelle Zeitungen in Deutschland, in Österreich und in der Schweiz verfolgen zu können, empfiehlt sich die Benutzung eines großen digitalen Erfassungssytems wie COSMAS II aus dem Institut für Deutsche Sprache in Mannheim.
Ziel des vorliegenden Beitrags ist es, auszuloten, wie Sprechen und Handeln, das wir aus dem Alltag kennen, einzuschätzen ist, wenn es im Fernsehen und vor allem im so genannten Reality-TV erscheint. Einen guten Einstieg, diese Problemstellung zu illustrieren, bieten Pannen, wie man sie etwa aus Nachrichtensendungen wie der Tagesschau kennt.
The puzzle we consider in this paper is that Merchant (2004) judges certain elliptical utterances in context to be ungrammatical, while Culicover and Jackendoff (2005) judge similar examples to be grammatical. The main difference between the examples appears to be that Merchant’s are introduced by no, while Culicover and Jackendoff’s are introduced by yes. We propose that the different judgments do not reflect grammaticality, but complexity associated with ambiguity. First, there is an ambiguity with respect to the reference of noun phrases in discourse: the relationship of the fragment to the preceding discourse is ambiguous. Second, there is an ambiguity with respect to the discourse function of an utterance, and in particular, whether it is an affirmation triggered by yes or a denial triggered by no. In the case of the denial, it needs to be established, which part of the preceding statement has to be corrected, while in the case of the affirmation, no such ambiguity arises. The interactions between these two interpretive functions may under certain circumstances render particular sentences in discourse difficult to interpret. Interpretive difficulty has the subjective flavor of ‘ungrammaticality’; in the case that we discuss here, these judgments form the basis for a particular linguistic analysis. But, we argue, manipulation of the dis-course context can simplify discourse interpretation by resolving the ambiguity, which removes the interpretive difficulty. The conclusion that we draw is that the phenomenon in question is not a matter of linguistic structure, but of discourse interpretation.