Textwissenschaft
Refine
Year of publication
Document Type
- Part of a Book (56)
- Article (36)
- Conference Proceeding (13)
- Working Paper (5)
- Book (4)
- Part of Periodical (1)
- Review (1)
Has Fulltext
- yes (116)
Keywords
- Deutsch (48)
- Textlinguistik (16)
- Textsorte (13)
- Korpus <Linguistik> (12)
- Automatische Sprachanalyse (9)
- Textanalyse (9)
- Politische Sprache (6)
- Sprachgeschichte (6)
- Textproduktion (6)
- Textverstehen (6)
Publicationstate
- Veröffentlichungsversion (55)
- Zweitveröffentlichung (14)
- Postprint (5)
- Preprint (1)
Reviewstate
- (Verlags)-Lektorat (47)
- Peer-Review (21)
- Peer-review (2)
- Zweitveröffentlichung (1)
Publisher
- Schwann (16)
- de Gruyter (12)
- Institut für Deutsche Sprache (9)
- Erich Schmidt (7)
- Narr (7)
- Niemeyer (4)
- Springer (3)
- Westdeutscher Verlag (3)
- Akademie-Verlag (2)
- Benjamins (2)
Corpora with high-quality linguistic annotations are an essential component in many NLP applications and a valuable resource for linguistic research. For obtaining these annotations, a large amount of manual effort is needed, making the creation of these resources time-consuming and costly. One attempt to speed up the annotation process is to use supervised machine-learning systems to automatically assign (possibly erroneous) labels to the data and ask human annotators to correct them where necessary. However, it is not clear to what extent these automatic pre-annotations are successful in reducing human annotation effort, and what impact they have on the quality of the resulting resource. In this article, we present the results of an experiment in which we assess the usefulness of partial semi-automatic annotation for frame labeling. We investigate the impact of automatic pre-annotation of differing quality on annotation time, consistency and accuracy. While we found no conclusive evidence that it can speed up human annotation, we found that automatic pre-annotation does increase its overall quality.
Der Beitrag behandelt das Zusammenspiel von Text und Interaktion im Internet. Abschnitt 2 erläutert am Beispiel der Wikipedia, wie sich die textorientierte Arbeit an den Artikeln und das interaktionsorientierte Diskutieren funktional ergänzen. Abschnitt 3 untersucht Links als digitale Kohärenzbildungshilfen und zeigt an einem Fallbeispiel, wie diese in den schriftlichen Diskussionen dafür genutzt werden, relevante Informationen im „virtuellen“ Aufmerksamkeitsbereich präsent und für phorische und deiktische Bezugnahmen zugänglich zu machen. Abschnitt 4 diskutiert Ergebnisse aus zwei Vergleichsstudien zum Gebrauch der Konnektoren 'weil' sowie 'sprich' und 'd.h.' in Wikipedia-Artikeln und Diskussionen, die auf der Basis von Wikipedia-Korpora in der DeReKo-Sammlung des IDS durchgefuhrt wurden.
Im vorliegenden Beitrag gehen wir von der Prämisse aus, dass die Angemessenheit sprachlicher Formen nicht pauschal, sondern anhand des jeweiligen Kontexts zu beurteilen ist. Anhand einer Online-Fragebogenstudie mit durch weil eingeleiteten Nebensätzen untersuchen wir die Hypothese, dass Varianten, die nicht dem Schriftstandard entsprechen, in Kommunikationsformen, die sich weniger an standard- und schriftsprachlichen Normen orientieren, als (mindestens) ebenso angemessen oder zumindest unterschiedlich wahrgenommen werden wie eine schriftstandardsprachliche Variante. Wir untersuchen dies anhand von drei Aufgaben: Rezeption, Produktion und Assoziation zu bestimmten Medien und Textsorten. Wir können zeigen, dass die schriftnormgerechte Variante durchweg als am akzeptabelsten eingeschätzt wird. In allen drei Aufgaben finden sich aber auch eindeutige und übereinstimmende Effekte, die nahelegen, dass die verschiedenen Varianten in Abhängigkeit der Textsorte doch unterschiedlich eingeschätzt, produziert und assoziiert werden.
Heute wird mehr geschrieben als je zuvor und die digitale Kommunikation trägt wesentlich dazu bei; ein großer Teil des heutigen Schreibens ist dialogisches Schreiben im Alltag. Konsequenterweise wird die Online-Kommunikation zunehmend Thema in Bildungskontexten und in der Deutschdidaktik. Offen ist aber weiterhin, wie Texte des interaktionsorientierten Schreibens bewertet werden sollen, die sich von solchen des textorientierten Schreibens in vielerlei Hinsicht unterscheiden können. Während es für textorientiertes Schreiben Normen gibt, die in Sprachkodizes erfasst sind, ist es nicht klar, was der Bezugspunkt für interaktionsorientierte Texte sein könnte. In diesem Beitrag analysieren wir die Verwendung von Konnektoren in der Online-Kommunikation und die Repräsentation von online-spezifischen Besonderheiten in Sprachressourcen. Die Ergebnisse zeigen, dass spezifische Online-Verwendungsweisen von Konnektoren in Sprachkodizes kaum berücksichtigt und beschrieben werden.
Die Textqualität von Social-Media-Texten unterscheidet sich deutlich von der Textqualität traditioneller monologischer Texte, weshalb neue Textqualitätskategorien für Social-Media-Texte benötigt werden. Der Beitrag beschreibt zunächst, wie in einer Studie zwölf Schreibratgeber für Social-Media-Texte auf Belegstellen des Zürcher Textanalyserasters durchsucht wurden und wie darüber hinaus mittels qualitativer Inhaltsanalyse neue Textqualitätskategorien von Social-Media-Texten in den Ratgebern bestimmt und geordnet wurden. In einem zweiten Schritt werden die Ergebnisse dieser Studie aufgeführt, die Belegstellen des Zürcher Rasters und die aus der Studie gewonnenen und geordneten Kategorien einzeln erläutert. Mit den acht neuen Textqualitätskategorien für Social-Media-Texte wurde das Mannheimer Analyseraster angefertigt, das zur Analyse von Social-Media-Texten angewendet werden kann und den letzten Abschnitt des Beitrags bildet.
Der Beitrag beschreibt einen Ansatz zur Qualitätsbewertung multimodaler Hypertexte und internetbasierter Interaktion. Das Modell fußt auf Ansätzen zur Bewertung von Textqualität in linear organisierten Schrifttexten, insbesondere dem Zürcher Textqualitätenraster, das bereits im prädigitalen Zeitalter für eine große empirische Untersuchung zum Schreibgebrauch in Aufsatztexten genutzt wurde. Der Beitrag beschreibt und begründet, welche Erweiterungen für multimodale Hypertexte und internetbasierte Interaktion erforderlich sind. Vertiefend wird dabei das Konzept der Kohärenz behandelt, das für lineare Texte und für Hypertexte gleichermaßen relevant ist. An Beispielen wird gezeigt, wie Hyperlinks als digitale Kohärenzbildungshilfen bei der Hypertextproduktion und beim interaktionsorientierten Schreiben eingesetzt werden. Die Kohärenzanalyse wird erweitert um zwei neue Aspekte: 1) die interaktionale Kohärenz zwischen Beiträgen verschiedener Personen in der digitalen Interaktion (z. B. beim Chatten oder in Online-Diskussionen) und 2) die multimodale Kohärenz zwischen Text-, Bild-, Audio- und Videoelementen.
Das Kommunizieren in Sozialen Medien und der Umgang mit Hypertexten ist im Jahr 2020 kein Randphänomen mehr. Die sprachlichen Besonderheiten internetbasierter Kommunikation und Sozialer Medien sind mittlerweile auch gut erforscht und beschrieben, allerdings werden diese bislang in deutschen Grammatiken, mit Ausnahme von Hoffmann (2014), allenfalls am Rande behandelt. Selbst neuere Ansätze zur Textanalyse, z. B. Ágel (2017), konzentrieren sich auf gestaltstabile, linear organisierte Schrifttexte. Dasselbe gilt für Ansätze, die primär für die Bewertung von Schreibprodukten in Bildungskontexten entwickelt wurden.
Ziel des Beitrages ist es, den in früheren Arbeiten an Appellen, Geschäftsbriefen u. a. entwickelten Begriff der Illokutionsstruktur (vgl. Motsch/Viehweger 1981, Brandt/Koch/Motsch/Rosengren/Viehweger 1983, Motsch/Pasch 1986) auf Texte anzuwenden, die im Unterschied zu den bisher untersuchten Texten vorwiegend aus Äußerungen bestehen, die entsprechend der in Motsch/Pasch 1986 vorgeschlagenen Typologie illokutiver Handlungen der Klasse der Feststellungen zuzuordnen sind. Dies macht es zunächst erforderlich, den Illokutionstyp ‘Feststellung’ näher zu bestimmen und durch eine systematische Analyse in Untertypen zu zerlegen. Die auf diese Weise ermittelten elementaren sprachlichen Handlungen, d. h. illokutiven Handlungen sind eine wesentliche Voraussetzung für eine Analyse der Illokutionsstruktur von Texten, die als Feststellungstexte bezeichnet werden sollen.
Die vorliegenden Ausführungen umreißen den theoretischen Rahmen des Forschungsprogramms „Sprache und Pragmatik“, das sich zum Ziel setzt, die Beziehung zwischen Grammatik und Pragmatik im Bereich der Textstrukturierung zu explizieren. Es soll einerseits gezeigt werden, von welchen theoretischen Bausteinen man auszugehen hat und wie diese zueinander in Beziehung zu setzen sind; andererseits sind einige der wichtigeren Problemkomplexe zu skizzieren, die sich aus der Zielsetzung des Programms ergeben. Die beiden Hauptabschnitte behandeln deshalb das kommunikative Potential des Satzes und die dafür verantwortlichen Systeme und daran anschließend die Textstrukturierungsprinzipien. Ausgangspunkt sind die zwei grundlegenden Annahmen des Programms, (a) daß das Verhältnis von Grammatik und Pragmatik modular ist, und (b) daß relevante Teile der sogenannten „Pragmatik“ zu den sprachlichen Kenntnissystemen gehören.
This paper analyses the XVIII century German translations of 'Les aventures de Télémaque' (1699) by François de Salignac de la Mothe Fénelon. In that century, Fénelon's masterpiece was translated into German mainly by four authors (August Bohse, Benjamin Neukirch, Josef Anton Ehrenreich, Ludwig Ernst Faramond), who adapted the text according not only to the historical period, but also to their own purpose, creating completely different works. They transformed the original text in different text genres, from a utopian novel with political and pedagogical aims to a text in verse form for didactic purposes, or to an epic poem with pedagogical functions. To investigate the differences between the translations the paper will focus especially on the macrostructural and the paratextual elements in order to make preliminary hypothesis on 1) the text genre, 2) the functions of the text and 3) the expected audience. Examples and final conclusions will end the article.
Solo di recente le tipologie testuali turistiche, generi di testo che svolgono un ruolo molto importante nella comunicazione specialistica, sono diventate oggetto di interesse per gli studi linguistici. L’articolo presenta gli esiti di un’analisi contrastiva (tedesco-italiano) di cataloghi turistici dal punto di vista microstrutturale, con particolare attenzione per la sintassi, il lessico e i mezzi stilistici più frequentemente utilizzati. L’indagine palesa come i cataloghi siano una tipologia testuale che si presta a molteplici applicazioni sia in didattica che in lessicografia.
Die Suche nach auffälligen Wörtern bei der Rezeption von touristischen Textsorten im DaF-Unterricht
(2009)
This study examines what kind of cues and constraints for discourse interpretation can be derived from the logical and generic document structure of complex texts by the example of scientific journal articles. We performed statistical analysis on a corpus of scientific articles annotated on different annotations layers within the framework of XML-based multi-layer annotation. We introduce different discourse segment types that constrain the textual domains in which to identify rhetorical relation spans, and we show how a canonical sequence of text type structure categories is derived from the corpus annotations. Finally, we demonstrate how and which text type structure categories assigned to complex discourse segments of the type “block” statistically constrain the occurrence of rhetorical relation types.
XML-Dokumentgrammatiken, die als DTDs oder neuerdings als XML-Schemata spezifiziert werden, spezifizieren zwar die syntaktischen Eigenschaften einer Klasse von Dokumenten, für sie existiert aber normalerweise kein formales semantisches Modell des Gegenstandsbereichs, auf das Dokumentstrukturen abgebildet werden können. Der Beitrag zeigt am Beispiel der Tabelle, wie semantische Netze für diese Aufgabe herangezogen werden können. Die konkrete Umsetzung geschieht dabei auf der Grundlage des Topic-Map-Standards in Verbindung mit XPath-Ausdrücken, die aus dem semantischen Netz in die Dokumentinstanz bzw. in ein XML-Schema verweisen.
From Open Source to Open Information. Collaborative Methods in Creating XML-based Markup Languages
(2000)
Schreiben nach Engelbart
(2014)
Douglas Engelbart hat 1968 mit seinem On-Line System das erste Mal gezeigt, wie ein Computer als interaktives Schreibwerkzeug genutzt werden kann. Der Beitrag zeichnet diese Urszene der Textverarbeitung nach, beschreibt die wesentlichen Entwicklungslinien, die das digitale Schreiben seitdem genommen hat, und erläutert die zentralen Konzepte, die es zunehmend prägen: Hybridität, Multimedialität und Sozialität.
Der folgende Artikel ist ein bearbeiteter Auszug aus Henning Lobins “Engelbarts Traum. Wie der Computer uns Lesen und Schreiben abnimmt” Frankfurt am Main / New York: Campus, 2014.
Vor dem Hintergrund einer neuen linguistischen Betrachtungsweise, die wissenschaftliche Präsentationen als eine eigenständige, komplexe, multimodale Textsorte auffasst, wird in diesem Beitrag zunächst der Aspekt der Multimodalität von Präsentationen fokussiert. Die analytische Beschäftigung mit wissenschaftlichen Präsentationen wird dann um erste Ergebnisse unserer Rezeptionsexperimente ergänzt, in denen unter anderem Erhebungen zur Wissensvermittlung unterschiedlicher wissenschaftlicher Präsentationen durchgeführt wurden.
The concept of text coherence was developed for linear text, i.e. text of sequentially organized content. The present article addresses to what extent this concept can be applied to hypertext. Following the introduction (section 1), I will define different aspects of text coherence (section 2). I will then explain the importance of the sequential order of text constituents for coherence-building, as explored by empirical studies on text comprehension (section 3). Section 4 discusses how hypertext-specific forms of reading affect the processes of coherence-building and coherence-design. Section 5 explores how the new challenges of hypertext comprehension may be met by hypertext-specific coherence cues. A summary and outlook is included (section 6).
Wissenschaftliche Kommunikation zeichnet sich durch ein besonders hohes Maß an Standardisierung und Organisation aus. Anforderungen der Objektivität, der Nachvollziehbarkeit und der Authentizität schlagen sich in der Struktur aller wissenschaftlichen Textsorten nieder. Die Kulturtechniken der Schrift sind auf diese Bedingungen ausgerichtet, weshalb das Lesen und Schreiben wissenschaftlicher Texte traditionell besonderen Bedingungen unterliegt, die üblicherweise im Studium vermittelt werden. In diesem Beitrag soll zunächst gezeigt werden, welches die wichtigsten wissenschaftlichen Textsorten sind, welche Eigenschaften sie besitzen und welche Ziele mit Ihnen kommunikativ verfolgt werden. Im zweiten Abschnitt geht es um die Digitalisierung von Texten: Welche Merkmale besitzen digitale Texte und welchen technischen Bedingungen unterliegen sie. Auch wird es hier um das Schreiben digitaler Texte überhaupt gehen. Im letzten Abschnitt dieses Beitrags sehen wir uns die Auswirkungen daraus auf die wissenschaftliche Kommunikation an. Digitale Texte weisen Eigenschaften auf, die die kommunizierten Inhalte zu verändern vermögen. Wie ändert sich das wissenschaftliche Schreiben dadurch?
Zunächst werden die absolutistischen Traditionen der Textsorte skizziert, die sich auf demokratische Verfassungen, insbesondere auf das Sprecher-Hörer-Verhältnis, komplizierend auswirken. Zu den überlieferten juristischen Funktionen treten in der Weimarer Reichsverfassung erstmals explizit auch politische und gesellschaftlich-symbolische Funktionen, deren Berechtigung im Verfassungsausschuss des Jahres 1910 anhand eines Textvorschlags von Friedrich Naumann kontrovers diskutiert wurde. Juristische und gesellschaftliche Rezeption eines Verfassungstextes mit einer entsprechend einseitigen Gewichtung der Textfunktionen treten damals und in der BRD nach 1945 zunehmend auseinander, so dass Verständnis und Bedeutung der Verfassung als säkularer Bibel in die Formulierung der neuen Länderverfassungen nach 1990 eingehen.
Die Verfasserin beschreibt einen Bereich der sogenannten fachexternen Kommunikation im Zusammenhang historischer Entwicklungen bei der Rezeption des römischen Rechts in Deutschland. Es werden vier bzw. fünf Klassen (schriftlicher) Textsorten nach funktionalen Kriterien unterschieden und ihre kommunikativ bedingten Verflechtungen untereinander dargestellt. Diese bilden ein System, das insgesamt als Antwort auf spezielle Popularisierungsbedürfnisse aufgefaßt werden kann.
Um einen Text verstehen zu können, muss der Interpret auch dessen Beziehungen zu anderen Texten berücksichtigen. Der vorliegende Aufsatz untersucht die Bedeutung von Intertextualität für das Textverstehen und leitet daraus Schlussfolgerungen über die generelle Relevanz des Intertextualitätsbegriffs für die Sprachwissenschaft ab. Im ersten Abschnitt wird der Begriff Intertextualität in Beziehung zu anderen Grundbegriffen der Textlinguistik gesetzt. Dabei wird Intertextualität neu bestimmt als Kohärenz im Makrotext. In den folgenden Abschnitten wird Intertextualität unter drei komplementären Gesichtspunkten im Detail untersucht: Intertextualität und Mikrotext, Intertextualität und Sprachmittel sowie Intertextualität und Sprachbenutzer. Es wird gezeigt, dass Intertextualität in mehrfacher Hinsicht von hoher linguistischer Relevanz ist. Nicht nur die Textverstehensforschung, sondern auch lexikalische Semantik und Lexikographie sowie Spracherwerbsforschung und Sprachdidaktik können ohne das Konzept der Intertextualität nicht auskommen.
In recent years, theoretical and computational linguistics has paid much attention to linguistic items that form scales. In NLP, much research has focused on ordering adjectives by intensity (tiny < small). Here, we address the task of automatically ordering English adverbs by their intensifying or diminishing effect on adjectives (e.g. extremely small < very small). We experiment with 4 different methods: 1) using the association strength between adverbs and adjectives; 2) exploiting scalar patterns (such as not only X but Y); 3) using the metadata of product reviews; 4) clustering. The method that performs best is based on the use of metadata and ranks adverbs by their scaling factor relative to unmodified adjectives.
We introduce our pipeline to integrate CMC and SM corpora into the CLARIN-D corpus infrastructure. The pipeline was developed by transforming an existing CMC corpus, the Dortmund Chat Corpus, into a resource conforming to current technical and legal standards. We describe how the resource has been prepared and restructured in terms of TEI encoding, linguistic annotations, and anonymisation. The output is a CLARIN-conformant resource integrated in the CLARIN-D research infrastructure.
Overview of the IGGSA 2016 Shared Task on Source and Target Extraction from Political Speeches
(2016)
We present the second iteration of IGGSA’s Shared Task on Sentiment Analysis for German. It resumes the STEPS task of IGGSA’s 2014 evaluation campaign: Source, Subjective Expression and Target Extraction from Political Speeches. As before, the task is focused on fine-grained sentiment analysis, extracting sources and targets with their associated subjective expressions from a corpus of speeches given in the Swiss parliament. The second iteration exhibits some differences, however; mainly the use of an adjudicated gold standard and the availability of training data. The shared task had 2 participants submitting 7 runs for the full task and 3 runs for each of the subtasks. We evaluate the results and compare them to the baselines provided by the previous iteration. The shared task homepage can be found at http://iggsasharedtask2016.github.io/.
The FrameNet lexical database yields information about collocations and multiword expressions in various ways. In some cases phrasal units have been entered from the start as lexical entries (write down). In other cases headword + preposition pairs can be recognized as special collocations Where the preposition in question is a necessary and lexically specified marker of an argument of the headword + fond of, hostile to). Nominal compounds are annotated with respect to noun or (pertinative) adjective modifiers, some of which are analyzable but also entrenched (wheel chair, fiscal year). Nouns that name aggregates, portions, types, etc., sometimes hold lexically specified relations to their dependents (flock of geese). And event nouns frequently Select the support verbs which permit them to enter into predications (file an objection, enter a plea). A subproject aims at extracting, as structured clusters of lexical items, the minimal semantically central kernel dependency graphs from the set of annotations. Such research will yield not only commonplace groupings (eat: dog, bone) but will also yield hitherto unnoticed collocations within such graphs (answer: you, door) where certain dependency links within them are idiomatic or otherwise lexically special, here answer > door. Collocational information can also be retrieved by various types of queries within our MySQL search tool
We present a quantitative approach to disambiguating flat morphological analyses and producing more deeply structured analyses. Based on existing morphological segmentations, possible combinations of resulting word trees for the next level are filtered first by criteria of linguistic plausibility and then by weighting procedures based on the geometric mean. The frequencies for weighting are derived from three different sources (counts of morphs in a lexicon, counts of largest constituents in a lexicon, counts of token frequencies in a corpus) and can be used either to find the best analysis on the level of morphs or on the next higher constituent level. The evaluation shows that for this task corpus-based frequency counts are slightly superior to counts of lexical data.
This paper addresses the task of finding antecedents for locally uninstantiated arguments. To resolve such null instantiations, we develop a weakly supervised approach that investigates and combines a number of linguistically motivated strategies that are inspired by work on semantic role labeling and corefence resolution. The performance of the system is competitive with the current state-of-the-art supervised system.
Opinion Holder and Target Extraction for Verb-based Opinion Predicates – The Problem is Not Solved
(2015)
We offer a critical review of the current state of opinion role extraction involving opinion verbs. We argue that neither the currently available lexical resources nor the manually annotated text corpora are sufficient to appropriately study this task. We introduce a new corpus focusing on opinion roles of opinion verbs from the Subjectivity Lexicon and show potential benefits of this corpus. We also demonstrate that state-of-the-art classifiers perform rather poorly on this new dataset compared to the standard dataset for the task showing that there still remains significant research to be done.
We compare several different corpus- based and lexicon-based methods for the scalar ordering of adjectives. Among them, we examine for the first time a low- resource approach based on distinctive- collexeme analysis that just requires a small predefined set of adverbial modifiers. While previous work on adjective intensity mostly assumes one single scale for all adjectives, we group adjectives into different scales which is more faithful to human perception. We also apply the methods to both polar and non-polar adjectives, showing that not all methods are equally suitable for both types of adjectives.
When a noise verb is used to indicate verbal communication, factors from both the source domain of the verb (perception) and the target domain (communication) play a role in determining the argument structure of the sentence. While the target domain supplies a syntactic structure, the source domain’s semantics constrain the degree to which that syntactic structure can be exploited. This can be determined by comparing noise verbs in this use with manner-of-communication verbs, which are superficially similar, but native to communication. Data for these two classes of verbs were drawn from the British National Corpus. The data were annotated with frame-semantic markup, as described in the Berkeley FrameNet Project. We compared the presence, type of syntactic realization, and position of the semantically annotated arguments for both classes of verbs. We found that noise and manner verbs show statistically significant differences in these three areas. For instance, noise verbs are more focused on the form of the message than manner verbs: noise verbs appear more frequently with a quoted message. In addition, there are differences other than the complementation patterns: certain noise verbs are biased with respect to speakers’ genders, message types, and even orthography in quoted messages
We provide a unified account of semantic effects observable in attested examples of the German applicative (‘be-’) construction, e.g. Rollstuhlfahrer Poul Sehachsen aus Kopenhagen will den 1997 erschienenen Wegweiser Handiguide Europa fortführen und zusammen mit Movado Berlin berollen (‘Wheelchair user Poul Schacksen from Copenhagen wants to continue the guide ‘Handiguide Europe’, which came out in 1997, and roll Berlin together with Movado.’). We argue that these effects do not come from lexico-semantic operations on ‘input’ verbs, but are instead the products of a reconciliation procedure in which the meaning of the verb is integrated into the event-structure schema denoted by the applicative construction. We analyze the applicative pattern as an argument-structure construction, in terms of Goldberg (1995). We contrast this approach with that of Brinkmann (1997), in which properties associated with the applicative pattern (e.g. omissibility of the theme argument, holistic interpretation of the goal argument, and planar construal of the location argument) are attributed to general semantico-pragmatic principles. We undermine the generality of the principles as stated, and assert that these properties are instead construction-particular. We further argue that the constructional account provides an elegant model of the valence-creation and valence-augmentation functions of the prefix. We describe the constructional semantics as prototype-based: diverse implications of fee-predications, including iteration, transfer, affectedness, intensity and saturation, derive via regular patterns of semantic extension from the topological concept of coverage.
Accurate opinion mining requires the exact identification of the source and target of an opinion. To evaluate diverse tools, the research community relies on the existence of a gold standard corpus covering this need. Since such a corpus is currently not available for German, the Interest Group on German Sentiment Analysis decided to create such a resource and make it available to the research community in the context of a shared task. In this paper, we describe the selection of textual sources, development of annotation guidelines, and first evaluation results in the creation of a gold standard corpus for the German language.
In the last years a common notion of a Problem-Solving Method (PSM) emerged from different knowledge engineering frameworks. As a generic description of the dynamic behaviour of knowledge based systems PSMs are favored subjects of reuse. Up to now, most investigations on the reuse of PSMs focus on static features and methods as objects of reuse. By this, they ignore a lot of information of how the PSM was developed that is, in principle, entailed in the different parts of a conceptual model of a PSM.
In this paper the information of the different parts of PSMs is reconsidered from a reuse process point of view. A framework for generalized problem-solving methods is presented that describes the structure of a category of methods based on family resemblances. These generalized methods can be used to structure libraries of PSMs and - in the process of reuse - as a means to derive an incarnation, i.e. a member of its family of PSMs.
For illustrating the ideas, the approach is applied to the task rsp. problem type of parametric design.
A library of software components should be essentially more than just a juxtaposition of its items. For problem-solving methods the notion of a family is suggested as means to cluster the items and to provide partially a structure of the library. This paper especially investigates how the similar control flows of the members of such a family can be described in one framework.
Sowohl bei der Entwicklung konventioneller Software als auch bei der Entwicklung wissensbasierter Systeme fehlen z.Z. systematische Ansätze, Anforderungen an das zu entwickelnde Produkt „ingenieurmäßig“ zu erheben. Die Probleme, mit denen sich der Software Engineer konfrontiert sieht, ähneln denen der Wissensakquisition im Knowledge Engineering. Der an der Universität Karlsruhe am Institut AIFB entwickelte Ansatz MIKE ([AFL93]) beschreibt eine systematische Vorgehensweise zur Entwicklung wissensbasierter Systeme. Die Beschreibung der spezifischen Anforderungen an wissensbasierte Systeme ist Gegenstand der aktuellen Forschung; mit MIKE steht aber bereits das Gerüst zur Verfügung, mit denen die Anforderungen im Laufe der weiteren Entwicklungsphasen verwaltet werden können.
New KARL (Knowledge Acquisition and Representation Language) allows to specify all parts of a problem-solving method (PSM). It is a formal language with a well-defined semantics and thus allows to represent PSMs precisely and unambiguously yet abstracting from implementation detail. In this paper it is shown how the language KARL has been modified and extended to New KARL to better meet the needs for the representation of PSMs. Based on a conceptual structure of PSMs new language primitives are introduced for KARL to specify such a conceptual structure and to support the configuration of methods. An important goal for this extension was to preserve three important properties of KARL: to be (i) a conceptual, (ii) a formal, and (iii) an executable language.
Der Beitrag diskutiert - aus der Perspektive sozialer Welten - die Frage des Zusammenhangs zwischen den Deutungsmustern und Wissensbestanden, deren sich Migranten bedienen, und den Formen ihrer sozialen Teilhabe. Die empirische Analyse stützt sich auf „intra-ethnische“ Interaktionsprozesse in der sozialen Welt eines „türkischen“ Fußballvereins in Mannheim. Es wird gezeigt, dass sich im untersuchten Fall ethnische Selbstorganisation und Integration auf spezifische Weise paaren. Zu den Strukturmerkmalen dieser lokalen sozialen Welt zählen insbesondere ihre Einbettung in eine Vielzahl unterschiedlicher Kontexte und ihre interne Differenzierung. Des Weiteren ist die alltagspragmatische Verwendung "türkischer" Kulturmuster und der universalistische Charakter der symbolischen Legitimationen in der Alltagsphilosophie der Vereinsangehörigen zu nennen. Schließlich ist die Dominanz von Handlungsanforderungen und Deutungen aus der Fußballwelt gegenüber solchen aus dem „ethnischen“ Milieu sowie die Infragestellung der Kategorien „deutsch“ und „türkisch“ kennzeichnend für die untersuchte Sozialwelt.
A topic in the field of knowledge acquisition is the reuse of components that are described at the knowledge level. Problems concern the description, indexing and retrieval of components. In our case there is the additional feature of integrating so called automated building blocks in a knowledge level description. This paper describes what knowledge level descriptions of components for reuse should look like, and proposes a way to describe assumptions and requirements that are to be made explicit. In the paper an extension of the “normal” knowledge acquisition setting is made in the direction of machine learning components.
This paper presents ongoing research which is embedded in an empirical-linguistic research program, set out to devise viable research strategies for developing an explanatory theory of grammar as a psychological and social phenomenon. As this phenomenon cannot be studied directly, the program attempts to approach it indirectly through its correlates in language corpora, which is justified by referring to the core tenets of Emergent Grammar. The guiding principle for identifying such corpus correlates of grammatical regularities is to imitate the psychological processes underlying the emergent nature of these regularities. While previous work in this program focused on syntagmatic structures, the current paper goes one step further by investigating schematic structures that involve paradigmatic variation. It introduces and explores a general strategy by which corpus correlates of such structures may be uncovered, and it further outlines how these correlates may be used to study the nature of the psychologically real schematic structures.
The central issue in corpus-driven linguistics is the detection and description of patterns in language usage. The features that constitute the notion of a pattern can be computed to a certain extent by statistical (collocation) methods, but a crucial part of the notion may vary depending on applications and users. Thus, typically, any computed collocation cluster will have to be interpreted hermeneutically. Often it might be captured by a generalized, more abstract pattern. We present a generic process model that supports the recognition, interpretation, and expression of the patterns inside and of the relations between clusters. By this, clusters can be merged virtually according to any notion of a 'pattern', and their relations can be exploited for different applications
This introductory tutorial describes a strictly corpus-driven approach for uncovering indications for aspects of use of lexical items. These aspects include ‘(lexical) meaning’ in a very broad sense and involve different dimensions, they are established in and emerge from respective discourses. Using data-driven mathematical-statistical methods with minimal (linguistic) premises, a word’s usage spectrum is summarized as a collocation profile. Self-organizing methods are applied to visualize the complex similarity structure spanned by these profiles. These visualizations point to the typical aspects of a word’s use, and to the common and distinctive aspects of any two words.
Der Beitrag beschäftigt sich mit der Frage, wie und inwieweit korpusbasierte Ansätze zur Untersuchung und Bewertung von Sprachwandel beitragen können. Die Bewertung von Sprachwandel erscheint in dieser Hinsicht interessant, da sie erstens von größerem öffentlichen Interesse ist, zweitens nicht zu den Kernthemen der Sprachwissenschaft zählt und drittens sowohl die geisteswissenschaftlichen Aspekte der Sprachwissenschaft berührt als auch die empirischen, die eher für die so genannten harten Wissenschaften typisch sind. Letzteres trifft bei der Frage nach Sprachverfall (gutem vs. schlechtem Deutsch diachron) vermutlich unbestrittener zu als bei der Frage nach richtigem vs. falschem Deutsch, da zu ihrer Beantwortung offensichtlich einerseits empirische, messbare Kriterien herangezogen werden müssen, andererseits aber auch weitere Kriterien notwendig sind und es außerdem einer Entscheidung zur Einordnung und Gewichtung der verschiedenartigen Kriterien sowie einer Begründung dieser Entscheidung bedarf. Zur Annäherung an die Fragestellung werden zunächst gängige, leicht operationalisierbare Hypothesen zu Symptomen eines potenziellen Verfalls des Deutschen auf verschiedenen DeReKo-basierten Korpora überprüft und im Hinblick auf ihre Verallgemeinerbarkeit und Tragweite diskutiert. Im zweiten Teil werden weitere empirische Ansätze zur Untersuchung von Wandel, Variation und Dynamik skizziert, die zur Diskussion spezieller Aspekte von Sprachverfall beitragen könnten. Im Schlussteil werden die vorgestellten Ansätze in den Gesamtkontext einer sprachwissenschaftlichen Untersuchung von Sprachverfall gestellt und vor dem Hintergrund seines gesellschaftlichen Diskurses reflektiert.
Sprache, Schrift, Rechtschreibung : Abläufe beim Lesen und Schreiben - was ist hier wie wichtig?
(1987)
Sprachkultur und Literatur
(1985)
Sprechhandlungen der Nicht-Verständigung : Bemerkungen zu Gestalt und Leistung dialogischer Texte
(1973)
Textsorten und Soziolekte : Funktion und Reziprozität in gesprochener und geschriebener Sprache
(1973)
Studien zur Texttheorie und zur deutschen Grammatik : Festgabe für Hans Glinz zum 60. Geburtstag
(1973)
Anweisungstexte
(1982)
Das rechte Maß : Daniel Kehlmanns "Vermessung der Welt" als ein Beispiel zeitgemäßer Schriftlichkeit
(2006)