Refine
Year of publication
Document Type
- Doctoral Thesis (33)
- Book (7)
- Habilitation (3)
- Article (1)
Keywords
- Deutsch (14)
- Korpus <Linguistik> (8)
- Wortschatz (6)
- Computerlinguistik (4)
- Englisch (4)
- Konversationsanalyse (4)
- Syntax (4)
- Geschichte (3)
- Gespräch (3)
- Interaktion (3)
Publicationstate
Reviewstate
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (44) (remove)
Publisher
- Lehrstuhl für deutsche Sprache des Omsker staatlichen pädagogischen Gorki-Instituts (2)
- Universität Mannheim (2)
- Universität Potsdam (2)
- Bielefeld University (1)
- Collibri-Verlag (1)
- Deutscher Universitätsverlag (1)
- Dublin City University (1)
- Frank & Timme (1)
- Freie Universität Berlin (1)
- IDS-Verlag (1)
Die Arbeit behandelt die alltägliche Kreativität des Menschen, seine Fähigkeit, etwas metaphorisch als etwas anderes zu sehen und so komplexen Zusammenhängen der sozialen und kulturellen Welt einen Sinn zu geben. Sie trägt bei zur theoretischen Grundlegung für die kontrastive Analyse von Metaphernsystemen unterschiedlicher Sprachen im DFG-Projekt "Interkulturelle Analyse der Struktur kollektiver Vorstellungswelten", das von 2000 - 2002 an der Universität Bielefeld angesiedelt war. Theoretische Überlegungen zur Einbeziehung soziokultureller Aspekte in die Kognitive Metapherntheorie bilden Teil I der Arbeit. Teil II bilden Beispielanalysen der kulturellen Imagination von Raum (Europa) und Zeit (Ende des Kommunismus).
Im Zentrum der Dissertation steht der Begriff Informationsmodellierung oder genauer der Begriff der "textuellen Informationsmodellierung", wobei auf einer bereits vorgeschlagenen Unterscheidung einer primären und einer sekundären Ebene der Informationsstrukturierung aufgebaut wird. Der Gegenstand der primären Ebene sind die textuellen Daten selbst sowie ihre Strukturierung, wohingegen die sekundäre Ebene beschreibt, wie die für die primären Ebenen verwendeten Regelwerke mit alternativen Regelwerken in Beziehung gesetzt werden können. Der Einteilung in eine primäre und eine sekundäre Informationsstrukturierung wird in der Dissertation das Konzept der multiplen Informationsstrukturierung nebengeordnet. Dieses Konzept ist so zu verstehen, dass die primäre Ebene bei Bedarf vervielfacht wird - jedoch bezieht sich jede dieser Ebenen auf dieselbe Datengrundlage. Hierbei ergeben sich auch Auswirkungen auf die sekundäre Informationsstrukturierung. Die Informationsmodellierung erfolgt mit Auszeichnungssprachen. Die Standard Generalized Markup Language (SGML) stellt hierfür einen Rahmen dar, jedoch wurde dieser Formalismus seit seiner 1986 erfolgten Standardisierung nicht nur weiterentwickelt, sondern es wurde mit der Extensible Markup Language (XML) im Jahr 1998 eine wesentlich einfachere Untermenge dieser Sprache definiert, die zudem das derzeitige Zentrum weiterer Entwicklungen auf dem Gebiet der Auszeichnungssprachen darstellt. Der entwickelte Ansatz zur Modellierung linguistischer Information basiert auf der Extensible Markup Language (XML), wobei die weitergehenden Möglichkeiten von SGML selbstverständlich ebenfalls dargestellt und diskutiert werden. Mittels XML können Informationen, die sich nicht in bestimmten Hierarchien (mittels mathematischer Bäume) strukturieren lassen, nicht in einer natürlichen Weise repräsentiert werden. Eine Lösung dieses Problems liegt in der Aufteilung der Strukturierung auf verschiedene Ebenen. Diese neue Lösung wird dargestellt, diskutiert und modelliert.
Sentiment Analysis is the task of extracting and classifying opinionated content in natural language texts. Common subtasks are the distinction between opinionated and factual texts, the classification of polarity in opinionated texts, and the extraction of the participating entities of an opinion(-event), i.e. the source from which an opinion emanates and the target towards which it is directed. With the emerging Web 2.0 which describes the shift towards a highly user-interactive communication medium, the amount of subjective content on the World Wide Web is steadily increasing. Thus, there is a growing need for automatically processing this type of content which is provided by sentiment analysis. Both natural language processing, which is the task of providing computational methods for the analysis and representation of natural language, and machine learning, which is the task of building task-specific classification models on the basis of empirical data, may be instrumental in mastering the challenges of the automatic sentiment analysis of written text. Many problems in sentiment analysis have been proposed to be solved with machine learning methods exclusively using a fairly low-level feature design, such as bag of words, containing little linguistic information. In this thesis, we examine the effectiveness of linguistic features in various subtasks of sentiment analysis. Thus, we heavily draw from the insights gained by natural language processing. The application of linguistic features can be applied on various classification methods, be it in rule-based classification, where the linguistic features are directly encoded as a classifier, in supervised machine learning, where these features complement basic low-level features, or in bootstrapping methods, where these features form a rule-based classifier generating a labeled training set from which a supervised classifier can be trained. In this thesis, we will in particular focus on scenarios where the combination of linguistic features and machine learning methods is effective. We will look at common text classification tasks, both coarse-grained and fine-grained, and extraction tasks.
Christian Cay Lorenz Hirschfeld (1742-1792) beschrieb in seiner "Theorie der Gartenkunst" die Stellung des Menschen in der Natur und spiegelte die gesellschaftlichen Zustände. Dabei stellte er eine Verbindung zwischen der Kunstform des Landschaftsgartens und der Verbesserung der Menschheit her. In diesem Band wird exemplarisch vorgeführt, mit welchem lexematischen Material er die Kombination aus differenzierter Beschreibung und beabsichtigter ästhetischer Erziehung in moralischer Absicht innerhalb des vom Sprachsystem lexikalisch vorgegebenen Rahmens umsetzte und welche sprachlichen Strategien aus diesen Intentionen resultierten.
Redeeinleiter sind sprachliche Ausdrücke unterschiedlicher Wortarten, die relativ zur Redewiedergabe in Voran-, Mittel- oder Nachstellung stehen und eine direkte oder indirekte Redewiedergabe einleiten. Dadurch sind Redeeinleiter sehr vielfältig, womit sie sich als Untersuchungsgegenstand einer Analyse zur lexikalischen Vielfalt von Teilwortschätzen eignen.
Als Datengrundlage der vorliegenden Untersuchung dienen die manuell annotierten direkten und indirekten Redeeinleiter des Redewiedergabe-Korpus. Dieses setzt sich aus fiktionalen und nicht-fiktionalen Textausschnitten, die zwischen 1840–1920 veröffentlicht wurden, zusammen. Ziel der Analyse ist es, zu ermitteln, wie sich der Teilwortschatz der direkten und der der indirekten Redeeinleiter in ihrer lexikalischen Vielfalt voneinander unterscheiden und wie diese Unterschiede zu begründen sind. Dafür wird ein Set an quantitativen Methoden erarbeitet mit dem die lexikalische Vielfalt von Teilwortschätzen bestimmt werden kann und das in zukünftigen Untersuchungen zur lexikalischen Vielfalt als Standardrepertoire herangezogen werden kann.
Kann man den Sprachgebrauch in einer Gruppe verändern? Und wenn ja, wie? In Politik und Wirtschaft sind schlüssige Antworten auf diese Fragen von großem Interesse. Karolina Suchowolec findet sie, indem sie den aktuellen Forschungsstand zu Sprachplanung, Plansprachen, Kontrollierten Sprachen und Terminologiearbeit analysiert, die Erkenntnisse auf ihre mögliche Verallgemeinerung hin prüft und daraus Sprachlenkung als einen übergreifenden linguistischen Forschungsgegenstand ableitet. Dessen praktische Umsetzung hat sie empirisch untersucht. Im Ergebnis formuliert sie eine Übersicht zu den Herausforderungen der Sprachlenkung sowie zu in der Literatur postulierten Lösungsansätzen – eine solide Grundlage für die weitere theoretische Forschung sowie Hilfestellung für die praktische Sprachlenkung.
Bauchschmerzen bei Kindern sind häufig, aber glücklicherweise meist ohne schwerwiegende Ursache. Sogar starke oder wiederkehrende Bauchschmerzen haben oftmals keinen organischen Ursprung. Dennoch erfolgt bei Kindern mit häufigen Bauchschmerzen in der Regel eine umfangreiche und für alle Beteiligten belastende diagnostische Abklärung – teilweise sogar ohne seriösen, hilfreichen Befund. Idealerweise sollte bereits im Gespräch mit einem fachkundigen Arzt deutlich werden, ob die Schmerzen somatischen oder psychosomatischen Ursprungs sind, um überflüssige und teure Untersuchungsmaßnahmen einzusparen. An dieser Stelle kommt die Gesprächsforschung zum Einsatz: Für die Unterscheidung von organischen und psychisch bedingten Anfallsereignissen konnte gezeigt werden, dass die entscheidenden Hinweise zur Diagnose nicht nur in den geschilderten Fakten liegen, sondern auch in der Art, wie die Betroffenen selbst über ihr Problem reden und mit dem Arzt interagieren. Diese Hinweise lassen sich zielgenau durch gesprächslinguistische Analysen erfassen (vgl. Opp/Frank-Job/Knerich 2015). Für epileptische vs. dissoziative Anfälle konnte dies bereits belegt und in klinischen Studien validiert werden (vgl. Schwabe/Howell/Reuber 2007). In Anknüpfung an das genannte Projekt wird in dieser Dissertation überprüft, ob und inwieweit die Befunde aus der Anfallsforschung auch auf eine andere Erkrankung und Patientinnengruppe übertragen werden können. Für diesen Zweck werden dyadische Interaktionen junger Patientinnen mit Medizinerinnen während einer spezifischen Form und Phase der Anamnese analysiert: Der analytische Kern der Arbeit thematisiert die Interaktion der Beteiligten beim zeichnerischen Umsetzen von Bauchschmerzen. Dabei zeigt sich die interaktiv hervorgebrachte Positionierung der Patientinnen zur Malaufgabe als zentral und entsprechend diagnostisch relevant: Während Patientinnen, deren Schmerzen organischen Ursprungs sind, dazu tendieren, die Malaufgabe mit redundanten Informationen pflichtgemäß zu erfüllen, neigen Patientinnen, die an funktionellen Beschwerden leiden, hingegen dazu, die Malaufgabe als Chance zur Aktualisierung der Beschwerdenschilderung zu sehen. Diese Erkenntnisse lassen sich in Form einer Diagnosetabelle zusammenfassen und konstituieren damit die Basis für einen gesprächsanalytischen Anwendungsbezug, der die medizinische Forschung und Ausbildung um ein innovatives Diagnostikverfahren bereichern kann.
Die vorliegende Arbeit geht der Frage nach, wie bzw. mit welchen sprachlichen Mitteln der Islam im öffentlichen Diskurs konstituiert wird. Hierfür wurde ein Korpus aus überregionalen Medientexten erstellt und qualitativ analysiert. Die Auswertung des gesamten Korpus weist darauf hin, welche inhaltlichen Merkmale im Islamdiskurs sprachlich nachweisbar sind und sich im gesamten Diskurs stets wiederholen. Schlüsselwörter wie Islam, Islamismus, Islamisierung, Muslim, Dschihad, Scharia oder Koran wurden detailliert präsentiert. Außerdem wurden die aus dem untersuchten Korpus entstandenen Stereotype rekonstruiert. Weiterhin wurden Metaphern bzw. Metaphernkonzepte untersucht, die sich im Islamdiskurs abbilden lassen. Exemplarisch anhand der drei Weltereignisse Iranische Revolution 1978/79, 11. September 2001 und Arabischer Frühling 2011 hat die vorliegende Arbeit gezeigt, wie der Islam in unterschiedlichen Zeitabständen wahrgenommen wird und inwieweit gesellschaftspolitische Ereignisse und Auseinandersetzungen die Thematisierung des Islams beeinflussen können.
Ziel dieser Arbeit war es, eine Software zu entwickeln, die quantitative und qualitative korpuslinguistische Methoden miteinander verbindet. Die Gesamtarbeit besteht daher aus zwei Teilen: einer Open-Source-Software und dem schriftlichen Teil. Der hier vorgelegte schriftliche Teil ist eine vollständige Dokumentation (Handbuch), ergänzt um eigene Publikationen, die im Rahmen des Dissertationsprojekts entstanden. In Kapitel 1.2 Korpora und beispielhafte Fragestellungen (S. 8) erfolgt eine Illustration beispielhafter Forschungsfragen anhand bereitgestellter und im Corpus- Explorer integrierter Korpora. Außerdem werden unter "?? ?? (S. ??)" Analysen mit verschiedensten prototypischen Forschungsfragen verknüpft, die sowohl quantitative als auch qualitative Perspektiven einnehmen. Der CorpusExplorer wurde besonders nutzerfreundlich gestaltet. Dabei ist die Zielgruppe der Software sehr breit defniert: Die Nutzung soll sowohl in der Forschung als auch in der Lehre möglich sein. Daher richtet sich der CorpusExplorer gleichermaßen an Studierende und Forschende mit ihren jeweils spezifschen Bedürfnissen. Die Nutzung für die Forschung zeigt sich (A) an den integrierten Artikeln sowie daran, dass (B) andere Forschende den CorpusExplorer bereits für ihre Arbeit aufgegriffen haben. Der Nutzen für die Lehre wurde mehrfach selbst erprobt und optimiert. Im Lehr-Einsatz ist es wichtig, dass Korpora mit wenigen Mausklicks analysefertig sind und verschiedene Analysen und Visualisierungen direkt genutzt werden können. Studierende erhalten so die Möglichkeit, eigenes Korpusmaterial direkt und selbst auszuwerten. Für Forschende bietet der CorpusExplorer ein sehr breites Funktionsspektrum. Im Vergleich zu anderer (öffentlich verfügbarer) korpuslinguistischer Software verfügt er aktuell über das wohl breiteste Anwendungsspektrum (51 Analysemodule (inkl. weiterentwickelter Verfahren), über 100 unterstützte Dateiformate für Im- und Export, unterschiedliche Tagger mit 69 unterstützten Sprachmodellen). Er kann so in bestehende Skripte, Toolchains und Workflows für sehr unterschiedliche Forschungsfragen integriert werden. Im CorpusExplorer wurden nicht nur bestehende Funktionen gebündelt, es wurden auch bisherige Verfahren weiterentwickelt. Hierzu zählen z. B. (1) die Entwicklung einer eigenen, an korpuslinguistischen Bedürfnissen ausgerichteten Datenbank- Struktur, (2) die Weiterentwicklung bzw. Optimierung des Verfahrens der Kookkurrenz- Analyse hin zu einer quantitativen Kookkurrenz-Analyse (keine Parameter wie Suchfenstergröße oder Suchwort nötig, Berechnung aller Kookkurrenzen zu allen Token in einem Korpus) und (3) die Verknüpfung unterschiedlicher Analyseressourcen, wie z. B. der NGram- und der Kookkurrenz-Analyse.
This dissertation investigates discourse-pragmatic differences between variably linked arguments appearing in alternating argument structure constructions in the sense of Goldberg (1995) and Kay (manuscript). The properties that are studied include givenness, pragmatic relation (topic/focus), salience of referents, animacy, and others. They derive from the literature on sentence-type constructions such as topicalization and from research on the referential properties of NP form types.
The research carried out here has multiple uses. At the most basic level, it serves as an empirical check on existing characterizations of the pragmatic properties of the relevant arguments that are the result of syntactic and semantic analysis based on introspection alone. For instance, for the epistemic raising alternation involving verbs like seem, the predicted topicality difference between the subjects of the raised and unraised constructions (Langacker 1995) could not be confirmed.
This dissertation also addresses the question what kinds of pragmatic factors, if any, are relevant to argument structure constructions. Based on the evidence of the dative alternation, it does not seem to be the case that the kind of pragmatic influences on argument structure constructions are different or limited compared to the ones found to be relevant to sentence-type constructions.
The kind of research undertaken here can also inform the syntactic and semantic analysis of constructions. In the case of the dative alternation, the discourse-pragmatic characteristics of the variably linked arguments provide evidence that Basilico’s (1998) analysis of the difference between the alternates in terms of VP-shells and a difference between thetic and categorical ‘inner’ predication, on the one hand does not account for all the data and on the other can be re-stated in pragmatic terms other than the thetic-categorical distinction.
In addition to studies of valence alternations, this dissertation also discusses various null instantiation phenomena, which provide further evidence for the need to specify discourse-pragmatic properties as part of argument structure constructions and lexical entries.
Finally, it is suggested that the use of randomly sampled corpus data and statistical modelling throughout this dissertation improves both empirical and analytical coverage.
Manual development of deep linguistic resources is time-consuming and costly and therefore often described as a bottleneck for traditional rule-based NLP. In my PhD thesis I present a treebank-based method for the automatic acquisition of LFG resources for German. The method automatically creates deep and rich linguistic presentations from labelled data (treebanks) and can be applied to large data sets. My research is based on and substantially extends previous work on automatically acquiring wide-coverage, deep, constraint-based grammatical resources from the English Penn-II treebank (Cahill et al.,2002; Burke et al., 2004; Cahill, 2004). Best results for English show a dependency f-score of 82.73% (Cahill et al., 2008) against the PARC 700 dependency bank, outperforming the best hand-crafted grammar of Kaplan et al. (2004). Preliminary work has been carried out to test the approach on languages other than English, providing proof of concept for the applicability of the method (Cahill et al., 2003; Cahill, 2004; Cahill et al., 2005). While first results have been promising, a number of important research questions have been raised. The original approach presented first in Cahill et al. (2002) is strongly tailored to English and the datastructures provided by the Penn-II treebank (Marcus et al., 1993). English is configurational and rather poor in inflectional forms. German, by contrast, features semi-free word order and a much richer morphology. Furthermore, treebanks for German differ considerably from the Penn-II treebank as regards data structures and encoding schemes underlying the grammar acquisition task. In my thesis I examine the impact of language-specific properties of German as well as linguistically motivated treebank design decisions on PCFG parsing and LFG grammar acquisition. I present experiments investigating the influence of treebank design on PCFG parsing and show which type of representations are useful for the PCFG and LFG grammar acquisition tasks. Furthermore, I present a novel approach to cross-treebank comparison, measuring the effect of controlled error insertion on treebank trees and parser output from different treebanks. I complement the cross-treebank comparison by providing a human evaluation using TePaCoC, a new testsuite for testing parser performance on complex grammatical constructions. Manual evaluation on TePaCoC data provides new insights on the impact of flat vs. hierarchical annotation schemes on data-driven parsing. I present treebank-based LFG acquisition methodologies for two German treebanks. An extensive evaluation along different dimensions complements the investigation and provides valuable insights for the future development of treebanks.
Skatesticker sind grafisch gestaltete Aufkleber, die von Skatelabels – den Herstellern von Skateboards und Zubehör – distribuiert werden. Ursprünglich zu reinen Werbezwecken produziert, haben sich Skatesticker als Symbole der Szene etabliert: Befragte Skater bekennen, dass Skatesticker ein „Ausdruck eines Lebensgefühls“, ein „visueller Eindruck unserer Gefühle“ und eine „[e]infache Möglichkeit[,] sich einer Gruppe zuzuordnen“ sind. Sie werden von Skatern gesammelt, gehandelt und wertgeschätzt. Die vorliegende Arbeit verfolgt einen bildwissenschaftlich orientierten Forschungsansatz, der es ermöglicht, die komplexen – oftmals bildende Kunst adaptierenden – Bildmotive dieser Grafikdesignobjekte und ihre zunehmend autonomisierten Funktionen als visuelle Medien einer Szene zu analysieren und anzuerkennen.
Le chevauchement, c’est-à-dire la prise de parole simultanée d'au moins deux locuteurs, est un phénomène omniprésent dans la conversation. Inscrit dans le cadre théorique de l'Analyse Conversationnelle et de la linguistique interactionnelle, notre travail se penche sur la parole simultanée considérée comme un phénomène systématique et ordonné qui appartient aux pratiques routinières de l'alternance des tours de parole. Nos analyses se fondent sur des transcriptions d'enregistrements vidéo de données interactionnelles naturelles, des conversations ordinaires en français et en allemand. Nous ne portons pas uniquement un regard sur le chevauchement en tant que phénomène audible, mais le concevons comme une pratique incarnée en interaction, qui est également implémentée par des ressources visibles. À l'analyse séquentielle s'ajoute donc une analyse multimodale, qui nous permet de tenir compte des constellations participatives dynamiques lors du chevauchement. Le travail analytique se focalise sur trois phénomènes spécifiques dans lesquels la parole simultanée intervient de manière significative : d'abord l'auto-répétition faisant suite au chevauchement, ensuite l'abandon de tour de parole d'un locuteur lors de la parole simultanée et enfin la complétion différée, la continuation retardée d'une prise de parole en chevauchement avec l'intervention d'un interlocuteur. Cette thèse contribue à une compréhension approfondie de ces trois phénomènes et démontre que l'organisation de la parole simultanée est étroitement liée à la gestion de trajectoires d'action complexes et de cadres participatifs dynamiques.
The thesis describes a fully automatic system for the resolution of the pronouns 'it', 'this', and 'that' in English unrestricted multi-party dialog. Referential relations considered include both normal NP-antecedence as well as discourse-deictic pronouns. The thesis contains a theoretical part with a comprehensive empiricial study, and a practical part describing machine learning experiments.
This thesis investigates temporal and aspectual reference in the typologically unrelated African languages Hausa (Chadic, Afro–Asiatic) and Medumba (Grassfields Bantu). It argues that Hausa is a genuinely tenseless language and compares the interpretation of temporally unmarked sentences in Hausa to that of morphologically tenseless sentences in Medumba, where tense marking is optional and graded. The empirical behavior of the optional temporal morphemes in Medumba motivates an analysis as existential quantifiers over times and thus provides new evidence suggesting that languages vary in whether their (past) tense is pronominal or quantificational (see also Sharvit 2014). The thesis proposes for both Hausa and Medumba that the alleged future tense marker is a modal element that obligatorily combines with a prospective future shifter (which is covert in Medumba). Cross-linguistic variation in whether or not a future marker is compatible with non-future interpretation is proposed to be predictable from the aspectual architecture of the given language.
This thesis investigates temporal and aspectual reference in the typologically unrelated African languages Hausa (Chadic, Afro–Asiatic) and Medumba (Grassfields Bantu).
It argues that Hausa is a genuinely tenseless language and compares the interpretation of temporally unmarked sentences in Hausa to that of morphologically tenseless sentences in Medumba, where tense marking is optional and graded.
The empirical behavior of the optional temporal morphemes in Medumba motivates an analysis as existential quantifiers over times and thus provides new evidence suggesting that languages vary in whether their (past) tense is pronominal or quantificational (see also Sharvit 2014).
The thesis proposes for both Hausa and Medumba that the alleged future tense marker is a modal element that obligatorily combines with a prospective future shifter (which is covert in Medumba). Cross-linguistic variation in whether or not a future marker is compatible with non-future interpretation is proposed to be predictable from the aspectual architecture of the given language.
Schreiben und Redigieren stellen hohe kognitive Anforderungen an Autoren. Selbst publizierte Texte sind nie ganz fehlerfrei. Für viele Fehler kann man die Entstehung rekonstruieren: Funktionen in Textbearbeitungsprogrammen sind zeichenbasiert und berücksichtigen nicht die Elemente und Strukturen der jeweiligen verwendeten Sprache. Autoren müssen ihre Redigierabsichten in eine lange, komplexe Folge solcher zeichenbasierten Funktionen übersetzen.
Editoren für Programmierer hingegen bieten seit langem sprachspezifische Editierfunktionen, die auf den Elementen und Strukturen der verwendeten Programmiersprache operieren. Diese Funktionen tragen dazu bei, das Ändern von Programmcode zu erleichtern und Fehler zu vermeiden.
In dieser Arbeit übertragen wir das Prinzip solcher sprachspezifischen Funktionen in Programmiereditoren auf Funktionen für die Bearbeitung natürlichsprachlicher Texte. Wir entwickeln das Konzept der linguistisch unterstützten Redigierfunktionen unter Berücksichtigung aktueller Erkenntnisse der Schreibforschung. Wir definieren Informations-, Bewegungs- und Modifikationsfunktionen, die auf Elementen und Strukturen natürlicher Sprache operieren. Solche Funktionen sollen Autoren entlasten und helfen, typische Fehler zu vermeiden.
Sprachspezifische Funktionen beruhen auf Methoden zur Erkennung und Bestimmung relevanter Elemente und Strukturen. Wir verwenden dazu computerlinguistische Ressourcen zur morphologischen Analyse und Generierung und zur automatischen Wortartenbestimmung. Die Evaluation verfügbarer Ressourcen ergibt, dass die Situation für die Behandlung des Deutschen nicht so vielversprechend ist, wie ursprünglich angenommen und üblicherweise in der Literatur dargestellt.
Unsere prototypische Implementierung linguistisch unterstützter Redigierfunktionen für die Bearbeitung deutscher Texte zeigt die Möglichkeiten und Grenzen des Konzepts unter Berücksichtigung der Leistungsfähigkeit heute verfügbarer computerlinguistischer Ressourcen und der Eigenschaften des Deutschen.