Refine
Year of publication
- 2013 (89) (remove)
Document Type
- Article (89) (remove)
Keywords
- Deutsch (44)
- Sprachkritik (8)
- Konversationsanalyse (7)
- Englisch (6)
- Korpus <Linguistik> (6)
- Interaktion (5)
- Syntax (5)
- conversation analysis (5)
- Anglizismus (4)
- Gesprochene Sprache (4)
Publicationstate
- Veröffentlichungsversion (28)
- Postprint (10)
- Zweitveröffentlichung (8)
Reviewstate
- Peer-Review (28)
- (Verlags)-Lektorat (16)
- Verlags-Lektorat (2)
- Peer review (1)
- Peer-review (1)
Publisher
- Elsevier (6)
- de Gruyter (4)
- De Gruyter (3)
- Steiner (3)
- Benjamins (2)
- GSCL (2)
- Schmidt (2)
- Springer (2)
- Association Française pour la diffusion du RIDA (1)
- Cambridge University Press (1)
Im Beitrag werden ausgewählte semantische und syntaktische Eigenschaften von AcI-Konstruktionen bei Wahrnehmungsverben im Deutschen, Italienischen und Ungarischen anhand einer Korpusanalyse dargestellt. Dabei wird in erster Linie auf Eigenschaften eingegangen, denen in der bisherigen Forschung wenig Aufmerksamkeit gewidmet wurde. Das Hauptziel ist, syntaktische Eigenschaften der Konstruktion aufzudecken, die sich von den Eigenschaften von Sätzen mit einer weniger markierten syntaktischen Struktur unterscheiden. Des Weiteren wird auch auf den Grammatikalisierungsgrad der Konstruktion in den einzelnen Vergleichssprachen eingegangen.
Thema dieses Aufsatzes sind adverbiale Satzverknüpfungen, insbesondere Konjunktionen und Präpositionen als lexikalische Satzverknüpfer sowie Tempus und Modus als grammatische Diskursverknüpfungsmittel. Ferner wird mit der Fokussierung bzw. Fokussierbarkeit von Subjekten ein Aspekt der Informationsstruktur berührt. Im Mittelpunkt der Untersuchung steht das Portugiesische, das im Bereich der Satzverknüpfungen verglichen mit anderen (romanischen und nicht-romanischen) Sprachen über eine besonders große Ausdrucksvielfalt verfügt (cf. Rudolph 1997; Gärtner 2003; Blühdorn 2012b). Zum Vergleich ziehen wir das Deutsche heran, dessen Satzverknüpfungsmittel deutlich weniger differenziert sind. Adverbialia sind semantisch modifizierende Ausdrücke, die sich mit anderen (vor allem verbalen) Ausdrücken verbinden, ohne deren syntaktische Eigenschaften zu verändern und insbesondere ohne syntaktische Valenzen zu sättigen (cf. Corver/Delfitto 2000; Delfitto 2000; Bierwisch 2003; Rocha/Lopes 2009). Sie können durch Adverbien realisiert werden, aber auch durch komplexere Ausdrücke wie Präpositionalphrasen, oder durch Ausdrücke, die ein eigenes Verb enthalten, etwa Infinitivgruppen oder vollständige finite Nebensätze. In diesem Aufsatz geht es vor allem um Adverbialia der beiden letztgenannten Typen, die Verbgruppen oder Sätze erweitern. Adverbiale Infinitivgruppen werden typischerweise durch eine Präposition eingeleitet, finite adverbiale Nebensätze durch einen Subjunktor. Zwei Beispiele für Kausalverknüpfungen:
Automatic recognition of speech, thought, and writing representation in German narrative texts
(2013)
This article presents the main results of a project, which explored ways to recognize and classify a narrative feature—speech, thought, and writing representation (ST&WR)—automatically, using surface information and methods of computational linguistics. The task was to detect and distinguish four types—direct, free indirect, indirect, and reported ST&WR—in a corpus of manually annotated German narrative texts. Rule-based as well as machine-learning methods were tested and compared. The results were best for recognizing direct ST&WR (best F1 score: 0.87), followed by indirect (0.71), reported (0.58), and finally free indirect ST&WR (0.40). The rule-based approach worked best for ST&WR types with clear patterns, like indirect and marked direct ST&WR, and often gave the most accurate results. Machine learning was most successful for types without clear indicators, like free indirect ST&WR, and proved more stable. When looking at the percentage of ST&WR in a text, the results of machine-learning methods always correlated best with the results of manual annotation. Creating a union or intersection of the results of the two approaches did not lead to striking improvements. A stricter definition of ST&WR, which excluded borderline cases, made the task harder and led to worse results for both approaches.
Raksta mērķis ir izvērtēt lingvistiskās ainavas laukā paveikto, apkopojot piecu gadu pieredzi un ieskicējot nākotnes perspektīvas turpmākajos pētījumos un studiju procesa satura plānojumā. Rakstā pamatā ir izmantota deskriptīvā pētniecības metode un kontentanalīze. Būtiskākie secinājumi: Lingvistiskās ainavas izpēte dažādās teritoriālajās vienībās Baltijas valstīs ir notikusi kopš 2008. gada, iesaistot arī studentus un vidusskolēnus. Lingvistiskās ainavas izpētes un metodoloģijas pilnveides rezultātā Rēzeknes Augstskolā (turpmāk – RA) ir izveidota kvantitatīvo un kvalitatīvo datu bāze, izstrādāti daudzveidīgi individuālie un kolektīvie pētījumi.Turpmāk ir plānots lielāku uzmanību veltīt Latgales skolu ainavai un citu iestāžu mikrovides izpētei, Latgales pilsētu datu salīdzinājumam ar citu Eiropas valstu reģionu lingvistisko ainavu, korelējot kvantitatīvos datus ar diskursa analīzes daudzveidīgo pieeju iespējām.
In this article, we examine the effectiveness of bootstrapping supervised machine-learning polarity classifiers with the help of a domain-independent rule-based classifier that relies on a lexical resource, i.e., a polarity lexicon and a set of linguistic rules. The benefit of this method is that though no labeled training data are required, it allows a classifier to capture in-domain knowledge by training a supervised classifier with in-domain features, such as bag of words, on instances labeled by a rule-based classifier. Thus, this approach can be considered as a simple and effective method for domain adaptation. Among the list of components of this approach, we investigate how important the quality of the rule-based classifier is and what features are useful for the supervised classifier. In particular, the former addresses the issue in how far linguistic modeling is relevant for this task. We not only examine how this method performs under more difficult settings in which classes are not balanced and mixed reviews are included in the data set but also compare how this linguistically-driven method relates to state-of-the-art statistical domain adaptation.
Büchersegen
(2013)
Construction-based language models assume that grammar is meaningful and learnable from experience. Focusing on five of the most elementary argument structure constructions of English, a large-scale corpus study of child-directed speech (CDS) investigates exactly which meanings/functions are associated with these patterns in CDS, and whether they are indeed specially indicated to children by their caretakers (as suggested by previous research, cf. Goldberg, Casenhiser and Sethuraman 2004). Collostructional analysis (Stefanowitsch and Gries 2003) is employed to uncover significantly attracted verb-construction combinations, and attracted pairs are classified semantically in order to systematise the attested usage patterns of the target constructions. The results indicate that the structure of the input may aid learners in making the right generalisations about constructional usage patterns, but such scaffolding is not strictly necessary for construction learning: not all argument structure constructions are coherently semanticised to the same extent (in the sense that they designate a single schematic event type of the kind envisioned in Goldberg’s [1995] ‘scene encoding hypothesis’), and they also differ in the extent to which individual semantic subtypes predominate in learners’ input