Refine
Year of publication
- 2005 (209) (remove)
Document Type
- Part of a Book (123)
- Article (44)
- Conference Proceeding (18)
- Book (12)
- Part of Periodical (4)
- Other (3)
- Preprint (2)
- Working Paper (2)
- Diploma Thesis (1)
Language
- German (171)
- English (35)
- Portuguese (1)
- Russian (1)
- Spanish (1)
Keywords
- Deutsch (117)
- Englisch (24)
- Massenmedien (21)
- Mediensprache (19)
- Korpus <Linguistik> (15)
- Wörterbuch (14)
- Grammatik (11)
- Gesprochene Sprache (10)
- Russisch (10)
- Sprachvariante (10)
Publicationstate
- Veröffentlichungsversion (85)
- Zweitveröffentlichung (8)
- Postprint (6)
Reviewstate
Publisher
- Institut für Deutsche Sprache (59)
- de Gruyter (33)
- De Gruyter (10)
- Lang (8)
- Niemeyer (8)
- Oxford University Press (4)
- Narr (3)
- Wissenschaftliche Verlagsgesellschaft (3)
- Benjamins (2)
- Edusp/Monferrer Produções (2)
We present an implemented XML data model and a new, simplified query language for multi-level annotated corpora. The new query language involves automatic conversion of queries into the underlying, more complicated MMAXQL query language. It supports queries for sequential and hierarchical, but also associative (e.g. coreferential) relations. The simplified query language has been designed with non-expert users in mind.
This paper is concerned with a novel methodology for generating phonetic questions used in tree-based state tying for speech recognition. In order to implement a speech recognition system, language-dependent knowledge which goes beyond annotated material is usually required. The approach presented here generates phonetic questions for decision trees are based on a feature table that summarizes the articulatory characteristics of each sound. On the one hand, this method allows better language-specific triphone models to be defined given only a feature-table as linguistic input. On the other hand, the feature-table approach facilitates efficient definition of triphone models for other languages since again only a feature table for this language is required. The approach is exemplified with speech recognition systems for English and Thai.
Argumentation gilt als zentrales rationales Verfahren gewaltfreier Problem- und Konfliktlösung. Die dabei vorausgesetzte Prämisse der Intersubjektivierbarkeit und Rationalitätsbestimmtheit wurde aber nie daraufhin geprüft, ob sie mit den Bedingungen und Zwängen der Herstellung und Durchführung von Gesprächen vereinbar ist. Auf der Basis einer detaillierten linguistischen Gesprächsanalyse von mehr als 60 alltagsweltlichen Problem- und Konfliktgesprächen wird in dem Beitrag skizziert, wie Argumentation in Gesprächen hergestellt und durchgeführt wird. Interaktive Sequenzierung und inhaltliche Bezugnahmen machen dabei deutlich, dass Gesprächsteilnehmer stets auf interaktionskonstitutive Elemente abheben: Was zur Herstellung von Gesprächen notwendig ist, wird in Gesprächen als Argument gewendet. Argumentation wird damit als eine soziale Handlungspraxis bestimmt, deren Ursprung in den Bedingungen, Möglichkeiten und Zwängen von Gesprächen, von sozialer Interaktion überhaupt liegt. Die für Argumentation konstitutive Anbindung an übergeordnete Handlungsorientierungen widerspricht dabei fundamental der Idee rein sachbezogener und interesseloser Aushandlung, wie sie seit der Antike in den Wissenschaften, aber auch im Alltagsdenken vorherrscht. Was Gesprächsteilnehmer beim Argumentieren antreibt, ist die Kraft intersubjektiven Glaubens an Argumentation als ein Verfahren zur Entwicklung einer gemeinsam geteilten Perspektive, und der Anspruch an das Verfahren als ein Validität garantierendes Verfahren wird dabei außerdem noch mit dem Anspruch auf die Validität des Ergebnisses einer Argumentation verwechselt. Die Kraft des intersubjektiven Glaubens und der Anspruch an das Verfahren sind die zentralen Bestandteile dessen, was hier Kommunikationsideologie genannt wird.
HMMs are the dominating technique used in speech recognition today since they perform well in overall phone recognition. In this paper, we show the comparison of HMM methods and machine learning techniques, such as neural networks, decision trees and ensemble classifiers with boosting and bagging in the task of articulatory-acoustic feature classification. The experimental results show that HMM methods work well for the classification of such features as vocalic. However, decision tree and bagging outperform HMMs for the fricative classification task since the data skewness is much higher than for the feature vocalic classification task. This demonstrates that HMMs do not perform as well as decision trees and bagging in highly skewed data settings.