Refine
Year of publication
- 2011 (252) (remove)
Document Type
- Part of a Book (115)
- Article (68)
- Conference Proceeding (27)
- Book (21)
- Other (6)
- Part of Periodical (5)
- Contribution to a Periodical (3)
- Doctoral Thesis (2)
- Review (2)
- Bachelor Thesis (1)
Language
Keywords
- Deutsch (138)
- Korpus <Linguistik> (29)
- Grammatik (18)
- Computerlinguistik (17)
- Computerunterstützte Lexikographie (14)
- Konversationsanalyse (14)
- Online-Wörterbuch (13)
- Sprachvariante (13)
- Wörterbuch (13)
- Englisch (11)
Publicationstate
- Veröffentlichungsversion (104)
- Zweitveröffentlichung (24)
- Postprint (10)
- (Verlags)-Lektorat (1)
- Erstveröffentlichung (1)
- Preprint (1)
Reviewstate
Publisher
- Institut für Deutsche Sprache (38)
- Narr (30)
- de Gruyter (29)
- Lang (11)
- Springer (6)
- Trojina, Institute for Applied Slovene Studies (5)
- Verlag für Gesprächsforschung (5)
- De Gruyter (3)
- Groos (3)
- Universidade de Santiago de Compostela (3)
Linguistische Ausdrücke, die offensichtlich aus kleineren Teilen zusammengesetzt sind, deren formale oder funktionale Eigenschaften jedoch nicht auf der Basis dieser kleineren Teile bestimmt werden können, kann man als Konstruktionen bezeichnen. Eine Standardannahme in regelbasierten Grammatikmodellen ist, dass komplexe linguistische Ausdrücke ins Lexikon gehören, wenn sie Konstruktionen sind, und in einem regelbasierten Bereich der Grammatik erfasst werden, wenn sie keine Konstruktionen sind. Dies führt zu einer inhomogenen und konzeptuell daher wenig attraktiven Theorie, die zwei mögliche Quellen für komplexe linguistische Ausdrücke vorsieht: Lexikon und Grammatik. Grundsätzlich gibt es zwei Auswege aus diesem Dilemma: Zum einen kann man die Rolle von Konstruktionen stärken, so dass Konstruktionen viel oder sogar alles von dem abdecken, was traditionell von grammatischen Regeln behandelt wird. Zum anderen kann man aber auch versuchen, die Rolle von Regeln zu stärken, so dass Regeln viel oder sogar alles von dem abdecken, wofür man typischerweise Konstruktionen bemüht. In diesem Aufsatz möchte ich anhand von zwei Phänomenen in der Grammatik des Deutschen, die auf den ersten Blick wie Musterexemplare für Konstruktionen aussehen, argumentieren, dass ein ausschließlich regelbasierter Ansatz nicht nur deskriptiv konkurrenzfähig ist, sondern darüber hinaus auch explanativ überlegen. Die untersuchten Phänomene sind verblose Direktive (wie in „Her mit dem Geld!“) einerseits und sequentielle Nominalreduplikation (wie in „Jahr für Jahr“) andererseits. Die allgemeine Konklusion ist, dass es vermutlich (außer, trivialerweise, Morphemen) gar keine Konstruktionen gibt.
Der kindliche Spracherwerb zeichnet sich sowohl durch seine Robustheit als auch durch eine spezifische Dynamik aus. Im Mittelpunkt des Beitrags stehen frühe Phasen des Erwerbs des Deutschen, in denen Konstruktionen unterschiedlicher Analysetiefe koexistieren, die im Laufe der Zeit immer wieder reanalysiert werden und schließlich auf einen einzigen abstrakten Bauplan hin konvergieren. Anhand von Daten aus diversen Fallstudien wird gezeigt, dass die Entwicklung der so genannten „Satzklammer“ des Deutschen als Konvergenzprozess verstanden werden kann, bei dem Lerner bewährte Teilsysteme, darunter anfängliche teilproduktive Formeln, dekonstruieren und auf abstrakterer Ebene rekonstruieren. Untersucht werden typische Übergangsphänomene, u.a. die Verwendung von Platzhaltern und Doppelbesetzungen, die diese Konstruktionsleistung erkennen lassen. Argumentiert wird, dass sich generative und dynamische, konstruktivistische Ansätze bei dem Bemühen um eine Erklärung dieses Erwerbsprozesses sinnvoll ergänzen.
Es ist unbestritten, dass in allen natürlichen Sprachen nicht-kompositionelle Form-Bedeutungspaare verschiedener Komplexitäts- und Abstraktionsgrade existieren. Uneinigkeit besteht dagegen bezüglich der Frage, ob diese Form-Bedeutungspaare als Teil der Grammatik oder gar, wie in der Konstruktionsgrammatik postuliert, als grundsätzliches grammatisches Organisationsprinzip zu verstehen sind. In meinem Beitrag argumentiere ich für eine zentrale Rolle von Konstruktionen bei der Repräsentation sprachlichen Wissens: Da Menschen offensichtlich in der Lage sind, Konstruktionen (im oben genannten Sinne) zu erwerben und zu verarbeiten, muss ein entsprechendes, konstruktionsverarbeitendes System existieren. Dieses kann auch nicht-idiomatische (regelhafte) Strukturen verarbeiten. Umgekehrt kann aber ein regelverarbeitendes System nicht ohne Weiteres idiomatische Strukturen verarbeiten. Das Sparsamkeitsprinzip sagt uns, dass eine Grammatik mit nur einem System einer mit zwei Systemen vorzuziehen ist, wenn es keine zwingenden Gründe für die Annahme eines zweiten Systems gibt. Neben diesem logisch-ökonomischen Argument diskutiere ich abschließend die Möglichkeit, anhand der systematischen Verletzung scheinbar allgemeingültiger grammatischer Regeln die Plausibilität eines konstruktionsverarbeitenden Systems empirisch zu untermauern.
Kombinationen aus Präposition und artikelloser Nominalprojektion, deren syntaktischer Kopf ein zählbares Substantiv im Singular ist, fristeten lange Zeit ein Schattendasein in der Grammatikschreibung. Sie wurden ignoriert oder als Ausnahmen beschrieben, obwohl sie offenkundig regelhaft gebildet werden. Im vorliegenden Aufsatz verwenden wir computerlinguistische Verfahren, insbesondere „Annotation Mining“ und logistische Regression, um die syntaktische Distribution dieser Kombinationen zu charakterisieren und anhand zweier Präpositionen (‚ohne‘ und ‚unter‘) detailliert die Realisationsbedingungen zu bestimmen.
Im letzten halben Jahrhundert hat in der formalen Grammatikforschung eine intensive Diskussion über die Natur syntaktischer und lexikalischer Information statt-gefunden. Während die frühe Generative Grammatik der traditionellen Grammatik folgte und konstruktionsspezifische Regeln anerkannte, gibt es seit den achtziger Jahren extreme Formen des Lexikalismus, die die Existenz von Konstruktionen bestreiten. Als Reaktion auf diese Entwicklungen leitete die „Berkeley Construction Grammar“ eine Renaissance der grammatischen Konstruktion ein. Der vorliegende Aufsatz untersucht anhand deutscher Relativsatztypen, ob diese besser rein lexikalisch oder mit Hilfe von Konstruktionen zu analysieren sind. Der Befund ist eindeutig: Die empirischen Daten treiben die rein lexikalische Theorie vor sich her und erweisen sie als unmotiviert und unüberzeugend. Im Gegensatz dazu kann die konstruktionale Theorie mit „intelligenten“ Werkzeugen wie Typen, Untertypen und Vererbung Generalisierungen über deutsche Relativsätze auf allen Ebenen elegant und effizient erfassen. Der Vorschlag Chomskys, Konstruktionen aus der Grammatik zu verbannen, erweist sich somit konzeptuell und empirisch als wissenschaftliche Fehlentscheidung.
Dieser Beitrag thematisiert semantische Bedingungen des unpersönlichen Passivs im Deutschen und in anderen Sprachen. Traditionellerweise nimmt man an, dass nur atelische und agentivische Verben im unpersönlichen Passiv akzeptabel sind. Ich werde die empirischen Hypothesen der bisherigen Forschung auf der Grundlage von Akzeptabilitätsstudien und einer breiteren korpusbasierten Datenmenge revidieren. Die hier behandelten semantischen Aspekte wurden in einflussreichen Arbeiten als Evidenz für die Überlegenheit einer konstruktionsgrammatischen Herangehensweise gewertet. Ich werde diese Evidenz in Frage stellen und beschränkungsbasierte Alternativen präsentieren.
Wie versteht ein Hörer oder Leser die von einem Sprecher oder Schreiber beabsichtigte Bedeutung? Syntaktische Strukturen sind zu allgemein, um feine Bedeutungsunterscheidungen auszudrücken. Wörter sind oft sehr mehrdeutig, und aufgrund dessen unzuverlässig als „Bedeutungsleitfaden“. Im Gegensatz dazu zeigt die Korpusmusteranalyse, dass die meisten Äußerungen aus Mustern von vergleichsweise geringer Mehrdeutigkeit aufgebaut sind. Daher stellt sich die Frage: Was ist ein Muster? Muster sind häufig verwendete Sprachbausteine, die aus zwei Elementen bestehen: Valenzen und Kollokationen. Während Valenzen relativ stabil sind, sind Kollokationen extrem variabel. In der Korpusmusteranalyse wird eine große Anzahl von Gebrauchsbelegen jedes Wortes studiert, und seine Kollokationen werden, ihren semantischen Typen entsprechend, lexikalischen Sets zugeordnet.
Jedes Wort einer Sprache ist Bestandteil von mindestens einem Muster. Wenn es Teil von mehr als einem Muster ist, können die Bedeutungen seiner Muster meist durch unterschiedliche Kollokations-Präferenzen unterschieden werden.
Kreative Benutzungen sind Abweichungen von normalen Nutzmustern, aber Abweichungen sind selbst regelgeleitet. Daher benötigt man eine Theorie von Normen und Abweichungen. Da die zwei Regelsysteme interagieren, können wir die Theorie als eine „Doppelhelix“ beschreiben.
WordNet und FrameNet sind zwei umfangreiche lexikalische Ressourcen. Obwohl sie auf unterschiedlichen Theorien der lexikalischen Organisation basieren und die semantischen und syntaktischen Eigenschaften von Verben in beiden Ressourcen unterschiedlich dargestellt werden, wird mit beiden das Ziel verfolgt, die Regelmäßigkeit des Lexikons hervorzuheben. Seit Levin (1993) ist bekannt, dass die Selektion und Projektion von Argumenten eng mit den semantischen Eigenschaften von Verben zusammenhängt, und dass eine syntaktisch basierte Klassifikation des Verblexikons semantisch homogene Klassen ergibt. In diesem Beitrag werden die unterschiedlichen Ansätze von WordNet und FrameNet, das Verblexikon einheitlich zu klassifizieren, bewertet. Es wird ein laufender Versuch beschrieben, beide Ressourcen teilweise miteinander abzugleichen, indem ausgewählte Verben in einem großen Korpus zunächst manuell mit Bezug auf Einträge in WordNet und FrameNet annotiert werden. Anschließend werden verschiedene Ansätze zur automatischen Abgleichung, wie z.B. der des deutschen SALSA-Projekts, im Überblick dargestellt.
Der vorliegende Aufsatz beschäftigt sich mit der Frage, wie Argumente während des Sprachverstehens erkannt werden, welche Eigenschaften einem Argument in Abwesenheit des Verbs zugeschrieben werden und welche Art von Vorhersagen mit der Argumentinterpretation verbunden sind. Ausgehend von der Annahme, dass beim Sprachverstehen in Echtzeit jedes Wort so maximal wie möglich interpretiert wird, werden wir argumentieren, dass die zugrunde liegenden, sprachübergreifend zu findenden Mechanismen durch die Interaktion von typologisch motivierten Prominenzskalen (z.B. Belebtheitshierarchie) beschrieben werden sollten. Diese gestatten nicht nur eine Erklärung bestehender Befunde, sondern besitzen das Potenzial, zentrale Aspekte der Sprachverstehensarchitektur modelltheoretisch abzuleiten. Experimentell liegt der Fokus des Aufsatzes auf der Erfassung elektrophysiologischer-neuronaler Aktivierungsmuster, da diese uns im Gegensatz zu Urteilen oder Korpusverteilungen einen unmittelbaren Einblick in die Verarbeitung im Echtzeitbereich gestatten.
Der Konstruktionsbegriff hielt seinen Einzug in die Spracherwerbsforschung durch gebrauchsbasierte Lerntheorien, nach denen sprachliche Strukturen als Form-Funktionseinheiten aus dem Input abgeleitet werden, Sprache somit ein emergentes System ist (Tomasello 1998a und b; Behrens 2009a und b). Die Abstraktionseinheit für das Kind ist dabei die Äußerung in ihrer situativen Gebundenheit und ihrer Diskursfunktion, mithin die Konstruktion. Die Konstruktion wird gefasst als schematische Einheit mit mehr oder weniger offenen Slots: Teile der Konstruktion können lexikalisch fixiert oder aber produktiv und durch andere Ausdrücke ersetzbar sein. Der Kontrast zum Valenzbegriff bzw. dem der Argumentstruktur in seiner formaleren Definition liegt darin, dass die lexikalischen Eigenschaften der Wörter die Syntax nicht projizieren, sondern dass sowohl die Eigenschaften der Lemmas als auch die der Morphosyntax aus ihrem Vorkommen in konkreten Sätzen abgeleitet werden.
Empirisch konzentriert sich die Forschung auf die Ermittlung der Generalisierungsprozesse und auf deren Basis im Input, dem Sprachangebot. Erwerbsrelevant ist insbesondere der Input in seinen usualisierten Mustern in typischen Interaktionssituationen. Eher wird vor allem der Grad der Produktivität kindlicher Äußerungen analysiert. Bislang weniger untersucht, aber zunehmend im Fokus sind die Generalisierungsprozesse selbst und damit die generative Kraft des Konstruktionsbegriffs. Sobald Aspekte einer Konstruktion abstrahiert worden (= produktiv) sind, sollten sie auf neue Situationen übertragen werden können, und gilt es zu ermitteln, welche formalen, funktionalen und distributionellen Faktoren die Abstraktion sprachlichen Wissens fördern.
In dem Paradigma der gebrauchsbasierten Konstruktionsgrammatik wird die modulare Trennung zwischen Wörtern und Regeln aufgehoben. Somit kann innerhalb eines einheitlichen theoretischen Rahmens sowohl der Erwerb regelhafter als auch der stärker idiosynkratischer Strukturen erklärt werden.
Das in diesem Beitrag vorgeschlagene Netzwerk aus Resultativkonstruktionen unterschiedlichen Abstraktionsgrades vereinigt die Vorteile von Goldbergs (1995, 2006) und Boas' (2003a, 2005a) Analysen. So können sowohl die beim Dekodieren relevanten abstrakt-schematischen Konstruktionsinformationen als auch die beim Kodieren wichtigen lexikalisch-spezifizierten Konstruktionsinformationen über semantische, pragmatische, und syntaktische Restriktionen auf der Ebene von Ereignis-Frames in einem einheitlichen Netzwerk erfasst und analysiert werden. Diese einheitliche Analyse bietet zwei entscheidende Vorteile. Erstens vereinfacht die Beschreibung der Distribution von Konstruktionen auf primär semantisch-pragmatischer Ebene die kontrastive Analyse von gleichartigen Konstruktionen in unterschiedlichen Sprachen. Zweitens erfüllt die hier vorgeschlagene Methode auch die in neueren Veröffentlichungen zu Parallelen der Valenzgrammatik und Konstruktionsgrammatik gemachten Vorschläge, unterschiedliche Abstraktionsgrade von Konstruktionen zu berücksichtigen. Ich danke Hans Ulrich Boas, Marc Pierce, Guido Halder, Martin Hilpert, Wolfgang Imo, Klaus Welke, Gert Webelhuth, Alexander Ziem und den Herausgebern für ihre Kommentare und Anregungen.
Kollokationen sind nach unserem Verständnis phraseologische Kombinationen aus zwei Lexemen, die in einer Sprachgemeinschaft konventionalisiert und deren Elemente semantisch ungleichgewichtig sind: Eines wird in derselben Weise verwendet wie in kompositionellen Wortkombinationen (Basis), das andere (Kollokator) erhält seine spezifische Bedeutung nur innerhalb der Kollokation.
Der Artikel diskutiert Möglichkeiten, Kollokationen in Texten zu identifizieren, die für die deutschen Nationalvarietäten aus Deutschland, Österreich, der Schweiz und Südtirol typisch sind. Der Schwerpunkt liegt dabei auf methodischen Fragen: Lassen sich mit einfachen, im Wesentlichen frequenzbasierten Werkzeugen Kollokationsunterschiede zwischen Österreich und Deutschland, der Schweiz und Deutschland, usw. aufweisen? Wie können die Spezifika der Kollokationswahl in den einzelnen Nationalvarietäten anhand von Korpora genauer dokumentiert werden? Sind Varietäten nur in Bezug auf die Kollokatorenwahl spezifisch, oder auch bezüglich morphosyntaktischer Präferenzen (z.B. Artikelgebrauch etc.)?
In der letzten Zeit wurde aus verschiedenen linguistischen Teildisziplinen heraus versucht, die Anwendbarkeit der Construction Grammar in Bereichen wie beispielsweise der Gesprächsforschung zu überprüfen. Für die Gesprächsforschung bzw. Interaktionale Linguistik bietet die Construction Grammar einen viel versprechenden theoretischen Rahmen, da sich viele der Grundannahmen von Construction Grammar und Interaktionaler Linguistik/Gesprächsanalyse decken. Trotz dieser positiven Übereinstimmungen führt das zeichenbasierte Konzept der Konstruktionsgrammatik zu Problemen bei der Analyse gesprochener Sprache. Häufig können bestimmte Phrasen, Satzmuster oder Wörter nicht bestimmten Konstruktionen eindeutig zugeordnet werden, da zu ihrem Verständnis Kontextinformationen nötig sind oder da sie die Merkmale mehrerer Konstruktionen teilen. Anhand dreier problematischer Fälle aus dem gesprochenen Deutsch, bei denen das Konzept, Konstruktionen als Zeichen zu betrachten, zu Problemen führt, werden die Grenzen des konstruktionsgrammatischen Modells aufgezeigt. In einem zweiten Schritt wird als Lösungsvorschlag die Theorie der Granularität nach Bittner/Smith (2001a und b, 2003) vorgestellt, die dazu entwickelt wurde, „to map vague concepts onto crisp portions of reality“ (Bittner/Smith 2011a, S 1). Zuletzt wird eine granulare Re-Analyse der eingangs vorgestellten Problemfälle vorgenommen.
Grammatik ohne Wörter?
(2011)
Am Beispiel des Deutschen wird gezeigt, dass verschiedene Strategien, die traditionelle Unterscheidung zwischen Wörtern und Syntagmen so zu modifizieren, dass sie die sehr differenzierten Daten vollständig, detailliert und widerspruchsfrei erfasst, zur inhaltlichen Entleerung dieser Unterscheidung führen und sie damit letztlich überflüssig machen. Das gilt sowohl für die populäre Aufspaltung von Wort vs. Syntagma in mehrere spezifischere Kategorienpaare (phonologisches Wort vs. phonologisches Syntagma, graphematisches Wort vs. graphematisches Syntagma usw.) als auch für ihre Umdeutung als Prototypen- oder Default-Kategorien. Allerdings kann man an der Unterscheidung zwischen Wörtern und Syntagmen festhalten, wenn man Einschränkungen der Vollständigkeit, Detailtreue oder Widerspruchsfreiheit in Kauf nimmt (wie in der linguistischen Praxis oft unumgänglich). Diese Überlegungen übertragen sich auf die auf Wort vs. Syntagma beruhenden Abgrenzungen linguistischer Teilgebiete, wie Syntax vs. Morphologie vs. Phraseologie, z.T. auch Grammatik vs. Lexikon.
Schlussworte
(2011)
Gegenstand ist die Analyse der Sprachkontakte zwischen dem Deutschen, Tschechischen und Slowakischen anhand der Geschichte der deutschen Lehnwörter in diesen Slawinen vom Beginn ihrer einzelsprachlichen Entwicklung bis ins 20. Jahrhundert. Nach einer synthetisierenden Studie werden im chronologisch und nach regionalen Varietäten gegliederten Wörterbuch in mehr als 3 500 Wörterbuchartikeln über 15 000 einzelne Wortformen analysiert und ihre Erstbelege angeführt. Mit einer umfassenden Bibliographie zum deutsch-slawischen Sprachkontakt und ausführlichen Indices stellt das für die Neuauflage durchgehend überarbeitete und aktualisierte Werk eine nahezu unerschöpfliche Quelle für die Sprachkontaktforschung im Allgemeinen sowie für die Germanistik und Slawistik im Besonderen dar.
Von Grammatikern erwartet man Auskunft darüber, wie man zu reden und zu schreiben hat, eine Erwartung, die sich auf die Annahme stutzt, es stehe grundsätzlich immer schon fest, was in Sprachen wie etwa dem Deutschen als korrekt gelten kann. Tatsächlich kann jedoch nicht einmal davon ausgegangen werden, dass es so etwas wie das Deutsche als eindeutig bestimmten Gegenstand gibt. Alles, was als Deutsch zu fassen ist, sind ungezählte schriftliche und - sofern aufgezeichnet - mündliche Äußerungen. Bis vor wenigen Jahren waren diese Daten praktisch nur unzureichend zu nutzen, weshalb Grammatikern wenig anderes übrig blieb, als auf der schmalen Basis durch Introspektion gewonnener Daten Simulationen eines allgemeinen Sprachgebrauchs zu entwickeln. Mit der Verfügung über riesige Korpora maschinenlesbarer Texte haben sich die Voraussetzungen für die Untersuchung grammatischer Strukturen entscheidend verändert. Für die Grammatikforschung ergaben sich damit neue Perspektiven: zum einen ein radikaler Bruch mit der Tradition grammatischer Analysen, der weitgehend auf eine statistische Auswertung von Kookkurrenzen setzt, zum andern - weniger radikal, mehr traditionsverbunden - die Möglichkeit, konventionell kompetenzgestutzt erarbeitete Regelhypothesen anhand von Daten zu validieren, wie sie in sehr großen Textkorpora vorliegen und dem, was als Deutsch gelten kann, so nah kommen, wie dies irgend erreichbar ist, da sie durchweg in dem Bemühen zustande kamen, sich korrekt auszudrucken.
In den letzten Jahren entwickelten sich in vielen europäischen Großstädten unter Jugendlichen der 2. und 3. Migrantengeneration ethnolektale Formen des Deutschen. Sie sind charakteristisch für multilinguale Kontexte, in denen Sprecher unterschiedlicher Herkunftssprachen die regionale Umgangssprache des Landes, in dem sie leben, als lingua franca benutzen. Die neuen Formen haben große Überschneidungsbereiche mit den regionalen Varietäten, unterscheiden sich aber prosodisch- phonetisch, lexikalisch und morphosyntaktisch. Meist werden sie nur in bestimmten Kontexten verwendet, und die Sprecher wechseln virtuos zwischen regionalen Varietäten, Herkunftsvarietäten, sprachlichen Mischungen und ethnolektalen Formen.
Auf der Basis von drei ethnografischen Fallstudien in Mannheim wird gezeigt, wie die von den Migrantenjugendlichen entwickelten ethnolektalen Formen aussehen und zu welchen Zwecken die Jugendlichen sie verwenden. Die Jugendlichen haben ein weites Sprachrepertoire, verfugen über ethnolektale sowie standardnahe Formen und nutzen die Differenz zwischen beiden als kommunikative Ressource.
Active Learning (AL) has been proposed as a technique to reduce the amount of annotated data needed in the context of supervised classification. While various simulation studies for a number of NLP tasks have shown that AL works well on goldstandard data, there is some doubt whether the approach can be successful when applied to noisy, real-world data sets. This paper presents a thorough evaluation of the impact of annotation noise on AL and shows that systematic noise resulting from biased coder decisions can seriously harm the AL process. We present a method to filter out inconsistent annotations during AL and show that this makes AL far more robust when applied to noisy data.
Problems for parsing morphologically rich languages are, amongst others, caused by the higher variability in structure due to less rigid word order constraints and by the higher number of different lexical forms. Both properties can result in sparse data problems for statistical parsing. We present a simple approach for addressing these issues. Our approach makes use of self-training on instances selected with regard to their similarity to the annotated data. Our similarity measure is based on the perplexity of part-of-speech trigrams of new instances measured against the annotated training data. Preliminary results show that our method outperforms a self-training setting where instances are simply selected by order of occurrence in the corpus and argue that selftraining is a cheap and effective method for improving parsing accuracy for morphologically rich languages.
In der Arbeit wird die Analyse agonaler Zentren, die Felder (2012) vorgelegt hat, überprüft und um korpuslinguistische Herangehensweisen erweitert. Es wird überprüft, inwiefern bestimmte Wortarten in der Lage sind, die Analyse agonaler Zentren unabhängig vom Thema des Diskurses zu unterstützen. Dazu wird die computergestützte Korpusanalyse mit Hilfe von Konnektoren, Präpositionen, Partikeln, Substantiven, Adjektiven und Verben zunächst an einem bereits von Felder (2012) analysierten Korpus getestet und dann an einem weiteren, im Hinblick auf Thema und Textsorten völlig anderen Korpus überprüft. Insbesondere die Konnektoren stellen sich dabei als für die themenunabhängige, computergestützte Korpusanalyse als leistungsstark heraus.
Den Wald vor lauter Bäumen sehen - und andersherum: zum Verhältnis von 'Mustern' und 'Regeln'
(2011)
Die Konstruktionsgrammatik setzt dem Begriff der konstruktiven Regel den des komplexen Musters entgegen, das in syntaktischen Generalisierungsprozessen analogisch erweitert wird. Der vorliegende Beitrag präsentiert eine solche musterbasierte Analyse von deutschen Konstruktionen mit lokativem Subjekt (Wiesen und Wälder wuchern vor Blumen und Kräutern) als Extension einer Reihe verwandter Konstruktionen mit kausaler und intensivierender Funktion, aus denen die lokative Variante mutmaßlich hervorgegangen ist. Die Analyse argumentiert, dass der umgebenden ,Ökologie‘ der Zielkonstruktion im sprachlichen Wissen der Sprecher eine zentrale Rolle für die Erklärung der attestierten Varianten zukommt, die in regelbasierten Zugängen als unmotivierte ,Ausnahmen‘ von allgemeinen Linkingprinzipien gelten müssen.
Oscailt/Opening
(2011)
In this contribution, we discuss and compare alternative options of modelling the entities and relations of wordnet-like resources in the Web Ontology Language OWL. Based on different modelling options, we developed three models of representing wordnets in OWL, i.e. the instance model, the dass model, and the metaclass model. These OWL models mainly differ with respect to the ontological Status of lexical units (word senses) and the synsets. While in the instance model lexical units and synsets are represented as individuals, in the dass model they are represented as classes; both model types can be encoded in the dialect OWL DL. As a third alternative, we developed a metaclass model in OWL FULL, in which lexical units and synsets are defined as metaclasses, the individuals of which are classes themselves. We apply the three OWL models to each of three wordnet-style resources: (1) a subset of the German wordnet GermaNet, (2) the wordnet-style domain ontology TermNet, and (3) GermaTermNet, in which TermNet technical terms and GermaNet synsets are connected by means of a set of “plug-in” relations. We report on the results of several experiments in which we evaluated the performance of querying and processing these different models: (1) A comparison of all three OWL models (dass, instance, and metaclass model) of TermNet in the context of automatic text-to-hypertext conversion, (2) an investigation of the potential of the GermaTermNet resource by the example of a wordnet-based semantic relatedness calculation.
Prominence has been widely studied on the word level and the syllable level. An extensive study comparing the two approaches is missing in the literature. This study investigates how word and syllable prominence relate to each other in German. We find that perceptual ratings based on the word level are more extreme than those based on the syllable level. The correlations between word prominence and acoustic features are greater than the correlations between syllable prominence and acoustic features.
Streefkerk defines prominence as the perceptually outstanding parts in spoken language. An optimal rating scale for syllable prominence has not been found yet. This paper evaluates a 4-point, an 11-point, a 31-point, and a continuous scale for the rating of syllable prominence and gives support for scales using a higher number of levels. Priming effects found by Arnold, et al., could only be replicated using the 31-point scale.
Para sus amigos y colaboradores, Carlos Buján representa el placer de la lectura, la curiosidad intelectual, la apertura hacia todas las ramas del saber, la proximidad de la palabra hablada en un mundo de comunicaciones virtuales o la memoria viva de la universidad. Unos reconocen en él al maestro que supo estimular su interés por la filologÍa unido a la exigencia del trabajo bien hecho; otros lo reconocen como guía en sus carreras universitarias y el personaje fundamental para madurar académicamente. Los setenta años de Carlos constituyen una magnífica ocasión para ofrecerle este homenaje escrito, una Festschrift en la mejor tradición germánica, a la que han contribuido algunos de sus amigos, colegas y discípulos. La variedad de ámbitos de trabajo, edades y localizaciones geográficas de sus autores refleja la facilidad de Carlos Buján por transitar con personas de distintas disciplinas, especialidades, nacionalidades y situaciones personales o académicas. Con todo, la mayoria de los trabajos aquí reunidos pertenecen al área de filología alemana, en la que Carlos ha destacado tanto por su capacidad de orientar a jóvenes investigadores y docentes en ciernes como por su contribución, desde Santiago, a la consolidación y profesionalización de una germanística española.
Αυοιγμα / Opening
(2011)
Linguistic query systems are special purpose IR applications. We present a novel state-of-the-art approach for the efficient exploitation of very large linguistic corpora, combining the advantages of relational database management systems (RDBMS) with the functional MapReduce programming model. Our implementation uses the German DEREKO reference corpus with multi-layer linguistic annotations and several types of text-specific metadata, but the proposed strategy is language-independent and adaptable to large-scale multilingual corpora.