Refine
Year of publication
Document Type
- Part of a Book (10)
- Article (3)
- Conference Proceeding (2)
- Book (1)
Has Fulltext
- yes (16)
Keywords
- Syntagma (16) (remove)
Publicationstate
Reviewstate
Publisher
This article targets a distinctive kind of root structures in German formed by minimally two phrases but lacking an overt verbal predicate like i.a. die Guten ins Tröpfchen, die Schlechten ins Kröpfchen, jedem ein Bier or in den Müll mit dem Dreck. Certain instantiations of these patterns have been dubbed verblose Direktiva by Jacobs (2008) who provides an account in terms of construction grammar. Müller (2011), on the other hand, proposes an anti-passive analysis of the phenomenon. However, these apparent verbless root structures show conspicuous parallels in form and interpretation to another type of non-finite root structures in German, namely root infinitives. Both exclude an overt subject expression and both have a modal interpretation. Referring to these parallels, an analysis is elaborated which employs a empty verbal category. The overt consituents, then, are hosted by the (possibly extended) projection of the empty verb. Furthermore, this analysis captures a broader range of data, in particular instances formed by concatenated NPDAT-NPAKK or NPAKK-PP.
We present the use of count-based and predictive language models for exploring language use in the German Reference Corpus DeReKo. For collocation analysis along the syntagmatic axis we employ traditional association measures based on co-occurrence counts as well as predictive association measures derived from the output weights of skipgram word embeddings. For inspecting the semantic neighbourhood of words along the paradigmatic axis we visualize the high dimensional word embeddings in two dimensions using t-stochastic neighbourhood embeddings. Together, these visualizations provide a complementary, explorative approach to analysing very large corpora in addition to corpus querying. Moreover, we discuss count-based and predictive models w.r.t. scalability and maintainability in very large corpora.
Korpora und Fremdsprachendidaktik haben – auch jenseits des angeleiteten oder selbstgesteuerten Arbeitens an den Daten – Berührungspunkte mit langer Tradition, durchaus mit nicht-digitalen Ausläufern, deren korpuslinguistische Dimensionen erst in den letzten Jahrzehnten erschlossen wurden. Worthäufigkeitszählungen, auch vergleichend, in beliebig großen oder auf bestimmte Bedürfnisse zugeschnittenen Datensammlungen lassen sich mit weiteren Metriken verknüpfen, die eine differenzierte Bewertung für die didaktische Relevanz ermöglichen. Kollokations-/Kookkurrenzanalysen helfen, typische Formulierungsmuster zu ermitteln. Dieser Beitrag stellt zunächst diese beiden Herangehensweisen dar. Das Manko der getrennten Betrachtung ist, dass keine der beiden isoliert ausreicht, um die Angemessenheit von Formulierungen zu bewerten hinsichtlich muttersprachlicher Natürlichkeit und Weiterentwicklung des Lernstands. Als Abhilfe wird eine Verknüpfung skizziert, die beide Perspektiven zusammenbringt.
Der Blick auf die Syntax und generell auf die Grammatik ist traditionell aszendent, 'von unten nach oben' gerichtet: Einer Wortgrammatik folgt eine Satzgrammatik und dieser eventuell eine Textgrammatik. Doch wir schreiben und sprechen weder in Wörtern noch in Sätzen, sondern wir produzieren Texte und Gespäche. Deshalb musste auch der diametral entgegengesetzte Blick, der zu einer deszendenten Grammatik fuhrt, möglich sein. Eine solche Grammatik liegt mit der Grammatischen Textanalyse (= GTA), einer funktionalen Syntax des Gegenwartsdeutschen vor, die das grammatische System 'von oben nach unten' - von der Text- (Textglieder) über die Satz- (Satzglieder) zur Wortgruppenebene (Wortgruppenglieder) - modelliert. Im Beitrag werden Grundlagen und Leitbegriffe der GTA vorgestellt und an ausgewählten Phänomenen exemplifiziert.
Die Analyse sprachlicher Massendaten zeigt, wie zentral mehr oder weniger feste Wortverbindungen als Lexikoneinheiten für die Sprachkompetenz sind. Der Beitrag geht zunächst kurz auf aktuelle Entwicklungen in der Phraseologie ein: eine Abkehr von der starken Betonung des Idiosynkratischen einerseits und die Hinwendung zum Vorgeprägten andererseits. Wir führen hierzu den Terminus‚ lexikalisch geprägte Muster‘ (LGM) ein. In einer Detailanalyse beschäftigen wir uns mit satzwertigen Wortverbindungen im Spannungsfeld zwischen ausgeprägter Lexikalisierung, die auf eine gesonderte kognitive Verankerung hindeutet, und der Konstitution abstrakter Spruchmuster als LGM-Subtyp. Im zweiten Teil zeigen wir, wie usuelle Wortverbindungen innerhalb von Phrasenkomposita zur Lexembildung beitragen.
Grammatik ohne Wörter?
(2011)
Am Beispiel des Deutschen wird gezeigt, dass verschiedene Strategien, die traditionelle Unterscheidung zwischen Wörtern und Syntagmen so zu modifizieren, dass sie die sehr differenzierten Daten vollständig, detailliert und widerspruchsfrei erfasst, zur inhaltlichen Entleerung dieser Unterscheidung führen und sie damit letztlich überflüssig machen. Das gilt sowohl für die populäre Aufspaltung von Wort vs. Syntagma in mehrere spezifischere Kategorienpaare (phonologisches Wort vs. phonologisches Syntagma, graphematisches Wort vs. graphematisches Syntagma usw.) als auch für ihre Umdeutung als Prototypen- oder Default-Kategorien. Allerdings kann man an der Unterscheidung zwischen Wörtern und Syntagmen festhalten, wenn man Einschränkungen der Vollständigkeit, Detailtreue oder Widerspruchsfreiheit in Kauf nimmt (wie in der linguistischen Praxis oft unumgänglich). Diese Überlegungen übertragen sich auf die auf Wort vs. Syntagma beruhenden Abgrenzungen linguistischer Teilgebiete, wie Syntax vs. Morphologie vs. Phraseologie, z.T. auch Grammatik vs. Lexikon.