Refine
Year of publication
Document Type
- Doctoral Thesis (18) (remove)
Language
- German (18) (remove)
Keywords
- Deutsch (10)
- Mundart (2)
- Phonetik (2)
- Wortschatz (2)
- Altai (1)
- Analytische Methode (1)
- Anamnese (1)
- Angliszismen (1)
- Annotation (1)
- Arab Spring (1)
Publicationstate
Reviewstate
Publisher
In der vorliegenden Arbeit werden die Gliederungsprinzipien von schriftlichen argumentativen Texten im Deutschen und Japanischen am Beispiel der Textsorte „Leitartikel/Kommentare“ aus sprechakttheoretischer Sicht kontrastiert. Ziel der Untersuchung ist, die Gliederungsmittel zwischen satzübergreifenden Einheiten und die Verknüpfungsmittel innerhalb der Einheit in argumentativen Texten zu beschreiben. Dabei soll herausgearbeitet werden, wie ein argumentativer Text genau strukturiert ist und welche Funktionen die einzelnen satzübergreifenden Einheiten bzw. die Textkonstituenten haben. Die Untersuchung soll schließlich zur Erhellung des Zusammenhangs zwischen der Argumentationsstruktur und dem Textaufbau bzw. den Gliederungsprinzipien in deutschen und japanischen Leitartikeln/Kommentaren führen.
Die vorliegende Dissertation beschäftigt sich mit verschieden Methoden zur Erhebung von perzeptuellen Prominenzurteilen von naiven Hörern im Deutschen. Es werden zwei Experimente vorgestellt, die sich zum einen mit der Verwendung von verschiedenen Skalen, zum anderen mit der Verwendung von unterschiedlichen Bewertungsebenen zur Beurteilung von perzeptueller Prominenz beschäftigen. Die Ergebnisse zeigen, dass Ergebnisse von Studien, welche auf unterschiedlichen Erhebungstechniken beruhen nicht ohne weiteres vergleichbar sind. Die Arbeit untersucht außerdem die Effekte einer Normalisierung der Prominenzurteile. Die Dissertation schließt mit einem Ausblick für zukünftige Studien. Hierbei werden hauptsächlich die vielfältigen Interaktionen von verschiedenen Quellen und dem Kontext bei der Beurteilung der perzeptuellen Prominenz adressiert.
Die vorliegende Dissertation reiht sich in die Diskussion um die Verwendungsweise der deutschen Konstruktion werden + Infinitiv ein und stellt dem so genannten Temporalisten/Modalisten-Dissens eine dritte Position abseits einer kategorialgrammatischen Klassifizierung bei. Untersucht wird die Ausprägung des epistemisch modalen und des temporalen Bedeutungselementes der Periphrase werden + Infinitiv und die Abhängigkeit dieser Ausprägung von bestimmenden Faktoren im Vergleich mit Präsens, Perfekt und Präsens pro Futuro. Zur Anwendung kommen hierbei vornehmlich webbasierte Experimentalparadigmen, welche nicht nur die Untersuchungen der Arbeit auf eine breite empirische Basis stellen, sondern auch eine systematische und kontrollierte Analyse ermöglichen. Überdies enthält die vorliegende Arbeit einen methodischen Teil, der auf etwaige Unterschiede zwischen webbasierten und laborgestützen Experimenten eingeht.
Skatesticker sind grafisch gestaltete Aufkleber, die von Skatelabels – den Herstellern von Skateboards und Zubehör – distribuiert werden. Ursprünglich zu reinen Werbezwecken produziert, haben sich Skatesticker als Symbole der Szene etabliert: Befragte Skater bekennen, dass Skatesticker ein „Ausdruck eines Lebensgefühls“, ein „visueller Eindruck unserer Gefühle“ und eine „[e]infache Möglichkeit[,] sich einer Gruppe zuzuordnen“ sind. Sie werden von Skatern gesammelt, gehandelt und wertgeschätzt. Die vorliegende Arbeit verfolgt einen bildwissenschaftlich orientierten Forschungsansatz, der es ermöglicht, die komplexen – oftmals bildende Kunst adaptierenden – Bildmotive dieser Grafikdesignobjekte und ihre zunehmend autonomisierten Funktionen als visuelle Medien einer Szene zu analysieren und anzuerkennen.
Ziel dieser Arbeit war es, eine Software zu entwickeln, die quantitative und qualitative korpuslinguistische Methoden miteinander verbindet. Die Gesamtarbeit besteht daher aus zwei Teilen: einer Open-Source-Software und dem schriftlichen Teil. Der hier vorgelegte schriftliche Teil ist eine vollständige Dokumentation (Handbuch), ergänzt um eigene Publikationen, die im Rahmen des Dissertationsprojekts entstanden. In Kapitel 1.2 Korpora und beispielhafte Fragestellungen (S. 8) erfolgt eine Illustration beispielhafter Forschungsfragen anhand bereitgestellter und im Corpus- Explorer integrierter Korpora. Außerdem werden unter "?? ?? (S. ??)" Analysen mit verschiedensten prototypischen Forschungsfragen verknüpft, die sowohl quantitative als auch qualitative Perspektiven einnehmen. Der CorpusExplorer wurde besonders nutzerfreundlich gestaltet. Dabei ist die Zielgruppe der Software sehr breit defniert: Die Nutzung soll sowohl in der Forschung als auch in der Lehre möglich sein. Daher richtet sich der CorpusExplorer gleichermaßen an Studierende und Forschende mit ihren jeweils spezifschen Bedürfnissen. Die Nutzung für die Forschung zeigt sich (A) an den integrierten Artikeln sowie daran, dass (B) andere Forschende den CorpusExplorer bereits für ihre Arbeit aufgegriffen haben. Der Nutzen für die Lehre wurde mehrfach selbst erprobt und optimiert. Im Lehr-Einsatz ist es wichtig, dass Korpora mit wenigen Mausklicks analysefertig sind und verschiedene Analysen und Visualisierungen direkt genutzt werden können. Studierende erhalten so die Möglichkeit, eigenes Korpusmaterial direkt und selbst auszuwerten. Für Forschende bietet der CorpusExplorer ein sehr breites Funktionsspektrum. Im Vergleich zu anderer (öffentlich verfügbarer) korpuslinguistischer Software verfügt er aktuell über das wohl breiteste Anwendungsspektrum (51 Analysemodule (inkl. weiterentwickelter Verfahren), über 100 unterstützte Dateiformate für Im- und Export, unterschiedliche Tagger mit 69 unterstützten Sprachmodellen). Er kann so in bestehende Skripte, Toolchains und Workflows für sehr unterschiedliche Forschungsfragen integriert werden. Im CorpusExplorer wurden nicht nur bestehende Funktionen gebündelt, es wurden auch bisherige Verfahren weiterentwickelt. Hierzu zählen z. B. (1) die Entwicklung einer eigenen, an korpuslinguistischen Bedürfnissen ausgerichteten Datenbank- Struktur, (2) die Weiterentwicklung bzw. Optimierung des Verfahrens der Kookkurrenz- Analyse hin zu einer quantitativen Kookkurrenz-Analyse (keine Parameter wie Suchfenstergröße oder Suchwort nötig, Berechnung aller Kookkurrenzen zu allen Token in einem Korpus) und (3) die Verknüpfung unterschiedlicher Analyseressourcen, wie z. B. der NGram- und der Kookkurrenz-Analyse.