Refine
Year of publication
Document Type
- Book (91)
- Part of a Book (48)
- Part of Periodical (36)
- Article (22)
- Doctoral Thesis (4)
- Conference Proceeding (1)
- Contribution to a Periodical (1)
- Master's Thesis (1)
- Other (1)
- Report (1)
Language
- German (203)
- English (3)
- Multiple languages (1)
Has Fulltext
- yes (207)
Keywords
- Deutsch (96)
- Korpus <Linguistik> (46)
- Linguistik (26)
- Germanistik (24)
- Grammatik (14)
- Sprache (14)
- Wörterbuch (14)
- Kongress (13)
- Gesprochene Sprache (11)
- Interaktion (10)
Publicationstate
- Veröffentlichungsversion (73)
- Zweitveröffentlichung (54)
- Postprint (7)
- (Verlags)-Lektorat (3)
Reviewstate
- (Verlags)-Lektorat (94)
- Peer-Review (27)
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (3)
- Verlags-Lektorat (2)
- Veröffentlichungsversion (2)
- (Verlags-)Lektorat (1)
- (Verlags-)Lektoriat (1)
- Abschlussarbeit (Bachelor, Master, Diplom, Magister) (Bachelor, Master, Diss.) (1)
- Peer-review (1)
- Review-Status-unbekannt (1)
Publisher
- de Gruyter (36)
- Institut für Deutsche Sprache (34)
- Narr (29)
- Leibniz-Institut für Deutsche Sprache (IDS) (16)
- De Gruyter (9)
- Narr Francke Attempto (9)
- Winter (8)
- IDS-Verlag (6)
- Heidelberg University Publishing (5)
- Stauffenburg (3)
Die ansprechende und geeignete Visualisierung linguistischer Daten gewinnt analog zum steigenden Einfluss quantitativer Methoden in der Linguistik immer mehr an Bedeutung. R ist eine flexible und freie Entwicklungsumgebung zur Umsetzung von statistischen Analysen, die zahlreiche Optionen zur Datenvisualisierung bereithält und sehr gut für große Datensätze geeignet ist. Statistische Analysen und Visualisierungen von Daten werden auf diese Weise in einer Umgebung verzahnt. Durch die zahlreichen Zusatzpakete stehen auch weiterhin zeitgemäße Methoden zur Verfügung, um (linguistische) Daten zu analysieren und darzustellen.
Der Beitrag vermittelt einen stark anwendungsorientierten Einstieg in das Programm und legt mithilfe von vielen praktischen Übungen und Anwendungsbeispielen die Grundlagen für ein eigenständiges Weiterentwickeln der individuellen Fähigkeiten im Umgang mit der Software. Neben einer kurzen, eher theoretisch angelegten Einleitung zu explorativen und explanatorischen Visualisierungsstrategien von Daten werden verschiedene Pakete vorgestellt, die für die Visualisierung in R benutzt werden können.
Einleitung
(2018)
Der CorpusExplorer v2.0 ist eine frei verfügbare Software zur korpushermeneutischen Analyse und bietet über 45 unterschiedliche Analysen/Visualisierungen für eigenes Korpusmaterial an. Dieser Praxisbericht gibt Einblicke, zeigt Fallstricke auf und bietet Lösungen an, um die tägliche Visualisierungsarbeit zu erleichtern. Zunächst wird ein kurzer Einblick in die Ideen gegeben, die zur Entwicklung des CorpusExplorers führten, einer korpuslinguistischen Software, die nicht nur vielfältige Forschungsansätze unterstützt, sondern auch mit einem Fokus auf die universitäre Lehre entwickelt wird. Der Mittelteil behandelt einen der vielen Fallstricke, die im Entwicklungsprozess auftraten: Effizienz-/Anpassungsprobleme – bzw.: Was passiert, wenn Visualisierungen an neue Begebenheiten angepasst werden müssen? Da diese Lösung Teil des CorpusExplorers v2.0 ist, wird abschließend darauf eingegangen, wie unterschiedliche Visualisierungen zu denselben Datensätzen sich auf die Rezeption/Interpretation von Daten auswirken.
Sobald eine statistische Datenanalyse abgeschlossen ist, müssen in einem weiteren Schritt die Untersuchungsergebnisse aufbereitet und dargestellt werden. Hierzu gibt es verschiedene Möglichkeiten, die davon abhängig sind, welche Art von Analyse man durchgeführt hat. Aus diesem Grund ist der Beitrag gegliedert in die Aufbereitung von Ergebnissen für deskriptive, also beschreibende statistische Analysen (Abschnitt 2) und in die Ergebnisdarstellung von inferenzstatistischen (= schließenden) Auswertungen (Abschnitt 3). Wir gehen dabei auf die Aufbereitung der Daten in Tabellenform ein, werden an einem Beispiel zeigen, wie man die Ergebnisse von statistischen Tests berichtet und einige Visualisierungsmöglichkeiten vorstellen.
Dieser Beitrag zeigt, wie allgemeinsprachige Wörterbücher mit Angaben zur Sinn- und Sachverwandtschaft umgehen sollten, damit sie als geeignetes Hilfsmittel bei der Wortschatzarbeit sowohl im muttersprachlichen als auch im fremdsprachlichen Unterricht eingesetzt werden können. Anhand einiger Beispiele aus dem elexiko-Wörterbuch sollen Möglichkeiten aufgezeigt werden, wie kombinierte lexikalisch-semantische Informationen einen Beitrag zur gezielten Wortschatzerweiterung leisten könnten. Für eine effektive Verankerung sprachlichen und außersprachlichen Wissens sollten Erkenntnisse über das Mentale Lexikon in die Darstellung und Beschreibung von Sprache im Wörterbuch eingebunden werden. Konkrete Vorschläge illustrieren, wie Nachschlagewerke möglicherweise gestaltet werden sollten, um besser als Lehrwerke und Quellen für die Wortschatzarbeit geeignet zu sein. Dafür ist es erforderlich, dass die Dokumentation sprachlicher Zusammenhänge auf unterschiedlichen Ebenen, die angemessene Visualisierung kontextueller Phänomene und explizite Erläuterungen eine entscheidende Rolle spielen
Ziel dieses Projekts ist es, Sprachdaten so nah wie möglich am Jetzt zu erheben und analysierbar zu machen. Wir möchten, dass möglichst viele Menschen, nicht nur Sprachwissenschaftlerinnen und Sprachwissenschaftler, in die Lage versetzt werden, Sprachdaten zu explorieren und zu nutzen. Hierzu erheben wir ein Korpus, d. h. eine aufbereitete Sammlung von Sprachdaten von RSS-Feeds deutschsprachiger Onlinequellen. Wir zeichnen die Entwicklung der Analysewerkzeuge von einem Prototyp hin zur aktuellen Form der Anwendung nach, die eine komplette Reimplementierung darstellt. Dabei gehen wir auf die Architektur, einige Analysebeispiele sowie Erweiterungsmöglichkeiten ein. Fragen der Skalierbarkeit und Performanz stehen dabei im Mittelpunkt. Unsere Darstellungen lassen sich daher auf andere Data-Science-Projekte verallgemeinern.
This paper attempts a new look at computer assisted transcription as it is commonly practised within the fields of discourse analysis and language acquisition studies. The first part proposes a bridge between discourse analytical methodology and text technological methods with the concept of modelling as its central idea. The second part demonstrates the EXMARaLDA system, a set of formats and tools for computer assisted transcription that builds on the ideas developed in the first part and implements them in a way that can lead to significant improvement in current research practice.
Korpuslinguistik
(2018)
Der Band nimmt eine Bestandsaufnahme zu Grundlagen, Methodik, Werkzeugen und Anwendungsfeldern der Korpuslinguistik mit Fokus auf die germanistische Sprachwissenschaft vor. Die Beiträge stellen den aktuellen Forschungsstand sowohl im Bereich schriftsprachlicher wie auch mündlicher Korpora dar und beschreiben innovative Herangehensweisen, aktuelle Herausforderungen und Desiderata zur Arbeit mit Korpora in der Sprachwissenschaft.
Der Beitrag stellt Arbeiten des Projekts Usuelle Wortverbindungen am Institut für Deutsche Sprache (IDS) in Mannheim vor. Im Mittelpunkt stehen dabei neue Perspektiven, die sich für die elektronische Phraseographie aus der korpusanalytischen Auswertung sprachlicher Massendaten ergeben. Eine wichtige Methode ist die statistische Kookkurrenzanalyse, die u.a. dazu dient, feste Wortverbindungen zu extrahieren und typische Kontexte vorzustrukturieren. Auf dieser Basis lässt sich der tatsächliche Gebrauch fester Wortverbindungen in einer quantitativ und qualitativ neuen Dimension erfassen und lexikografisch beschreiben. Die heutigen technologischen Möglichkeiten können des Weiteren für neue und differenziertere Präsentationsformen angepasst an unterschiedliche Rezeptionsbedürfnisse genutzt werden. Das UWV-Projekt beschreitet auch im Bereich der Internet-Lexikografie neue Wege, was anhand ausgewählter Beispiele gezeigt wird.
In diesem Beitrag wird anhand von per Telefon gedolmetschten Gesprächen zwischen einer deutschsprechenden Asylverfahrensberaterin und arabischsprechenden KlientInnen die Notwendigkeit eines reflektierten computergestützten Transkriptionsverfahrens für interaktionsbezogene Untersuchungen diskutiert. Gesprächstranskription erfordert die Verwendung eines romanisierten, rechtsläufigen Schriftsystems für die schriftliche und grafische Darstellung der zeitlichen Dimensionen, d. h. die Synchronizität, Simultaneität und Reziprozität des sprachlichen Handelns. Durch die Entwicklung einer transparenten Systematik zur Romanisierung und Übersetzung von Gesprächsdaten wird ihre Opazität sowohl für LeserInnen ohne Arabischkenntnisse als auch für Sprachkundige ohne Kenntnisse über die rekonstruierten Varietäten reduziert und ansatzweise eine Lesbarkeit auch für Nicht-Sprachkundige geschaffen. Dies ist für die Datenkuratierung und etwaige Nachnutzungen von besonderer Bedeutung.