Refine
Year of publication
- 2014 (462) (remove)
Document Type
- Part of a Book (207)
- Article (141)
- Conference Proceeding (52)
- Book (35)
- Part of Periodical (12)
- Working Paper (7)
- Other (6)
- Preprint (2)
Keywords
- Deutsch (149)
- Korpus <Linguistik> (50)
- Institut für Deutsche Sprache <Mannheim> (36)
- Linguistik (29)
- Germanistik (25)
- Computerunterstützte Lexikographie (23)
- Wörterbuch (19)
- Gesprochene Sprache (18)
- Institut für Deutsche Sprache (18)
- Konversationsanalyse (16)
Publicationstate
- Veröffentlichungsversion (173)
- Zweitveröffentlichung (23)
- Postprint (11)
Reviewstate
- (Verlags)-Lektorat (140)
- Peer-Review (64)
- Verlags-Lektorat (7)
- Peer-review (6)
- Review-Status-unbekannt (2)
- (Verlags)Lektorat (1)
- (Verlags-)Lektorat (1)
- Peer-Revied (1)
- Preprint (1)
Publisher
- Institut für Deutsche Sprache (98)
- De Gruyter (88)
- de Gruyter (36)
- Stauffenburg (12)
- European Language Resources Association (ELRA) (11)
- Lang (10)
- Benjamins (6)
- Springer (6)
- Winter (6)
- Cambridge Scholars Publ. (5)
Twitter Analytics
(2014)
Die Online-Forschung setzt sich in den letzten Jahren zunehmend mit Mikro-Blogs, insbesondere dem weltweit populärsten Anbieter Twitter, auseinander. Verschiedenste Disziplinen beschäftigen sich aus ihren jeweiligen Perspektiven mit der Analyse von kommunikativen Prozessen und Strukturen von Twitter und nutzen dabei eine Vielzahl an methodischen Zugängen. In diesem Artikel werden zunächst die grundlegenden Funktionen, Möglichkeiten des Zugangs zur Datenstruktur sowie Methoden der Datenerhebung und -auswertung dargelegt. Im Anschluss werden Ansätze verschiedener Fachdisziplinen vorgestellt.
Content analysis provides a useful and multifaceted, methodological framework for Twitter analysis. CAQDAS tools support the structuring of textual data by enabling categorising and coding. Depending on the research objective, it may be appropriate to choose a mixed-methods approach that combines quantitative and qualitative elements of analysis and plays out their respective advantages to the greatest possible extent while minimising their shortcomings. In this chapter, we will discuss CAQDAS speech act analysis of tweets as an example of software-assisted content analysis. We start with some elementary thoughts on the challenges of the collection and evaluation of Twitter data before we give a brief description of the potentials and limitations of using the software QDA Miner (as one typical example for possible analysis programmes). Our focus will lie on analytical features that can be particularly helpful in speech act analysis of tweets.
Wie selbstbestimmt können wir das Internet nutzen? Wie viel wissen wir darüber,welche digitalen Spuren wir setzen und wer diesen hinterher spürt?
Wie werden die beim Surfen erzeugten Daten von Dritten weiter verwendet – mit und ohne unser Wissen? Und ist die gefühlte Nacktheit in Zeiten der digital ausspähbaren, scheinbaren Transparenz wirklich akut oder durch traditionelle analoge Denk- und Erfahrungsstrukturen geprägt?
Dieser Artikel gibt einen Einblick in das GeoBib-Projekt und die Problematik der Verwendung von historischen Karten und der daraus abgeleiteten Geodaten in einem WebGIS. Das GeoBib-Projekt hat zum Ziel, eine annotierte und georeferenzierte Online-Bibliographie der frühen deutsch- bzw. polnischsprachigen Holocaust- und Lagerliteratur von 1933 bis 1949 bereitzustellen. Zu diesem Zeitraum werden historische Karten und Geodaten gesammelt, aufbereitet und im zugehörigen WebGIS des GeoBib-Portals visualisiert. Eine Besonderheit ist die aufwendige Recherche von Geodaten und Kartenmaterial für den Zeitraum zwischen 1933 und 1949. Die Problematiken bezüglich der Recherche und späteren Visualisierung historischer Geodaten und des Kartenmaterials sind ein Hauptaugenmerk in diesem Artikel. Weiterhin werden Konzepte für die Visualisierung von historischem, unvollständigem Kartenmaterial präsentiert und ein möglicher Lösungsweg für die bestehenden Herausforderungen aufgezeigt.
Schreiben nach Engelbart
(2014)
Douglas Engelbart hat 1968 mit seinem On-Line System das erste Mal gezeigt, wie ein Computer als interaktives Schreibwerkzeug genutzt werden kann. Der Beitrag zeichnet diese Urszene der Textverarbeitung nach, beschreibt die wesentlichen Entwicklungslinien, die das digitale Schreiben seitdem genommen hat, und erläutert die zentralen Konzepte, die es zunehmend prägen: Hybridität, Multimedialität und Sozialität.
Der folgende Artikel ist ein bearbeiteter Auszug aus Henning Lobins “Engelbarts Traum. Wie der Computer uns Lesen und Schreiben abnimmt” Frankfurt am Main / New York: Campus, 2014.
We investigate how the granularity of POS tags influences POS tagging, and furthermore, how POS tagging performance relates to parsing results. For this, we use the standard “pipeline” approach, in which a parser builds its output on previously tagged input. The experiments are performed on two German treebanks, using three POS tagsets of different granularity, and six different POS taggers, together with the Berkeley parser. Our findings show that less granularity of the POS tagset leads to better tagging results. However, both too coarse-grained and too fine-grained distinctions on POS level decrease parsing performance.
“My Curiosity was Satisfied, but not in a Good Way”: Predicting User Ratings for Online Recipes
(2014)
In this paper, we develop an approach to automatically predict user ratings for recipes at Epicurious.com, based on the recipes’ reviews. We investigate two distributional methods for feature selection, Information Gain and Bi-Normal Separation; we also compare distributionally selected features to linguistically motivated features and two types of frameworks: a one-layer system where we aggregate all reviews and predict the rating vs. a two-layer system where ratings of individual reviews are predicted and then aggregated. We obtain our best results by using the two-layer architecture, in combination with 5 000 features selected by Information Gain. This setup reaches an overall accuracy of 65.60%, given an upper bound of 82.57%.
Einleitung
(2014)
Dependenzstruktur
(2014)
Im Zuge der Mediatisierung unserer alltäglichen Lebenswelt ergeben sich neue Möglichkeiten der Partizipation an gesellschaftlichen Prozessen. Insbesondere digitale Medien begünstigen das gemeinsame Aushandeln, Mitbestimmen und Gestalten unseres Alltags, der Politik, Wirtschaft und Kultur. Die Autorinnen und Autoren in diesem Band gehen der Frage nach, welche spezifischen Partizipationskulturen sich in den einzelnen Bereichen wie der Unternehmenskommunikation, dem Journalismus, der Politik oder bei Jugendlichen herausbilden und auf welche Weise sich diese Tendenzen als kennzeichnend für eine digitale Gesellschaft beschreiben lassen. Ziel des vorliegenden Bandes ist es, einen Beitrag zur Konturierung der Anwendungsmöglichkeiten und -grenzen des Partizipationsegriffs im Bereich der Forschung zur digitalen Medienkommunikation zu leisten.
Nektiv
(2014)
Translativ
(2014)
Auf dem Weg in die Digitalkultur: Wir Menschen sind heute nicht mehr die Einzigen, die lesen und schreiben - Computer tun es auch. Nach Jahrtausenden des Monopols über die Schrift mussten wir diese Bastion im 21. Jahrhundert räumen. Douglas Engelbart, der Erfinder der Computermaus, hatte die Automatisierung der Schrift und des Schreibens bereits 1968 vorhergesehen.
Dieses Buch zeigt, wie sich Lesen und Schreiben verändern, wenn der Computer uns diese Kulturtechniken immer mehr abnimmt. Bücher, Bibliotheken und Verlage, Schule und Universität, Presse und Zensur befinden sich bereits tief im Umbruch - und nicht zuletzt unser Denken selbst. Henning Lobin schildert die Auswirkungen computergestützter Techniken auf unseren Alltag und gibt einen Ausblick auf die Institutionen, Praktiken und Werte einer zukünftigen "Digitalkultur".
The annotation of parts of speech (POS) in linguistically annotated corpora is a fundamental annotation layer which provides the basis for further syntactic analyses, and many NLP tools rely on POS information as input. However, most POS annotation schemes have been developed with written (newspaper) text in mind and thus do not carry over well to text from other domains and genres. Recent discussions have concentrated on the shortcomings of present POS annotation schemes with regard to their applicability to data from domains other than newspaper text.
We continue the study of the reproducibility of Propp’s annotations from Bod et al. (2012). We present four experiments in which test subjects were taught Propp’s annotation system; we conclude that Propp’s system needs a significant amount of training, but that with sufficient time investment, it can be reliably trained for simple tales.
This paper presents challenges and opportunities resulting from the application of geographical information systems (GIS) in the (digital) humanities. First, we provide an overview of the intersection and interaction between geography (and cartography), and the humanities. Second, the “GeoBib” project is used as a case study to exemplify challenges for such collaborative, interdisciplinary projects, both for the humanists and the geoscientists. Finally, we conclude with an outlook on further applications of GIS in the humanities, and the potential scientific benefit for both sides, humanities and geosciences.
Uncertain about Uncertainty: Different ways of processing fuzziness in digital humanities data
(2014)
The GeoBib project is constructing a georeferenced online bibliography of early Holocaust and camp literature published between 1933 and 1949 (Entrup et al. 2013a). Our immediate objectives include identifying the texts of interest in the first place, composing abstracts for them, researching their history, and annotating relevant places and times. Relations between persons, texts, and places will be visualized using digital maps and GIS software as an integral part of the resulting GeoBib information portal. The combination of diverse data from varying sources not only enriches our knowledge of these otherwise mostly forgotten texts; it also confronts us with vague, uncertain or even conflicting information. This situation yields challenges for all researchers involved – historians, literary scholars, geographers and computer scientists alike. While the project operates at the intersection of historical and literary studies, the involved computer scientists are in charge of providing a working environment (Entrup et al. 2013b) and processing the collected information in a way that is formalized yet capable of dealing with inevitable vagueness, uncertainty and contradictions. In this paper we focus on the problems and opportunities of encoding and processing fuzzy data.
We present a technique called event mapping that allows to project text representations into event lists, produce an event table, and derive quantitative conclusions to compare the text representations. The main application of the technique is the case where two classes of text representations have been collected in two different settings (e.g., as annotations in two different formal frameworks) and we can compare the two classes with respect to their systematic differences in the event table. We illustrate how the technique works by applying it to data collected in two experiments (one using annotations in Vladimir Propp’s framework, the other using natural language summaries).
This study investigates cross-language differences in pitch range and variation in four languages from two language groups: English and German (Germanic) and Bulgarian and Polish (Slavic). The analysis is based on large multi-speaker corpora (48 speakers for Polish, 60 for each of the other three languages). Linear mixed models were computed that include various distributional measures of pitch level, span and variation, revealing characteristic differences across languages and between language groups. A classification experiment based on the relevant parameter measures (span, kurtosis and skewness values for pitch distributions for each speaker) succeeded in separating the language groups.
We present a novel NLP resource for the explanation of linguistic phenomena, built and evaluated exploring very large annotated language corpora. For the compilation, we use the German Reference Corpus (DeReKo) with more than 5 billion word forms, which is the largest linguistic resource worldwide for the study of contemporary written German. The result is a comprehensive database of German genitive formations, enriched with a broad range of intra- und extralinguistic metadata. It can be used for the notoriously controversial classification and prediction of genitive endings (short endings, long endings, zero-marker). We also evaluate the main factors influencing the use of specific endings. To get a general idea about a factor’s influences and its side effects, we calculate chi-square-tests and visualize the residuals with an association plot. The results are evaluated against a gold standard by implementing tree-based machine learning algorithms. For the statistical analysis, we applied the supervised LMT Logistic Model Trees algorithm, using the WEKA software. We intend to use this gold standard to evaluate GenitivDB, as well as to explore methodologies for a predictive genitive model.
In diesem Beitrag wird an einigen Beispielen aus der nominalen Morphologie bzw. der Morphosyntax der deutschen Substantivgruppe gezeigt, wie sich in den Veränderungen in diesem Bereich, die sich über das 20. Jahrhundert hin beobachten lassen, Fragen eines langfristigen Systemwandels mit Regularitäten des Sprachgebrauchs überlagern. Im Mittelpunkt soll die Frage der Markierung der Kasus – insbesondere in den allgemein als „kritisch“ angesehenen Fällen von Genitiv und Dativ – stehen. Wenn man die Daten dazu betrachtet, sieht man, dass in den meisten Fällen schon zum Anfang des 20. Jahrhunderts eine weitgehende Anpassung an die Regularitäten der Monoflexion erfolgt war, auch, dass dieser Prozess über das Jahrhundert hin fortschreitet. Bemerkenswert ist, dass insgesamt die als „alt“ angesehenen Fälle in den untersuchten Korpora geschriebener Sprache (sehr) selten auftauchen, dass aber in zunehmendem Ausmaß die daraus folgende Markiertheit in der einen oder anderen Weise funktional genutzt wird. Einen Fall eigener Art stellt in diesem Zusammenhang der Genitiv dar, der sich bei den starken Maskulina und Neutra bekanntlich dem Trend zur „Einmalmarkierung“ der Kasus an den flektierten, das Substantiv begleitenden Elementen widersetzt. Das führt zu der bekannten Orientierung dieser Formen auf die Nicht-Objekt-Verwendungen und auch zu einem auffälligen Maß an Variation in der Nutzung der entsprechenden Flexionsformen.
Designing a Bilingual Speech Corpus for French and German Language Learners: a Two-Step Process
(2014)
We present the design of a corpus of native and non-native speech for the language pair French-German, with a special emphasis on phonetic and prosodic aspects. To our knowledge there is no suitable corpus, in terms of size and coverage, currently available for the target language pair. To select the target L1-L2 interference phenomena we prepare a small preliminary corpus (corpus1), which is analyzed for coverage and cross-checked jointly by French and German experts. Based on this analysis, target phenomena on the phonetic and phonological level are selected on the basis of the expected degree of deviation from the native performance and the frequency of occurrence. 14 speakers performed both L2 (either French or German) and L1 material (either German or French). This allowed us to test, recordings duration, recordings material, the performance of our automatic aligner software. Then, we built corpus2 taking into account what we learned about corpus1. The aims are the same but we adapted speech material to avoid too long recording sessions. 100 speakers will be recorded. The corpus (corpus1 and corpus2) will be prepared as a searchable database, available for the scientific community after completion of the project.
In dem Beitrag diskutieren die Autoren die deutschdidaktische Behauptung (u. a. Dürscheid 2007), dass ein zusätzliches Angebot von Grammatikunterricht im Fach Deutsch der Sekundarstufe II zu besseren und langfristig anhaltenden expliziten Grammatikkenntnissen des Deutschen führt. Laut curricularen Vorgaben ist für die Klassen neun bis zwölf kein Grammatikunterricht vorgesehen. Ob ein solches Angebot tatsächlich zu entsprechend besseren Ergebnissen führt, ist empirisch nicht belegt. Die Autoren konzipieren daher eine longitudinale Untersuchung zur Leistungserhebung, in der zwei Vergleichsgruppen jährlich einmal Aufgaben, aufbauend auf den VERA-8-Arbeiten, in den Klassen acht bis zwölf bearbeiten. Nur eine der beiden Gruppen hat ab Klasse neun am expliziten Grammatikunterricht in Form einer kontrollierten Selbstlerneinheit teilgenommen. Es sollen hierbei dieselben 1000 Schüler befragt werden. Die Befragung erfolgt in den Schuljahren 2014 bis 2018. Das Projekt „Grammatische Kenntnisse in der Sekundarstufe II (GramKidSII)“ wird finanziert vom Institut für Deutsche Sprache in Mannheim.
The article investigates the conditions under which the w-relativizer was appears instead of the d-relativzer das in German relative clauses. Building on Wiese 2013, we argue that was constitutes the elsewhere case that applies when identification with the antecedent cannot be established by syntactic means via upward agreement with respect to phi-features. Corpuslinguistic results point to the conclusion that this is the case whenever there is no lexical nominal in the antecedent that, following Geach 1962 and Baker 2003, supplies a criterion of identity needed to establish sameness of reference between the antecedent and the relativizer.
Endungsvariation
(2014)