Refine
Year of publication
Document Type
- Part of a Book (1066)
- Article (661)
- Book (258)
- Conference Proceeding (176)
- Other (104)
- Working Paper (34)
- Part of Periodical (25)
- Review (25)
- Report (14)
- Preprint (11)
Language
Is part of the Bibliography
- yes (2380) (remove)
Keywords
- Deutsch (914)
- Korpus <Linguistik> (461)
- Gesprochene Sprache (153)
- Interaktion (153)
- Sprachgebrauch (139)
- Konversationsanalyse (137)
- Grammatik (131)
- Kommunikation (109)
- Wörterbuch (108)
- Neologismus (107)
Publicationstate
- Veröffentlichungsversion (1116)
- Zweitveröffentlichung (702)
- Postprint (173)
- Ahead of Print (6)
- Erstveröffentlichung (4)
- Preprint (3)
Reviewstate
- (Verlags)-Lektorat (1054)
- Peer-Review (701)
- Verlags-Lektorat (34)
- Peer-review (26)
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (8)
- (Verlags-)Lektorat (5)
- Peer-Revied (5)
- Verlagslektorat (4)
- (Verlags-)lektorat (3)
- Review-Status-unbekannt (3)
Publisher
- de Gruyter (421)
- Institut für Deutsche Sprache (163)
- Leibniz-Institut für Deutsche Sprache (IDS) (135)
- De Gruyter (114)
- Narr Francke Attempto (81)
- IDS-Verlag (71)
- Winter (58)
- Erich Schmidt (44)
- Verlag für Gesprächsforschung (41)
- Benjamins (38)
Das Kommunizieren in Sozialen Medien und der Umgang mit Hypertexten ist im Jahr 2020 kein Randphänomen mehr. Die sprachlichen Besonderheiten internetbasierter Kommunikation und Sozialer Medien sind mittlerweile auch gut erforscht und beschrieben, allerdings werden diese bislang in deutschen Grammatiken, mit Ausnahme von Hoffmann (2014), allenfalls am Rande behandelt. Selbst neuere Ansätze zur Textanalyse, z. B. Ágel (2017), konzentrieren sich auf gestaltstabile, linear organisierte Schrifttexte. Dasselbe gilt für Ansätze, die primär für die Bewertung von Schreibprodukten in Bildungskontexten entwickelt wurden.
Personalpronomina und ihre reduzierten und klitischen Formen stehen an markanten Satzpositionen, die sich von der Position der koreferenten vollen Nomina grundsätzlich unterscheiden. Sie erscheinen allerdings in manchen Sprachen verbbezogen als Enklitika, in anderen als Proklitika. Es wird zuerst erwogen,diese enklitische bzw. proklitische Position von der grundlegenden Linearitätstypologie im greenbergschen Sinne (SVO und SOV/VSO) abhängig zu machen. Wiewohl prinzipiell richtig zwingen klitische Pronomina im Skandinavischen sowie die Klitikstellung in Nichtdeklarativen zur Annahme,nach der ersten (rechtesten) thematischen Diskursposition im strukturellen Satzschema als Ort für die schwachen Pronominalformen zu suchen. Diese Annahme erscheint für eine Reihe von nichtverwandten Sprachen als haltbar. Im Blickpunkt stehen Sprachen aus den drei greenbergschen Haupttypen: SVO als V-mittelständigen Sprachen sowie SOV/VSO als V-randständige Sprachen. Je nachdem wie nichtdeklarative Satze sich aus den zugrundegelegten Strukturen ableiten, erreicht das pronominale Klitikum eine enklitische oder eine postklitische Position,die sich dadurch auszeichnet,daß sie die rechteste diskursfunktionale Themaposition ist. Diese Einsicht macht die strukturelle Verschiebung der schwachen Pronomina systematisch ableit- und voraussagbar.
Gehören nun die Männer an den Herd? Anmerkungen zum Wandel der Rollenbilder von Mann und Frau
(2015)
The annual microcensus provides Germany’s most important official statistics. Unlike a census it does not cover the whole population, but a representative 1%-sample of it. In 2017, the German microcensus asked a question on the language of the population, i.e. ‘Which language is mainly spoken in your household?’ Unfortunately, the question, its design and its position within the whole microcensus’ questionnaire feature several shortcomings. The main shortcoming is that multilingual repertoires cannot be captured by it. Recommendations for the improvement of the microcensus’ language question: first and foremost the question (i.e. its wording, design, and answer options) should make it possible to count multilingual repertoires.
Seit 2017 wird im deutschen Mikrozensus eine Frage zur Sprache der Bevölkerung gestellt. Die letzte Spracherhebung in einem deutschen Zensus datiert aus dem Jahr 1939; entsprechend gibt es aktuell keine aussagekräftigen Sprachstatistiken in Deutschland. Die neue Sprachfrage des Mikrozensus weist jedoch erhebliche Mängel auf; offensichtlich wurde sie als Stellvertreterfrage zur Messung kultureller Integration konzipiert. Im vorliegenden Text werden die Fragen diskutiert und ihre ersten Ergebnisse analysiert. Daran anschließend werden andere Varianten von Sprachfragen dargestellt, dabei wird insbesondere auf die vorbildlichen Sprachfragen im kanadischen Zensus eingegangen. Abschließend wird die Sprachfrage der Deutschland-Erhebung 2018 des IDS inklusive ihrer Ergebnisse vorgestellt; die Deutschland-Erhebung 2018 stellt neben dem Mikrozensus bislang die einzige repräsentative Spracherhebung in Deutschland dar.
This paper explores how attitudes affect the seemingly objective process of counting speakers of varieties using the example of Low German, Germany’s sole regional language. The initial focus is on the basic taxonomy of classifying a variety as a language or a dialect. Three representative surveys then provide data for the analysis: the Germany Survey 2008, the Northern Germany Survey 2016, and the Germany Survey 2017. The results of these surveys indicate that there is no consensus concerning the evaluation of Low German’s status and that attitudes towards Low German are related to, for example, proficiency in the language. These attitudes are shown to matter when counting speakers of Low German and investigating the status it has been accorded.
2017 gibt es im deutschen Mikrozensus zum ersten Mal seit etwa achtzig Jahren eine Frage zur Sprache der Bevölkerung in Deutschland. Diese Frage wird dann offenbar im entsprechenden Rhythmus des Mikrozensus jährlich wiederholt werden. Der Mikrozensus ist eine seit 1957 durchgeführte, repräsentative Befragung, bei der ungefähr 830.000 Menschen (das sind ca. 1 % der Bevölkerung) in rund 370.000 Haushalten befragt werden.1 Darin werden etwa Angaben zu den soziodemographischen Daten erfragt, zur familiären Situation, zur Wohnsituation, zur Aus- und Fortbildung und zur Arbeitssituation. Für die befragten Personen besteht Auskunftspflicht. Das Stellen einer Sprachfrage sieht, aus sprachwissenschaftlicher Sicht, zunächst nach einem sinnvollen und wünschenswerten Schritt aus. Nach näherer Betrachtung der gestellten Frage zeigen sich jedoch viele Unzulänglichkeiten und das, obwohl die Antworten und statistischen Auswertungen zu dieser Frage überhaupt noch ausstehen. Die Ergebnisse werden üblicherweise in der zweiten Hälfte des Folgejahres durch das statistische Bundesamt veröffentlicht.
Language attitudes matter; they influence people’s behaviour and decisions. Therefore, it is crucial to learn more about patterns in the way that languages are evaluated. One means of doing so is using a quantitative approach with data representative of a whole population, so that results mirror dispositions at a societal level. This kind of approach is adopted here, with a focus on the situation in Germany. The article consists of two parts. First, I will present some results of a new representative survey on language attitudes in Germany (the Germany Survey 2017). Second, I will show how language attitudes penetrate even seemingly objective data collection processes by examining the German Microcensus. In 2017, for the first time in eighty years, the German Microcensus included a question on language use ‘at home’. Unfortunately, however, the question was clearly tainted by language attitudes instead of being objective. As a result, the Microcensus significantly misrepresents the linguistic reality of different migrant languages spoken in Germany.
Germany's (single) national official language is German. The dominance of German in schools, politics, the legal system, administration and the entire written public domain is so great that for a long time the lack of a coherent language policy was not seen as a problem. State restraint in this area is due, on the one hand, to historical reasons; on the other hand, it has been promoted by the federal system in Germany, which grants the federal states far-reaching responsibilities in the fields of education and culture. More recently, multilingualism among the population has increased and has resulted in a growing interest in understanding the language situation in Germany and (in particular) taking a closer look at the different minority languages. In 2017, for the first time in about 80 years, there is a question on the language of the population in the German micro census. The Institute for the German Language has also carried out various representative surveys; in the winter of 2017/201, a large representative survey with questions on the language repertoire and language attitudes is in the field.
Who understands Low German today and who can speak it? Who makes use of media and cultural events in Low German? What images do people in northern Germany associate with Low German and what is their view of their regional language?
These and further questions are answered in this brochure with the help of representative data collected in a telephone survey of a total of 1,632 people from eight federal states (Bremen, Hamburg, Lower Saxony, Mecklenburg-West Pomerania and Schleswig-Holstein as well as Brandenburg, North Rhine-Westphalia and Saxony-Anhalt).
Studenten, StudentInnen, Studierende? Aktuelle Verwendungspräferenzen bei Personenbezeichnungen
(2020)
Im Beitrag werden Meinungen und Einstellungen zur geschlechtergerechten Sprache dargestellt. Dazu werden verschiedene Möglichkeiten für die Bezeichnung von Personen, die studieren, in den Blick genommen. Diese werden zunächst beschrieben und ihre Frequenzen im Deutschen Referenzkorpus ausgewertet. Anschließend werden explizit die Meinungen und Einstellungen behandelt. Dafür werden die Daten der Deutschland-Erhebung 2008 und der Deutschland-Erhebung 2017 ausgewertet. In der aktuellen Erhebung wurden laienlinguistische Verwendungspräferenzen von Personenbezeichnungen erhoben; präferiert wird von den meisten Befragten die Partizipialform (den Studierenden). Die Verwendungspräferenzen hangen vor allem mit dem Alter der Befragten und ihrer politischen Orientierung zusammen. Insgesamt zeigt sich jedoch, dass das Thema der geschlechtergerechten Sprache für die meisten Befragten nur eine untergeordnete Rolle spielt.
In diesem Beitrag werden neue, repräsentative Daten zur arealen Variation in Deutschland vorgestellt, die das Leibniz-Institut für Deutsche Sprache im Rahmen der Innovationsstichprobe des Sozio-ökonomischen Panels (SOEP) des Deutschen Instituts für Wirtschaftsforschung (DIW) in der Befragungsrunde 2017/2018 erhoben hat. Zum einen wurde die Dialektkompetenz abgefragt; überindividuell zeigt sich hier das bekannte Nord-Süd-Gefälle, beim individuellen Grad der Kompetenz der Dialektsprecher gibt es aber regional nur geringe Unterschiede. Zum anderen wurden die Bewertungen von Dialekten erhoben; hier werden Norddeutsch und Bayerisch besonders positiv, Sächsisch hingegen besonders negativ bewertet, wobei regionale Muster eine Rolle spielen. Auffällig ist ferner die bundesweit sehr einheitlich positive Bewertung des Hochdeutschen.
Thema des Beitrags ist die Frage, wie in einer quantitativen Herangehensweise die Spracheinstellungen von linguistischen Laien erfasst werden können. Das IDS hat 2017/18 im Rahmen des Sozio-oekonomischen Panels (SOEP) des Deutschen Instituts für Wirtschaftsforschung (DIW) eine neue bundesweite Repräsentativerhebung zu Spracheinstellungen durchgeführt. Im Beitrag präsentieren wir erste Ergebnisse dieser Erhebung und verknüpfen sie mit früheren Erhebungen. In drei Abschnitten befassen wir uns mit der Bewertung von regionalen Varietäten des Deutschen und der Bewertung des Standards, mit Meinungen zu sprachlichem Gendern sowie, aus einer methodischen Perspektive, mit der Erhebung von sprachlichen Daten im deutschen Mikrozensus.
Sprecher haben (oft unbewusste) Meinungen und Einstellungen zu Sprachen und Varietäten. Ein Weg, solche Spracheinstellungen zu erfassen, führt über quantitative Verfahren (Fragebogen mit offenen und geschlossenen Fragen), mit denen man Daten großer Gruppen – im Idealfall repräsentativ – erheben kann. Im Beitrag werden solche Erhebungen, die am Institut für Deutsche Sprache durchgeführt wurden, vorgestellt, und es werden zwei Instrumente der Spracheinstellungsforschung, die dabei zum Einsatz kamen, naher erläutert: das Allgemeine Sprachbewertungsinstrument (ASBI) und die Attitudes-Towards-Languages-Skala (AToL). Außerdem wird gezeigt, wie dialektometrische Auswertungs- und Visualisierungsverfahren auf Einstellungsdaten angewendet werden können.
Öffentliche Sprachdiskurse, wie sie beispielsweise in den Medien stattfinden, werden typischerweise aus einer sprachkritischen Haltung heraus geführt. Inwieweit diese veröffentlichte Meinung tatsächlich die Mehrheitsmeinung der Sprecherinnen und Sprecher widerspiegelt, ist durchaus eine offene Frage. In diesem Beitrag berichten wir aus einer rezenten Erhebung über Spracheinstellungen in Deutschland. Wir zeigen, dass die Art der Frageformulierung einen starken Einfluss auf die Ergebnisse hat, und berichten, welche sprachlichen Veränderungen die Befragten in jüngerer Zeit angeben, wahrgenommen zu haben.
Bislang gibt es keine akkuraten, repräsentativen Statistiken dazu, welche Sprachen in Deutschland gesprochen werden. Zwar wird in verschiedenen Erhebungen nach Muttersprachen oder nach zuhause gesprochenen Sprachen gefragt; aufgrund einiger Mängel im Erhebungsdesign bilden die Ergebnisse der vorliegenden Erhebungen jedoch die sprachliche Realität der in Deutschland lebenden Bevölkerung nicht angemessen ab. Im Beitrag wird anhand von drei Erhebungen gezeigt, dass bereits die Instrumente zur Erhebung von Sprache von Spracheinstellungen geprägt sind und dass dadurch die Gültigkeit der Ergebnisse stark eingeschränkt wird. Diese Mängel gelten für Sprachstatistiken im Hinblick auf die gesamte Bevölkerung Deutschlands – Kinder und Jugendliche eingeschlossen.
Das Leibniz-Institut für Deutsche Sprache (IDS) führt seit den 1990er Jahren regelmäßig Repräsentativerhebungen zu sprachlichen Fragen durch. Über die letzten Umfragen, die Deutschland-Erhebung 2017 und die Erhebung Dialekt und Beruf 2019, wurde bereits in dieser Reihe berichtet. Informationen über die Deutschland-Erhebung 2017 finden sich in Folge 1 bis 6 dieser Reihe. In den Folgen 7 bis 9 wurden Ergebnisse der Erhebung Dialekt und Beruf 2019 vorgestellt. Im Winter 2022 hat das IDS eine neue Repräsentativumfrage durchgeführt: die Deutschland-Erhebung 2022. Darin wurden Einstellungen zum Deutschen und anderen Sprachen sowie die Wahrnehmung von sprachlichen Veränderungen erfasst. In dieser Folge 10 werden die Erhebung und erste Ergebnisse vorgestellt
Welche Veränderungen fallen Menschen in der deutschen Sprache auf? Sprache in Zahlen: Folge 11
(2023)
Begegnungen mit neuen Wörtern: Zu lexikografischen Praktiken im Neologismenwörterbuch des IDS
(2017)
Das vorliegende Themenheft bündelt theoretische, methodologische und empirische Debatten an der Schnittstelle von Zeichen, Zeichensystem, Zeichenmodalität/-materialität und Medium und möchte sie weiterführen. Die Beiträge befassen sich mit Fragen der begrifflichen und empirischen Grenzziehung zwischen Zeichen und Medien und liefern so Impulse für die Erforschung des Wechselspiels der Gegenstandsbereiche Zeichenhaftigkeit, Medialität und Materialität als Manifestation multimodaler Kommunikation. Ziel des Heftes ist es, die theoretischen und empirischen Diskussionen um Multimodalität und Medialität stärker aufeinander zu beziehen.
In this paper we examine the composition and interactional deployment of suspended assessments in ordinary German conversation. We define suspended assessments as lexicosyntactically incomplete assessing TCUs that share a distinct cluster of prosodic-phonetic features which auditorily makes them come off as 'left hanging' rather than cut-off (e.g., Schegloff/Jefferson/Sacks 1977; Jasperson 2002) or trailing-off (e.g., Local/Kelly 1986; Walker 2012). Using CA/IL methodology (Couper-Kuhlen/Selting 2018) and drawing on a large body of video-recorded face-to-face conversations, we highlight the verbal, vocal and bodily-visual resources participants use to render such unfinished assessing TCUs recognizably incomplete and identify six recurrent usage types. Overall, the suspension of assessing TCUs appears to either serve as a practice for circumventing the production of assessments that are interactionally inapposite, or as a practice for coping with local contingencies that render the very doing of an assessment problematic for the speaker. Data are in German with English translations.
Im allgemeinen ist man sich darüber einig, daß ein Zusammenhang zwischen Informationsstrukturierung (Fokus-Hintergrund-Gliederung, Topik-Kommentar-Gliederung) sowie Akzentuierung und prosodischer Phrasierung besteht (vgl. Hayes/Lahiri 1991). Gut untersucht ist die Beziehung zwischen der Unterteilung von Sätzen in prosodische Phrasen und der Fokusstruktur (vgl. Nespor/Vogel 1986). Dies trifft ebenso auf die Analyse der Akzentpositionen in Verbindung mit der Informationsstruktur zu (Féry 1993). Bezüglich der Annahmen zur prosodischen Phrasierung und ihrem Zusammenhang mit der Akzentplazierung läßt sich ein solcher minimaler Konsens nur schwer feststellen. Übereinstimmung besteht lediglich darin, daß durch Grenzsignale (Pausen, Glottisverschlußinsertion, Grenztone) die prosodische Phrasierung manifestiert wird. Ich möchte hier zeigen, daß zwischen der Akzentplazierung und der prosodischen Phrasierung ebenfalls ein Zusammenhang besteht, und Möglichkeiten erörtern, diese Verbindung sprachübergreifend und experimentell nachzuweisen.
Ich beziehe mich dabei auf Beobachtungen zur Akzentplazierung im Deutschen und Französischen und schlage darauf aufbauend eine Methode zur Determinierung prosodischer Grenzen im Russischen vor.
This White Paper sets out commonly agreed definitions on activities of consortia within NFDI. It aims to provide a common basis for reporting and reference regarding selected questions of cross-consortial relevance in DFG’s template for the Interim Reports. The questions were prioritised by an NFDI Task Force on Evaluation and Reporting (formerly Task Force Monitoring) as a result of discussing possible answers to the DFG template. In this process the need to agree on a generalizable meaning of terms commonly used in the context of NFDI, and reporting in particular, were identified from cross-consortial perspectives. Questions that showed the highest requirement on clarification are discussed in this White Paper. As NFDI evolves, the Task Force will likely propose further joint approaches for reporting in information infrastructures.
While each of broad relevance, the questions addressed relate to substantially different aspects of consortia’s work. They are thus also structured slightly different.
In der Bund-Länder-Vereinbarung (BLV) zu Aufbau und Förderung einer Nationalen Forschungsdateninfrastruktur (NFDI) (im Folgenden BLV-NFDI) wird in §1 festgehalten, dass mit der Förderung "eine Etablierung und Fortentwicklung eines übergreifenden Forschungsdatenmanagements" und damit eine "Steigerung der Effizienz des gesamten Wissenschaftssystems verfolgt" wird. In der BLV-NFDI werden dazu sieben Ziele vorgegeben, die eine Verfeinerung dieser Hauptziele darstellen. Dieses White Paper formuliert das gemeinsame Verständnis der beteiligten Konsortien für die sieben in der BLV-NFDI vorgegebenen Ziele. Auf der Grundlage dieses Verständnisses hat die Task Force Evaluation und Reporting Vorschläge gemacht, wie das Erreichen der Ziele erfasst, beschrieben und gemessen werden kann.
Collaborative work in NFDI
(2023)
The non-profit association National Research Data Infrastructure (NFDI) promotes science and research through a National Research Data Infrastructure. Its aim is to develop and establish an overarching research data management (RDM) for Germany and to increase the efficiency of the entire German science system. After a two-and-a-half year build up phase, the process of adding new consortia, each representing a different data domain, has ended in March 2023. NFDI now has 26 disciplinary consortia (and one additional basic service collaboration). Now the full extent of cross-consortial interaction is beginning to show.
The automatic recognition of idioms poses a challenging problem for NLP applications. Whereas native speakers can intuitively handle multiword expressions whose compositional meanings are hard to trace back to individual word semantics, there is still ample scope for improvement regarding computational approaches. We assume that idiomatic constructions can be characterized by gradual intensities of semantic non-compositionality, formal fixedness, and unusual usage context, and introduce a number of measures for these characteristics, comprising count-based and predictive collocation measures together with measures of context (un)similarity. We evaluate our approach on a manually labelled gold standard, derived from a corpus of German pop lyrics. To this end, we apply a Random Forest classifier to analyze the individual contribution of features for automatically detecting idioms, and study the trade-off between recall and precision. Finally, we evaluate the classifier on an independent dataset of idioms extracted from a list of Wikipedia idioms, achieving state-of-the art accuracy.
In order to differentiate between figurative and literal usage of verb-noun combinations for the shared task on the disambiguation of German Verbal Idioms issued for KONVENS 2021, we apply and extend an approach originally developed for detecting idioms in a dataset consisting of random ngram samples. The classification is done by implementing a rather shallow, statistics-based pipeline without intensive preprocessing and examinations on the morphosyntactic and semantic level. We describe the overall approach, the differences between the original dataset and the dataset of the KONVENS task, provide experimental classification results, and analyse the individual contributions of our feature sets.
Mediatisierte Praktiken: Zur Rekontextualisierung von Anschlusskommunikation in den Sozialen Medien
(2016)
Mediatisierte Praktiken sind Gefüge kommunikativer Handlungen, die im Zuge der gesellschaftlichen Mediatisierung aufkommen, Technologien digitaler Kommunikation einbeziehen und an prä-digitale Vorgänger enger oder loser angebunden sind. Der Beitrag arbeitet den Begriff der mediatisierten Praktiken durch die Engführung zweier Forschungsstränge, der soziolinguistischen Praktiken-Forschung und der kommunikationswissenschaftlichen Mediatisierungsforschung, heraus. Rahmenbedingungen für die Mediatisierung sprachlicher Praktiken werden in fünf Dimensionen systematisiert: Formatierung, Beteiligungsrollen, Temporalität, Transkontextualität und Intermedialität. Zudem werden zwei Wege der Entstehung mediatisierter Praktiken durch „lineare“ bzw. „integrative“ Rekontextualisierung von Elementen früherer sprachlicher Praktiken unterschieden. Zur empirischen Flankierung dienen zwei Fallbeispiele der mediatisierten Anschlusskommunikation: die rezeptionsbegleitende Kommentierung der Krimiserie „Tatort“ auf Twitter einerseits, die Praktik der redaktionellen Intervention auf der Facebook-Präsenz der Nachrichtensendung Tagesschau andererseits.
This poster summarizes the results of the CLARIAH-DE Work Package 3: Skills Training and Promotion of Junior Researchers.
For a research field that is characterised by rapid technical development, CLARIAH-DE has to include the promotion of data literacy necessary for the efficient use of this digital research infrastructure as part of its objective. To develop, consolidate and refine a common programme in this area, work package 3 set itself the following sub goals:
- Consolidation of the activities from the previous projects into a joint service
- Cataloguing and reflecting on the methods and tools used in the research field, with the aim of identifying remaining gaps
- Skills training of, individual support for and the promotion of junior researchers
grammis ist ein wissenschaftlich basiertes Online-Informationssystem zur deutschen Grammatik und Orthografie, das Erklärungen und Hintergrundwissen für Sprachinteressierte und Deutschlernende weltweit bietet. Neben genuin grammatischen Themen enthält es auch für das Rechtschreiblernen gewinnbringende Inhalte. Im vorliegenden Beitrag werden seine orthografischen Komponenten veranschaulicht und aktuelle Neuerungen im Zusammenhang mit seiner Integration in eine im Entstehen befindliche digitale Vernetzungsinfrastruktur für die Bildung erläutert.
In der gegenwärtigen forschungspolitischen Diskussion ist es für Einzeldisziplinen wie die Linguistik von zentraler Bedeutung zu klären, in welcher Form sie bereit und in der Lage sind, Beiträge zu außerwissenschaftlichen Problemstellungen zu leisten. Vor diesem Hintergrund haben wir im Zeitraum von Frühjahr bis Herbst 1997 eine schriftliche Umfrage unter 1.500 Linguistinnen und Linguisten durchgeführt; der Rücklauf lag bei ca. 17% (256). Ziel der Befragung war, die Einstellungen zum Thema Linguistik in der Öffentlichkeit aus der Innenperspektive der Disziplin heraus zu bestimmen. Zu diesem Zweck wurden zwölf überwiegend offene Fragen gestellt, die sich in vier Gruppen gliedern:
(I) Tatsächliche und potentielle Relevanz der Linguistik für die Öffentlichkeit
(II) Darstellung der Linguistik in der Öffentlichkeit (Presse, Fernsehen etc.)
(III) Beiträge der Befragten zum Wissenstransfer aus der Linguistik in außerakademische
Bereiche
(IV) Einschätzung zukünftiger Entwicklungen und Entwicklungsmöglichkeiten im Verhältnis zwischen Linguistik und Öffentlichkeit.
Die vielfach emotionale Resonanz, die die Fragen hervorriefen, macht deutlich, daß „Linguistik in der Öffentlichkeit" für Linguistinnen und Linguisten nicht nur ein aktuelles, sondern auch ein brisantes Thema ist. Generell wird ein Mißverhältnis zwischen der Leistungsfähigkeit und Relevanz des Fachs einerseits und seiner tatsächlichen öffentlichen Wirkung andererseits gesehen. Nur eine Minderheit der Befragten formuliert diesen Befund im Zusammenhang mit einer scharfen Kritik an der Öffentlichkeit und ihren Instanzen (Medien, Institutionen). Ca. 90% der Einsender kritisieren dagegen die Probleme von Linguistinnen und Linguisten, Forschungsergebnisse verständlich zu präsentieren, Praxisbezüge ihrer Ergebnisse hervorzuheben und/oder das Fach wirkungsvoll nach außen hin darzustellen.
Dieses Gespräch wurde am 6. Februar 2023 in den Räumlichkeiten des Marsilius-Kollegs der Universität Heidelberg aufgenommen. Es spiegelt den Austausch zwischen den beteiligten Wissenschaftlerinnen und Wissenschaftlern wider und gibt einen ersten Einblick in die Themen und Fragen, die in diesem Sammelband eine Rolle spielen. Das Gespräch wurde transkribiert und an denjenigen Stellen sprachlich überarbeitet, die es aus Gründen der Verständlich- und Lesbarkeit erforderten. Der mündliche, im Nachdenken begriffene Charakter des Gesprächs wurde gewahrt.
Bild-Makros bzw. 4Memes sind ein präsentes Internetphänomen im Social Web. In sozialen Netzwerken wie Facebook werden diese multimodalen, kulturell geprägten Kommunikate nicht nur veröffentlicht und verbreitet, sondern zudem von NutzerInnen u.a. in Form von Kommentaren rezipiert und interaktiv ausgehandelt. Diese kommunikative Einheit aus einem einerseits eindimensionalen, statischen Kommunikat mit einer andererseits dynamischen, interaktiven Aushandlung stellt dabei eine interdisziplinäre Herausforderung für eine differenzierte (medien-)linguistische Betrachtung dar, der mit einer Kombination von Sehflächenanalyse, Gattungsanalyse sowie Konversations- bzw. Gesprächsanalyse begegnet wird. In dieser Arbeit wird anhand erhobener Daten von Facebook-Gemeinschaftsseiten gezeigt, welche formalen, syntaktisch-semantischen und pragmatisch-funktionalen Mechanismen bei der Kombination der Zeichenressourcen Text und Bild zur Bedeutungskonstitution des (humoristischen) Medienprodukts zusammenspielen, dessen Verständnis auch auf intertextuellem, kulturellem (Kontext- und Gattungs)Wissen basiert. Im Anschluss daran wird dargelegt, wie sich über geteiltes Wissen verfügende RezipientInnen mit technischen und sprachlichen Folgehandlungen auf ein Bild-Makro beziehen und welche sprachlichen Mittel und kommunikativen Verfahren wie Fokussierungsaufforderung und -bestätigung, Bewertung und Übertragung auf die gemeinsame Lebenswelt Anwendung finden.
Lexikalische Diskurspartikeln wie ‚gut‘, ‚schön‘, ‚genau‘, ‚richtig‘, ‚klar‘ etc. mit Äquivalenten in anderen Wortklassen (z.B. als Adjektive) und einem inhärenten semantischen Gehalt sind ein häufiges Phänomen in der gesprochenen Sprache. In ihrem vielfältigen, feinnuancierten Gebrauch tragen sie maßgeblich zur Organisation von Gesprächen bei. Der Fokus dieser empirischen interaktionslinguistischen Untersuchung liegt auf der detaillierten Beschreibung des Formen- und Funktionsspektrums sowie der Verwendungspraktiken von ‚gut‘ und ‚schön‘. Dabei werden funktionale, sequenzielle, prosodische und kombinatorische Regelhaftigkeiten aufgezeigt sowie das Verhältnis zwischen ‚gut/schön‘ und ihren Pendants als Adjektiven diskutiert. Die Verwendungsmerkmale und -bereiche der Diskurspartikeln werden zudem mit prädikativen Formen mit ‚gut/schön‘ verglichen, um die Spezifika und Leistungsfähigkeit von lexikalischen Diskurspartikeln aufzuzeigen und die Formate im Hinblick auf Pragmatikalisierung zu diskutieren.
Das von der Leibniz-Gemeinschaft geförderte Projekt „Lexik des gesprochenen Deutsch“(LeGeDe, Leibniz-Wettbewerb 2016, Förderlinie I: „Innovative Vorhaben“) nahm im September 2016 am Institut für Deutsche Sprache (IDS) seine Arbeit auf.1 Das Hauptziel ist die Erstellung einer korpusbasierten lexikografischen Online-Ressource zur Lexik des gesprochenen Deutsch auf der Grundlage von lexikologischen und gesprächsanalytischen Untersuchungen authentischer gesprochensprachlicher Daten. Als Kooperationsprojekt der Abteilungen Lexik und Pragmatik arbeiten Mitarbeiter/innen aus der Lexikologie, Lexikografie, Interaktionalen bzw. Gesprächslinguistik, Korpus- und Computerlinguistik und den Empirischen Methoden zusammen, wodurch sowohl aus der Sicht der Gesprochene- Sprache-Forschung als auch aus lexikografischer Perspektive eine innovative Form der Sprachbeschreibung entstehen soll.
Der Auftaktworkshop "Lexik des gesprochenen Deutsch: Forschungsstand, Erwartungen und Anforderungen an die Entwicklung einer innovativen lexikografischen Ressource" fand am 16. und 17. Februar 2017 am Institut fur Deutsche Sprache (IDS) in Mannheim statt. Das von der Leibniz-Gemeinschaft geforderte Projekt "Lexik des gesprochenen Deutsch" (=LeGeDe, Leibniz-Wettbewerb 2016, Forderlinie "Innovative Vorhaben") nahm im September 2016 am IDS seine Arbeit auf. Das Hauptziel ist die Erstellung einer korpusbasierten elektronischen Ressource zur Lexik des gesprochenen Deutsch auf der Grundlage von lexikologischen und gesprachsanalytischen Untersuchungen authentischer gesprochensprachlicher Daten.
In this paper, we describe a data processing pipeline used for annotated spoken corpora of Uralic languages created in the INEL (Indigenous Northern Eurasian Languages) project. With this processing pipeline we convert the data into a loss-less standard format (ISO/TEI) for long-term preservation while simultaneously enabling a powerful search in this version of the data. For each corpus, the input we are working with is a set of files in EXMARaLDA XML format, which contain transcriptions, multimedia alignment, morpheme segmentation and other kinds of annotation. The first step of processing is the conversion of the data into a certain subset of TEI following the ISO standard ’Transcription of spoken language’ with the help of an XSL transformation. The primary purpose of this step is to obtain a representation of our data in a standard format, which will ensure its long-term accessibility. The second step is the conversion of the ISO/TEI files to a JSON format used by the “Tsakorpus” search platform. This step allows us to make the corpora available through a web-based search interface. As an addition, the existence of such a converter allows other spoken corpora with ISO/TEI annotation to be made accessible online in the future.
This paper presents the QUEST project and describes concepts and tools that are being developed within its framework. The goal of the project is to establish quality criteria and curation criteria for annotated audiovisual language data. Building on existing resources developed by the participating institutions earlier, QUEST develops tools that could be used to facilitate and verify adherence to these criteria. An important focus of the project is making these tools accessible for researchers without substantial technical background and helping them produce high-quality data. The main tools we intend to provide are the depositors’ questionnaire and automatic quality assurance, both developed as web applications. They are accompanied by a Knowledge base, which will contain recommendations and descriptions of best practices established in the course of the project. Conceptually, we split linguistic data into three resource classes (data deposits, collections and corpora). The class of a resource defines the strictness of the quality assurance it should undergo. This division is introduced so that too strict quality criteria do not prevent researchers from depositing their data.
This paper presents the QUEST project and describes concepts and tools that are being developed within its framework. The goal of the project is to establish quality criteria and curation criteria for annotated audiovisual language data. Building on existing resources developed by the participating institutions earlier, QUEST also develops tools that could be used to facilitate and verify adherence to these criteria. An important focus of the project is making these tools accessible for researchers without substantial technical background and helping them produce high-quality data. The main tools we intend to provide are a questionnaire and automatic quality assurance for depositors of language resources, both developed as web applications. They are accompanied by a knowledge base, which will contain recommendations and descriptions of best practices established in the course of the project. Conceptually, we consider three main data maturity levels in order to decide on a suitable level of strictness of the quality assurance. This division has been introduced to avoid that a set of ideal quality criteria prevent researchers from depositing or even assessing their (legacy) data. The tools described in the paper are work in progress and are expected to be released by the end of the QUEST project in 2022.
The CMDI Explorer
(2020)
We present the CMDI Explorer, a tool that empowers users to easily explore the contents of complex CMDI records and to process selected parts of them with little effort. The tool allows users, for instance, to analyse virtual collections represented by CMDI records, and to send collection items to other CLARIN services such as the Switchboard for subsequent processing. The CMDI Explorer hence adds functionality that many users felt was lacking from the CLARIN tool space.
CMDI Explorer
(2021)
We present CMDI Explorer, a tool that empowers users to easily explore the contents of complex CMDI records and to process selected parts of them with little effort. The tool allows users, for instance, to analyse virtual collections represented by CMDI records, and to send collection items to other CLARIN services such as the Switchboard for subsequent processing. CMDI Explorer hence adds functionality that many users felt was lacking from the CLARIN tool space.
This technology watch report discusses digital repository solutions, in the context of the research infrastructure projects CLARIAH-DE, CLARIN, and DARIAH. It provides an overview of different repository systems, comparing them and discussing their respective applicabilities from the perspectives of the project partners at the time of writing.
This paper addresses long-term archival for large corpora. Three aspects specific to language resources are focused, namely (1) the removal of resources for legal reasons, (2) versioning of (unchanged) objects in constantly growing resources, especially where objects can be part of multiple releases but also part of different collections, and (3) the conversion of data to new formats for digital preservation. It is motivated why language resources may have to be changed, and why formats may need to be converted. As a solution, the use of an intermediate proxy object called a signpost is suggested. The approach will be exemplified with respect to the corpora of the Leibniz Institute for the German Language in Mannheim, namely the German Reference Corpus (DeReKo) and the Archive for Spoken German (AGD).
Signposts for CLARIN
(2020)
An implementation of CMDI-based signposts and its use is presented in this paper. Arnold et al. 2020 present Signposts as a solution to challenges in long-term preservation of corpora, especially corpora that are continuously extended and subject to modification, e.g., due to legal injunctions, but also may overlap with respect to constituents, and may be subject to migrations to new data formats. We describe the contribution Signposts can make to the CLARIN infrastructure and document the design for the CMDI profile.
Signposts for CLARIN
(2021)
An implementation of CMDI-based signposts and its use is presented in this paper. Arnold, Fisseni et al. (2020) present signposts as a solution to challenges in long-term preservation of corpora. Though applicable to digital resources in general, we focus on corpora, especially those that are continuously extended or subject to modification, e.g., due to legal injunctions, but also may overlap with respect to constituents, and may be subject to migrations to new data formats. We describe the contribution signposts can make to the CLARIN infrastructure, notably virtual collections, and document the design for the CMDI profile.
In diesem Beitrag widmen wir uns der Frage, welche Schritte unternommen werden müssen, um Skripte, die bei der Aufbereitung und/oder Auswertung von Forschungsdaten Anwendung finden, so FAIR wie möglich zu gestalten. Dabei nehmen wir sowohl Reproduzierbarkeit, also den Weg von den (Roh)daten zu den Ergebnissen einer Studie, als auch Wiederverwertbarkeit, also die Möglichkeit, die Methoden einer Studie mittels des Skripts auf andere Daten anzuwenden, in den Fokus und beleuchten dabei die folgenden Aspekte: Arbeitsumgebung, Datenvalidierung, Modularisierung, Dokumentation und Lizenz.
Sound units play a pivotal role in cognitive models of auditory comprehension. The general consensus is that during perception listeners break down speech into auditory words and subsequently phones. Indeed, cognitive speech recognition is typically taken to be computationally intractable without phones. Here we present a computational model trained on 20 hours of conversational speech that recognizes word meanings within the range of human performance (model 25%, native speakers 20–44%), without making use of phone or word form representations. Our model also generates successfully predictions about the speed and accuracy of human auditory comprehension. At the heart of the model is a ‘wide’ yet sparse two-layer artificial neural network with some hundred thousand input units representing summaries of changes in acoustic frequency bands, and proxies for lexical meanings as output units. We believe that our model holds promise for resolving longstanding theoretical problems surrounding the notion of the phone in linguistic theory.
Wie die Eule erkunden große & kleine Sprach-Checker ihre Neckarstadt-West. Kommt mit auf Entdeckungsreise!
Das Buch „Der Wörter-Sammel-Koffer“ ist ein Werk der Sprach-Checker. Es entstand im Rahmen des Projekts „Die Sprach-Checker - So sprechen wir in der Neckarstadt“ (Leitung: Dr. Christine Möhrs & Elena Schoppa-Briele) des Leibniz-Instituts für Deutsche Sprache (IDS), Mannheim, in Zusammenarbeit mit der Kinderbuchautorin und Illustratorin Anke Faust, dem Campus Neckarstadt-West, den Neckarstadt-Kids sowie der Alten Feuerwache Mannheim.
Aus den vielen witzigen Ideen der Kinder entwickelte sich die Geschichte um die Eule, die anschließend mit Wasserfarben, Farbstiften und viel Phantasie von den Sprach-Checkern illustriert wurde.
Ausgehend von einschlägigen typologischen Parametern (Verbstellung, Kasusmarkierung, analytische und synthetische Konstruktion) werden Aspekte einer allgemeinen morphosyntaktischen Charakterisierung des Deutschen zur Diskussion gestellt. Die deutschen Klammerbildungen werden unter dem Aspekt links- und rechtsverzweigender Serialisierung betrachtet. Es wird dabei erwogen, die Verbalklammer im Hauptsatz als die Überlagerung einer zugrundeliegenden Verbendstellung durch eine pragmatische Satzartenmarkierung anzusehen. Das Verhältnis zwischen Morphologie und syntaktischen Regeln wird im Hinblick auf die ,,Konfigurationalitäts”-Diskussion erläutert. Sowohl bei Verbkonstruktionen als auch bei der Funktionskodierung im nominalen Bereich wird auf die Analytitizität/Synthetizität-Unterscheidung Bezug genommen. Im Rahmen dieser Parameter erscheint das Deutsche als ein sprachtypologischer „Mischtyp", der aber insgesamt durch weitgehende funktionale Konvergenz der typologisch unterschiedlichen Strukturen und Verfahren gekennzeichnet ist.
Die Sprachpfleger geißeln die „Bandwurmwörter" und den „Akü-Fimmel". Sie beklagen, dass in den letzten Jahrzehnten die Komposita immer länger werden und an Zahl erheblich zunehmen. Als Folge dieses Phänomens bewerten sie die Akü-Sprache. Vor allem Initialabkürzungen - so stellen sie fest - nehmen ebenfalls erheblich zu. In meinem Beitrag möchte ich den Sachverhalt in zwei Angängen untersuchen:
(1) durch eine quantitative Analyse von Frequenzlisten, Bedeutungswörterbüchern und Zeitungstexten zu drei Zeitpunkten: 1900,1950 und 1999. Frage: In welchem Umfang ist die Zahl der Mehrfachkomposita und der Kurzwörter angestiegen und gibt es einen inneren Zusammenhang?
(2) durch eine qualitative Analyse zweier kurzer Artikel aus einer regionalen Tageszeitung von 1999. Frage: Wie werden Mehrfachkomposita und Kurzwörter in einem Text integriert und wie werden sie verstanden?
Ergebnisse: Mehrfachkomposita verdoppeln in den letzten hundert Jahren ihren Anteil von 0.57 auf 0.99% aller fortlaufenden Wörter; fünf- und noch mehrgliedrige Wörter kommen kaum vor. Die Kurzwörter steigern ihren Anteil von 0.06 auf 1.54%. Die Kurzwörter sind keine Antwort auf die Mehrfachkomposita, da sie meist auf Wortgruppen zurückgehen. Beide Phänomene sind durch Kondensation hervorgerufen. - Mehrfachkomposita sind oft Textwörter, gebildet aus einem lexikalisierten Teilkompositum und einem offenen Paradigma. Ob komplexe Nominalphrasen oder Mehrfachkomposita verwendet werden, ist eine Frage des Stils und der Textsorte.
Verschmelzung von Präposition und Artikel. Eine kontrastive Analyse zum Deutschen und Italienischen
(2018)
Präpositionen und Artikelformen gehen in vielen europäischen Sprachen klitische Verbindungen ein, die spezielle Ausdrucksklassen wie die deutschen Verschmelzungsformen (z. B. ans, vom, zur) und italienischen ‚preposizioni articolate‘ (z. B. alla, delle, nel) konstituieren. Dieses Buch widmet sich dem Sprachvergleich dieser Ausdrucksklassen im Deutschen und Italienischen, die ausgehend von ähnlichen Voraussetzungen divergente diachrone Entwicklungen repräsentieren. Gezeigt wird dies anhand intra- und interlingualer Analysen zu Phonologie, Morphologie, Syntax und funktionalen Aspekten im Rede- und Textzusammenhang, die sowohl diachrone als auch synchrone Aspekte berücksichtigen und unmittelbar korpusempirisch abgesichert werden. Zentrale Erkenntnisse liefern außerdem sprachspezifische Fallstudien in großen Korpora, die auf methodisch innovativen, quantitativ und qualitativ ausgerichteten Distributionsanalysen struktureller und orthographischer Varianten von Präposition-Definitartikel-Verbindungen basieren.
In many European languages, propositional arguments (PAs) can be realized as different types of structures. Cross-linguistically, complex structures with PAs show a systematic correlation between the strength of the semantic bond and the syntactic union (cf. Givón 2001; Wurmbrand/Lohninger 2023). Also, different languages show similarities with respect to the (lexical) licensing of different PAs (cf. Noonan 1985; Givón 2001; Cristofaro 2003 on different predicate types). However, on a more fine-grained level, a variation across languages can be observed both with respect to the syntactic-semantic properties of PAs as well as to their licensing and usage. This presentation takes a multi-contrastive view of different types of PAs as syntactic subjects and objects by looking at five European languages: EN, DE, IT, PL and HU. Our goal is to identify the parameters of variation in the clausal domain with PAs and by this to contribute to a better understanding of the individual language systems on the one hand and the nature of the linguistic variation in the clausal domain on the other hand. Phenomena and Methodology: We investigate the following types of PAs: direct object (DO) clauses (1), prepositional object (PO) clauses (2), subject clauses (3), and nominalizations (4, 5). Additionally, we discuss clause union phenomena (6, 7). The analyzed parameters include among others finiteness, linear position of the PA, (non) presence of a correlative element, (non) presence of a complementizer, lexical-semantic class of the embedding verb. The phenomena are analyzed based on corpus data (using mono- and multilingual corpora), experimental data (acceptability judgement surveys) or introspective data.
Zum Geleit
(2018)
This article investigates mundane photo taking practices with personal mobile devices in the co-presence of others, as well as “divergent” self-initiated smartphone use, thereby exploring the impact of everyday technologies on social interaction. Utilizing multimodal conversation analysis, we examined sequences in which young adults take pictures of food and drinks in restaurants and cafés. Although everyday interactions are abundant in opportunities for accomplishing food photography as a side activity, our data show that taking pictures is also often prioritized over other activities. Through a detailed sequential analysis of video recordings and dynamic screen captures of mobile devices, we illustrate how photographers orient to the momentary opportunities for and relevance of photo taking, that is, how they systematically organize their photographing with respect to the ongoing social encounter and the (projected) changes in the material environment. We investigate how the participants multimodally negotiate the “mainness” and “sideness” (Mondada, 2014) of situated food photography and describe some particular features of participants’ conduct in moments of mundane multiactivity.
In this chapter, we will investigate smartphone-based showing sequences in everyday social encounters, that is, moments in which a personal mobile device is used for presenting (audio-)visual content to co-present participants. Despite a growing interest in object-centred sequences and mundane technology use, detailed accounts of the sequential, multimodal, and material dimensions of showing sequences are lacking. Based on video data of social interactions in different languages and on the framework of multimodal interaction analysis, this chapter will explore the link between mobile device use and social practices. We will analyse how smartphone showers and their recipients coordinate the manipulation of a technological object with multiple courses of action, and reflect upon the fundamental complexity of this by-now routine joint activity.
The ubiquity of smartphones has been recognised within conversation analysis as having an impact on conversational structures and on the participants’ interactional involvement. However, most of the previous studies have relied exclusively on video recordings of overall encounters and have not systematically considered what is taking place on the device. Due to the personal nature of smartphones and their small displays, onscreen activities are of limited visibility and are thus potentially opaque for both the co-present participants (“participant opacity”) and the researchers (“analytical opacity”). While opacity can be an inherent feature of smartphones in general, analytical opacity might not be desirable for research purposes. This chapter discusses how a recording set-up consisting of static cameras, wearable cameras and dynamic screen captures allowed us to address the analytical opacity of mobile devices. Excerpts from multi-source video data of everyday encounters will illustrate how the combination of multiple perspectives can increase the visibility of interactional phenomena, reveal new analytical objects and improve analytical granularity. More specifically, these examples will emphasise the analytical advantages and challenges of a combined recording set-up with regard to smartphone use as multiactivity, the role of the affordances of the mobile device, and the prototypicality and “naturalness” of the recorded practices.
Introduction
(2023)
Anders als bei Sonntagspredigten haben die katholischen und evangelischen AutorInnen von Kirche in 1live nur 90 Sekunden zur Verfügung, um ihre christliche Botschaft zu vermitteln. Vorliegender Beitrag untersucht, wie die katholischen und evangelischen AutorInnen dies tun. Welche Inhalte erachten sie für relevant? Welche sprachliche Gestaltung wählen sie? Greifen katholische und evangelische AutorInnen zu den gleichen Inhalten und sprachlichen Mitteln oder zeigen sich konfessionelle Präferenzen und Differenzen? Diesen Fragen soll an einem Korpus aus Kirche in 1live-Radiopredigten aus den Jahren 2012 bis 2021 (= 2.755 Texte mit insgesamt 726.570 Token) mit einem quantitativen und qualitativen Methoden-Mix nachgegangen werden. Die Studie wird im Rahmen des DFG-Projekts „Sprache und Konfession 500 Jahre nach der Reformation“ am Germanistischen Institut der Westfälischen Wilhelms-Universität Münster durchgeführt.
Erpressung ist eine Straftat, die sich meist in einer ersten Phase rein sprachlich manifestiert und so liegt es nahe, die Sprachwissenschaft zur Klärung eines derartigen Falles heranzuziehen. Ist es möglich, für eine Ermittlung relevante Aussagen über den Verfasser zu machen, den Verfasser zu kategorisieren? Ist er ein notorischer Schreiber, ein alter Bekannter, oder handelt es sich um einen ersten unbeholfenen Versuch? Diese und andere Fragen werden an Linguisten und Linguistinnen im BKA herangetragen, die sich in eine sehr ungewöhnliche Rolle einfinden und ihre Methodik auf sehr spezifische Fragestellungen zuschneiden müssen. Der Aufsatz soll die konkreten Bedingungen der linguistischen Arbeit im Bereich der Autorenerkennung im BKA vorstellen. Dabei werden Aufgabenstellungen, Methodik, Probleme und Forschungsdesiderate skizziert. Ziel ist es, Sprachwissenschaftler zu erreichen, die an einer konkreten Anwendung ihres Faches sowie an der Lösung sehr spezifischer Problemstellungen interessiert sind, und somit eine stärkere fachliche Vernetzung zu schaffen.
We present an approach to an aspect of managing complex access scenarios to large and heterogeneous corpora that involves handling user queries that, intentionally or due to the complexity of the queried resource, target texts or annotations outside of the given user’s permissions. We first outline the overall architecture of the corpus analysis platform KorAP, devoting some attention to the way in which it handles multiple query languages, by implementing ISO CQLF (Corpus Query Lingua Franca), which in turn constitutes a component crucial for the functionality discussed here. Next, we look at query rewriting as it is used by KorAP and zoom in on one kind of this procedure, namely the rewriting of queries that is forced by data access restrictions.
We present a method to identify and document a phenomenon on which there is very little empirical data: German phrasal compounds occurring in the form of as a single token (without punctuation between their components). Relying on linguistic criteria, our approach implies to have an operational notion of compounds which can be systematically applied as well as (web) corpora which are large and diverse enough to contain rarely seen phenomena. The method is based on word segmentation and morphological analysis, it takes advantage of a data-driven learning process. Our results show that coarse-grained identification of phrasal compounds is best performed with empirical data, whereas fine-grained detection could be improved with a combination of rule-based and frequency-based word lists. Along with the characteristics of web texts, the orthographic realizations seem to be linked to the degree of expressivity.
Contrasting and turn transition: Prosodic projection with the parallel-opposition constructions
(2009)
The parallel-opposition construction has not yet been widely described as an independent construction type. This article reports on its realization in everyday British-English conversation. In particular, it focusses on prosodic projection in the lexically and syntactically unmarked first component of this syntactic pattern, and thus adds to the body of research investigating the organization of turn-taking in the context of bi-clausal constructions with which the first part lacks explicit lexical hints to their continuation. It is shown that the parallel-opposition construction, next to specific semantic–pragmatic, syntactic and lexical features, also exhibits a relatively fixed range of prosodic features in the first conjunct, among these narrow focus, continuing intonation and/or the avoidance of intonation-unit boundary signals. These are used to project continuation of an otherwise complete utterance and, thus, to secure the floor for the expression of contrast. In addition, the detailed analysis of apparently deviant cases, which takes into account the on-line production of syntax, shows that a lack of prosodically projective features in the first component of the parallel-opposition construction can be explained by the strategic, retrospective use of the construction to resolve problems in turn transition.
The term “pivot” usually refers to two overlapping syntactic units such that the completion of the first unit simultaneously launches the second. In addition, pivots are generally said to be characterized by the smooth prosodic integration of their syntactic parts. This prosodic integration is typically achieved by prosodic-phonetic matching of the pivot components. As research on such turns in a range of languages has illustrated, speakers routinely deploy pivots so as to be able to continue past a point of possible turn completion, in the service of implementing some additional or revised action. This article seeks to build on, and complement, earlier research by exploring two issues in more detail as follows: (1) what exactly do pivotal turn extensions accomplish on the action dimension, and (2) what role does prosodic-phonetic packaging play in this? We will show that pivot constructions not only exhibit various degrees of prosodic-phonetic (non-)integration, i.e., differently strong cesuras, but that they can be ordered on a continuum, and that this cline maps onto the relationship of the actions accomplished by the components of the pivot construction. While tighter prosodic-phonetic integration, i.e., weak(er) cesuring, co-occurs with post-pivot actions whose relationship to that of the pre-pivot tends to be rather retrospective in character, looser prosodic-phonetic integration, i.e., strong(er) cesuring, is associated with a more prospective orientation of the post-pivot’s action. These observations also raise more general questions with regard to the analysis of action.
We present a collection of (currently) about 5.500 commands directed to voice-controlled virtual assistants (VAs) by sixteen initial users of a VA system in their homes. The collection comprises recordings captured by the VA itself and with a conditional voice recorder (CVR) selectively capturing recordings including the VA-directed commands plus some surrounding context. Next to a description of the collection, we present initial findings on the patterns of use of the VA systems during the first weeks after installation, including usage timing, the development of usage frequency, distributions of sentence structures across commands, and (the development of) command success rates. We discuss the advantages and disadvantages of the applied collection-specific recording approach and describe potential research questions that can be investigated in the future, based on the collection, as well as the merit of combining quantitative corpus linguistic approaches with qualitative in-depth analyses of single cases.
Comprehending conditional statements is fundamental for hypothetical reasoning about situations. However, the online comprehension of conditional statements containing different conditional connectives is still debated. We report two self-paced reading experiments on German conditionals presenting the conditional connectives wenn (‘if’) and nur wenn (‘only if’) in identical discourse contexts. In Experiment 1, participants read a conditional sentence followed by the confirmed antecedent p and the confirmed or negated consequent q. The final, critical sentence was presented word by word and contained a positive or negative quantifier (ein/kein ‘one/no’). Reading times of the two quantifiers did not differ between the two conditional connectives. In Experiment 2, presenting a negated antecedent, reading times for the critical positive quantifier (ein) did not differ between conditional connectives, while reading times for the negative quantifier (kein) were shorter for nur wenn than for wenn. The results show that comprehenders form distinct predictions about discourse continuations due to differences in the lexical semantics of the tested conditional connectives, shedding light on the role of conditional connectives in the online interpretation of conditionals in general.
Der Beitrag untersucht auf der Grundlage eines zeichentheoretischen Ansatzes verschiedene Verfahren der Benennungsbildung in ihrem Zusammenwirken bei lexikalischen Innovationen. Erörtert werden die Interferenz zwischen natürlicher und künstlicher Benennungsbildung sowie die Interferenz zwischen Wortbildung und Bedeutungsbildung. Welche Interferenztypen auftreten und mit welchen Folgen für Struktur und Bedeutung der lexikalischen Innovation sie in der gegenwärtigen Wortschatzentwicklung wirksam sind, wird an Fallbeispielen illustriert.
In diesem Beitrag liegt der Fokus auf der Vorfeldbesetzung des deutschen Satzes, insofern das Vorfeld einerseits aus einem Satzglied oder mehreren Satzgliedern und einem infiniten Teil des Verbalkomplexes oder andererseits nur aus dem infiniten Teil des Verbalkomplexes besteht. Bei diesen Formen der Vorfeldbesetzung werden Varianten und deren informationsstrukturelle Besonderheiten betrachtet. Des Weiteren soll der Frage nachgegangen werden, ob – entgegen einer haufig vorgebrachten Regel, dass das Vorfeld des deutschen Satzes nur einfach besetzt werden kann – eindeutige und auch akzeptable Belege in den Wikipedia-Korpora auffindbar sind, die darauf hinweisen, dass im Deutschen durchaus eine Vorfeldbesetzung mit mehr als einem Satzglied auftreten kann.
In this paper we present the results of an automatic classification of Russian texts into three levels of difficulty. Our aim is to build a study corpus of Russian, in which a L2 student is able to select texts of a desired complexity. We are building on a pilot study, in which we classified Russian texts into two levels of difficulty. In the current paper, we apply the classification to an extended corpus of 577 labelled texts. The best-performing combination of features achieves an accuracy of 0,74 within at most one level difference.
We present a method for detecting and reconstructing separated particle verbs in a corpus of spoken German by following an approach suggested for written language. Our study shows that the method can be applied successfully to spoken language, compares different ways of dealing with structures that are specific to spoken language corpora, analyses some remaining problems, and discusses ways of optimising precision or recall for the method. The outlook sketches some possibilities for further work in related areas.
In this paper, we present an overview of freely available web applications providing online access to spoken language corpora. We explore and discuss various solutions with which the corpus providers and corpus platform developers address the needs of researchers who are working with spoken language. The paper aims to contribute to the long-overdue exchange and discussion of methods and best practices in the design of online access to spoken language corpora.
Lexical explorer
(2018)
Das Tool Lexical Explorer ermöglicht, die Korpus-Frequenzangaben vom FOLK (Forschung und Lehrkorpus Gesprochenes Deutsch; Schmidt 2014) und GeWiss (Gesprochene Wissenschaftssprache; Fandrych, Meißner & Wallner 2017) zu durchsuchen und abzufragen. Das Tool besteht aus Tabellen, die für die Zwecke des Projekts LeGeDe entwickelt wurden (Möhrs et al. 2017). Die Zahlen beruhen auf dem DGD-Release 2.10 (23.05.2018). Für den Vergleich zwischen Korpora der gesprochenen Sprache und DeReKo wird die DeReKo Version 2016-II (30.09.2016) ohne Subkorpora Wikipedia-Daten (Artikel, Diskussionen) und ohne Sprachliche Umbrüche (45/68) verwendet (vgl. Kupietz & Keibel 2009). Die Tabellen werden mit Hilfe von DataTables (plug-in for jQuery) präsentiert, wobei die Ajax Protokolle benutzt werden, um die Tabellen asynchron aus der Datenbank zu ziehen. Die Benutzung des Tools setzt die Vertrautheit mit der Annotation der Korpora in der DGD voraus.
The paper reviews the results of work done in the context of TEI-Lex0, a joint ENeL / DARIAH / PARTHENOS initiative aimed at formulating guidelines for the encoding of retrodigitized dictionaries by streamlining and simplifying the recommendations of the “Print Dictionaries” chapter of the TEI Guidelines. TEI-Lex0 work is performed by teams concentrating on each of the main components of dictionary entries. The work presented here concerns proposals for constraining TEI-based encoding of orthographic, phonetic, and grammatical information on written and spoken forms of the lemma (headword), including auxiliary inflected forms. We also adduce examples of handling various types of orthographic and phonetic variants, as well as examples of handling the representation of inflectional paradigms, which have received less attention in the TEI Guidelines but which are nonetheless essential for properly exposing data content to the various uses that digitized lexica may have.
It is well known that the distribution of lexical and grammatical patterns is size- and register-sensitive (Biber 1986, and later publications). This fact alone presents a challenge to many corpus-oriented linguistic studies focusing on a single language. When it comes to cross-linguistic studies using corpora, the challenge becomes even greater due to the lack of high-quality multilingual corpora (Kupietz et al. 2020; Kupietz/Trawiński 2022), which are comparable with respect to the size and the register. That was the motivation for the creation of the European Reference Corpus EuReCo, an initiative started in 2013 at the Leibniz Institute for the German Language (IDS) together with several European partners (Kupietz et al. 2020). EuReCo is an emerging federated corpus, with large virtual comparable corpora across various languages and with an infrastructure supporting contrastive research. The core of the infrastructure is KorAP (Diewald et al. 2016), a scalable open-source platform supporting the analysis and visualisation of properties of texts annotated by multiple and potentially conflicting information layers, and supporting several corpus query languages. Until recently, EuReCo consisted of three monolingual subparts: the German Reference Corpus DeReKo (Kupietz et al. 2018), the Reference Corpus of Contemporary Romanian Language (Barbu Mititelu/Tufiş/Irimia 2018), and the Hungarian National Corpus (Váradi 2002). The goal of the present submission is twofold. On the one hand, it reports about the new component of EuReCo: a sample of the National Corpus of Polish (Przepiórkowski et al. 2010). On the other hand, it presents the results of a new pilot study using the newly extended EuReCo. This pilot study investigates selected Polish collocations involving light verbs and their prepositional / nominal complements (Fig. 1) and extends the collocation analyses of German, Romanian and Hungarian (Fig. 2) discussed in Kupietz/Trawiński (2022).
The present paper describes Corpus Query Lingua Franca (ISO CQLF), a specification designed at ISO Technical Committee 37 Subcommittee 4 “Language resource management” for the purpose of facilitating the comparison of properties of corpus query languages. We overview the motivation for this endeavour and present its aims and its general architecture. CQLF is intended as a multi-part specification; here, we concentrate on the basic metamodel that provides a frame that the other parts fit in.
In mid-2017, as part of our activities within the TEI Special Interest Group for Linguists (LingSIG), we submitted to the TEI Technical Council a proposal for a new attribute class that would gather attributes facilitating simple token-level linguistic annotation. With this proposal, we addressed community feedback complaining about the lack of a specific tagset for lightweight linguistic annotation within the TEI. Apart from @lemma and @lemmaRef, up till now TEI encoders could only resort to using the generic attribute @ana for inline linguistic annotation, or to the quite complex system of feature structures for robust linguistic annotation, the latter requiring relatively complex processing even for the most basic types of linguistic features. As a result, there now exists a small set of basic descriptive devices which have been made available at the cost of only very small changes to the TEI tagset. The merit of a predefined TEI tagset for lightweight linguistic annotation is the homogeneity of tagging and thus better interoperability of simple linguistic resources encoded in the TEI. The present paper introduces the new attributes, makes a case for one more addition, and presents the advantages of the new system over the legacy TEI solutions.
Standards in CLARIN
(2022)
This chapter looks at a fragment of the ongoing work of the CLARIN Standards Committee (CSC) on producing a shared set of recommendations on standards, formats, and related best practices supported by the CLARIN infrastructure and its participating centres. What might at first glance seem to be a straightforward goal has over the years proven to be rather complex, reflecting the robustness and heterogeneity of the emerging distributed digital research infrastructure and the various disciplines and research traditions of the language-based humanities that it serves and represents, and therefore part of the chapter reviews the various initiatives and proposals that strove to produce helpful standards-related guidance. The focus turns next to a subtask initiated in late 2019, its scope narrowed to one of the core activities and responsibilities of CLARIN backbone centres, namely the provision of data deposition services. Centres are obligated to publish their recom-mendations concerning the repertoire of data formats that are best suited for their research profiles. We look at how this requirement has been met by the particular centres and suggest that having centres maintain their information in the Standards Information System (SIS) is the way to improve on the current state of affairs.
CoMParS is a resource under construction in the context of the long-term project German Grammar in European Comparison (GDE) at the IDS Mannheim. The principal goal of GDE is to create a novel contrastive grammar of German against the background of other European languages. Alongside German, which is the central focus, the core languages for comparison are English, French, Hungarian and Polish, representing different typological classes. Unlike traditional contrastive grammars available for German, which usually cover language pairs and are based on formal grammatical categories, the new GDE grammar is developed in the spirit of functionalist typology. This implies that, instead of formal criteria, cognitively motivated functional domains in terms of Givón (1984) are used as tertia comparationis. The purpose of CoMParS is to document the empirical basis of the theoretical assumptions of GDE-V and to illustrate the otherwise rather abstract content of grammar books by as many as possible naturally occurring and adequately presented multilingual examples, including information on their use in specific contexts and registers. These examples come from existing parallel corpora, and our presentation will focus on the legal aspects and consequences of this choice of language data.