Refine
Year of publication
- 2015 (170) (remove)
Document Type
- Part of a Book (82)
- Article (41)
- Book (24)
- Conference Proceeding (8)
- Other (7)
- Working Paper (6)
- Master's Thesis (1)
- Preprint (1)
Is part of the Bibliography
- yes (170) (remove)
Keywords
- Deutsch (64)
- Korpus <Linguistik> (28)
- Gesprochene Sprache (11)
- Interaktion (11)
- Verb (11)
- Wörterbuch (10)
- Computerlinguistik (8)
- Computerunterstützte Lexikographie (8)
- Argumentstruktur (7)
- Kommunikation (7)
Publicationstate
- Veröffentlichungsversion (59)
- Postprint (5)
- Zweitveröffentlichung (3)
- Preprint (2)
Reviewstate
- (Verlags)-Lektorat (27)
- Verlags-Lektorat (25)
- Peer-Review (18)
- Peer-review (4)
- Review-Status-unbekannt (3)
- Peer-Revied (2)
- Verlagslektorat (2)
- (Verlags-)lektorat (1)
- Abschlussarbeit (Bachelor, Master, Diplom, Magister) (Bachelor, Master, Diss.) (1)
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (1)
Publisher
- De Gruyter (30)
- Institut für Deutsche Sprache (27)
- de Gruyter (9)
- Narr Francke Attempto (8)
- Lang (7)
- Frank & Timme (4)
- Winter (4)
- Schneider-Verl. Hohengehren (3)
- Benjamins (2)
- ELTE, Germanistisches Institut (2)
Ziel des vorliegenden Beitrags ist es, auszuloten, wie Sprechen und Handeln, das wir aus dem Alltag kennen, einzuschätzen ist, wenn es im Fernsehen und vor allem im so genannten Reality-TV erscheint. Einen guten Einstieg, diese Problemstellung zu illustrieren, bieten Pannen, wie man sie etwa aus Nachrichtensendungen wie der Tagesschau kennt.
Zur Ko-Konstruktion einer amüsanten Unterbrechung während einer argumentativen Auseinandersetzung
(2015)
Gegenstand des Beitrags sind Phraseologismen, die seit den 1990er-Jahren in den deutschen Wortschatz eingegangen sind und im Neoglogismenwörterbuch (www.owid.de) präsentiert werden. Dargestellt werden u.a. Funktionen von Phraseologismen wie Schließung von Benennungslücken und Ausdrucksverstärkung. Entstehungsprozesse wie Metaphorisierung und elliptische Kürzung, Wortbildungsprozesse auf der Basis von Phraseologismen sowie Einflüsse aus dem Englischen.
Wortschatz
(2015)
Die Beschäftigung mit ‚dem Wortschatz‘ ist insofern komplex, als man sich zunächst einer riesigen Menge von Wörtern gegenübersieht. Hilfreich ist es, grundsätzlich zwischen dem Wortschatz einer Sprache und dem Wortschatz einer bestimmten Person(engruppe) zu unterscheiden. Egal, welche Wörtermenge man weiter einkreisen möchte, die Annäherungsschritte sind grundsätzlich die gleichen: sammeln – segmentieren – klassifizieren – interpretieren – ordnen/vernetzen. In dem Beitrag wird für einen dynamischen, prozessualen Wortschatzbegriff plädiert: Die Reflexion über acht Leitfragen soll es Fachleuten wie Laien ermöglichen, das Konzept Wortschatz für ihre Zwecke zu präzisieren: – Wie lässt sich ein Wortschatz ermitteln? – Woraus kann ein Wortschatz bestehen? – Welche Arten von Wortschätzen gibt es? – Auf welcher Textbasis werden Wortschätze erhoben? – Welche Fachdisziplinen widmen sich der Untersuchung von Wortschätzen? – Wie ist ein Wortschatz in sich strukturiert? – Wo (bzw. wie) wird Wortschatz gespeichert? – Wie lassen sich ein Wortschatz und dessen Einheiten adäquat beschreiben?
In dem Beitrag wird der Frage nachgegangen, inwiefern die Frequenz eines Wortes mit seiner orthographischen Richtigschreibung zusammenhangt. Werden häufige Wörter öfter und früher richtig geschrieben? Und welche Rolle spielt dabei die orthographische Regelhaftigkeit der Wortstrukturen? Unter Zuhilfenahme maschineller Analyseverfahren aus der Großstudie "Automatisierte Rechtschreibdiagnostik" (Fay/Berkling/Stüker 2012) werden diesbezuglich über 1000 Schülertexte von Klasse 2 bis 8 untersucht. Im Ergebnis werden zum einen einige Annahmen, die bislang vor allem auf Erfahrungswerten aus der sprachdidaktischen Arbeit fußten, empirisch bestätigt, zum anderen werden sie hinsichtlich spezifischer Rechtschreibphänomene differenziert und erweitert.
Wort und Wortschatz
(2015)
Das Verständnis darüber, was ein Wort ist, zeigt sich je nach linguistischer Teildisziplin, je nach Untersuchungsinstrument und je nach betrachtetem Medium (Schriftlichkeit, Mündlichkeit) als äußerst wandelbar und kontrovers. Zunächst wird eine Übersicht über die wichtigsten Wortbegriffe in Geschichte und Gegenwart gegeben, um zu zeigen, wie sehr sich ein formaler, am Schriftbild orientierter Wortbegriff von semantisch-kognitiven Wortbegriffen unterscheidet. Anschließend wird dargelegt, wie sich welche sprachwissenschaftlichen Methoden auf die Konstituierung des Phänomens "Wort" auswirken und dass die isolierende Sicht auf das Einzelwort durch die Betrachtung von Relationen zwischen Wörtern abgelöst wurde. Dabei kommt den neueren, computerlinguistisch fundierten Verfahren besondere Relevanz zu. Auf dieser Basis wird gezeigt, welche Aspekte und Ebenen der Wortforschung es aktuell gibt; dabei wird der Interaktion von theoretischen wie anwendungsbezogenen Forschungsperspektiven und dem gesellschaftlichen bzw. Laieninteresse an Wörtern besondere Beachtung geschenkt.
Optimality theory (henceforth OT) models natural language competence in terms of interactions of universal constraints, notably markedness and faithfulness constraints. This article illustrates some of the major advances in the understanding of word-formation phenomena originating from this theory, including the prosodic organization of morphologically complex words, neutralization patterns in derivational affixes, allomorphy, and infixation.
Dieser Artikel gibt einen Überblick darüber, wie grundlegend Wissen als Vorausssetzung, Gegenstand und Produkt von Verständigungsprozessen für die Organisation von Gesprächen ist. Zunächst wird ein kognitivistischer Zugang zu Wissen mit einem sozialkonstruktivistischen kontrastiert. Es werden zum einen kommunikative Gattungen, die auf die Kommunikation von Wissen spezialisiert sind, dargestellt; zum anderen wird gezeigt, wie Wissen auch dann die Gestaltung der Interaktion bestimmt, wenn der primäre Gesprächszweck nicht in Wissensvermittlung besteht. Vier Dimensionen werden angesprochen: a) Das mit dem Adressaten geteilte Wissen (common ground) ist Grundlage des Adressatenzuschnitts von Äußerungen (recipient design); b)geteiltes Wissen wird in Verständigungsprozessen konstituiert; c) der relative epistemische Status der Gesprächspartner zueinander wird durch Praktiken des epistemic stance-taking verdeutlicht und bestimmt selbst die Interpretation von Äußerungsformaten; d) epistemischer Status, soziale Identität und Beziehungskonstitution sind durch moralische Anspruchs- und Erwartungsstrukturen eng miteinander verknüpft.
Wir können auch Hochdeutsch – Das Institut für Deutsche Sprache in Mannheim – ein Ort der Ideen
(2015)
Die Stichwortliste bildet eine tragende Säule von gedruckten als auch von Online-Wörterbüchern. Daher ist die Konzeption und Erarbeitung einer Stichwortliste auch eine zentrale Aufgabe in der Anfangsphase des am IDS in Angriff genommenen Paronymwörterbuchs. Welche Überlegungen dabei angestellt, welche Ideen entwickelt und welche Pläne bzw. Entscheidungen schließlich umgesetzt wurden, wird in dem Beitrag aufgezeigt.
Im Fokus dieses Aufsatzes steht die Bereitstellung und Illustration eines Werkzeugs für die Visualisierung bzw. Kontrastierung syntaktischer Strukturen im Lehramtsstudium sowie im (fächerübergreifenden, integrativen) Deutsch- oder Fremdsprachenunterricht höherer Jahrgangsstufen (Sek. II, Ende Sek. I): das „Generalisierte Lineare Satzmodell“ (kurz Gelisa-Modell)1. Das Gelisa-Modell, das auf dem topologischen Satzmodell fußt (vgl. u.a. Reis 1980, Höhle 1986, Pafel 2009, Wöllstein 2010), ermöglicht es, wie bei einem Baukastensystem jegliche Satztypen aus verschiedenen Sprachen (und dann natürlich auch aus einer spezifischen Einzelsprache) in direkter visueller Gegenüberstellung miteinander zu vergleichen. Dabei werden die Sätze und Satztypen distinkter Sprachen unabhängig von der jeweiligen Komplexität auf ein einheitliches Muster bezogen. Die für die grammatische Wohlgeformtheit erforderlichen linearen Strukturzusammenhänge können so auf schematisch anschauliche Weise erfasst und insbesondere zur Basis und zum Ankerpunkt grammatischer Unterrichtsdiskurse und Werkstätten gemacht werden.
Recipient design is a key constituent of intersubjectivity in interaction. Recipient design of turns is informed by prior knowledge about and shared experience with recipients. Designing turns in order to be maximally effective for the particular recipient(s) is crucial for accomplishing intersubjectively coordinated action. This paper reports on a specific pragmatic structure of recipient design, i.e. counter-factual recipient design, and how it impinges on intersubjectivity in interaction. Based on an analysis of video-recordings data from driving school lessons in German, two kinds of counterfactual recipient design of instructors' requests are distinguished: pedagogic and egocentric turn-design. Counterfactual, pedagogic turn-design is used strategically to diagnose student skills and to create opportunities for corrective instructions. Egocentric turn-design rests on private, non-shared knowledge of the instructor. Egocentrically designed turns imply expectations of how to comply with requests which cannot be recovered by the student and which lead to a breakdown of intersubjective cooperation. This paper identifies practices, sources and interactional consequences of these two kinds of counterfactual recipient design. In addition, the study enhances our understanding of recipient design in at least three ways. It shows that recipient design does not only concern referential and descriptive practices, but also the indexing intelligible projections of next actions; it highlights the productive, other-positioning effects of recipient design; it argues that recipient design should be analyzed in terms of temporally extended interactional trajectories, linking turn-constructional practices to interactional histories and consecutive trajectories of joint action.
In this paper, general problems with easily confused words among a language community are addressed. Serving as an example, the difficulties of semantic differentiation between the use of German sensibel and sensitiv are discussed. One the one hand, the question is raised as to how a speech community faces challenges of semantic shifts and how monolingual dictionaries document lexical items with similar semantic aspects. On the other hand, I will demonstrate the discrepancies of information on meaning as retrieved and interpreted from large corpus data. It will be shown how the semantics of words change and hence cause confusion among speakers. As a result, empirical evidence opens up several questions concerning the prescriptive vs. descriptive treatment of paronymic items such as sensibel/sensitiv and it demands different approaches to the lexicographic description of such words in future reference works.
Vorwort
(2015)
This paper summarizes essential steps of a workshop-like presentation of lexicographic practice and reflects an application-oriented demonstration. As a point of departure the question is raised of how different linguistic information is extracted from a corpus for the inclusion in a dictionary. The introductory part on lexicographic objectives is followed by insights into methodological aspects (e. g. online dictionary elexiko). A conclusive example is provided to illustrate the procedure.
Die öffentliche Akzeptanz und Wirkung natur- und technikwissenschaftlicher Forschung hängt grundlegend davon ab, ob sich die Ziele und Forschungsergebnisse an die Öffentlichkeit vermitteln lassen. Doch die Inhalte aktueller Forschungsvorhaben sind für ein Laienpublikum oft nur schwer zugänglich und verständlich. Vor dem Hintergrund, die gesellschaftliche Diskussion natur- und technikwissenschaftlicher Forschung zu verbessern, untersuchen und bewerten wir im Projekt PopSci – Understanding Science einen wichtigen Sektor des populärwissenschaftlichen Diskurses in Deutschland empirisch. Hierfür identifizieren wir die linguistischen Merkmale deutscher populärwissenschaftlicher Texte durch korpusbasierte Methoden und untersuchen deren Effekt auf die kognitive Verarbeitung der Texte durch Laien. Dazu setzen wir Vor- und Nachwissenstests ein. Außerdem messen wir die Blickbewegungen der Leserinnen und Leser, während sie populärwissenschaftliche Texte lesen. Aus dieser Kombination von unterschiedlichen Methoden versuchen wir, erste Empfehlungen zur Verbesserung des linguistischen Stils und der Wissensrepräsentation populärwissenschaftlicher Texte abzuleiten.
,AUFKLÄRUNG‘ ist ein Schlüsselkonzept im Demokratiediskurs der späten 60er Jahre. Aber ,AUFKLÄRUNG‘ kann vieles bedeuten. Erst mit dem neuartigen Paraphrasenmodell der Diskurslinguistik und mit der Einbeziehung des Begriffs der Intertextualität gelingt es, das Verbindende wie das Besondere jeder einzelnen Diskursäußerung darzulegen. Während für die studentische Linke die Verpflichtung zur Aufklärung bedeutet, die Gesellschaft in ihrer ganzen Breite mit Hilfe politischer Protestaktionen aus ihrer Unmündigkeit zu befreien, sehen linksliberale Intellektuelle im Gebot der Aufklärung eher eine demokratische Erziehungsformel, die den Einzelnen auf eine moralisch begründete Vernunft festlegt, welche jede materiell-physische Gewalt ausschließt. Indem so der Begriff der Aufklärung einerseits zur Rechtfertigung sozialen Umbruchs, andererseits zur Begründung gesellschaftlicher Stabilität instrumentalisiert wird, verliert er seine Wirksamkeit und verschwindet allmählich aus dem Diskurs. Der Diskurs bleibt dabei nie stehen. Bedeutungen wandeln sich fortwährend. Ruth Mell trägt mit diesem Band ganz wesentlich zur Entwicklung einer Methodologie für die Analyse der diachronen Dimension von Diskursen bei.
In this contribution, we present a novel approach for the analysis of cross-reference structures in digital dictionaries on the basis of the complete dictionary database. Using paradigmatic items in the German Wiktionary as an example, we show how analyses based on graph theory can be fruitfully applied in this context, e. g. to gain an overview of paradigmatic references as a whole or to detect closely connected groups of headwords. Furthermore, we connect information about cross-reference structures with corpus frequencies and log file statistics. In this way, we can answer questions such as the following ones: Are frequent words paradigmatically linked more closely than others? Are closely linked headwords or headwords that stand more solitary in the dictionary visited significantly more often?
Valenz und Kookkurrenz
(2015)
Valenz im Fokus: Vorwort
(2015)
Die Festschrift Valenz im Fokus: Grammatische und lexikografische Studien enthält zum einen die Beiträge des internationalen Kolloquiums „Valenz im Fokus“, das am 12. Juli 2013 im Institut für Deutsche Sprache in Mannheim zu Ehren von Jacqueline Kubczak veranstaltet wurde, zum anderen weitere Beiträge von Kollegen aus der ganzen Welt, die zum einen als elektronische Publikation während des Kolloquiums präsentiert wurden, zum anderen speziell für diese Festschrift hinzukamen.
Valenz im Fokus. Grammatische und lexikografische Studien. Festschrift für Jacqueline Kubczak
(2015)
Die Festschrift Valenz im Fokus: Grammatische und lexikografische Studien enthält zum einen die Beiträge des internationalen Kolloquiums „Valenz im Fokus“, das am 12. Juli 2013 im Institut für Deutsche Sprache in Mannheim zu Ehren von Jacqueline Kubczak veranstaltet wurde, zum anderen weitere Beiträge von Kollegen aus der ganzen Welt, die zum einen als elektronische Publikation während des Kolloquiums präsentiert wurden, zum anderen speziell für die Festschrift hinzukamen.
Using the Google Ngram Corpora for six different languages (including two varieties of English), a large-scale time series analysis is conducted. It is demonstrated that diachronic changes of the parameters of the Zipf–Mandelbrot law (and the parameter of the Zipf law, all estimated by maximum likelihood) can be used to quantify and visualize important aspects of linguistic change (as represented in the Google Ngram Corpora). The analysis also reveals that there are important cross-linguistic differences. It is argued that the Zipf–Mandelbrot parameters can be used as a first indicator of diachronic linguistic change, but more thorough analyses should make use of the full spectrum of different lexical, syntactical and stylometric measures to fully understand the factors that actually drive those changes.
Speakers’ linguistic experience is for the most part experience with language as used in conversational interaction. Though highly relevant for usage-based linguistics, the study of such data is as yet often left to other frameworks such as conversation analysis and interactional linguistics (Couper-Kuhlen and Selting 2001). On the basis of a case study of salient usage patterns of the two German motion verbs kommen and gehen in spontaneous conversation, the present paper argues for a methodological integration of quantitative corpus-linguistic methods with qualitative conversation analytic approaches to further the usage-based study of conversational interaction.
Transkriptionsaufwand
(2015)
Während die Erhebung von Gesprächsdaten zwar zeitaufwändig, aber doch noch relativ zügig zu bewältigen ist, handelt es sich bei der Transkription um eine langwierige Aufgabe, die oft unterschätzt wird. Damit Studierende, Promovierende sowie WissenschaftlerInnen, die Exposés, Arbeitspläne usw. aufstellen oder Zuschüsse für Projekte beantragen müssen, zukünftig über fundiertere Werte verfügen und damit realistischere Aussagen über den benötigten Aufwand (zeitliche wie personelle Ressourcen) treffen können, stellt der Beitrag die Ergebnisse einer Erhebung des Transkriptionsaufwandes im FOLK-Projekt vor.
We analyze the linguistic evolution of selected scientific disciplines over a 30-year time span (1970s to 2000s). Our focus is on four highly specialized disciplines at the boundaries of computer science that emerged during that time: computational linguistics, bioinformatics, digital construction, and microelectronics. Our analysis is driven by the question whether these disciplines develop a distinctive language use—both individually and collectively—over the given time period. The data set is the English Scientific Text Corpus (scitex), which includes texts from the 1970s/1980s and early 2000s. Our theoretical basis is register theory. In terms of methods, we combine corpus-based methods of feature extraction (various aggregated features [part-of-speech based], n-grams, lexico-grammatical patterns) and automatic text classification. The results of our research are directly relevant to the study of linguistic variation and languages for specific purposes (LSP) and have implications for various natural language processing (NLP) tasks, for example, authorship attribution, text mining, or training NLP tools.
Temporality in interaction
(2015)
Tagset und Richtlinie für das PoSTagging von Sprachdaten aus Genres internetbasierter Kommunikation
(2015)
Nach einer Definition der Begriffe ‚multimodale Verständigung‘ und ‚gesprochene Sprache‘ werden im vorliegenden Beitrag Prozessualität, Interaktivität und Multimodalität als zentrale Besonderheiten multimodaler Verständigung beschrieben und in ihren möglichen Auswirkungen auf die Syntax gesprochener Sprache charakterisiert. Als aktuelle Konzepte zur syntaktischen Beschreibung gesprochener Sprache stelle ich dann die on line-Syntax, die Konstruktionsgrammatik und die multimodale
Grammatik vor. Als Probleme der syntaktischen Beschreibung gesprochener Sprache diskutiere ich die Beschreibungskategorien sowie die Varianz gesprochener Sprache, die eine eindeutige kategoriale Erfassung erschwert. Als Gegenstand syntaktischer Beschreibung werden die funktionalen Einheiten und der Gesprächsbeitrag eingeführt (Abschnitt 2). Sodann stelle ich Ausschließlichkeit, quantitative Differenz und funktionale Differenz als zu unterscheidende Formen von Besonderheiten vor. Es schließen sich Darstellungen zur Syntax im Formulierungsprozess, zu spezifischen syntaktischen Strukturen und Konstruktionen und zur Syntax ‚elliptischer‘ Gesprächsbeiträge an (Abschnitt 3). Zum Abschluss werden zusammenfassend allgemeine Tendenzen der Syntax gesprochener Sprache benannt (Abschnitt 4).
Mit den Methoden der Interaktionalen Linguistik und der Konversationsanalyse untersucht die vorliegende Arbeit syntaktische Ko-Konstruktionen im gesprochenen Deutsch, wobei der Fokus auf Vervollständigungen eines zweiten Sprechers vor einem möglichen syntaktischen Abschlusspunkt liegt. Auf der Basis von 199 Ko-Konstruktionen aus informellen Interviews und Tischgesprächen leistet die Arbeit eine erste umfassende Analyse der gemeinsamen Konstruktion einer syntaktischen Gestalt durch zwei Sprecher im Deutschen.
Die Struktur der Ko-Konstruktionen wird in einem ersten Schritt über die Basisoperationen der Online-Syntax, Projektion und Retraktion, beschrieben. Im Fokus steht hier die Frage, an welchen Projektionen sich der zweite Sprecher orientiert, wobei sowohl syntaktische und prosodische als auch semanto-pragmatische Aspekte in die Analyse miteinbezogen werden. In einem zweiten Schritt wird die zeitliche und sequenzielle Organisation der Ko-Konstruktionen detailliert herausgearbeitet. Ein Schwerpunkt liegt hier auf einer genauen Darstellung und Analyse der verschiedenen Handlungsoptionen des ersten Sprechers nach der ko-konstruierten Vervollständigung.
In diesem Beitrag werden Teilergebnisse aus einer Untersuchung von zehn einsprachigen deutschen Wörterbüchern (darunter Allgemeine Bedeutungswörterbücher, Lernerwörterbücher und auf Syntagmen fokussierte Spezialwörterbücher) und den darin befindlichen syntagmatischen Verwendungsmustern präsentiert. Zunächst erfolgt eine inhaltliche und terminologische Hinführung. Im Anschluss werden Analyseergebnisse anhand des Beispiellexems Kaffee zusammengefasst dargestellt und diskutiert. Außerdem wird gezeigt, dass Unterschiede in der Auswahl und Aufbereitung der syntagmatischen Verwendungsmuster in Hinblick auf die verschiedenen Wörterbuchtypen bestehen. Ein Einblick in einige zusammenfassende Ergebnisse sowie weitere Forschungsfragen runden den Beitrag ab.
Rassmatrivajutsja novye frazeologizmy nemeckogo jazyka i aspekty ich leksikografičeskogo opisanija v „Nemecko-russkom slovare neologizmov“. Obščaja dolja novych frazeologizmov ot obščego količestva neologizmov nemeckogo jazyka v period s 1991 po 2012 gody sostavljaet okolo šesti procentov. K kategorii frazeologizmov v slovare otnosjatsja ustojčivye sočetanija slov raznoj struktury i stepeni idiomatičnosti. Naibolee mnogočislenny frazeologizmy – imennye gruppy, za nimi sledujut glagol’nye gruppy i frazeologizmy-predloženija. Vyjavljajutsja i opisyvajutsja strukturnye i semantičeskie osobennosti frazeologizmov raznych frazovych kategorij. Osveščajutsja osobennosti podači frazeologizmov v slovnike i tipy leksikografičeskoj informacii v strukture slovarnoj stat’i, učityvajuščie specifiku frazeologičeskich neologizmov kak edinic leksikografičeskogo opisanija.
Sprachwissenschaft im Fokus
(2015)
Im Jahr 2014 feierte das Institut für Deutsche Sprache (IDS) sein 50-jähriges Bestehen. Dieses Jubiläum nahm das IDS zum Anlass, seine Jahrestagung thematisch etwas breiter anzulegen und diejenigen Themenfelder, die in der sprachwissenschaftlichen Diskussion der letzten fünf Jahrzehnte eine besondere Rolle gespielt haben und zu denen das IDS in besonderer Weise hat beitragen können, einer Revision zu unterziehen. Die Beiträge dieses Bandes bieten daher einerseits eine Zusammenschau der aktuellen Fragen der Grammatikforschung und Grammatikografie, der Lexikologie und Lexikografie, des gesprochenen Sprachgebrauchs sowie der Korpustechnologie und der Computerlinguistik. Andererseits geben sie auch Auskunft darüber, wo die Sprachwissenschaft im Moment steht und wo sich zukünftig vielleicht neue Forschungsräume öffnen.
Sprache in der Medizin
(2015)
Medizinisches Wissen und Handeln ist ohne Sprache nicht denkbar: weder in der Arzt-Patienten-Kommunikation noch in fachinternen und fachexternen Medizintexten oder in den Medien. Dieser Beitrag liefert einen nähernden Überblick über verschiedene Formen medizinischer Kommunikation. Im Zentrum stehen dabei (1) der Konnex von Sprache und Wissen in der Medizin, (2) Arzt-Patient-Gespräche als Primärkommunikation und (3) der Zusammenhang zwischen Medialisierung und Medikalisierung.
Spiegelpaar im Paarspiegel
(2015)
Sinnrelationen wurden lange als stabile Beziehungen zwischen Wörtern betrachtet. Dabei zeigen gebrauchsorientierte Untersuchungen, dass Sinnrelationen dynamische Phänomene sind, die sich kommunikativen Bedürfnissen anpassen. Neuere Studien erforschen die Prozesse, die zur Herstellung von Gegensatz bzw. Ähnlichkeit erforderlich sind. Sie untersuchen variable Strukturen, ihre Funktionen sowie kontextuelle Bedingungen und erklären, warum einige Antonyme bessere Gegensatzpaare bilden als andere. Dieser Beitrag konzentriert sich auf deutsche und englische Synonyme und Antonyme aus korpus- und psycholinguistischer Perspektive. Im Mittelpunkt stehen Beschreibungen kontextbasierter und variabler Strukturen, in denen sinnverwandte Wörter regelhaft vorkommen. Es wird gezeigt, dass diese Strukturen über diverse Funktionen verfügen und dass mithilfe kognitiver Prozesse unterschiedlich stark konventionalisierte Muster entstehen. Traditionelle Klassifikationen und Definitionen werden im Lichte neuer empirischer Studien kritisch hinterfragt. Neuere Theorien, die sich um die Einbettung flexibler Beziehungen bemühen, werden erörtert.
Die Programmbereiche „Korpuslinguistik“ und „Mündliche Korpora“ haben am IDS die Aufgabe, Grundlagen für die empirische Erforschung der deutschen Sprache zu legen. Unter anderem sammeln und erstellen sie schriftliche und mündliche Korpora, bereiten sie für eine wissenschaftliche Nutzung auf und stellen sie über Web-Oberflächen (COSMAS, DGD2 demnächst KorAP) zur Verfügung. Unser Beitrag gibt zunächst einen Überblick über Entstehungsgeschichte und aktuellen Stand dieser Arbeiten. Mit einem Blick in die Zukunft widmen wir uns auch der Frage, ob und in welcher Weise das Schlagwort ,Big Data‘ für diese Arten linguistischer Ressourcen relevant ist. In Bezug auf die schriftlichen Korpora wird dabei insbesondere über die diesjährige DEREKo-Erweiterung um über 17 Milliarden Wörter und die damit verbundenen Arbeiten berichtet. In diesem Zusammenhang werden u.a. DeReKos Design, die zugrundeliegende Akquisitionsstrategie und Überlegungen zu Dispersion und Stratifizierbarkeit diskutiert. Die spezifischen Herausforderungen, die sich beim Aufbau eines großen Gesprächskorpus stellen, werden am Beispiel des Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) diskutiert. Dabei steht außer Frage, dass angesichts des Aufwandes, den Feldzugang sowie Erschließung der im Feld gewonnenen Audio- und Videodaten bedeuten, vergleichbare Datenmengen und Wachstumsraten wie bei Textkorpora nicht zu erreichen sind. Für den Aufbau umfangreicher mündlicher Korpora ist daher die Entwicklung eines eigenen Methodeninstrumentariums notwendig.
Diese Arbeit beschreibt und analysiert die soziale und sprachliche Welt von Orchestermusikern. Am Beispiel des „Mikrokosmos“ eines Orchesters untersucht sie das Zusammenspiel von beruflich-strukturellen Bedingungen, kulturell vermittelten Orientierungen und sprachlichen Handlungsmustern. Dabei werden das notwendige Hintergrundwissen über die soziale Kategorien, Leitbilder und Kriterien für Professionalität sowie die Handlungsdispositionen von Orchestermusikern dargestellt. Elemente einer historischen Entwicklung der Institution Orchester werden ebenso wie biografische Erfahrungen der Musiker und Musikerinnen auf ihre Relevanz für die Kommunikation im Orchester hin untersucht.
Korrekte Verwendung konnektoraler Satzverknüpfungen ist insbesondere in Bezug auf die Textproduktion, aber auch für das Verständnis bzw. die Interpretation von Texten von essenzieller Bedeutung. Wenn nämlich einzelne Propositionen inhaltliche Bausteine von Texten sind, so spielen Satzverknüpfungen eine Rolle als strukturelle Bausteine. Das Anwenden des topologischen Modells im Schulunterricht ist nicht nur ein hilfreiches Mittel zur Veranschaulichung syntaktisch variablen Gebrauchs unterschiedlicher Klassen von Satzverknüpfungsmitteln, sondern auch die Möglichkeit, Schüler auf semantische, pragmatische und mediale Unterschiede bei der Interpretation und Verwendung von Satzverknüpfungen (u.a. auch im gesprochenen Deutsch) aufmerksam zu machen, die sich beispielsweise durch den Positionswechsel ergeben.
This paper shows how understanding in interaction is informed by temporality, and in particular, by the workings of retrospection. Understanding is a temporally extended, sequentially organized process. Temporality, namely, the sequential relationship of turn positions, equips participants with default mechanisms to display understandings and to expect such displays. These mechanisms require local management of turn-taking to be in order, i.e., the possibility and the expectation to respond locally and reciprocally to prior turns at talk. Sequential positions of turns in interaction provide an infrastructure for displaying understanding and accomplishing intersubjectivity. Linguistic practices specialized in displaying particular kinds of (not) understanding are adapted to the individual sequential positions with respect to an action-to-be-understood.
This article presents empirical findings about what criteria make for a good online dictionary, using data on expectations and demands collected in an online questionnaire (N~684), complemented by additional results from a second questionnaire (N-390) which looked more closely at whether respondents had differentiated views on individual aspects of the criteria rated in the first study. Our results show that the classical criteria of reference books (such as reliability and clarity) were rated highest by our participants, whereas the unique characteristics of online dictionaries (such as multimedia and adaptability) were rated and ranked as (partly) unimportant. To verify whether or not the poor ratings of these innovative features were a result of the fact that our subjects are unfamiliar with online dictionaries incorporating such features, we incorporated an experiment into the second study. Our results revealed a learning effect: participants in the learning-effect condition, i.e. respondents who were first presented with examples of possible innovative features of online dictionaries, judged adaptability and multimedia to be more useful than participants who were not given that information. Thus, our data point to the conclusion that developing innovative features is worthwhile but that it should be borne in mind that users can only be persuaded of their benefits gradually. In addition, we present data about questions relating to the design of online dictionaries.
In Deutschland leben 7,5 Millionen erwachsene Analphabeten. Daher ist der Bedarf an Materialien zum Erlernen der Schrift gestiegen. Der vorliegende Band ist begleitend für den Rechtschreibunterricht von (vor allem) Erwachsenen gedacht, die Deutsch auf einem (nahezu) muttersprachlichen Niveau beherrschen. Die systemische Beschreibung des Rechtschreibwortschatzes, insbesondere durch seine orthographische Annotation und die Kennzeichnung von Lernstellen, stützt sich größten teils auf die Darstellung der deutschen Orthographie im Rahmencurriculum Schreiben (kurz RCS) des Deutschen Volkshochschulverbandes. Außerdem lehnt sich der vorliegende Wortschatz an Themen an, die sich aus dem alltäglichen Leben ableiten. Lehrende finden in diesem Band gezielt reichlich Material zum Üben im Unterrichtskontext und können bei Bedarf auch neues Übungsmaterial erstellen; sie sollen aber auch zusätzlich vermitteln, dass sie selbst als Experten von Fall zu Fall in Wörterlisten nachschlagen müssen. Für den Lerner soll der Rechtschreibwortschatz dazu beitragen, die Eigeninitiative zu fördern und zu selbständigem praktischen Üben ermutigen.
Reading corpora are text collections that are enriched with processing data. From a corpus linguist’s perspective, they can be seen as an extension of classical linguistic corpora with human language processing behavior. From a psycholinguist’s perspective, reading corpora allow to test psycholinguistic hypotheses on subsets of language and language processing as it is ‘in the wild’ – in contrast to strictly controlled language material in isolated sentences, as used in most psycholinguistic experiments. In this paper, we will investigate a relevance-based account of language processing which states that linguistic structures, that are embedded deeper syntactically, are read faster because readers allocate less attention to these structures.
Das Lexikon menschlicher Sprachen basiert auf quantitativen Verteilungen, die sich am Zipfschen Gesetz orientieren: Wenige Lexeme werden extrem häufig verwendet und sehr, sehr viele Lexeme sind extrem selten. Auch funktional zusammenhängende Teilwortschätze wie Wörter einer bestimmten Wortart, Verben, die in einem bestimmten Argumentstrukturmuster auftreten, oder Komposita zu einem bestimmten Grundwort zeigen ähnliche Frequenzverteilungen, weisen aber auch jeweils typische Abweichungen von einer Zipfschen Verteilung auf. Zipfnahe Verteilungen sind charakteristisch für dynamische, selbstorganisierende Systeme, und Veränderungen im Wortschatz oder in Teilwortschätzen sind insofern auf der Basis solcher Verteilungen zu interpretieren. Der Artikel plädiert dafür, lexikologischen Sprachdokumentationen ein dynamisches Lexikonkonzept zugrunde zu legen, in dem die Verteilungscharakteristika als Grundlage der Wortschatzstruktur eine zentrale Rolle spielen.
Pädiatrische Gespräche
(2015)
Der Aufsatz untersucht die grammatische Gestaltung zweigliedriger Nominalgruppen mit quantifizierendem nominalem Erstglied (Nquant) und quantifiziertem, durch ein Adjektivattribut erweitertem, nominalem Zweitglied (Adj+N), z.B. (mit) einem Glas kaltem Wasser. In der deutschen Gegenwartssprache ist in solchen Fügungen mit Varianten zu rechnen: (mit) einem Glas kalten Wassers, (mit) einem Glas kaltes Wasser. Insgesamt lassen sich fünf Konstruktionstypen unterscheiden. Anhand einer Belegsammlung aus literarischen Prosatexten vom 17. bis zum 20. Jahrhundert wird insbesondere die quantitative Verteilung von Konstruktionen mit Genitiv vs. Kasusübereinstimmung ins Auge gefasst. Anders als bei Nquant+N-Gruppen ohne Adjektivattribut im Zweitglied zeigt sich ein kräftiger Anstieg im Anteil der Genitivkonstruktion vom 17. bis zum 19. und nur ein leichter Rückgang im 20. Jahrhundert. Dieser Befund stimmt nur zum Teil mit den Darstellungen in der Standardliteratur überein. Eine mögliche Erklärung für die quantitative Entwicklung der Genitivkonstruktion in der Literatursprache liegt im Einfluss normativer Grammatiken.
Contents:
1. Michal Křen: Recent Developments in the Czech National Corpus, S. 1
2. Dan Tufiş, Verginica Barbu Mititelu, Elena Irimia, Stefan Dumitrescu, Tiberiu Boros, Horia Nicolai Teodorescu: CoRoLa Starts Blooming – An update on the Reference Corpus of Contemporary Romanian Language, S. 5
3. Sebastian Buschjäger, Lukas Pfahler, Katharina Morik: Discovering Subtle Word Relations in Large German Corpora, S. 11
4. Johannes Graën, Simon Clematide: Challenges in the Alignment, Management and Exploitation of Large and Richly Annotated Multi-Parallel Corpora, S. 15
5. Stefan Evert, Andrew Hardie: Ziggurat: A new data model and indexing format for large annotated text corpora, S. 21
6. Roland Schäfer: Processing and querying large web corpora with the COW14 architecture, S. 28
7. Jochen Tiepmar: Release of the MySQL-based implementation of the CTS protocol, S. 35
Pragmatik revisited
(2015)
Die Pragmatik hat sich im Lauf der letzten 40 Jahre fest als linguistische Teildisziplin etabliert. Schon relativ früh hat sich ein Kanon von Fragestellungen und Konzepten herausgebildet, der den Gegenstandsbereich der Pragmatik z.B. in Lehrbüchern und Enzyklopädien ausmacht. Die kanonischen Gegenstände (v.a. Sprechakte, Implikaturen, Präsuppositionen und Deixis) sind über die Zeit erstaunlich stabil geblieben. Der Beitrag regt an, dieses Gegenstandsverständnis von ,Pragmatik‘ angesichts der Entwicklungen der Forschung in den letzten Dekaden zu überdenken. Folgende Fragen sind dabei leitend:
- Welche Konzepte und Eigenschaften des Gegenstandsbereichs haben sich in der empirischen Erforschung des sprachlichen Handelns im Kontext als grundlegend erwiesen, ohne bisher entsprechend als Grundkategorien des „Kanons“ der Pragmatik begriffen worden zu sein?
- Welche Konsequenzen haben die empirischen Forschungen der letzten Zeit für die Relevanz und das Verständnis der klassischen pragmatischen Themen und Konzepte?
Es wird dafür plädiert, vier Bestimmungsstücke des sprachlichen Handelns ins Zentrum der Auffassung von ,Pragmatik‘ zu stellen: Zeitlichkeit, Leiblichkeit, Sozialität und Epistemizität.
Positioning
(2015)
Over the last two decades, “positioning” has become an established concept used to elucidate how identities are deployed and negotiated in narratives. This chapter first locates positioning in the larger field of research on identities and discourse. Commonalities and differences in conceptions of positioning are highlighted. In the following, the historical development of theoretical approaches to positioning and their methodological implications are reviewed in more detail. The article closes by taking up two current lines of debate concerning the future development of the concept of positioning.
Word-formation rules differ from syntactic rules in that they, apart from obeying morphological and semantic constraints, can also be − and often are − restricted phonologically. The present article includes an overview of the relevant phenomena in English and discusses the consequences for the representation of words in the mental lexicon and for grammar.
Corpus-assisted analyses of public discourse often focus on the level of the lexicon. This article argues in favour of corpus-assisted analyses of discourse, but also in favour of conceptualising salient lexical items in public discourse in a more determined way. It draws partly on non-Anglophone academic traditions in order to promote a conceptualisation of discourse keywords, thereby highlighting how their meaning is determined by their use in discourse contexts. It also argues in favour of emphasising the cognitive and epistemic dimensions of discourse-determined semantic structures. These points will be exemplified by means of a corpus-assisted, as well as a frame-based analysis of the discourse keyword financial crisis in British newspaper articles from 2009. Collocations of financial crisis are assigned to a generic matrix frame for ‘event’ which contains slots that specify possible statements about events. By looking at which slots are more, respectively less filled with collocates of financial crisis, we will trace semantic presence as well as absence, and thereby highlight the pragmatic dimensions of lexical semantics in public discourse. The article also advocates the suitability of discourse keyword analyses for systematic contrastive analyses of public/political discourse and for lexicographical projects that could serve to extend the insights drawn from corpus-guided approaches to discourse analysis.
Some structures in printed dictionaries also occur in online dictionaries, some do not occur, some need to be adapted whereas new structures may be introduced in online dictionaries. This paper looks at one type of structure, known in printed dictionaries as outer texts. It is argued that the notions of a frame structure and front and back matter texts do not apply to online dictionaries. The data distribution in online dictionaries does not only target the dictionary articles. There are components outside the word list section of the dictionary. These components are not always texts. They could e.g. also be video clips. Consequently the notion of outer texts in printed dictionaries is substituted by the notion of outer features in online dictionaries. This paper shows how outer features help to constitute a feature compound. The outer features in eight online dictionaries are discussed. Where the users guidelines text is a compulsory outer text in printed dictionaries it seems that an equivalent feature is often eschewed in online dictionaries. A distinction is made between dictionary-internal and dictionary-external outer features, illustrating that outer features can be situated in other sources than the specific dictionary. More research is needed to formulate models for online features that can play a comprehensive role in online dictionaries.
This paper presents some results from an online survey regarding the functions and presentation of lexicographically compiled and automatically compiled corpus citations in a general monolingual e-dictionary of German (elexico). Our findings suggest that dictionary users have a clear understanding of the functions of corpus citations in lexicography.
We present studies using the 2013 log files from the German version of Wiktionary. We investigate several lexicographically relevant variables and their effect on look-up frequency: Corpus frequency of the headword seems to have a strong effect on the number of visits to a Wiktionary entry. We then consider the question of whether polysemic words are looked up more often than monosemic ones. Here, we also have to take into account that polysemic words are more frequent in most languages. Finally, we present a technique to investigate the time-course of look-up behaviour for specific entries. We exemplify the method by investigating influences of (temporary) social relevance of specific headwords.
Das Wörterbuch "Neuer Wortschatz" präsentiert den deutschen Wortschatz, der zwischen 2001 und 2010 aufgekommen und in die Allgemeinsprache eingegangen ist. Lexikografisch umfassend beschrieben sind mehr als 570 neue Wörter (z.B. Umweltzone, twittern), neue feste Wortverbindungen (z.B. grünes Rezept, etwas ist kein Ponyhof) und neue Bedeutungen etablierter Wörter (z.B. Heuschrecke 'Finanzinvestor', Stolperstein 'Gedenkstein'). Zu den aus herkömmlichen Wörterbüchern bekannten Angaben z.B. zur Aussprache, Grammatik, Bedeutung treten neue, z.B. zur Wortbildung, zu Enzyklopädischem, die den erhöhten Informationsbedarf in Bezug auf neuen Wortschatz befriedigen helfen. Zusätzlich finden sich neologismusspezifische Angaben zu Aufkommen und Ausbreitung im Erfassungszeitraum - unter Einbeziehung von Zeitverlaufsgrafiken - sowie zur Erstbuchung in einschlägigen Wörterbüchern.
Das Wörterbuch "Neuer Wortschatz" präsentiert den deutschen Wortschatz, der zwischen 2001 und 2010 aufgekommen und in die Allgemeinsprache eingegangen ist. Lexikografisch umfassend beschrieben sind mehr als 570 neue Wörter (z.B. Umweltzone, twittern), neue feste Wortverbindungen (z.B. grünes Rezept, etwas ist kein Ponyhof) und neue Bedeutungen etablierter Wörter (z.B. Heuschrecke 'Finanzinvestor', Stolperstein 'Gedenkstein'). Zu den aus herkömmlichen Wörterbüchern bekannten Angaben z.B. zur Aussprache, Grammatik, Bedeutung treten neue, z.B. zur Wortbildung, zu Enzyklopädischem, die den erhöhten Informationsbedarf in Bezug auf neuen Wortschatz befriedigen helfen. Zusätzlich finden sich neologismusspezifische Angaben zu Aufkommen und Ausbreitung im Erfassungszeitraum - unter Einbeziehung von Zeitverlaufsgrafiken - sowie zur Erstbuchung in einschlägigen Wörterbüchern.
Neologismen
(2015)
Mit Verben verbinden sich Erwartungen: Daher war die Rektion des Verbs - zumindest bei einigermaßen flexivischen Sprachen - immer schon ein grammatisches Thema. Und es ist ein zentrales Thema valenzgrammatischer Diskussion. Und das Deutsche ist eine Sprache, an der sich die Frage, wie weit diese Erwartungen reichen oder was noch dazu kommen muss, damit sie nicht trügen, gut diskutieren lässt. Die deutsche Sprache hat ein hinreichendes Inventar an nominaler Flexion, andererseits mit den eigentlich nur drei Kasus, die im Kontext der Subjektwahl und Objekt-Zuweisung eine Rolle spielen, eine Anzahl und Konstellation der Kasus, mit der sie im europäischen Vergleich eine mittlere Rolle einnimmt. Das hat, wie zu zeigen sein wird, seine Vorteile bei der Diskussion der Frage, wie weit die Steuerung der Satzstruktur durch das Verb reicht, und was außerdem noch eine Rolle spielt.
Metalinguistic awareness of standard vs standard usage. The case of determiners in spoken German
(2015)
Maskierung
(2015)
Aus forschungsethischen Gründen müssen die Daten aus Gesprächsaufzeichnungen, die Metadaten sowie die Transkripte maskiert werden. Der Beitrag stellt Arbeitsschritte der Maskierung vor, die auf den Erfahrungen bei der Datenaufbereitung der Daten des Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) für die Veröffentlichung in der Datenbank für Gesprochenes Deutsch (DGD) basieren.
Linguisten-Lektüre
(2015)
Learning from Errors. Systematic Analysis of Complex Writing Errors for Improving Writing Technology
(2015)
In this paper, we describe ongoing research on writing errors with the ultimate goal to develop error-preventing editing functions in word-processors. Drawing from the state-of-the-art research in errors carried out in various fields, we propose the application of a general concept for action-slips as introduced by Norman. We demonstrate the feasibility of this approach by using a large corpus of writing errors in published texts. The concept of slips considers both the process and the product: some failure in a procedure results in an error in the product, i.e., is visible in the written text. In order to develop preventing functions, we need to determine causes of such visible errors.
ln einer korpuspragmatischen Sicht auf Sprachgebrauch werden sogenannte Sprachgebrauchsmuster, die typisch für bestimmte Sprachausschnitte sind, datengeleitet berechnet. Solche Sprachgebrauchsmuster können z.B. diskursanalytisch gedeutet werden; noch relativ unerforscht ist aber ein konstruktionsgrammatischer Blick auf solche Muster. An zwei Beispielen wird gezeigt, wie mit der Berechnung von typischen n-Grammen (auf der Basis von Wortformen, sowie komplexer auf der Basis von Wortformen und Wortartkategorien) Sprachgebrauchsmuster berechnet werden können: Beim ersten Beispiel werden typische Formulierungsmuster in Leserbriefen, beim zweiten Beispiel aus einem politischen Diskurs (Wulff-Affäre), untersucht. Der Beitrag zielt in der Folge darauf ab, diese Muster dem usage-based-approach der KxG folgend als Konstruktionen zu deuten, die soziopragmatischen Verwendungsbedingungen gehorchen.
The task-oriented and format-driven development of corpus query systems has led to the creation of numerous corpus query languages (QLs) that vary strongly in expressiveness and syntax. This is a severe impediment for the interoperability of corpus analysis systems, which lack a common protocol. In this paper, we present KoralQuery, a JSON-LD based general corpus query protocol, aiming to be independent of particular QLs, tasks and corpus formats. In addition to describing the system of types and operations that Koral- Query is built on, we exemplify the representation of corpus queries in the serialized format and illustrate use cases in the KorAP project.
Klaus Fischer / Fabio Mollica (Hrsg.): Valenz, Konstruktion und Deutsch als Fremdsprache [Rezension]
(2015)
One was a distinguished natural scientist and engineer, the other a self-taught scientist and vilified as a conman: Christian Gottlieb Kratzenstein (1723–1795) and Wolfgang von Kempelen (1734–1804). Some of the former’s postula-tions on human physiology and articulation of speech proved wrong in later years. Most of the latter’s theories are considered applicable even today. The perhaps most contrasting approaches to speech synthesis during the 18th century are linked to their names. There are many essential differences between their approaches which show that these two researchers were not only representatives of different schools of thought, but also representatives of two different scientific eras. A speculative and philosophical approach on the one hand versus an empirical and logical approach on the other hand. Both Kratzenstein and Kempelen published books on their research. But while the “Tentamen” [4] of the physician Kratzen-stein remains rather vague and imprecise in its descriptions of vowel production and synthesis, the “Mechanismus” [8] of the engineer Kempelen shows much more precision and correctness in almost every respect of human speech and lan-guage. The goal of this paper is to discuss the differences between these two con-temporaneous researchers on speech synthesis and to compare their theories with present-days findings.
The authors establish a phenomenological perspective on the temporal constitution of experience and action. Retrospection and projection (i.e. backward as well as forward orientation of everyday action), sequentiality and the sequential organization of activities as well as simultaneity (i.e. participants’ simultaneous coordination) are introduced as key concepts of a temporalized approach to interaction. These concepts are used to capture that every action is produced as an inter-linked step in the succession of adjacent actions, being sensitive to the precise moment where it is produced. The adoption of a holistic, multimodal and praxeological perspective additionally shows that action in interaction is organized according to several temporal orders simultaneously in operation. Each multimodal resource used in interaction has its own temporal properties.
Introduction
(2015)
Natural language Processing tools are mostly developed for and optimized on newspaper texts, and often Show a substantial performance drop when applied to other types of texts such as Twitter feeds, Chat data or Internet forum posts. We explore a range of easy-to-implement methods of adapting existing part-of-speech taggers to improve their performance on Internet texts. Our results show that these methods can improve tagger performance substantially.
The present thesis introduces KoralQuery, a protocol for the generic representation of queries to linguistic corpora. KoralQuery defines a set of types and operations which serve as abstract representations of linguistic entities and configurations. By combining these types and operations in a nested structure, the protocol may express linguistic structures of arbitrary complexity. It achieves a high degree of neutrality with regard to linguistic theory, as it provides flexible structures that allow for the setting of certain parameters to access several complementing and concurrent sources and layers of annotation on the same textual data. JSON-LD is used as a serialisation format for KoralQuery, which allows for the well-defined and normalised exchange of linguistic queries between query engines to promote their interoperability. The automatic translation of queries issued in any of three supported query languages to such KoralQuery serialisations is the second main contribution of this thesis. By employing the introduced translation module, query engines may also work independently of particular query languages, as their backend technology may rely entirely on the abstract KoralQuery representations of the queries. Thus, query engines may provide support for several query languages at once without any additional overhead. The original idea of a general format for the representation of linguistic queries comes from an initiative called Corpus Query Lingua Franca (CQLF), whose theoretic backbone and practical considerations are outlined in the first part of this thesis. This part also includes a brief survey of three typologically different corpus query languages, thus demonstrating their wide variety of features and defining the minimal target space of linguistic types and operations to be covered by KoralQuery.
This article reports about the on-going work on a new version of the metadata framework Component Metadata Infrastructure (CMDI), central to the CLARIN infrastructure. Version 1.2 introduces a number of important changes based on the experience gathered in the last five years of intensive use of CMDI by the digital humanities community, addressing problems encountered, but also introducing new functionality. Next to the consolidation of the structure of the model and schema sanity, new means for lifecycle management have been introduced aimed at combatting the observed proliferation of components, new mechanism for use of external vocabularies will contribute to more consistent use of controlled values and cues for tools will allow improved presentation of the metadata records to the human users. The feature set has been frozen and approved, and the infrastructure is now entering a transition phase, in which all the tools and data need to be migrated to the new version.
Damit wir uns über Gerichte und Getränke verständigen können, benennen wir sie. Viele Benennungen informieren über Zutaten oder Zubereitung, zum Beispiel Geschmortes Lamm mit rosa Pfeffer. In diesem Beitrag geht es um Benennungen anderer, besonderer Art, zum Beispiel Benennungen wie Ich träume von Casablanca, Armer Ritter und Studentenkuss. Ich nenne sie kostümierte Benennungen, weil sie das Benannte komplett verkleiden. Wir müssen schon wissen oder noch in Erfahrung bringen, um was es sich handelt. Der Beitrag analysiert diesen speziellen Typ von Benennungen morphologisch und semantisch, er zeigt die Strukturen und Sinnhintergründe der Benennungen auf.
Handbuch Wort und Wortschatz
(2015)
Was Wort und Wortschatz sind, scheint auf den ersten Blick völlig unstrittig. Aber der sicher geglaubte Begriff des Worts wandelt und verschiebt sich hin zu Wortfügungen und Wortelementen, wenn Methoden aus Mündlichkeitsforschung, kognitiver und Korpuslinguistik einbezogen werden. Das Wort und der Wortschatz, verstanden als beziehungsreiches Gefüge zwischen den nur scheinbar isolierten Einzelwörtern, werden in sprachsystematischen wie anwendungsbezogenen Perspektiven beleuchtet: Bestandteile, aus denen Wörter bestehen, mehr oder weniger feste Wortverbindungen, Wörter in Satz- bzw. Äußerungszusammenhang; Wortschätze betrachtet nach Umfang, Zusammensetzung und Anwendungszweck; Wörter in visuellen Kontexten; Bedeutung und Begriff; Wörter und Wortschätze in sprachkritischer, in diachroner Sicht, in der Rechtschreibung, in der Schönen Literatur, im Wortschatzerwerb und im Wörterbuch. Notwendigerweise wird besonderes Augenmerk auf die aktuelleren methodischen Möglichkeiten wortbezogener Forschung gelegt, insofern sie maßgeblich zu einem flexibilisierten, dynamischen Verständnis des Worts beigetragen haben und beitragen. Die Handbuchbeiträge verbinden grundlegende Informationen zum jeweiligen Thema mit aktuellen Forschungsperspektiven.
Medizin betrifft „alle Menschen, Ärzte wie Patienten, Fachleute wie Laien, gleichermaßen zu allen Zeiten. Die Medizin steht daher wie kein zweiter Bereich des Lebens im Spannungsfeld von fachwissenschaftlicher Spezialisierung und menschlichen Alltagserfahrungen“ (Riecke 2004). In diesem Spannungsfeld ist medizinisches Wissen und Handeln ohne Sprache nicht denkbar. Medizin- und Gesundheitskommunikation bilden fachintern wie fachextern, in mündlichen und medialen Diskursen ein prominentes Themenzentrum der medi(k)alisierten Gegenwart. Das Handbuch Sprache in der Medizin bietet einen Überblick über Formen und Funktionen von Arzt-Patient-Kommunikation und ihrer gesprächslinguistischen Erfassung, medizinischen Fachsprachen in Geschichte und Gegenwart sowie Medizin und Gesundheit in medialen Diskursen. Das hierzu notwendige interdisziplinäre Methodenspektrum umfasst sprachwissenschaftliche, Gesprächs- und diskurslinguistische Methoden ebenso wie medien- und kommunikationswissenschaftliche Perspektiven.