Refine
Year of publication
Document Type
- Part of a Book (1465)
- Article (928)
- Book (171)
- Other (85)
- Review (60)
- Conference Proceeding (48)
- Working Paper (30)
- Part of Periodical (21)
- Report (14)
- Doctoral Thesis (7)
Language
- German (2834) (remove)
Keywords
- Deutsch (1264)
- Korpus <Linguistik> (262)
- Konversationsanalyse (133)
- Grammatik (129)
- Wörterbuch (128)
- Sprachgebrauch (123)
- Gesprochene Sprache (122)
- Rezension (117)
- Sprache (114)
- Kommunikation (112)
Publicationstate
- Veröffentlichungsversion (2834) (remove)
Reviewstate
- (Verlags)-Lektorat (2204)
- Peer-Review (381)
- Verlags-Lektorat (70)
- Peer-review (24)
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (13)
- Review-Status-unbekannt (6)
- (Verlags-)Lektorat (3)
- Abschlussarbeit (Bachelor, Master, Diplom, Magister) (Bachelor, Master, Diss.) (3)
- Verlagslektorat (3)
- Peer Review (2)
- (Verlags)Lektorat (1)
- (Verlags-) Lektorat (1)
- Peer-Revied (1)
- Qualifikationsarbeit (Dissertation, Habilitation) (1)
- Review-Status unbekannt (1)
Publisher
- de Gruyter (562)
- Institut für Deutsche Sprache (328)
- Leibniz-Institut für Deutsche Sprache (IDS) (208)
- Narr (203)
- Niemeyer (89)
- Lang (82)
- De Gruyter (53)
- Verlag für Gesprächsforschung (47)
- Stauffenburg (39)
- Akademie Verlag (38)
The focus of this paper will be on lexical information systems and the framework guidelines for the definition of the curricula within the educational system of the Autonomous Province of Bolzano/ Bozen (Italy). In Italy, the competences to be achieved at different school levels are published in the form of general guidelines. On this basis each school has to specify the general competency goals and to spell them out in a concrete curriculum. In this paper I will examine to what extent lexical information systems are represented in the framework guidelines within the German and the Italian educational system of the Autonomous Province, these being separate systems. In a second step, I will check the representations of the resources against the “Villa Vigoni Theses on Lexicography“. Finally, I will discuss the results and give an outlook for further research.
Heute wird mehr geschrieben als je zuvor und die digitale Kommunikation trägt wesentlich dazu bei; ein großer Teil des heutigen Schreibens ist dialogisches Schreiben im Alltag. Konsequenterweise wird die Online-Kommunikation zunehmend Thema in Bildungskontexten und in der Deutschdidaktik. Offen ist aber weiterhin, wie Texte des interaktionsorientierten Schreibens bewertet werden sollen, die sich von solchen des textorientierten Schreibens in vielerlei Hinsicht unterscheiden können. Während es für textorientiertes Schreiben Normen gibt, die in Sprachkodizes erfasst sind, ist es nicht klar, was der Bezugspunkt für interaktionsorientierte Texte sein könnte. In diesem Beitrag analysieren wir die Verwendung von Konnektoren in der Online-Kommunikation und die Repräsentation von online-spezifischen Besonderheiten in Sprachressourcen. Die Ergebnisse zeigen, dass spezifische Online-Verwendungsweisen von Konnektoren in Sprachkodizes kaum berücksichtigt und beschrieben werden.
Das Kommunizieren in Sozialen Medien und der Umgang mit Hypertexten ist im Jahr 2020 kein Randphänomen mehr. Die sprachlichen Besonderheiten internetbasierter Kommunikation und Sozialer Medien sind mittlerweile auch gut erforscht und beschrieben, allerdings werden diese bislang in deutschen Grammatiken, mit Ausnahme von Hoffmann (2014), allenfalls am Rande behandelt. Selbst neuere Ansätze zur Textanalyse, z. B. Ágel (2017), konzentrieren sich auf gestaltstabile, linear organisierte Schrifttexte. Dasselbe gilt für Ansätze, die primär für die Bewertung von Schreibprodukten in Bildungskontexten entwickelt wurden.
Gehören nun die Männer an den Herd? Anmerkungen zum Wandel der Rollenbilder von Mann und Frau
(2015)
2017 gibt es im deutschen Mikrozensus zum ersten Mal seit etwa achtzig Jahren eine Frage zur Sprache der Bevölkerung in Deutschland. Diese Frage wird dann offenbar im entsprechenden Rhythmus des Mikrozensus jährlich wiederholt werden. Der Mikrozensus ist eine seit 1957 durchgeführte, repräsentative Befragung, bei der ungefähr 830.000 Menschen (das sind ca. 1 % der Bevölkerung) in rund 370.000 Haushalten befragt werden.1 Darin werden etwa Angaben zu den soziodemographischen Daten erfragt, zur familiären Situation, zur Wohnsituation, zur Aus- und Fortbildung und zur Arbeitssituation. Für die befragten Personen besteht Auskunftspflicht. Das Stellen einer Sprachfrage sieht, aus sprachwissenschaftlicher Sicht, zunächst nach einem sinnvollen und wünschenswerten Schritt aus. Nach näherer Betrachtung der gestellten Frage zeigen sich jedoch viele Unzulänglichkeiten und das, obwohl die Antworten und statistischen Auswertungen zu dieser Frage überhaupt noch ausstehen. Die Ergebnisse werden üblicherweise in der zweiten Hälfte des Folgejahres durch das statistische Bundesamt veröffentlicht.
Status und Gebrauch des Niederdeutschen 2016. Erste Ergebnisse einer repräsentativen Erhebung
(2016)
Wer versteht heute Plattdeutsch, und wer spricht es? Wer nutzt die plattdeutschen Medien- und Kulturangebote? Welche Vorstellungen verbinden die Menschen in Norddeutschland mit dem Niederdeutschen, und wie stehen sie zu ihrer Regionalsprache?
Diesen und weiteren Fragen widmet sich die vorliegende Broschüre mithilfe von repräsentativen Daten, die durch eine telefonische Befragung von insgesamt 1.632 Personen aus acht Bundesländern (Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen, Schleswig-Holstein sowie Brandenburg, Nordrhein-Westfalen und Sachsen-Anhalt) gewonnen wurden.
Status und Gebrauch des Niederdeutschen 2016. Erste Ergebnisse einer repräsentativen Erhebung
(2016)
Wer versteht heute Plattdeutsch, und wer spricht es? Wer nutzt die plattdeutschen Medien- und Kulturangebote? Welche Vorstellungen verbinden die Menschen in Norddeutschland mit dem Niederdeutschen, und wie stehen sie zu ihrer Regionalsprache? Diesen und weiteren Fragen widmet sich die vorliegende Broschüre mithilfe von repräsentativen Daten, die durch eine telefonische Befragung von insgesamt 1.632 Personen aus acht Bundesländern (Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen, Schleswig-Holstein sowie Brandenburg, Nordrhein-Westfalen und Sachsen-Anhalt) gewonnen wurden.
Sprecher haben (oft unbewusste) Meinungen und Einstellungen zu Sprachen und Varietäten. Ein Weg, solche Spracheinstellungen zu erfassen, führt über quantitative Verfahren (Fragebogen mit offenen und geschlossenen Fragen), mit denen man Daten großer Gruppen – im Idealfall repräsentativ – erheben kann. Im Beitrag werden solche Erhebungen, die am Institut für Deutsche Sprache durchgeführt wurden, vorgestellt, und es werden zwei Instrumente der Spracheinstellungsforschung, die dabei zum Einsatz kamen, naher erläutert: das Allgemeine Sprachbewertungsinstrument (ASBI) und die Attitudes-Towards-Languages-Skala (AToL). Außerdem wird gezeigt, wie dialektometrische Auswertungs- und Visualisierungsverfahren auf Einstellungsdaten angewendet werden können.
Öffentliche Sprachdiskurse, wie sie beispielsweise in den Medien stattfinden, werden typischerweise aus einer sprachkritischen Haltung heraus geführt. Inwieweit diese veröffentlichte Meinung tatsächlich die Mehrheitsmeinung der Sprecherinnen und Sprecher widerspiegelt, ist durchaus eine offene Frage. In diesem Beitrag berichten wir aus einer rezenten Erhebung über Spracheinstellungen in Deutschland. Wir zeigen, dass die Art der Frageformulierung einen starken Einfluss auf die Ergebnisse hat, und berichten, welche sprachlichen Veränderungen die Befragten in jüngerer Zeit angeben, wahrgenommen zu haben.
Bislang gibt es keine akkuraten, repräsentativen Statistiken dazu, welche Sprachen in Deutschland gesprochen werden. Zwar wird in verschiedenen Erhebungen nach Muttersprachen oder nach zuhause gesprochenen Sprachen gefragt; aufgrund einiger Mängel im Erhebungsdesign bilden die Ergebnisse der vorliegenden Erhebungen jedoch die sprachliche Realität der in Deutschland lebenden Bevölkerung nicht angemessen ab. Im Beitrag wird anhand von drei Erhebungen gezeigt, dass bereits die Instrumente zur Erhebung von Sprache von Spracheinstellungen geprägt sind und dass dadurch die Gültigkeit der Ergebnisse stark eingeschränkt wird. Diese Mängel gelten für Sprachstatistiken im Hinblick auf die gesamte Bevölkerung Deutschlands – Kinder und Jugendliche eingeschlossen.
Das Leibniz-Institut für Deutsche Sprache (IDS) führt seit den 1990er Jahren regelmäßig Repräsentativerhebungen zu sprachlichen Fragen durch. Über die letzten Umfragen, die Deutschland-Erhebung 2017 und die Erhebung Dialekt und Beruf 2019, wurde bereits in dieser Reihe berichtet. Informationen über die Deutschland-Erhebung 2017 finden sich in Folge 1 bis 6 dieser Reihe. In den Folgen 7 bis 9 wurden Ergebnisse der Erhebung Dialekt und Beruf 2019 vorgestellt. Im Winter 2022 hat das IDS eine neue Repräsentativumfrage durchgeführt: die Deutschland-Erhebung 2022. Darin wurden Einstellungen zum Deutschen und anderen Sprachen sowie die Wahrnehmung von sprachlichen Veränderungen erfasst. In dieser Folge 10 werden die Erhebung und erste Ergebnisse vorgestellt
Welche Veränderungen fallen Menschen in der deutschen Sprache auf? Sprache in Zahlen: Folge 11
(2023)
Dieser Aufsatz behandelt einige offene Fragen des funktionalistischen Ansatzes. Im 1. Abschnitt wird die von Kanngießer postulierte Matrix des funktionalistischen Ansatzes (F-Matrix) - speziell hinsichtlich ihres Erklärungsbegriffs - dargestellt. Im Abschnitt 2.1 wird gegen die Auffassung argumentiert, daß die F-Matrix über einen - methodologisch gesehen - eigenständigen Erklärungstyp verfügt. In 2.2 wird zudem gezeigt, daß es nicht sinnvoll ist, für funktionale Spracherklärungen ein funktionalistisches Erklärungsschema - wie z.B. Stegmüller (1969) es expliziert - in Anspruch zu nehmen. Im Rahmen der Argumentation in diesem 2. Abschnitt wird die Auffassung der Verfasser herausgearbeitet, daß das Spezifische des funktionalistischen Ansatzes nicht in einem eigenständigen Erklärungstyp, sondern in besonderen Gesetzen besteht. Definierend für die F-Matrix ist die Hypothese der Sprachfunktionalität bzw. eine Klasse (noch zu findender) Gesetze, die Zusammenhänge zwischen bestimmten Gesellschaftsstrukturen und spezifischen Kommunikationsbedürfnissen bzw. zwischen bestimmten Kommunikationsbedürfnissen und spezifischen Sprachsachverhalten beschreiben. Die Hypothese der Sprachfunktionalität fungiert dabei als forschungsleitende Orientierungshypothese, indem sie die Menge der möglichen Füllungen der wenn- und dann-Komponenten von Gesetzen restringiert. Abschnitt 3 zeigt die Notwendigkeit der Präzisierung, Operationalisierung und empirischen Prüfung der Hypothese der Sprachfunktionalität und diskutiert Möglichkeiten, wie dies geschehen kann. Abschnitt 4 problematisiert die Hypothese der Sprachfunktionalität in Hinsicht auf die Möglichkeit der Erklärung von Sprachentwicklung, indem der Zusammenhang von Kommunikationsbedürfnissen und Sprachsachverhalten thematisiert wird. Abschließend werden im 5. Abschnitt einige Theoriebildungen der Sprachwissenschaft, die mit dem funktionalistischen Ansatz affin sind, diskutiert, und es wird dargelegt, in welcher Hinsicht die F-Matrix ein sinnvolles Forschungsprogramm ist.
Das Centre de Sociologie de l’Innovation (CSI) der Ecole des Mines in Paris ist eine Hochburg der Wissenschaftssoziologie, an der die Arbeiten von Bruno Latour und Michel Callon erstellt wurden. Deren Untersuchungen haben eine Reihe von Analysen der wissenschaftlichen Praktiken ausgelöst, die manchmal – vor allem in der angelsächsischen Literatur – unter dem Begriff „Actor-Network-Theory“ (ANT) zusammengefasst werden. Dieser fundamentale Beitrag zur Wissenschaftssoziologie zeichnet sich aus durch eine gesteigerte Aufmerksamkeit sowohl gegenüber den Praktiken der Wissenschaftler, der „science in action“, den Objekten, den Artefakten und den technischen Vorrichtungen als auch gegenüber den Netzwerken, in denen sich Menschen und Nicht-Menschen zusammenfügen und im Umlauf sind. Eine Gruppe von Forschern des CSI, Madeleine Akrich, Antoine Hennion und Vololona Rabeharisoa, hat freundlicherweise eingewilligt, im folgenden Text sehr frei über die Thematik des vorliegenden ZBBS-Heftes und über die Art und Weise zu diskutieren, in der sie sich in ihren Forschungsfeldern und in ihren Arbeiten gegenüber den Fragen positionieren, die durch die Berücksichtigung der sozialen Interaktionen in wissenschaftlichen Arbeitsvollzügen aufgeworfen werden.
Beim Lesen stolpert man über den unscheinbaren Artikel den. Muss das nicht dem heißen? Richtig. Die lokale Angabe am Stadioneingang und die temporale Angabe am Sonntag stehen im Dativ, wie sich eindeutig an dem definiten Artikel dem erkennen lässt, der hier mit der Präposition an zu am verschmolzen ist. Und der Artikel, der nach dem Komma folgt und den ‚lockere‘ oder
‚lose Apposition‘ genannten Nachtrag einleitet, bezieht sich ebenfalls auf Stadioneingang bzw. Sonntag und sollte mit diesem Bezugsnomen kongruieren, das heißt ebenfalls im Dativ – und nicht wie in den Beispielen in im Akkusativ – stehen.
In der Bund-Länder-Vereinbarung (BLV) zu Aufbau und Förderung einer Nationalen Forschungsdateninfrastruktur (NFDI) (im Folgenden BLV-NFDI) wird in §1 festgehalten, dass mit der Förderung "eine Etablierung und Fortentwicklung eines übergreifenden Forschungsdatenmanagements" und damit eine "Steigerung der Effizienz des gesamten Wissenschaftssystems verfolgt" wird. In der BLV-NFDI werden dazu sieben Ziele vorgegeben, die eine Verfeinerung dieser Hauptziele darstellen. Dieses White Paper formuliert das gemeinsame Verständnis der beteiligten Konsortien für die sieben in der BLV-NFDI vorgegebenen Ziele. Auf der Grundlage dieses Verständnisses hat die Task Force Evaluation und Reporting Vorschläge gemacht, wie das Erreichen der Ziele erfasst, beschrieben und gemessen werden kann.
Zunächst wird die verbreitete Auffassung von der regionalen Einheitlichkeit des Standarddeutschen, oder auch von Standardsprachen generell, problematisiert. Stattdessen wird die nationale und regionale Variation auch des Standarddeutschen verdeutlicht und werden die zu ihrer Beschreibung notwendigen Termini und Begriffe eingeführt. Angesichts der Variabilität des Standards stellt sich besonders dringlich die Frage, welche Sprachformen denn standardsprachlich sind und welche nicht. Hinter dieser auf Definition und Beschreibung abhebenden Frage erhebt sich die weitere, auf Erklärung abzielende, wer denn festlegt, welche Sprachformen standardsprachlich sind. Der Beitrag bemüht sich vor allem um eine Antwort auf diese letztgenannte Frage. Hierzu werden zunächst einmal vier für die Festlegung sprachlicher Standards maßgebliche soziale Kräfte identifiziert: Die Sprachkodifizierer (die den Sprachkodex erstellen), die Modellsprecher und -schreiber (an deren Texten sich die Kodifizierer orientieren), die Sprachexperten (die auf die Kodifizierer kritisch einwirken) und die Sprachnormautoritäten (welche die standardsprachlichen Normen durchsetzen). Das Zusammenspiel dieser maßgeblichen gesellschaftlichen Kräfte wird eingehend dargestellt und an Beispielen verdeutlicht. Abschließend werden die für die Einführung und den Wandel standardsprachlicher Normen ebenfalls wesentlichen Begriffe der ,Existenz‘, ,Gültigkeit (Validität)“ und ,Legitimität von Normen‘ expliziert.
Web-Umgebungen wie virtuelle soziale Netzwerke und Videoportale sind von Tendenzen der Partizipation, Konvergenz und Multimedialität gekennzeichnet. Diese bedeuten eine Herausforderung für sprachanalytische Zugänge, die digitale Kommunikationsformen separat voneinander untersuchen und auf mikrolinguistische Phänomene bei nur geringer Beachtung ihrer komplexen soziomedialen Rahmenbedingungen abheben. Im Beitrag wird ein bildschirm-basierter Ansatz entworfen, der Web-Umgebungen als semiotische Räume begreift, die von Nutzern in ihren spezifischen soziokulturellen Umständen und vor der Folie technologischer Potenziale und Grenzen aufgefüllt und ausgestaltet werden. Sprache ist eine wesentliche, aber nicht die einzige Ressource dieses digitalen kommunikativen Handelns, und ihre Verwendung ist in der Spannung zwischen technologischer Vorprägung und situierter Medienaneignung zu untersuchen. Im Kern des Ansatzes liegt die Unterscheidung von zwei analytischen Dimensionen. Die erste unterscheidet vier Leistungen von Sprache in Web-Umgebungen: Organisation, Selbstdarstellung, Spektakel und Interaktion. Die zweite erfasst drei für Web 2.0 charakteristische Prozesse der Sprach- und Textgestaltung: Multimodalität, Intertextualität und Heteroglossie. Wie diese beiden Kategorienbündel eine Grundlage für weiterführende Fragestellungen bilden können, wird am Beispiel des Dialektgebrauchs auf einer Videoplattform diskutiert.
Jugend- und Szenensprachen sind wichtige Ressourcen für den lexikalischen Wandel der Standardsprache „von unten“, dessen letzte Etappe der Eingang in ein gesamtsprachiges Wörterbuch ist. Ziele dieses Beitrags sind es. den Verbreitungsprozess jugendsprachlicher lexikalischer Innovationen zu modellieren und die Rolle der Massenmedien im lexikalischen Wandel von unten zu klären. Die Diskussion verbindet die Mikroperspektive der soziolinguistischen Akkomodations- und Netzwerktheorie mit der Makroperspektive der Massenmedien als Indikatoren der gesellschaftlichen Reichweite sprachlicher Innovationen. Drei analytische Dimensionen werden aufeinander bezogen. Zunächst wird versucht, innovationsfreudige lexikalische Kategorien zu identifizieren. Der zweite Schritt gilt der sozialen Verbreitung lexikalischer Innovationen, wobei die individuelle sprachliche Akkomodation und Imitation genauso angesprochen wird wie die Rolle der Massenmedien im Verbreitungsprozess. Auf dieser Grundlage werden „Karrieren“ jugendsprachlicher Ausdrücke in der öffentlichen Kommunikation quantitativ und qualitativ untersucht. Die zunehmende Erscheinungshäufigkeit ausgewählter lexikalischer Einheiten wird im Zeitungskorpus des IDS verfolgt. Am Beispiel chillen wird ein Entwicklungspfad herausgearbeitet, der von der metasprachlichen Thematisierung über den Gebrauch als Zitat bis hin zum Eingang des Ausdrucks in die Eigenperspektive der Journalisten führt.
Die Arbeitsgruppe konstituierte sich im Rahmen des Workshops „Querbezüge des Knowledge Engineering zu Methoden des Software Engineering und der Entwicklung von Informationssystemen" auf der 2. Deutschen Tagung Expertensysteme [AnS93]. Anfangs beteiligten sich zehn verschiedene Gruppen bzw. Einzelpersonen an der Arbeitsgruppe. Zur Fokussierung der Arbeiten beschloß die Arbeitsgruppe, sich primär mit den Themen Vorgehensmodelle und Methoden zu beschäftigen. Unter einem Vorgehensmodell wurde dabei die „Festlegung der bei der Entwicklung eines Systems durchzuführenden Arbeitsschritte verstanden, ... Beziehungen zwischen den Arbeitsschritten sind ebenso festzulegen wie Anforderungen an die zu erzeugenden Ergebnisse." [AL0+93]. Als eine Methode wurde eine „systematische Handlungsvorschrift zur Lösung von Aufgaben einer bestimmten Art verstanden." [AL0+93]. Dementsprechend wurde in der Arbeitsgruppe der Begriff Methodik im Sinne von Methodensammlung verwendet. Außerdem einigte man sich in der Arbeitsgruppe darauf, die Arbeiten anhand einer vergleichenden Fallstudie durchzuführen. In Abwandlung des oft verwendeten IFIP Beispiels [0SV82] wurde als Aufgabenstellung für die Fallstudie die Entwicklung eines (wissensbasierten) Systems zur Tagungsverwaltung ausgewählt. Im Rahmen ihrer Arbeit organisierte die Arbeitsgruppe noch einen weiteren Workshop „Vorgehensmodelle und Methoden zur Entwicklung komplexer Softwaresysteme", der auf der 18. Deutschen Jahrestagung für Künstliche Intelligenz durchgeführt wurde [KuS94]. Leider zeigte es sich in der laufenden Arbeit der Arbeitsgruppe, daß es insbesondere für Mitglieder aus der Wirtschaft sehr schwierig ist, sich über eine längeren Zeitraum aktiv an einer derartigen Arbeitsgruppe zu beteiligen. So blieben für die letzte Phase der Arbeitsgruppe nur noch vier Gruppen übrig, die auch in diesem Abschlußbericht vertreten sind. Von daher sollte klar sein, daß dieser Abschlußbericht keine alle Aspekte umfassende Analyse sein kann, sondern sich vielmehr auf Schlußfolgerungen beschränken muß, die auf Grund der analysierten Methodiken möglich sind. Gleichwohl beinhalten diese Methodiken aus Sicht der Autoren typische methodische Vorgehensweisen in den beteiligten Fachgebieten. Um einen systematischen Vergleich der Methodiken zu ermöglichen, erarbeitete die Arbeitsgruppe einen Kriterienkatalog, mit dem charakteristische Eigenschaften einer Methodik erfaßt werden können [Kri97]. Dieser Kriterienkatalog wird nachfolgend verwendet, um jede der vier Methodiken detailliert zu charakterisieren.
This paper aims at investigating the usage of present subjunctive (Konjunktiv I), which is traditionally labelled as a feature of standard written language and therefore as typically occurring in communication genres based on it such as press texts and reporting, in everyday spoken German. Through an analysis of corpus data performed according to theory and method of Interactional Linguistics and encompassing private, institutional and public interactional domains, the paper will show how this particular verb form expresses different epistemic stances according to its syntactic embedment.
Post-field syntax and focalization strategies in National Socialist political speech. This paper deals with a syntactic feature of spoken German, i.e. post-field filling, and with its occurrence in one specific discourse type – political speech – throughout one significant period of the history of German language – National Socialism. This paper aims at pointing out the communicative pragmatic function of right dislocation in the NS political speech on the basis of some collected examples.
This paper focuses on so called syntactic projection phenomena in the German language. This term from the German Gesprächsforschung is used to define the fact that an utterance or part of it foreshadows another one. This paper aims at pointing out how such projection phenomena are consciously exploited for rhethorical purposes. This will be observed on the basis of excerpts from the Stuttgart 21 mediation talks. The linguistic analysis carried out in this paper will focus on syntactic projection phenomena involving the use of causal adverbial connectives deshalb and deswegen.
Dieses Buch schließt eine Lücke in der Konnektorenforschung, indem es den Gebrauch von Konnektoren im gesprochenen Deutsch untersucht. Die Fragestellung bringt Elemente aus dem traditionellen grammatischen Ansatz und aus der pragmatisch basierten Forschung zur gesprochenen Sprache zusammen. In Anlehnung an die Methode der Interaktionalen Linguistik analysiert der Autor den Gebrauch der Konjunktoren «und», «aber» und der Adverbkonnektoren «also», «dann» in zwei Korpora von autobiographischen Interviews. Die Untersuchung zeigt, wie Konnektoren zur Bewältigung von verschiedenartigen kommunikativen Aufgaben zur Stiftung von Intersubjektivität und zur Gesprächsorganisation eingesetzt werden können.
In diesem Beitrag stellen wir die Ergebnisse einer Studie über die Intonation von Frageaktivitäten in deutschen Alltagsgesprächen vor. Unsere Untersuchung erforscht, inwieweit die Intonation zur Kontextualisierung von konversationellen Fragen beiträgt. In der Analyse stützen wir uns auf das autosegmental-metrische Modell von Peters und das taxonomische Modell der interaktionalen Prosodieforschung von Selting. Diese Modelle beschreiben jeweils phonologische oder pragmatische Aspekte der Frageintonation, zwei Dimensionen, die für sich genommen, keine vollständige Beschreibung liefern können. Auf der Grundlage authentischer Gesprächsdaten aus dem Korpus FOLK argumentieren wir für die Kompatibilität des autosegmental-metrischen Modells von Peters und des taxonomischen Modells der Frageintonation von Selting. Die Merkmale aus beiden Modellen lassen sich zu Bündeln kombinieren, die es erlauben, die Intonation von Fragen zu erfassen.
Dieses Gespräch wurde am 6. Februar 2023 in den Räumlichkeiten des Marsilius-Kollegs der Universität Heidelberg aufgenommen. Es spiegelt den Austausch zwischen den beteiligten Wissenschaftlerinnen und Wissenschaftlern wider und gibt einen ersten Einblick in die Themen und Fragen, die in diesem Sammelband eine Rolle spielen. Das Gespräch wurde transkribiert und an denjenigen Stellen sprachlich überarbeitet, die es aus Gründen der Verständlich- und Lesbarkeit erforderten. Der mündliche, im Nachdenken begriffene Charakter des Gesprächs wurde gewahrt.
Bild-Makros, auch unter dem Begriff Memes bekannt, sind populäre Internetphänomene, die im Zuge der umfassenden Multimodalisierung der Medienkommunikation als Unterhaltungsangebote auf Facebook verbreitet und kommentiert werden. Dieser Beitrag betrachtet diese aus einer Kombination von Bild und Text bestehenden multimodalen Kommunikate aus einer gattungs- und gesprächsanalytischen Perspektive, da Bild- Makros sowohl in ihrer formalen und semantischen Gestaltung als auch in der interaktiven Rezeption in Form von Kommentaren und Antworten verfestigte Muster aufzuweisen scheinen. In dieser medial vermittelten Interaktion haben sich sowohl auf der strukturellen Ebene der Interaktionssequenzen als auch innerhalb einzelner, auf sequenzexterner und sequenzinterner Ebene analysierten Interaktionseinheiten verschiedene kommunikative Muster herausgebildet. Darin nehmen soziale Prozesse wie face-work und Identitätskonstruktion Einfluss auf die interaktive Aushandlung des Kommunikats.
Der Auftaktworkshop "Lexik des gesprochenen Deutsch: Forschungsstand, Erwartungen und Anforderungen an die Entwicklung einer innovativen lexikografischen Ressource" fand am 16. und 17. Februar 2017 am Institut fur Deutsche Sprache (IDS) in Mannheim statt. Das von der Leibniz-Gemeinschaft geforderte Projekt "Lexik des gesprochenen Deutsch" (=LeGeDe, Leibniz-Wettbewerb 2016, Forderlinie "Innovative Vorhaben") nahm im September 2016 am IDS seine Arbeit auf. Das Hauptziel ist die Erstellung einer korpusbasierten elektronischen Ressource zur Lexik des gesprochenen Deutsch auf der Grundlage von lexikologischen und gesprachsanalytischen Untersuchungen authentischer gesprochensprachlicher Daten.
Die vorliegende Dissertation beschäftigt sich mit verschieden Methoden zur Erhebung von perzeptuellen Prominenzurteilen von naiven Hörern im Deutschen. Es werden zwei Experimente vorgestellt, die sich zum einen mit der Verwendung von verschiedenen Skalen, zum anderen mit der Verwendung von unterschiedlichen Bewertungsebenen zur Beurteilung von perzeptueller Prominenz beschäftigen. Die Ergebnisse zeigen, dass Ergebnisse von Studien, welche auf unterschiedlichen Erhebungstechniken beruhen nicht ohne weiteres vergleichbar sind. Die Arbeit untersucht außerdem die Effekte einer Normalisierung der Prominenzurteile. Die Dissertation schließt mit einem Ausblick für zukünftige Studien. Hierbei werden hauptsächlich die vielfältigen Interaktionen von verschiedenen Quellen und dem Kontext bei der Beurteilung der perzeptuellen Prominenz adressiert.
In diesem Beitrag widmen wir uns der Frage, welche Schritte unternommen werden müssen, um Skripte, die bei der Aufbereitung und/oder Auswertung von Forschungsdaten Anwendung finden, so FAIR wie möglich zu gestalten. Dabei nehmen wir sowohl Reproduzierbarkeit, also den Weg von den (Roh)daten zu den Ergebnissen einer Studie, als auch Wiederverwertbarkeit, also die Möglichkeit, die Methoden einer Studie mittels des Skripts auf andere Daten anzuwenden, in den Fokus und beleuchten dabei die folgenden Aspekte: Arbeitsumgebung, Datenvalidierung, Modularisierung, Dokumentation und Lizenz.
Wie die Eule erkunden große & kleine Sprach-Checker ihre Neckarstadt-West. Kommt mit auf Entdeckungsreise!
Das Buch „Der Wörter-Sammel-Koffer“ ist ein Werk der Sprach-Checker. Es entstand im Rahmen des Projekts „Die Sprach-Checker - So sprechen wir in der Neckarstadt“ (Leitung: Dr. Christine Möhrs & Elena Schoppa-Briele) des Leibniz-Instituts für Deutsche Sprache (IDS), Mannheim, in Zusammenarbeit mit der Kinderbuchautorin und Illustratorin Anke Faust, dem Campus Neckarstadt-West, den Neckarstadt-Kids sowie der Alten Feuerwache Mannheim.
Aus den vielen witzigen Ideen der Kinder entwickelte sich die Geschichte um die Eule, die anschließend mit Wasserfarben, Farbstiften und viel Phantasie von den Sprach-Checkern illustriert wurde.
Die Sprach-Checker: Der Wörter-Sammel-Koffer oder Eule Elli & ihre neuen Freunde aus der Neckarstadt
(2023)
Wie die Eule Elli erkunden große & kleine Sprach-Checker ihre Neckarstadt-West. Kommt mit auf Entdeckungsreise!
Das Buch „Der Wörter-Sammel-Koffer“ ist ein Werk der Sprach-Checker. Es entstand im Rahmen des Projekts „Die Sprach-Checker - So sprechen wir in der Neckarstadt“ (Leitung: Dr. Christine Möhrs & Elena Schoppa-Briele) des Leibniz-Instituts für Deutsche Sprache (IDS), Mannheim, in Zusammenarbeit mit der Kinderbuchautorin und Illustratorin Anke Faust, dem Campus Neckarstadt-West, den Neckarstadt-Kids sowie der Alten Feuerwache Mannheim.
Aus den vielen witzigen Ideen der Kinder entwickelte sich die Geschichte um Eule Elli, die anschließend mit Wasserfarben, Farbstiften und viel Phantasie von den Sprach-Checkern illustriert wurde.
In diesem Beitrag wird untersucht, wie mithilfe korpuslinguistischer Verfahren Erkenntnisse über den Aufbau von Bedeutungsparaphrasen in Wörterbüchern gewonnen werden können. Diese Erkenntnisse sollen dazu genutzt werden, den Aufbau von Bedeutungsparaphrasen in Wörterbüchern umfassend und systematisch zu beschreiben, z.B. im Hinblick auf eine Optimierung der Bedeutungsparaphrasen für so genannte elektronische Wörterbücher oder für die Extraktion lexikalisch-semantischer Information für NLP-Zwecke.
Sprachliche Landschaften. Die Strukturierung des öffentlichen Raums durch die geschriebene Sprache
(2010)
Es gehört zu den Gemeinplätzen der Linguistik, dass gesprochene Sprache situationsgebunden, geschriebene Sprache aber zumindest tendenziell situationsgelöst sei und sich über Orte und Zeitpunkte hinweg transportieren lässt, ohne ihre Bedeutung wesentlich zu verändern. Eine große Menge von schriftlichen Zeichen ist allerdings genau durch das umgekehrte Phänomen gekennzeichnet: sie sind ortsstabil und in ihrer Bedeutung von ihrem lokalen Kontext abhängig. Die Schrift auf Schildern, Plakaten und anderen öffentlichen Zeichen ist eine spezifische Form von Sprache, die den gängigen Stereotypen von Schriftlichkeit widerspricht, weil sie „ding“- bzw. „ortsfest“ ist und funktional wie auch formal anderen Regelmäßigkeiten folgt als die meist betrachtete Schrift der Texte auf transportablen Trägern wie Buch, Zeitung, elektronischem Textdokument oder E-mail. Solche Funktionen von Schrift (wie Wegweisen, Orientierung geben, Erinnern und Appellieren, Zugehörigkeit Signalisieren) sind seit deren Erfindung relevant gewesen; erst in jüngster Zeit werden aber orts- und dingfesten Zeichen unter dem Begriff der linguistic landscapes ins Blickfeld der Linguistik gerückt und systematisch untersucht. Das Forschungsinteresse liegt vor allem in der Beantwortung der Frage, wie öffentliche Zeichen Sprach-Räume konstituieren, und zwar insbesondere monolinguale oder bilinguale Räume in mehrsprachigen Gesellschaften. Der folgende Beitrag geht aber nur nebenbei auf solche Sprach-Räume ein; sein primäres Interesse gilt der Art und Weise, wie öffentliche, orts- und dingfeste Zeichen überhaupt Raum konstituieren, d.h. wie wir semiotisch dicht organisierte Räume ,lesen‘, um uns in ihnen zu orientieren.
Der Beitrag zeichnet im ersten Teil die historische Entwicklung ethnischer und polyethnischer Sprechweisen im Deutschen nach und skizziert die verschiedenen Transformationen ihrer indexikalischen Bedeutung. Im zweiten Teil des Beitrags wird anhand von Daten aus Stuttgart diskutiert, ob es sich bei den heute verwendeten polyethnischen Markern um Komponenten eines sozialen Stils oder um eine emergente neue Varietät handelt.
Der Beitrag versteht sich als erster Schritt zur historiographischen Rekonstruktion der Soziolinguistik in der Bundesrepublik Deutschland. Es wird gezeigt, wie in gewolltem Bruch mit der älteren germanistischen Forschung zum Thema Sprache und Gesellschaft in den späten 1960er Jahren die neue Disziplin der Soziolinguistik in Auseinandersetzung mit den Theorien Bernsteins entstand, sich die Soziolinguistik anschließend professionalisierte und das Spektrum ihrer Themen verbreiterte, schließlich auch den Anschluss an ältere Theorien insbesondere in der Dialektologie wiederfand.
Areale Variation und phonologische Theorie: Überlegungen am Beispiel der mitteldeutschen Epenthese
(1997)
Anhand der vor allem in den mitteldeutschen Orts- und Regionaldialekten verbreiteten sog. Vokalepenthese wird gezeigt, wie phonologische Theorienbildung und dialektologische Beschreibung sich ergänzen und inspirieren können. Um die dialektologischen Fakten im Zusammenhang der sog. Vokalepenthese nicht nur lexikographisch und dialektkartographisch zu erfassen, sondern auch zu verstehen, ist es notwendig, sich über die Art dieses Phänomens Gedanken zu machen. Im vorliegenden Beitrag wird insbesondere diskutiert, ob und wie Modelle aus der Artikulatorischen Phonetik, der Autosegmentalen Phonologie, der Optimalitätstheorie und der zweidimensionalen Variationsphonologie zur Erklärung der Vokalepenthese dienen können.
Vorgestellt werden kontrastive Analysen zur Besetzung und Häufigkeitsverteilung von Vorfeldern im Deutschen und ihren französischen, italienischen, norwegischen, polnischen und ungarischen Äquivalenten in morphosyntaktisch annotierten Wikipedia-Korpora. Im Rahmen der Untersuchung wurden mit korpusanalytischen Methoden quantitative Zusammenhänge bei den sprachspezifischen Ausprägungen von Vorfeldern nachgewiesen, die im Einklang mit typischen Struktureigenschaften der untersuchten Kontrastsprachen stehen. Die Ergebnisse legen aber nahe, dass die untersuchten Vorfeldstrukturen ‒ trotz der beträchtlichen Größe und thematischen Vielfalt der Wikipedia-Korpora ‒ nicht hinreichend repräsentativ sind, um uneingeschränkt Rückschlüsse auf allgemeine Struktureigenschaften der sechs Kontrastsprachen zu ziehen. Hierfür verantwortlich ist insbesondere die ausgeprägte Textsortenspezifizität der Mediengattung (Online-)Enzyklopädie, was mithilfe weiterer Vergleichskorpora aufgezeigt werden konnte.
Verschmelzung von Präposition und Artikel. Eine kontrastive Analyse zum Deutschen und Italienischen
(2018)
Präpositionen und Artikelformen gehen in vielen europäischen Sprachen klitische Verbindungen ein, die spezielle Ausdrucksklassen wie die deutschen Verschmelzungsformen (z. B. ans, vom, zur) und italienischen ‚preposizioni articolate‘ (z. B. alla, delle, nel) konstituieren. Dieses Buch widmet sich dem Sprachvergleich dieser Ausdrucksklassen im Deutschen und Italienischen, die ausgehend von ähnlichen Voraussetzungen divergente diachrone Entwicklungen repräsentieren. Gezeigt wird dies anhand intra- und interlingualer Analysen zu Phonologie, Morphologie, Syntax und funktionalen Aspekten im Rede- und Textzusammenhang, die sowohl diachrone als auch synchrone Aspekte berücksichtigen und unmittelbar korpusempirisch abgesichert werden. Zentrale Erkenntnisse liefern außerdem sprachspezifische Fallstudien in großen Korpora, die auf methodisch innovativen, quantitativ und qualitativ ausgerichteten Distributionsanalysen struktureller und orthographischer Varianten von Präposition-Definitartikel-Verbindungen basieren.
Die Flexionsmorphologie des Deutschen ist ein zentraler Forschungsgegenstand des europäischen Forschungsnetzwerks EuroGr@mm, dessen Erschließung für Forschung und Lehre seit Anfang 2007 vorangetrieben wird. Das europäische Projekt hatte sich zur Aufgabe gemacht, diesen grammatischen Themenbereich aus französischer, italienischer, norwegischer, polnischer und ungarischer Perspektive kontrastiv zu beleuchten. Die ersten Ergebnisse wurden nun in Form von didaktisch aufbereiteten Wissenseinheiten auf der Lemplattform ProGr@mm kontrastiv veröffentlicht.
Der Beitrag befasst sich zunächst mit der Satzklammer des Deutschen aus der Perspektive der Informationsverteilung. Nachdem gezeigt ist, dass sie als Informationsklammer fungiert, wird ihre Interaktion mit den Teilen gespaltener Nominalphrasen untersucht. Dabei zeigen sich zwei interessante Befunde:
• die Satzklammer und die NP-Teile unterstützen sich bei der Informationsklammerbildung; insbesondere können die Spalt-NP-Teile Akzent tragen;
• die Spalt-NP-Teile können alleine die Rolle einer Informationsklammer spielen, wodurch eine Topikalisierung des Partizips II möglich wird.
Zur Semantik von fast
(1977)
Der Analyserahmen, in dem ich mich dem Problem nähern will, ist eine Reichenbachianische Analyse der deutschen Tempora, wie sie z.B. in Ballweg (1988) entwickelt wurde. Ausgegangen wird von einem System mit den zwei einfachen Tempora Präsens und Präteritum, sowie dem peripheren Futur, das semantisch wie ein einfaches Tempus zu behandeln ist. Aus Satzradikalen mit dem Verb im Infinitiv machen Tempora Sätze mit finitem Verb. Aus der Kombination der drei einfachen Tempora mit dem Infinitiv Perfekt ergeben sich die zusammengesetzten Tempora PRÄSENSPERFEKT, PRÄTERlTUMPERFEKT und FUTURPERFEKT.
In diesem Beitrag soll eine dynamische Zeitlogik skizziert werden, die eine Analyse der deutschen Tempora über den Satzrahmen hinaus ermöglicht. Basis dieser Darstellung soll eine Reichenbachianische Analyse der Deutschen Tempora sein.
Zunächst wird eine Sprache ADETAL angegeben (Adverbial erweiterte temporale Aussagenlogik). Für diese Sprache wird eine Semantik im Stile Reichenbachs formuliert. Diese erweist sich als adäquat zur Beschreibung einzelner Sätze. Um auch noch die temporale Struktur von Sätzen zu beschreiben, werden wir eine dynamische Perspektive entwickeln, indem wir Ideen aus der Dynamischen Prädikatenlogik von Groenendijk/Stokhof aufgreifen. Schließlich soll das System bei der Analyse eines Textausschnitts auf die Probe gestellt werden.
Im Deutschen treten Determinative und Pronomina oft paarweise auf, zum Teil mit unterschiedlicher Flexion, d.h. neben dem Determinativ der, die, das gibt es das Pronomen der, die, das (mit abweichender Flexion im Gen. Sg. und Gen. bzw. Dat. Pl: des, der vs. dessen, derer, der, den vs. deren/derer bzw. denen), neben dem quantifizierenden Determinativ kein gibt es das Pronomen keiner usf. Eine angemessene Beschreibung sollte dieses Phänomen nicht nur konstatieren, sondern einen Erklärungsansatz suchen, der die syntaktische und semantische Verwandtschaft aufdeckt. Ein solcher Ansatz soll im folgenden im Rahmen einer flexiblen Kategorialgrammatik versucht werden.
Es gibt bekanntlich in Frankreich eine große Zahl sehr sophistizierter Comic-Serien wie Asterix, Gaston Lagaffe, Iznogoud etc. Diese zeichnen sich durch eine große Zahl von Gags aus, darunter auch viele Wortspiele und Kalauer. Es erscheint nicht uninteressant, zu untersuchen, wie diese ins Deutsche übersetzt worden sind, insbesondere, ob es gelungen ist, den Gag in die Zielsprache zu transportieren.
Ich werde mich in diesem kurzen Beitrag vor allem auf Beispiele aus den Geschichten um den Großwesir Isnogud konzentrieren; diese haben den Vorteil, daß die einzelnen Geschichten immer nach demselben Muster ablaufen: Isnogud, der Großwesir, ein Giftzwerg, will den guten Kalifen Haroun el Poussah beseitigen, um selber Kalif anstelle des Kalifen zu werden. Zur Seite steht ihm sein Handlanger Dilat Laraht, der aber, durch viele Fehlschläge klug geworden, den Anschlägen seines Herrn stets skeptisch gegenübersteht - zurecht, denn die Pläne Isnoguds scheitern immer. Das Interesse des Lesers ist somit nicht auf den Ausgang der jeweiligen Geschichte gerichtet, sondern auf die Variation des allgemeinen Musters und die zahlreichen Witzeleien und Kalauer.
Der folgende Beitrag soll kurz darstellen, wie sich im Deutschen, einer Sprache ohne Aspektsystem, Aspektualität darstellen lässt. Dazu wird zunächst skizzenhaft eine Darstellung der deutschen Tempora gegeben, aus der sich ergibt, dass Aspektualität im Deutschen nicht durch Tempusformen ausgedrückt wird.
Dem folgt eine kurze Übersicht über Ausdrucksmittel für Telizität und Atelizität, d.h. eine Skizze der Ausdrucksmittel, mit denen der unmarkierte Fall, nämlich dass Verbalphrasen aspektuell offen sind, in Richtung Telizität bzw. Atelizität markiert werden kann.
Zunächst wird dabei die Telizität erörtert. Neben der unproblematischen Möglichkeit, Telizität durch verschiedene Typen von Adverbialia zu markieren, gibt es noch den komplizierteren Fall der Bedeutungsübertragung von Nominalphrasen eines bestimmten Typs, die zusammen mit einer Klasse von Verben telische Bedeutung erzwingen. Abschließend wird noch die explizite Markierung von Atelizität erläutert.
In einem eigenen Kapitel wird dann das Phänomen der Konstitution von Telizität durch Bedeutungsübertragung von Nominalphrasen auf Verbalphrasen dargestellt, wobei ein vorangehender Exkurs zur Semantik von Pluralen und Substanzausdrücken den Boden der Darstellung vorbereitet.
Modalpartikel
(2007)
Das Buch gibt eine Darstellung der Quantifikation im Deutschen. Vor allem wird das Zusammenspiel mit den Nominaltypen dargestellt, insbesondere mit Plural- und Substanznomina. Den syntaktischen Rahmen bietet dabei eine flexible Kategorialgrammatik. Diese enthält neben der üblichen Applikationsregel noch die Regel der funktionalen Komposition, der Kommutation und der Reduktion, sowie Verkettungsregeln. Semantische Analysen werden durch eine Übersetzung in eine – an den Vorschlägen Godehard Links orientierte – Logiksprache PLINK gegeben, in der Plural- und Substanzausdrücke adäquat im Rahmen von Verband-Strukturen behandelt werden können.
Der folgende Beitrag stellt einen Ausschnitt einer Grammatik für ein Fragment des Deutschen vor.
Zunächst wird eine formale λ-kategoriale Sprache, λL, eingeführt, zusammen mit einem geeigneten Modell zu ihrer Interpretation. Dann wird eine Obersetzungsfunktion ü angegeben, die Ausdrücke von λL in Ausdrücke von Kategorialdeutsch, Kat D, überführt, wobei sich die Syntax komplexer Ausdrücke in Kat D aus der Syntax der entsprechenden λL Ausdrücke und der Übersetzungsfunktion ergibt, die Semantik aus der der entsprechenden λL-Ausdrücke. Kat D ist keine syntaktisch disambiguierte Sprache, so daß es Kat D-Ausdrücke mit mehreren Ableitungen gibt.
Die unorthodoxen Züge der vorgeschlagenen Grammatik sind einerseits, daß sie reichlichen Gebrauch von der Möglichkeit macht, für einfache Kat D-Ausdrücke komplexe λL-Entsprechungen zu haben, andererseits, daß Verben hier als λ-Abstrakte behandelt werden.
Im Rahmen dieses Modells wird dann zur Illustration ein Mini-Fragment des Deutschen formuliert. Schließlich werden Vorschläge für die semantisch-syntaktische Behandlung der Kopula-Verben sein und werden gemacht.
Da das britische Englisch im Wesentlichen nur Gebrauchsnormen kennt, und keine Sollnormen, bedeutet Standardvariation im Deutschen für Englischsprachige kein grundsätzliches Hindernis beim Erlernen der Sprache. Umgekehrt werden deutschsprachige Lerner des Englischen immer wieder durch das Fehlen von Sollnormen im Englischen irritiert.
Neuerdings entstehen aber Schwierigkeiten auf beiden Seiten durch Änderungen in der Lexik des Deutschen, die als Lockerungen der Norm aufgefasst werden könnten. Es handelt sich hier um die Verwendung von Anglizismen in deutschen Texten. Vermutlich, weil diese oft als nicht normgerecht betrachtet werden, werden sie nur zögernd in Nachschlagewerke aufgenommen, was Lernern der Sprache Schwierigkeiten bereitet. Da es sich hier angeblich um „englische Wörter“ handelt, könnte der Eindruck entstehen, sie seien für Englischsprachige unproblematisch. Die deutschen Anglizismen sind aber keine „englischen Wörter“, sie weichen im Gebrauch und in der Bedeutung oft erheblich von ihren englischen Vorbildern ab.
Auf der anderen Seite neigen deutschsprachige Lerner des Englischen oft dazu, vermutlich irregeführt durch die übliche Bezeichnung „englische Wörter“, deutsche Anglizismen nach deutschen Gebrauchs- und Bedeutungsmustern in ihren englischen Äußerungen zu verwenden, was unter Umständen zu erheblichen Missverständnissen führen kann. Es könnte sogar argumentiert werden, es entstehe durch diese und andere Prozesse eine neue Standardvariante des Englischen, ein „deutsches Englisch“.
In diesem Referat werde ich empfehlen, auf die irreführende Bezeichnung „englische Wörter“ für deutsche Anglizismen zu verzichten. Ich werde auch dafür plädieren, die Standardvariation so früh wie möglich im Sprachunterricht zu berücksichtigen, da sie für das Verständnis sowohl gesprochener als auch geschriebener Sprache von großer Bedeutung sein kann.
Wenn man verschiedenartige Forschungsdaten über Metadaten inhaltlich beschreiben möchte, sind bibliografische Angaben allein nicht ausreichend. Vielmehr benötigt man zusätzliche Beschreibungsmittel, die der Natur und Komplexität gegebener Forschungsressourcen Rechnung tragen. Verschiedene Arten von Forschungsdaten bedürfen verschiedener Metadatenprofile, die über gemeinsame Komponenten definiert werden. Solche Forschungsdaten können gesammelt (z.B. über OAI-PMH-Harvesting) und mittels Facetten-basierter Suche über eine einheitliche Schnittstelle exploriert werden. Der beschriebene Anwendungskontext kann über sprachwissenschaftliche Daten hinaus verallgemeinert werden.
Die neue politische, wirtschaftliche u. a. Situation in Ost-Mittel-Europa, so auch in Ungarn, verlangt ein höheres Niveau der Fremdsprachenkenntnis, die je nach Bildung, sozialer Stellung differenziert erscheint. In Ungarn, wo die deutsche Sprache und Kultur traditionell immer schon eine besondere Stellung eingenommen hat, ist Deutsch in der Sprachenwahl im schulischen Unterricht immer noch auf Platz zwei. Dies wird wohl auch durch die Nachbarschaft mit Österreich, einem deutschsprachigen Land, und die intensiven wirtschaftlichen und kulturellen Beziehungen mit den deutschsprachigen Ländern begründet. Diesen neuen Anforderungen muss ein differenzierter, die Varietäten berücksichtigender DaF-Unterricht entsprechen.
Nach einem kurzen Überblick über die Varietätenvielfalt und die Verflechtung der Varietäten des Deutschen wird der Grad der Abweichung der Varietät von der Standardvarietät auf der Varietätenskala dargestellt. Im Weiteren werden die sprachlichen und linguistischen Ebenen im Hinblick auf die Varietäten unter die Lupe genommen.
Es wird untersucht, welche Varietät und in welcher Tiefe je nach Alter, Funktion u. a. im Rahmen des ungarischen Schulsystems unterrichtet werden soll. Der Autor des Beitrags plädiert für die immer breitere Anwendung des zweisprachigen Sach- und Fachunterrichts, der im Idealfall letzten Endes in eine angelernte Zweisprachigkeit münden kann bzw. sollte.
Das 50-jährige IDS
(2014)
In diesem Beitrag liegt der Fokus auf der Vorfeldbesetzung des deutschen Satzes, insofern das Vorfeld einerseits aus einem Satzglied oder mehreren Satzgliedern und einem infiniten Teil des Verbalkomplexes oder andererseits nur aus dem infiniten Teil des Verbalkomplexes besteht. Bei diesen Formen der Vorfeldbesetzung werden Varianten und deren informationsstrukturelle Besonderheiten betrachtet. Des Weiteren soll der Frage nachgegangen werden, ob – entgegen einer haufig vorgebrachten Regel, dass das Vorfeld des deutschen Satzes nur einfach besetzt werden kann – eindeutige und auch akzeptable Belege in den Wikipedia-Korpora auffindbar sind, die darauf hinweisen, dass im Deutschen durchaus eine Vorfeldbesetzung mit mehr als einem Satzglied auftreten kann.