Sprache im 20. Jahrhundert. Gegenwartssprache
Refine
Year of publication
Document Type
- Part of a Book (75)
- Article (32)
- Review (5)
- Book (3)
Language
- German (115) (remove)
Keywords
- Deutsch (71)
- Rezension (14)
- Konversationsanalyse (10)
- Sprachgebrauch (9)
- Sprachwandel (8)
- Diskursanalyse (7)
- Sprache (7)
- Interaktion (6)
- Kongress (6)
- Sprachnorm (6)
Publicationstate
Reviewstate
- (Verlags)-Lektorat (66)
- Peer-Review (3)
- Verlags-Lektorat (1)
Publisher
- de Gruyter (115) (remove)
"Übergesetzliches Recht". Reflexionen nationalsozialistischen Unrechts in der frühen Nachkriegszeit
(2002)
Urteilsbegründungen sind zeit- und damit sprachgeschichtliche Dokumente. Sie sind Psychogramme der Gesellschaft eines Staates. In der ersten Nachkriegsdekade reflektieren sie die zwei Seinsformen des deutschen Gemeinwesens bis und ab 1949. Der Beitrag rekonstruiert vor diesem Hintergrund richterliche Selbstprofile, welche die Rechtsprechung der ersten Nachkriegsdekade bestimmen, um anschließend an drei Beispielen der Frage nachzugehen, wie es möglich ist, dass ein Richter im Rahmen einer konzisen Argumentation dasselbe Argument abweist, das ein anderer Richter, ebenso konzis argumentierend, akzeptiert. Die Theoretische Grundlegung dieser Untersuchung besteht – ihrem Erkenntnisinteresse und vor allem der Beschaffenheit der untersuchten Textsorte ,Gerichtsurteil‘ folgend – aus einem Ensemble argumentations- und konzeptanalytischer Aspekte: Urteilsbegründungen sind ihrem Zweck nach argumentierende Texte, die im Argumentieren Schuldkonzepte realisieren. Überlegungen hierzu sind der Untersuchung vorangestellt.
Sprachkritik wurde in der Vergangenheit oftmals als reine Wortkritik betrieben. Exemplarisch werden in diesem Beitrag vier Themen aktueller wortbezogener Sprachkritik vorgestellt und kritisch diskutiert: die Kritik an Angloamerikanismen durch den „Verein zur Wahrung der deutschen Sprache", die Aktion „Unwörter des Jahres" (Horst Dieter Schlosser), das Konzept der „Plastikwörter" (Uwe Pörksen) und die „kontroversen Begriffe"(Georg Stötzel u. a.). Die Überlegungen münden in das Ergebnis, dass Wortkritik nur als Wortgebrauchskritik und Sprachkritik nur als Sprachgebrauchskritik (oder Diskurskritik) sinnvoll und begründet sind. Dabei ist zu bedenken, dass Sprachkritik keine Normen setzt, sondern Sprachgebrauchsnormen kritisch reflektiert und Alternativen aufzeigt.
Alltagsgespräche
(2001)
Das hier zu besprechende Buch, das Ergebnisse einer gleichnamigen Tagung zusammenfasst, die im Juni 2013 in Zürich stattfand, macht eines offenkundig: Wer in jenem Sommer nicht dabei war, hat etwas verpasst. Umso glücklicher darf man sein, dass Angelika Linke und Juliane Schröter die Arbeit, die mit der Herausgabe eines Sammelbandes verbunden ist, auf sich genommen haben. Mehr noch: In einem programmatischen ersten Kapitel geben sie einen systematischen Einblick in das tragfähige Forschungsfeld „Sprachliche Relationalität“ (vgl. S. 1–6), das ganz im Sinne der emotiven Wende in der Sprachwissenschaft konkrete theoretische Anschlussfähigkeit signalisiert, wo bislang eine „fast unübersehbare Menge an Veröffentlichungen“ (Schwarz-Friesel 2013: 16) zwar zeigte, wie attraktiv die Thematik ist, aber auch wie unstrukturiert sich die Zuwendung dazu gestaltet. Dass der Band nun weitere „exemplarische Besetzungen“ (S. 21) des Forschungsfeldes zur Diskussion stellt, wird hier keinesfalls als Nachteil angesehen, sondern als methodisch folgerichtiger empirischer Zugang zur Erschließung eines Forschungsfeldes unter den zielsetzenden Leitfragen „Wie werden im Medium von Sprachgebrauch und Sprache Konzeptualisierungen, Kategorisierungen und Differenzierungen menschlicher Beziehungen ausgebildet, verfestigt und auch wieder verändert?“ und „Welche sprachgeformten Beziehungskonzepte, -kategorien und -unterschiede sind typisch für bestimmte historische Epochen bzw. für bestimmte soziale Gruppierungen?“
Wie nun bereits seit einigen Jahren üblich, wurde die IDS-Jahrestagung auch dieses Jahr wieder von einer Methodenmesse begleitet, auf der sich passend zum Tagungsthema anwendungsorientierte Projekte mit Bezug zur Lexikonforschung präsentierten. Die Bandbreite der dargebotenen Themen war sehr groß: innovative methodische Ansätze im Bereich der Translationswissenschaft, Tools zur Analyse und Beschreibung lexikalischer Muster oder zur Detektion von Neologismen, neue lexikografische Ressourcen bis hin zu Infrastrukturaktivitäten und einem Kooperationsprojekt zwischen Schüler/innen und Wissenschaftler/innen zur Wortschatzanalyse. Im Folgenden sollen die einzelnen Projekte, die sich auf der Messe präsentiert haben, auf der Basis der eingereichten Abstracts der Messeteilnehmer/innen kurz vorgestellt werden.
Cutler, Anne: Native listening. Language experience and the recognition of spoken words [Rezension]
(2013)
Die Universität Bonn verfügt über ein elektronisches Korpus von Immanuel Kants gesammelten Schriften gemäß den Abteilungen 1–3 der Akademie-Ausgabe. Dieses Korpus bildet die Grundlage einer elektronischen Edition der Schriften Kants, auf die über die Webseite des ehemaligen Instituts für Kommunikationsforschung und Phonetik zugegriffen werden kann: http://www.ikp.uni-bonn.de/kant/. Im vorliegenden Artikel wird über den Umfang und den Zustand des Bonner Korpus und der elektronischen Edition berichtet.
Die Normierung der deutschen Standardaussprache geht in ihren Ursprüngen auf die 1898 durch die Siebs-Kommission beschlossenen Regelungen für die deutsche Bühnenaussprache zurück. Seit 1964 bildet der Nachrichtensprecher bei der Ausübung seines Berufs die Grundlage für die gegenwärtigen deutschen Aussprachekodizes. Diese eingeschränkte empirische Basis zusammen mit einem primär präskriptiven Anspruch der Kodifikatoren führt dazu, dass auch das aktuellste Aussprachewörterbuch des Deutschen (DAW) in vielen Fällen den tatsächlichen Standardsprachgebrauch in Deutschland nur unzureichend repräsentiert. Dies wird im vorliegenden Beitrag durch den Vergleich mit Sprachdaten aus dem Korpus „Deutsch heute“, das Lese- und Spontansprache v.a. von Oberstufenschülern am Gymnasium aus dem ganzen deutschen Sprachraum enthält, anhand von acht unterschiedlichen sprachlichen Phänomenen gezeigt. Der Beitrag schließt mit einem Plädoyer für realitätsnähere Kodifikationen, die sich am Sprachgebrauch der „educated speaker“ orientieren (wie es v.a. im englischsprachigen Raum der Fall ist), weil sie der aktuellen Sprachsituation im Deutschen weit besser Rechnung tragen als die derzeit existierenden Kodizes.
Üblicherweise wird behauptet und erwartet, dass für den Deutschunterricht die deutsche Standardsprache zumindest als Zielsprache, wenn nicht gar als Unterrichtssprache gilt. Die Forschungen der germanistischen Soziolinguistik und Sprachlehrforschung zeigen allerdings, dass keinesfalls Einigkeit darüber besteht, was denn ,die deutsche Standardsprache‘ überhaupt sei, ob, und wenn ja, wie viel Variation sie beinhaltet, und wie mit Normabweichungen seitens der Schüler/innen umzugehen sei.
Unser Beitrag beschäftigt sich mit der Rolle der Deutschlehrenden — sowohl an deutschsprachigen Schulen als auch im Rahmen des DaF-Unterrichts an britischen Hochschulen — um zu erörtern, welche Erwartungen sie an die sprachliche Normenkonformität ihrer Schüler/innen haben und welche praktischen Probleme ihnen hierbei begegnen. Unterstützt durch historische Belege aus dem Schulalltag im 19. Jahrhundert, diskutieren wir Kontinuitäten und Innovationen in der Selbsteinschätzung von Deutsch- und DaF-Lehrer/innen zu ihrer Rolle als Sprachnormvermittler/ innen und stellen die Frage, wie groß ihre Rolle tatsächlich ist.
Am Beispiel des an der Universität Oslo entwickelten Oslo Multilingual Corpus (OMC) wird illustriert, wie ein Parallelkorpus aus Originaltexten und deren Übersetzungen zur sprachvergleichenden Erforschung von Phänomenen der Satzverbindung und der Informationsverteilung auf Satz- und Textebene eingesetzt werden kann. Nach einer Skizze der OMC-Architektur wird eine Untersuchung von Satzverknüpfungen mit dem komitativen Konnektor „wobei“ und deren Entsprechungen in norwegischen Übersetzungen und Originaltexten vorgestellt, die dazu beiträgt, Bedeutungsfacetten dieses Konnektors aufzuzeigen, die in rein intralingualen Studien nicht so einfach zu erkennen sind, und dadurch einen besseren und systematischeren Einblick in die angewandten Übersetzungsstrategien gibt. Als zweites Einsatzbeispiel wird eine explorative Untersuchung zur Elaborierung von Ereignisbeschreibungen vorgestellt, die deutsche, norwegische, englische und französische Entsprechungen von „mit“-Konstruktionen (sog. „Sätzchen“) als Ausgangspunkt nimmt. Beide Studien illustrieren, dass ein Parallelkorpus auch ohne komplexe Annotierungen nicht nur für wort-basierte quantitative Untersuchungen verwertet werden, sondern auch im Zuge weniger zielgerichteter, eher qualitativ angelegter Studien als „Augenöffner“ für komplexe linguistische Phänomene dienen kann.
Entnazifizierung wird fur die Kommunikationsbereiche Zeitkritik / Parteien / Kirche, Administration / Justiz sowie im Zusammenhang mit Spruchkammerverfahren beschrieben und als Teil einer Text-, Begriffs- und Mentalitatsgeschichte verstanden. Die Geschichte der Entnazifizierung ist im wesentlichen Schuldgeschichte, so da!3 sich deren sprachlicher Ausdruck als Teil der deutschen Sprachgeschichte als Begriffsgeschichte darstellt. Intellektualisierung, Instrumentalisierung, sprachlicher Eskapismus und Auflosung sind Merkmale des Schulddiskurses, zu denken auf einer Zeitachse von 1945 bis etwa 1955. Die Untersuchung zeigt, dass der Schuldbegriff in drei Einzelbedeutungen - festgelegt von Philosophic / Kirche / Parteien, von der Administration und Justiz und von den Tatern - zerlegt bleibt. Der entleerte Schuldbegriff der Tater dominiert die offentliche Wahmehmung, und insofern das Befreiungsgesetz hierfiir die Voraussetzungen schafft, ist dieses als Teil der deutschen Sprachgeschichte zu beschreiben.
Die Aufbauprinzipien europäischer Possessionssysteme basieren viel öfter als gemeinhin angenommen auf gespaltener Possession. Dieses im Deutschen nicht prominente Phänomen wird anhand von Daten aus ausgewählten Beispielsprachen als in Europa durchaus etablierte Erscheinung vorgestellt. Die mit ihm verbundenen semantischen und morphosyntaktischen Aspekte werden anhand von qualitativen Korpusdaten diskutiert. Die Restriktionen, denen sie unterliegen, sind ebenfalls Gegenstand der Diskussion. In den Schlussfolgerungen wird dafür plädiert, künftig der Possession bei vergleichenden Studien zu europäischen Sprachen mehr Beachtung zu schenken.
Anhand einer Auswahl historischer Reden je dreier prominenter Deutscher und Polen wird eine signalphonetisch gestützte sprachvergleichende Analyse der glottalen Markierung vokalinitialer Wörter durchgeführt.
Generell erweist sich die glottale Markierung als variabel entlang eines Kontinuums zwischen einem echten glottalen Verschlusslaut (harter Stimmeinsatz) des Initialvokals über zeitlich nicht exakt koordinierte Glottalisierungen (Knarrstimme) und leichte Reflexe im Grundfrequenzverlauf bis hin zum völligen Fehlen einer Markierung.
Insgesamt zeigen sich im Polnischen gegenüber dem Deutschen seltener glottale Markierungen sowie eine sprachübergreifende schwache Abhängigkeit der Markierungshäufigkeit vom Sprechtempo (weniger bei Sprechtempoerhöhung).
Die Auftretenshäufigkeit glottaler Markierung wird sprachabhängig zudem durch unterschiedliche Faktoren beeinflusst: Für das Deutsche zeigen sich signifikante Einflüsse sowohl des Worttyps (Inhaltswörter mit häufigerer Markierung gegenüber Funktionswörtern) als auch der Betonung (betonte Silben mit häufigerer Markierung gegenüber unbetonten), während im Polnischen hier kein Einfluss sichtbar ist. Dafür zeigt das Polnische gegenüber dem Deutschen einen signifikanten Einfluss der Position innerhalb der Phrase (häufigere glottale Markierung in phraseninitialen im Gegensatz zu phrasenmedialen Wörtern). Diese sprachspezifischen Unterschiede können mit den prosodischen Charakteristika beider Sprachen Zusammenhängen. Im Unterschied zum Deutschen mit einem freien Wortakzent fällt dieser im Polnischen auf die Penultima, ist somit vorhersagbar und bedarf demzufolge keiner zusätzlichen glottalen Markierung im Sprachsignal.
Beide Sprachen hingegen zeigen übereinstimmend einen klar ausgeprägten Effekt der Vokalhöhe auf das Auftreten der glottalen Markierung (tiefe Vokale > mittlere Vokale > hohe Vokale).
This article focuses on the qualitative and quantitative analysis of patients’ responses to different types of doctors’ prediagnostic statements. Prediagnostic statements document the doctors’ process of understanding in the on going interactive event and simultaneously move it to an intersubjective level within the boundaries of communicability, for example, in the case of problematic symptom patterns. Four types of prediagnostic statements will be distinguished: the preliminary, unspecific diagnosis, the establishing of a (causal) link, information about the findings, and diagnoses of exclusion. On the basis of 29 doctor-patient-conversations, 150 patients’ responses to prediagnostic statements are analyzed in their contextual organization. Although many patients’ responses turn out to be affirmatively minimal, there are differences both in the elaborateness and regarding the reference type, depending on the statements’ degree of certainty, the patients’ self-diagnoses as well as on influences of the interaction type’s asymmetrical properties. Both patients and doctors work together on establishing interactive and epistemic territories and pay attention to the maintenance of their self-images and their interaction relationship.