Refine
Year of publication
- 2005 (209) (remove)
Document Type
- Part of a Book (123)
- Article (44)
- Conference Proceeding (18)
- Book (12)
- Part of Periodical (4)
- Other (3)
- Preprint (2)
- Working Paper (2)
- Diploma Thesis (1)
Language
- German (171)
- English (35)
- Portuguese (1)
- Russian (1)
- Spanish (1)
Keywords
- Deutsch (117)
- Englisch (24)
- Massenmedien (21)
- Mediensprache (19)
- Korpus <Linguistik> (15)
- Wörterbuch (14)
- Grammatik (11)
- Gesprochene Sprache (10)
- Russisch (10)
- Sprachvariante (10)
Publicationstate
- Veröffentlichungsversion (85)
- Zweitveröffentlichung (8)
- Postprint (6)
Reviewstate
Publisher
- Institut für Deutsche Sprache (59)
- de Gruyter (33)
- De Gruyter (10)
- Lang (8)
- Niemeyer (8)
- Oxford University Press (4)
- Narr (3)
- Wissenschaftliche Verlagsgesellschaft (3)
- Benjamins (2)
- Edusp/Monferrer Produções (2)
We present an implemented XML data model and a new, simplified query language for multi-level annotated corpora. The new query language involves automatic conversion of queries into the underlying, more complicated MMAXQL query language. It supports queries for sequential and hierarchical, but also associative (e.g. coreferential) relations. The simplified query language has been designed with non-expert users in mind.
In der Arbeit wird ein Verfahren zur Ermittlung der Zweitsprachkenntnisse bei der Einschulung behandelt, das auf der Profilanalyse basiert. Zuerst werden allgemeine Fragen der Sprachstandsdiagnose bei Kindern ohne Schriftsprachkenntnisse und einige Aspekte des Zweitspracherwerbs, unter ihnen Regelbildungsprozesse behandelt. Dann wird die linguistische Basis der Profilanalyse vorgestellt, wie sie aus dem ZISA-Projekt heraus für Deutsch als Zweitsprache entwickelt wurde. Im Kern des Verfahrens steht die Erkenntnis, dass die Stellung verbaler Elemente in bestimmten Schritten erworben wird. Aus der Kritik an dem ursprünglich von Clahsen vorgelegten Entwurf werden Grundlagen für eine revidierte Vorgehensweise entwickelt. Daran schließt sich eine Diskussion des Verhältnisses zwischen den Phrasenstrukturen und damit zusammenhängenden Eigenschaften der Lernersprache an. Mit den Mitteln der funktionalen Pragmatik wird die Stellung vor dem Finitum (Prä-V2) in ihrer Funktionalität für die deutsche Sprache behandelt. Diese Zusammenhänge werden in einem empirischen Teil exemplarisch an Lerneräußerungen überprüft und herausgearbeitet, die für die jeweiligen Erwerbsstufen stehen. Der Beitrag schließt mit einem Resümee und Vorschlägen für die weitere Forschung. Im Anhang wird ein revidierter Profilbogen und ein von LehrerInnen vereinfachtes Modell eines Profilbogens dokumentiert. Weiterhin enthält der Anhang die
vollständigen Transkriptionen der untersuchten Lerneräußerungen.
Im Jahre 1999 unterzeichneten Bildungsminister aus 29 europäischen Staaten die sogenannte Bologna-Erklärung. Mit diesem Dokument wurde vereinbart, bis 2010 einen gemeinsamen Europäischen Hochschulraum zu schaffen. Trotz der rechtlichen Unverbindlichkeit der Erklärung erfolgten in den jeweiligen Unterzeichnerstaaten eine Vielzahl von entsprechenden Reformen. Dabei bestehen teilweise erhebliche Unterschiede im Umfang des zu beobachtenden innerstaatlichen Wandels. Das Ziel dieser Arbeit ist es, Erklärungsfaktoren für die Varianz dieses innerstaatlichen Wandels zu finden. Diese Untersuchung greift auf bestehende theoretische Arbeiten aus angrenzenden politikwissenschaftlichen Gebieten zurück, da zum Untersuchungsgegenstand Hochschulpolitik bis dato nur wenige systematisch-vergleichende und theoretisch-fundierte Arbeiten vorliegen. Der hier verwendete grundlegende Analyserahmen stammt aus der Europäisierungsforschung. Diese befasst sich mit den innerstaatlichen Auswirkungen von Integrationsprozessen auf europäischer Ebene. Zentrale Annahme ist dabei, dass lediglich eine Diskrepanz (misfit) zwischen europäischer und innerstaatlicher Ebene einen Effekt auf nationale Strukturen haben kann. Solch ein misfit kann entweder zu innerstaatlicher Ressourcenumverteilung oder aber Sozialisationsprozessen führen. Beides resultiert in innerstaatlichem Wandel. Ob es tatsächlich zu derartigen Prozessen kommt und damit auch ein innerstaatlicher Wandel zu beobachten ist hängt von bestimmten innerstaatlichen Faktoren (mediating factors) ab, die den Anpassungsdruck, welcher durch den misfit hervorgerufen wird, filtern. Dazu gehören die Anzahl von Vetopunkten im politischen System eines Landes, der Einfluss der zuständigen Ministerialbürokratie, die politische Kultur eines Landes und das Vorhandensein von norm entrepreneurs bzw. change agents. Außerdem werden zwei Kontrollvariablen auf Basis theoretischer Annahmen aus dem Bereich der vergleichenden policy-Forschung erhoben: der Grad der Wissensbasierung der Ökonomie sowie der globale Integrationsgrad des jeweiligen Landes. Für den Hypothesentest wird auf eine relativ neue Methode zurückgegriffen: die Multi-Value Qualitative Comparative Analysis (MVQCA). Durch die Aussortierung logisch überflüssiger Variablen wird dabei gewährleistet, dass eine hohe Anzahl von Variablen auf Basis relativ weniger Fälle zu untersuchen ist. Untersucht werden sieben Mitgliedsstaaten der Europäischen Union (EU), die einen hohen misfit in Bezug auf die Vorgaben der Bologna-Erklärung aufweisen. Schwerpunkt der Analyse bilden die Vorgabe einer zweistufigen Studienstruktur und der output der unterschiedlichen politischen Systeme. Insbesondere zwei Faktoren können dabei den unterschiedlichen Entwicklungsstand des Bologna-Prozesses im Falle eines hohen misfit tatsächlich erklären: die Anzahl der Vetopunkte in einem politischen System sowie der Einfluss der hochschulpolitischen Ministerialbürokratie auf den politischen Entscheidungsprozess. Diese Studie leistet damit einen wichtigen Beitrag zur Erforschung der hochschulpolitischen Anpassungsprozesse in Europa. Darüber hinaus zeigen die Ergebnisse, dass der verwendete Analyseansatz eine geeignete Grundlage für weitere Forschungsvorhaben darstellt. Gerade in Verbindung mit makro-qualitativen Methoden wie MVQCA.
This English language version (translated by Martin Wynne) is a reworked and slightly abridged version of the paper given in Canterbury in February 1999. A German language version has appeared as Hellmann, Manfred W.: ‘Wörter in Texten der Wendezeit’ 1989-1990 - Ein Wörterbuch zur lexikographischen Erschließung des ‘Wendekorpus’ in Jordanova, Ljubima (edj: 10 godini promjana v Iztotschna Evropa (10 Jahre Wende in Osteuropa), (= Socio- linguistika Bd. 4), BULLEKS: Sofia (Bulgaria) 1999, S. 11-39.
Die Feststellung von einer veränderten Sprachorientierung mit einer Tendenz zur Destandardisierung und einer Abschwächung der Verbindlichkeit standardsprachlicher Normen trifft für die Sprecherwirklichkeit nur bedingt zu. Erfahrungen der Duden-Sprachberatung belegen, dass viele Sprachteilhaberinnen und Sprachteilhaber nach wie vor nach sprachlicher Orientierung suchen, die sich an überkommenen Gebrauchs- oder wie bei der Rechtschreibung gesetzten Normen festmacht. Sprachberatung und allgemeines Gebrauchswörterbuch enttäuschen die vom Laien an sie herangetragenen Erwartungen, wenn sie sich rein beschreibend verhalten. Ihnen werden Empfehlungen abverlangt, soweit sie zur Lösung sehr konkreter sprachlicher Probleme konsultiert werden, die selbst nicht im Fokus des Interesses des Fragenden liegen. Beim Wörterbuch kommt erschwerend hinzu, dass es im Falle von Varianz wegen der linearen Darstellung der enthaltenen Information in jedem Fall präskribierend wirkt oder als präskriptiv gelesen werden kann. Will man dieses Dilemma durch eine Trennung von Produktions- und Rezeptionswörterbuch lösen, wird eine Wörterbuchkultur vorausgesetzt, die es wenigstens in Deutschland derzeit noch nicht zu geben scheint.
Destandardisierung lässt sich einerseits mit Bezug auf die regionale Variabilität des Deutschen verstehen als die Zunahme regionaler Varianten. Andererseits kann man darunter aber auch die Aufgabe kodifizierter nationaler Sprachformen zugunsten (nicht regionalisierter) Nicht-Standard-Formen verstehen. In vorliegenden Beitrag wird die These vertreten, dass die gegenwärtige Entwicklung des Deutschen lediglich als Destandardisierung im zweiten Sinn aufgefasst werden kann.
Standardisierung bedeutet in Bezug auf die regionalen Sprachformen des Deutschen Abbau kleinräumiger dialektaler Merkmale. Dieser Abbau vollzieht sich in der Mehrzahl der Fälle in Richtung auf eine standardnähere Lautung; nur selten expandieren regional-sprachliche Merkmale, die deutlich von der Standardlautung abweichen. Seit einigen Jahrzehnten erhält bzw. verstärkt sich die räumliche Gliederung der Standardsprache allerdings durch eine allseits akzeptierte Substratwirkung der großräumigen Regionaldialekte. Es kommt also zur Ausbildung regionaler Standardvarietäten. Diese Unterschichten die nicht-regionalisierte Standardsprache, ohne diese allerdings zu verdrängen.
Eine empirische Untersuchung zum Gebrauch der Standardsprache in Südwestdeutschland (es werden Daten aus Freiburg, Stuttgart und Heidelberg besprochen) belegt, dass (im weitesten Sinn) allegrosprachliche, nicht-standardsprachliche, nicht-regionale Merkmale an Bedeutung gewinnen, während ‚Dialektmerkmale‘ zurückgehen. Bezogen auf Tendenzen zu Destandardisierung wird die Frage aufgeworfen, ob es sich hierbei um einen Sprachwandel handelt.
Wieviel Variation verträgt die deutsche Standardsprache? Begriffsklärung: Standard und Gegenbegriffe
(2005)
Der Ausdruck „Begriffsklärung“ weckt zu hohe Erwartungen. Es müsste eigentlich „Versuch“ heißen. Die frühere hierarchische Gliederung des Deutschen in Hochsprache, Umgangssprache, Halbmundart, Mundart hätte weniger Mühe mit der Begriffsklärung gehabt. Empirisch untersucht wurden ohnehin nur die Dialekte oder Mundarten. Die Hochsprache war mit Orthographie, Orthophonie und Ortho-Grammatik wenn nicht wohldefiniert, so doch in allen Teilen fixiert. Umgangssprache und Halbmundart galten von beiden Polen her als in der Forschung zu vernachlässigende Mischformen.
Die jüngere Terminologie zur Sprachgliederung: Standard, Substandard, Nonstandard, auf die sich die strukturalistische und die empirische Richtung der Linguistik verständigt haben, sieht zwar schlanker und präziser aus. wird aber sogleich diffus, sobald man sie mit Varietäten weiter untergliedern oder Standard mit dem System- oder Normbegriff präzisieren will.
Die Gliederungsvorschläge und Merkmalszuweisungen stammen in der Regel nicht aus empirischer Objektbeobachtung. Es sind hypothetische Klassifikationsversuche oder „Modelle“, die sich auf eigene Spracherfahrung und -intuition berufen. Daraus resultiert eine Vielfalt von Definitionsanläufen trotz vordergründig einheitlicher Benennung.
Das Tagungsthema wird indessen in Form einer konkreten Frage paraphrasiert: „Wie viel Variation verträgt die deutsche Standardsprache“. Es sollte daher möglich sein, nicht die Vielfalt der angebotenen Definitionen zu betonen, sondern für die Begriffe bzw. Phänomene Standard, Variation, Standardvariation, deutsche Standardsprache eine operationale Definition oder Umschreibung zu finden, die soweit tauglich ist, dass die Frage beantwortet werden kann, welche Art von Variation innerhalb der Standard-Grenzen anzusiedeln ist und welche außerhalb. Die Folgen der theoretischen Zuordnung von „Variation“ zu Standard oder Nonstandard sind von recht praktischer Natur, nicht nur für die Dudenredaktion.
Am Beispiel von obwohl- und wobei-Konstruktionen mit Verbzweitstellung sollen Prozesse der Grammatikalisierung bzw. Pragmatikalisierung im gegenwärtig gesprochenen Deutsch aufgezeigt werden. Auf der Grundlage empirischer Analysen von obwohl und wobei im gesprochenen Deutsch wird veranschaulicht, wie sich diese als „ungrammatisch“ geltenden obwohl- und wobei-Konstruktionen mit „Hauptsatzstellung“ ausbreiten, stabilisieren und zunehmend auch in neuen Kontexten verwendet werden.
Dabei wird deutlich, dass es sich bei obwohl und wobei mit Verbzweitstellung keineswegs um gesprochen-sprachliche Varianten der standardsprachlichen Konstruktionen mit Verbendstellung handelt, sondern dass obwohl und wobei mit Verbzweitstellung neue Funktionen innehaben.
Die Ergebnisse der vorliegenden Untersuchungen konfrontieren uns mit Fragen wie:
(i) Weisen die vorliegenden Konstruktionen bestimmte Funktionen auf, die systematisch zu beschreiben sind? Gibt es hierbei also systematische Form-Funktions-Korrespondenzen?
(ii) Handelt es sich um vorübergehende, regional bzw. sozial begrenzte Erscheinungen oder aber um Konstruktionen, die in einigen Jahren vielleicht Teil der Standardsprache sein könnten?
(iii) Sollten wir diese Konstruktionen im Deutsch als Fremdsprache-Unterricht korrigieren - auch wenn deutsche MuttersprachlerInnen sie im Alltag verwenden?
Angelehnt an die ,neue‘ deutsche Sprachgeschichtsforschung und gestützt auf eigene Forschungsergebnisse im Rahmen einer, Sprachgeschichte von unten‘ wird im vorliegenden Beitrag die gängige Darstellung von einem Abschluss der Standardisierung des Deutschen im 19. Jahrhundert in Frage gestellt. In einer Verengung der Begriffe von , Standardsprache‘ und , Schriftkultur‘ - so die Ausgangsthese - wurde bisher die elitär-hochkulturelle und distanzsprachliche Schriftlichkeit einer kleinen, dominanten, aber nicht repräsentativen Minderheit der deutschen Sprachgemeinschaft in den Vordergrund gerückt. Damit ging eine letztlich teleologische Auffassung der sprachgeschichtlichen Entwicklung einher, die das Ende des ‚Weges‘, nämlich das ‚Erreichen‘ des Standards, und eine eher gewünschte als tatsächlich vorhandene Einheitlichkeit im Blick hatte. Diese verengten Begriffe lassen sich nicht mit weiter gefassten Vorstellungen von ‚Standardisierung‘ in Übereinstimmung bringen, die außerhalb des deutschen Forschungsdiskurses bestehen. Überdies hat diese Sichtweise in der Sprachhistoriographie und der Grammatikographie zu einer Vernachlässigung von (regionalen) alltagssprachlichen Gebrauchsnormen innerhalb der hochdeutschen Schriftsprache geführt, deren Existenz anhand zahlreicher grammatischer Einzelphänomene belegt werden kann. Im Interesse einer notwendigen Klärung dessen, was als ‚Standardsprache‘ zu gelten hat, sowie einer theoretisch adäquaten Darstellung der Grammatik der Gegenwartssprache wird für einen Perspektivenwechsel plädiert: Varianten und Tendenzen der gegenwärtigen deutschen Standardsprache lassen sich nur dann bruchlos und stimmig in die Entwicklungstendenzen der neueren Geschichte der deutschen Sprache einfügen und erklären, wenn man nicht auf der Ansicht ‚von oben‘ beharrt, sondern sie gerade für die jüngere Sprachgeschichte aus einer Perspektive ,von unten‘ betrachtet.
Das Motto der diesjährigen Jahrestagung lautet „Standardvariation - Wie viel Variation verträgt die deutsche Standardsprache?“ Gerade Entlehnungen aus anderen Sprachen werfen in diesem Zusammenhang zum Beispiel bezüglich ihrer Aussprache das Problem auf, welche Merkmale zugrunde gelegt werden sollen, die der abgebenden oder die der aufnehmenden Sprache, und wie der tatsächlich im täglichen Sprachgebrauch vorherrschenden und zum Teil erheblichen Variationsbreite Rechnung getragen werden kann bzw. soll. Anhand der in den letzten Jahrzehnten vermehrt im Deutschen verwendeten Anglizismen, also Entlehnungen aus dem angloamerikanischen Sprachraum. möchte ich im Folgenden einige Aspekte aufzeigen, die mit der lautlichen Integration von Anglizismen im Deutschen einhergehen. Zunächst wird die einschlägige Forschungsliteratur zum Thema kurz referiert, um dann die wichtigsten phonetischen und phonologischen Unterschiede zwischen dem Englischen und dem Deutschen zu beleuchten. Vor diesem Hintergrund soll dann der Frage nachgegangen werden, welche Rolle eine akzeptable oder „normgerechte“ Aussprache von Anglizismen im öffentlichen Sprachgebrauch spielt. Da Wörterbücher auch hier einen nicht unerheblichen normierenden Einfluss ausüben, soll abschließend die Frage beantwortet werden, ob es für die Ausspracheangaben von Anglizismen in deutschen Wörterbüchern einen Standard oder eher eine Variationsbreite zu dokumentieren gilt.
Die neue politische, wirtschaftliche u. a. Situation in Ost-Mittel-Europa, so auch in Ungarn, verlangt ein höheres Niveau der Fremdsprachenkenntnis, die je nach Bildung, sozialer Stellung differenziert erscheint. In Ungarn, wo die deutsche Sprache und Kultur traditionell immer schon eine besondere Stellung eingenommen hat, ist Deutsch in der Sprachenwahl im schulischen Unterricht immer noch auf Platz zwei. Dies wird wohl auch durch die Nachbarschaft mit Österreich, einem deutschsprachigen Land, und die intensiven wirtschaftlichen und kulturellen Beziehungen mit den deutschsprachigen Ländern begründet. Diesen neuen Anforderungen muss ein differenzierter, die Varietäten berücksichtigender DaF-Unterricht entsprechen.
Nach einem kurzen Überblick über die Varietätenvielfalt und die Verflechtung der Varietäten des Deutschen wird der Grad der Abweichung der Varietät von der Standardvarietät auf der Varietätenskala dargestellt. Im Weiteren werden die sprachlichen und linguistischen Ebenen im Hinblick auf die Varietäten unter die Lupe genommen.
Es wird untersucht, welche Varietät und in welcher Tiefe je nach Alter, Funktion u. a. im Rahmen des ungarischen Schulsystems unterrichtet werden soll. Der Autor des Beitrags plädiert für die immer breitere Anwendung des zweisprachigen Sach- und Fachunterrichts, der im Idealfall letzten Endes in eine angelernte Zweisprachigkeit münden kann bzw. sollte.
Da das britische Englisch im Wesentlichen nur Gebrauchsnormen kennt, und keine Sollnormen, bedeutet Standardvariation im Deutschen für Englischsprachige kein grundsätzliches Hindernis beim Erlernen der Sprache. Umgekehrt werden deutschsprachige Lerner des Englischen immer wieder durch das Fehlen von Sollnormen im Englischen irritiert.
Neuerdings entstehen aber Schwierigkeiten auf beiden Seiten durch Änderungen in der Lexik des Deutschen, die als Lockerungen der Norm aufgefasst werden könnten. Es handelt sich hier um die Verwendung von Anglizismen in deutschen Texten. Vermutlich, weil diese oft als nicht normgerecht betrachtet werden, werden sie nur zögernd in Nachschlagewerke aufgenommen, was Lernern der Sprache Schwierigkeiten bereitet. Da es sich hier angeblich um „englische Wörter“ handelt, könnte der Eindruck entstehen, sie seien für Englischsprachige unproblematisch. Die deutschen Anglizismen sind aber keine „englischen Wörter“, sie weichen im Gebrauch und in der Bedeutung oft erheblich von ihren englischen Vorbildern ab.
Auf der anderen Seite neigen deutschsprachige Lerner des Englischen oft dazu, vermutlich irregeführt durch die übliche Bezeichnung „englische Wörter“, deutsche Anglizismen nach deutschen Gebrauchs- und Bedeutungsmustern in ihren englischen Äußerungen zu verwenden, was unter Umständen zu erheblichen Missverständnissen führen kann. Es könnte sogar argumentiert werden, es entstehe durch diese und andere Prozesse eine neue Standardvariante des Englischen, ein „deutsches Englisch“.
In diesem Referat werde ich empfehlen, auf die irreführende Bezeichnung „englische Wörter“ für deutsche Anglizismen zu verzichten. Ich werde auch dafür plädieren, die Standardvariation so früh wie möglich im Sprachunterricht zu berücksichtigen, da sie für das Verständnis sowohl gesprochener als auch geschriebener Sprache von großer Bedeutung sein kann.
Zunächst wird die verbreitete Auffassung von der regionalen Einheitlichkeit des Standarddeutschen, oder auch von Standardsprachen generell, problematisiert. Stattdessen wird die nationale und regionale Variation auch des Standarddeutschen verdeutlicht und werden die zu ihrer Beschreibung notwendigen Termini und Begriffe eingeführt. Angesichts der Variabilität des Standards stellt sich besonders dringlich die Frage, welche Sprachformen denn standardsprachlich sind und welche nicht. Hinter dieser auf Definition und Beschreibung abhebenden Frage erhebt sich die weitere, auf Erklärung abzielende, wer denn festlegt, welche Sprachformen standardsprachlich sind. Der Beitrag bemüht sich vor allem um eine Antwort auf diese letztgenannte Frage. Hierzu werden zunächst einmal vier für die Festlegung sprachlicher Standards maßgebliche soziale Kräfte identifiziert: Die Sprachkodifizierer (die den Sprachkodex erstellen), die Modellsprecher und -schreiber (an deren Texten sich die Kodifizierer orientieren), die Sprachexperten (die auf die Kodifizierer kritisch einwirken) und die Sprachnormautoritäten (welche die standardsprachlichen Normen durchsetzen). Das Zusammenspiel dieser maßgeblichen gesellschaftlichen Kräfte wird eingehend dargestellt und an Beispielen verdeutlicht. Abschließend werden die für die Einführung und den Wandel standardsprachlicher Normen ebenfalls wesentlichen Begriffe der ,Existenz‘, ,Gültigkeit (Validität)“ und ,Legitimität von Normen‘ expliziert.
Neue Kommunikationstechnologien haben Auswirkungen auf lokale Sprach- und Kommunikationsgemeinschaften, aber auch globalisierte Kommunikationszusammenhänge. Die digitale Revolution ist in vollem Gange und noch längst nicht abgeschlossen und sie ist nicht die erste Revolution im Hinblick auf mediale Kommunikationstechnologien.
Vor dem Hintergrund der klassischen Medienrevolutionen sind das Internet und das Handy keine ‚neue' Medien, sondern Technologien, in der ‚alte' Medien integriert sind. So wird zu Recht das Internet als ‚Multimedium' oder ‚Hybridmedium' bezeichnet. Intermedialität und funktionale Abstimmung unterschiedlicher Einzelmedien bilden das Fundament der Hybridisierung. Dies findet seinen Niederschlag im Konzept von Hypermedia, in dem Bild, Ton und Schrift integral und durch Linkstrukturen vernetzt aufeinander bezogen sein können.
Hypermedia sind Hypertexte in Kombination mit Multimedia. Ein wesentlicher Aspekt von Hypermedia bildet die Hypertexttechnologie, die als Medium der nicht-linearen Organisation von Informationseinheiten ein starkes Potenzial zur Interaktivität und Interaktion aufweist, die partiell synchron erfolgt (Chat-Kommunikation) und die analoge Strukturen von Face-to-Face-Kommunikationen zeigt. Damit verbundene Rückkopplungseffekte von der gesprochenen Sprache auf die Schriftsprache sind die Phänomene, die in linguistischer Perspektive besonders gut untersucht und die Gegenstand breiter Diskussionen in der Öffentlichkeit sind, insofern sie als Sprach- und Kulturverfall wahrgenommen werden: Gegenüber hartnäckig festsitzenden Vorurteilen, die die Folie kulturpessimistischer und sprachpuristischer Haltungen bilden, geben allgemein linguistische und sprachsoziologische Untersuchungen zu durch die digitale Revolution ausgelösten sprachlichen Entwicklungen keine Hinweise auf einen durchgreifenden Sprachverfall.
Allerdings entstehen auf der Folie sprachlicher Variation funktionale Schriftvarianten, die sich in Konkurrenz zu Standardisierungs- und Normierungsprozessen ausbilden: medial und kommunikativ optimiert.
Beim Germanistikstudium in Barcelona leben drei Sprachen zusammen, die den akademischen Alltag bestimmen: Spanisch, Katalanisch und Deutsch. Also drei verschiedene Normsysteme, drei Sprachenstandards, mit ihrer zum Teil sehr komplexen Varianz.
Spanisch ist eine von alters her normierte Sprache, der Normierungsprozess des Katalanischen ist ein noch sehr lebendiger und diskutierter Prozess, ganz besonders was die Akzeptanz von Varietäten betrifft. Das Zusammenleben von Spanisch und Katalanisch erzeugt bei den Sprechern sowohl ein erhöhtes Bewusstsein der Arbitrarität der Norm wie auch Haltungen die von Kommunikationswillen und hoher Fehlertoleranz bis hin zu Diskussionen über Sprachverhalten gehen, und die Kompromisse im Sprachverhalten zum normalen Alltag gehören lassen.
Wie funktioniert in einem solchen Kontext das Erlernen der deutschen Sprache, wie wirkt sich die Schwächung der Norm gerade beim Lehren einer Sprache aus? Ist der varianzfreudigere Standard dafür tatsächlich ein Problem? Der Beitrag geht auf die unterschiedlichen Normierungstraditionen der Sprachen, spezifisch auf Spanisch und Katalanisch ein, auf die sprachliche Situation, die sich aus der Koexistenz der beiden Sprachen ergibt, und auf die Art, wie das Lehren von Deutsch und überhaupt das Germanistikstudium in Barcelona damit umgeht und darauf aufbaut.
Die zentrale Frage der Jahrestagung „Wie viel Variation verträgt die deutsche Standardsprache?“ wird anhand zweier enger gefasster Fragen behandelt. Die erste lautet: „Wo ist linguistisch die Grenze der Standardsprechsprache anzusetzen?“ Die zweite lautet: „Bis zu welchem Grad der Abweichung von der kodifizierten Norm beurteilen naive Hörer regionale Varianten noch als standardsprachlich?“
Die erste Frage wird im Rahmen der Theorie der Sprachdynamik expliziert und beantwortet. Konstitutiv für das interaktiv-kognitive System ‚Sprache‘ sind die Dimensionen ‚Zeitlichkeit‘ und ,Raum‘. Jede sprachliche Interaktion vollzieht sich in der Zeit, zeitlich determiniert sind die kognitiven Reflexe der sprachlichen Interaktionen und die interindividuelle Abstimmung des sprachlichen Wissens und der sprachlichen Konventionen. Die jeweilige Verfasstheit einer Einzelsprache und ihrer Standardvarietät ergibt sich aus dem Nebeneinander von areal determinierten Mesosynchronisierungen, in denen Individuen ihr sprachliches Wissen in Situationen personellen Kontaktes abstimmen, und von Makrosynchronisierungen, mit denen sich die Mitglieder einer Sprachgemeinschaft unabhängig vom personellen Kontakt an einer gemeinsamen Norm ausrichten. Die zunächst großlandschaftlichen Oralisierungsnormen (entstanden um 1700) der einen literalen Standardvarietät unterliegen seit 70 Jahren einem massiven Umwertungsprozess. In dem Maße, in dem die durch die mündlichen Massenmedien verbreiteten neuen nationalen Oralisierungsnormen des Deutschen kommunikative Präsenz erlangten, wurden die alten Prestigesprechlagen als regional begrenzt wahrgenommen und zunehmend in einem landschaftlich sehr differenziert verlaufenden Prozess abgewertet. In dem heutigen Kontinuum der verschiedenen an der literalen Norm ausgerichteten Sprechlagen kann unter Rückgriff auf den kognitiv fundierten Begriff der Vollvarietät eine klare Abgrenzung von standardsprachlichen und nichtstandardsprachlichen Sprechlagen vorgenommen werden.
Zur Beantwortung der zweiten Frage werden rezente empirische Studien vorgestellt, deren Datenbasis standardsprachlich intendierte Äußerungen ungeschulter Sprecher in authentischen Sprechsituationen sind. Die in den entsprechenden Sprachaufnahmen beobachteten Regionalismen wurden dabei 1. empirisch-linguistisch analysiert und 2. in Beurteilungstests durch naive Hörer auf ihre Übereinstimmung mit der Standardsprache hin bewertet. Das überraschende Resultat: Die Hörerbeurteilungen in verschiedenen Regionen des Deutschen stimmen sehr weitgehend mit der theoretisch hergeleiteten Abgrenzung überein.
Zum Abschluss des Beitrages wird dann eine Bestimmung der Standardsprache und ihrer Oralisierungsnormen vorgenommen werden, die einerseits der konstitutiven Zeitlichkeit und Räumlichkeit einer jeden Sprache gerecht wird und dennoch eine klare Unterscheidung der Standardvarietät von regionalsprachlichen Sprechlagen erlaubt.
Da eine Darstellung der prosodischen bzw. intonatorischen Variation innerhalb des Standarddeutschen zur Zeit (noch?) nicht möglich ist, möchte ich folgendes bescheidenere Ziel verfolgen: Ich möchte anhand des Berlinischen beispielhaft die Bereiche und Dimensionen aufzeigen, in denen Unterschiede einerseits zwischen Standard und Stadtsprache und andererseits auch innerhalb des Standard zwischen Sprechern aus unterschiedlichen Regionen vorhanden bzw. erwartbar sind. Dabei werde ich mich vor allem um die Variation der Intonation kümmern.
Zu diesem Zweck werde ich zeigen, in welchen Bereichen der intonatorischen Gestaltung von gesprochener Sprache in Gesprächen sich Besonderheiten berlinischer Sprecher finden, soweit wie möglich auch im Vergleich zum sog. Standarddeutschen. Darüber hinaus werde ich untersuchen, welche Unterschiede zwischen standardnahen und standardfernen Sprechern des Berlinischen bestehen.
Für diese Arbeit werde ich zurückgreifen auf Daten und Arbeiten aus dem DFG-Projekt ‚Untersuchungen zur Struktur und Funktion regionalspezifischer Intonationsverläufe im Deutschen‘, in dem die Beschreibung und der Vergleich von ausgewählten Stadtsprachen geleistet wird.
Numerusinkongruenzen bei Subjekt und Prädikat sind im Deutschen von pragmatischen und diskurssemantischen Faktoren motiviert. Das kann man u.a. dadurch zeigen, dass hier auch bestimmte Verbkategorien wie Wahrnehmungsverben und Modalisierungskontexte wirksam sind. Solche Fälle können zu den Inkongruenzerscheinungen gehören, welche von den normbezogenen Werken als falsch bezeichnet werden. Tatsächlich zeigen sich aber in diesen Erscheinungen sprachübergreifende Sprechstrategien mit dem Anspruch auf universalgrammatische Geltung. Unter dem Gesichtspunkt, dass hier eigentlich Themakongruenz vorliegt und die Termqualität im Subjektsbereich als entscheidender Faktor wirkt, sollte die Frage der sprachlichen Norm auf diesem Bereich neu überdacht werden.
Die Beiträge des Bandes konzentrieren sich auf die Fragen: Was umfasst der Begriff 'Standardsprache', wie hat sich die deutsche Standardsprache seit dem 19. Jh. entwickelt, wie ist ihr gegenwärtiger Zustand sprachwissenschaftlich angemessen zu beschreiben und welche längerfristigen Entwicklungstendenzen lassen sich erkennen? Die Antworten reflektieren auch Notwendigkeit und Grenzen von Normativität.
Was mir wichtig ist
(2005)
Changes of consciousness establish a status quo of consciousness. But which consciousness, that is, which definition (concept) of water accompanies everyday »unconscious« thought, communication, and behavior? Which, more or less, conscious concept of water shapes public discourse in the media and forms a starting point for political action? It is shown that the aspects of drinking, washing, and landscape constitute the core and that the aspect of costs is linked to utilization: however, the origins of the costs (purification, availability) are not considered. Furthermore, the social perspective (especially regarding the last fifty years in the FRG) is actually very one-sided and partially blind. Therefore, precisely this status quo must be acknowledged and considered if political measures are to be taken for the protection of water.
Person
(2005)
The naturalness of synthetic speech depends strongly on the prediction of appropriate prosody. For the present study the original annotation of the German speech database “Kiel Corpus of Read Speech” was extended automatically with syntactic features, word frequency, and syllable boundaries. Several classification and regression trees for predicting symbolic prosody features, postlexical phonological processes, duration, and F0 were trained on this database. The perceptual evaluation showed that the overall perceptual quality of the German text-to-speech system MARY can be significantly improved by training all models that contribute to prosody prediction on the same database. Furthermore, it showed that the error introduced by symbolic prosody prediction perceptually equals the error produced by a direct method that does not exploit any symbolic prosody features.
This paper is concerned with a novel methodology for generating phonetic questions used in tree-based state tying for speech recognition. In order to implement a speech recognition system, language-dependent knowledge which goes beyond annotated material is usually required. The approach presented here generates phonetic questions for decision trees are based on a feature table that summarizes the articulatory characteristics of each sound. On the one hand, this method allows better language-specific triphone models to be defined given only a feature-table as linguistic input. On the other hand, the feature-table approach facilitates efficient definition of triphone models for other languages since again only a feature table for this language is required. The approach is exemplified with speech recognition systems for English and Thai.
elexiko - Das Projekt
(2005)
Das Bedeutungsspektrum
(2005)
Besonderheiten des Gebrauchs
(2005)
In this paper, I argue against the analyses of the there-construction by Moro (1997) and Hoekstra & Mulder (1990) and for an analysis in the frame of Williams (1994), Hazout (2004) from two angles. First of all, Moro and Hoekstra & Mulder do not correctly predict the behaviour of the there-construction under wh-movement; second, from a semantic point of view, the predicate in the small clause structure is the postverbal DP and not there. Alternatively, I follow the proposal by Williams (1994) in which there is the subject of predication and I will point out a direction to analyse the problematic wh-movement data within this framework.
Zur Semantik kausaler Satzverbindungen: Integration, Fokussierung, Definitheit und modale Umgebung
(2005)
HMMs are the dominating technique used in speech recognition today since they perform well in overall phone recognition. In this paper, we show the comparison of HMM methods and machine learning techniques, such as neural networks, decision trees and ensemble classifiers with boosting and bagging in the task of articulatory-acoustic feature classification. The experimental results show that HMM methods work well for the classification of such features as vocalic. However, decision tree and bagging outperform HMMs for the fricative classification task since the data skewness is much higher than for the feature vocalic classification task. This demonstrates that HMMs do not perform as well as decision trees and bagging in highly skewed data settings.
This paper provides a lexicalist formal description of preposition-pronoun contraction (PPC) in Polish, using the theoretical framework of HPSG. Considering the behaviour of PPC with respect to the prosodic, categorial, syntactic and semantic properties, the assumption can be made that each PPC is a morphological unit with prepositional status. The crucial difference between a PPC and a typical preposition consists, besides the phonological form, in the valence properties. While a typical preposition realizes its complement externally via general constraints on phrase structure, the realization of a PPC argument is effected internally by virtue of its lexical entry. Here, we will provide the appropriate implicational lexical constraints that license both typical Ps and PPCs.
This paper provides a treatment of Polish Plural Comitative Constructions in the paradigm of HPSG in the tradition of Pollard and Sag (1994). Plural Comitative Constructions (PCCs) have previously been treated in terms of coordination, complementation and adjunction. The objective of this paper is to show that PCCs are neither instances of typical coordinate structures nor of typical complement or adjunct structures. It thus appears difficult to properly describe them by means of the standard principles of syntax and semantics. The analysis proposed in this paper accounts for the syntactic and semantic properties of PCCs in Polish by assuming an adjunction-based syntactic structure for PCCs, and by treating the indexical information provided by PCCs not as subject to any inheritance or composition, but as a result of applying a set of principles on number, gender and person resolution that also hold for ordinary coordinate structures.
Was haben Sapir-Whorf, feministische Linguistik und bay(e)risch vs. bairisch miteinander zu tun?
(2005)
In diesem Beitrag soll gezeigt werden, was der kleine orthographische, aber große semantische Unterschied zwischen bay(e)risch ,Bayern bzw. das Gebiet Bayerns betreffend’ und bairisch ,die bairischen Dialekte betreffend’ mit den Aussagen der Sapir-Whorf-Hypothese zu tun hat und welche praktischen Konsequenzen sich daraus ergeben. Als Tertium comparationis wird dabei auf die feministische Linguistik zurückgegriffen und auf deren Annahme, dass die gesellschaftliche Benachteiligung der Frauen sich auch in der Sprache ausdrücke, sich darin festige und durch sprachliche Änderungen diese Benachteiligung auch wieder abgebaut werden könne.
Neologismen im GWDS
(2005)
Qualitative Methoden
(2005)
Die deutsche Standardsprache hat sich durchgesetzt. Sie ist weithin zur Sprache eines öffentlichen und gehobenen Alltags geworden. Dadurch erweitern sich die Anforderungen, die an eine so verwendete Sprachform gestellt werden. Im Gefolge dessen wird eine Art von Variation sichtbar, die dazu zwingt, über die normative Geltung der Konventionen, denen dabei gefolgt wird, nachzudenken und möglichst Übereinkunft herzustellen. In dieser Phase der Verbreiterung der Basis für standardsprachliches Interagieren stehen dabei nicht nur grammatische und ähnliche sprachliche Regelmäßigkeiten zur gesellschaftlichen Diskussion, sondern nicht zuletzt Textkonventionen, die unser situativ und textsortenspezifisch angemessenes Agieren leiten. Von deren Wandel ist im zweiten Teil des Beitrags exemplarisch die Rede.
Die Beitragenden des Bandes untersuchen, wie sich unter bestimmten gesellschaftlichen Bedingungen in vorwiegend asymmetrischen Sprachkontaktsituationen unterschiedliche mischsprachliche Verhältnisse wie Code-Switching, Code-Mixing und Code-Oszillationen herausbilden und in situierter Kommunikation, in literarischen Verarbeitungen und in Zeugnissen metasprachlicher Reflexion zeigen.
Allen Beiträgen liegt die gemeinsame Fragestellung nach den polykulturellen und/oder mehrsprachigen Selbstverständnissen zu Grunde. Diese manifestieren sich nicht nur in diskursiven Formen des Neben- und Miteinanders von Sprachen, sondern auch im hybriden Ineinander, mithin in eigenständigen Codes aus eigenem Recht heraus. Urbane, migrationsbedingte Sprachkonstellationen stehen im Vordergrund. Fallstudien exemplifizieren den deutsch-türkischen, deutsch-sizilianischen und deutsch-russischen, aber auch den deutsch-amerikanischen und englisch-französischen Sprachkontakt.
Die Autorinnen und Autoren des Bandes, die aus verschiedenen Ländern stammen und zum Teil über eigene Migrationserfahrungen verfügen, forschen seit Jahren auf dem Gebiet gesellschaftlicher Mehr- und Anderssprachigkeit. Methodologisch sind die meisten soziolinguistisch und gesprächsanalytisch ausgerichtet. So ist eine lebensnahe wissenschaftliche Reflexion aktueller Probleme von Vielsprachigkeit entstanden, die die Durchlässigkeit und interaktive Verfasstheit von sprachlichen und kulturellen Grenzen aufzeigt.
Typische Verwendungen
(2005)
Paradigmatische Relationen
(2005)
Diachrone Angaben
(2005)
This article provides an introduction to elexiko, the first German hypertext dictionary to be compiled on a corpus basis, which is currently being developed at the Institut für Deutsche Sprache Mannheim (IDS). First, a brief account of the design is given, followed by a demonstration of the methods and tools that are being employed to compile it. elexiko will provide not only an improved quantity of lexical information, but also a new quality of information which will be explained and illustrated at different levels of the microstructure of the dictionary. The description of word meaning and use in elexiko will be presented in detail, with a particular focus on the treatment of collocations, ambiguity, vagueness, and the presentation of senses. The development of a theoretically grounded procedure for lexicographic disambiguation is also described. This is then followed by a brief account of the treatment of grammatical details. Finally, issues of usability, the progress of the project and its future perspectives will be considered.
Contextual lexical relations, such as sense relations, have traditionally played an essential role in disambiguating word senses in lexicography, as they offer insights into the meaning and use of a word. However, the description of paradigmatic relations in particular is often restricted to a few types such as synonymy and antonymy. The limited description of various types of relations and the method of presenting these relations in existing German dictionaries are often problematic.
Elexiko, the first German hypertext dictionary compiled exclusively on the basis of an electronic corpus, offers a new way of presenting sense relations, using a variety of approaches to extract the necessary data. In this paper, I will show how elexiko presents a differentiated system of paradigmatic relations including synonymy, various subtypes of incompatibility (such as antonymy, complementarity, converseness, reversiveness, etc.), and vertical structures (such as hyponymy and meronymy). Primary attention, however, will focus on the question of how data for a paradigmatic description is retrieved from the corpus. Whereas a corpus-driven approach is mainly used for various semantic information and a corpus-based method plays an important part in obtaining data for the grammatical description in elexiko, it will be argued that both the corpus-driven and the corpus-based approach can be complementary methods in gaining insights into sense relations. I will demonstrate which results can be obtained by each approach, and advantages and disadvantages of both procedures will be explored in more detail.
As sense relations are context-dependent, it will also be demonstrated how a sense-bound presentation can be realised in an electronic reference work including a system of cross-referencing that illustrates lexical structures and the interrelatedness of words within the lexicon. Finally, I will show how accompanying examples from the corpus and additional lexicographic information help the user to understand contextual restrictions, so that s/he is able to use dictionary information more effectively.
Die elexiko-Stichwortliste
(2005)
Im vorliegenden Beitrag wird ein Vorschlag für die Wortartenunterscheidung bei den nominalen Funktionswörtern entwickelt, der auf dem Prinzip der ‘Unterspezifikation’ beruht. Das Merkmal, in dem nominale Funktionswörter unterspezifiziert sein können, ist ‘Selbstständigkeit’. So werden ‘nur-selbstständige nominale Funktionswörter’ (genuine Pronomina), von ‘nur-adnominalen’ (genuine Determinative) und ‘non-selbstständigen’ unterschieden. Den Non-Selbstständigen wie dt. dieser, die im Hinblick auf Selbstständigkeit unterspezifiziert sind, gilt das besondere Augenmerk. Im Anschluss an die englische Grammatikografie wird eine Verwendungstypik für diese Gruppe vorgestellt. Ihre Konkurrenz mit den Nur Selbstständigen wird sprachvergleichend, vor allem im Kontrast zwischen Englisch und Deutsch, heraus gearbeitet. Aus den Beobachtungen werden allgemeinere Folgerungen für das Phänomen der Indeterminiertheit oder Adaptivität von sprachlichen Ausdrücken, seine Beschreibung mithilfe von Unterspezifikation und seine unterschiedlichen Erscheinungsformen in der Flexionsmorphologie und im Lexikon von Funktions- und Inhaltswörtern gezogen. Hintergrund des Beitrags ist das IDS-Projekt „Grammatik des Deutschen im europäischen Vergleich“ (GDE).
Das Projekt „Grammatik des Deutschen im europäischen Vergleich“, das derzeit am Institut für Deutsche Sprache in Mannheim durchgeführt wird, soll durch die Berücksichtigung sprachtypologischer und im europäischen Rahmen kontrastiver Einsichten einen innovativen Zugang zur Grammatik des Deutschen erschließen. Die Berücksichtigung dieser grammatischen Außenperspektive soll auch als Grundlegung für anwendungsbezogene Grammatiken im Bereich Deutsch als Fremdsprache genutzt werden können. Die Erkenntnis der „arealen Typologie“, daß viele europäische Sprachen, unabhängig von ihrer genetischen Zugehörigkeit, grammatische Gemeinsamkeiten aufweisen, kann das europäische Sprachenbewußtsein und damit die kulturelle Identität fördern; in diesen kulturpolitischen Kontext ist auch das IDS-Projekt zu stellen. Die Konzeption des Projekts mit den zentralen Beschreibungskategorien funktionale Domäne’ und ,Varianzparameter’ wird vorgestellt und an Phänomenen aus dem gegenwärtigen Arbeitsschwerpunkt „Grammatik des Nominals“ erläutert.
Gegenstand des Workshop-Beitrags ist die Verknüpfung heterogener linguistischer Ressourcen. Eine bedeutende Teilmenge von Ressourcen in der gegenwärtigen linguistischen Forschung und Anwendung besteht zum einen aus XML-annotierten Textdokumenten und zum anderen aus externen Ressourcen wie Grammatiken, Lexika oder Ontologien. Es wird eine Architektur vorgestellt, die eine Integration heterogener Ressourcen erlaubt, wobei die Methoden zur Integration unabhängig von der jeweiligen Anwendung sind und somit verschiedene Verknüpfungen ermöglichen. Eine exemplarische Anwendung der Methodologie ist die Analyse anaphorischer Beziehungen.
Many XML-related activities (e.g. the creation of a new schema) already address issues with different languages, scripts, and cultures. Nevertheless, a need exists for additional mechanisms and guidelines for more effective internationalization (i18n) and localization (l10n) in XML-related contents and processes. The W3C Internationalization Tag Set Working Group (W3C ITS WG) addresses this need and works on data categories, representation mechanisms and guidelines related to i18n and l10n support in the XML realm. This paper describes initial findings from the (W3C ITS WG). Furthermore, the paper discusses how these findings relate to specific schema languages, and complementary technologies like namespace sectioning, schema annotation and the description of processing chains. The paper exemplifies why certain requirements only can be met by a combination of technologies, and discusses these technologies.
An approach to the unification of XML (Extensible Markup Language) documents with identical textual content and concurrent markup in the framework of XML-based multi-layer annotation is introduced. A Prolog program allows the possible relationships between element instances on two annotation layers that share PCDATA to be explored and also the computing of a target node hierarchy for a well-formed, merged XML document. Special attention is paid to identity conflicts between element instances, for which a default solution that takes into account metarelations that hold between element types on the different annotation layers is provided. In addition, rules can be specified by a user to prescribe how identity conflicts should be solved for certain element types.
In this paper, we present the Multiple Annotation approach, which solves two problems: the problem of annotating overlapping structures, and the problem that occurs when documents should be annotated according to different, possibly heterogeneous tag sets. This approach has many advantages: it is based on XML, the modeling of alternative annotations is possible, each level can be viewed separately, and new levels can be added at any time. The files can be regarded as an interrelated unit, with the text serving as the implicit link. Two representations of the information contained in the multiple files (one in Prolog and one in XML) are described. These representations serve as a base for several applications.
XML-based technologies offer powerful resources for open source applications in the field of e-learning. The paper describes a model of hypertext as interlinked structures that can be intertwined by cross-annotation linking. This infrastructure integrates multiple perspectives and allows creating a personal learning environment. We exemplify the approach in a case study: the Hamlet project. In the course of this project, several German translations of William Shakespeare’s Hamlet have been collected and annotated. Two different annotation layers are used to achieve a cross-linking reference between the various German translations. We will describe the theoretical background of cross-annotation linking and the actual technological implementation of the system. Additionally, we will use the personas method to gain insights into the potential benefit of the system as a personal learning environment.
Making CONCUR work
(2005)
The SGML feature CONCUR allowed for a document to be simultaneously marked up in multiple conflicting hierarchical tagsets but validated and interpreted in one tagset at a time. Alas, CONCUR was rarely implemented, and XML does not address the problem of conflicting hierarchies at all. The MuLaX document syntax is a non-XML syntax that enables multiply-encoded hierarchies by distinguishing different “layers” in the hierarchy by adding a layer ID as a prefix to the element names. The IDs tie all the elements in a single hierarchy together in an “annotation layer”. Extraction of a single annotation layer results in a well-formed XML document, and each annotation layer may be associated with an XML schema. The MuLaX processing model works on the nodes of one annotation layer at a time through Xpath-like navigation. CONCUR lives!
Gesprochene Sprache
(2005)
Der Umgang mit Gesprächskorpora am IDS Mannheim: Die Recherche in der COSMAS-II-Gesprächsdatenbank
(2005)
In diesem Papier wird kurz der Stand der lexikografischen Theorie und Praxis bezüglich des Themas „Illustrationen in der Lexikografie“ zusammengefasst, um daraus Vorschläge für den Umgang mit Illustrationen in elexiko abzuleiten. Dazu wird zunächst Grundsätzliches zum Thema referiert, um dann Arten von Illustrationen vorzustellen, wie sie in der lexikografischen Theorie unterschie-den werden. Anhand von Beispielen wird dabei die lexikografische Praxis aus dem Bereich der Printlexikografie illustriert. Die letzten beiden Abschnitte beschäftigen sich mit den Möglichkeiten der Illustrierung für elexiko, wobei unterschieden wird in die Illustrierung des Demonstrationswortschatzes und in weitere Perspektiven für elexiko.
Should events be conceived of as primitive or should they be decomposed into more basic elements with certain syntax? This talk presents new evidence for the latter view: If events are represented as contradictory propositional meanings representing their pre- and post states, a uniform analysis of certain eventive and certain too- comparative constructions is possible; this is wanted given striking parallels between the two types of structure. The analysis goes some way, among other, toward explaining ‘repetetive/restitutive’ asymmetries familiar from eventive constructions (von Stechow 1996) but similarly arising in too- comparative constructions.