Refine
Year of publication
- 2011 (178) (remove)
Document Type
- Part of a Book (94)
- Article (45)
- Book (20)
- Conference Proceeding (6)
- Other (6)
- Part of Periodical (5)
- Bachelor Thesis (1)
- Review (1)
Language
- German (178) (remove)
Keywords
- Deutsch (125)
- Korpus <Linguistik> (20)
- Grammatik (13)
- Wörterbuch (12)
- Interaktionsanalyse (11)
- Computerunterstützte Lexikographie (10)
- Konstruktionsgrammatik (10)
- Online-Wörterbuch (10)
- Sprachvariante (9)
- Internet (8)
Publicationstate
- Veröffentlichungsversion (79)
- Zweitveröffentlichung (17)
- Postprint (3)
- (Verlags)-Lektorat (1)
- Erstveröffentlichung (1)
Reviewstate
Publisher
- Institut für Deutsche Sprache (38)
- de Gruyter (28)
- Narr (27)
- Lang (8)
- Groos (3)
- Verlag für Gesprächsforschung (3)
- Winter (3)
- Carocci (2)
- Francke (2)
- Frank & Timme (2)
"Mit sofortiger Wirkung" : Deutsche Rücktrittserklärungen 2010 aus linguistischer Perspektive
(2011)
2010 war für die Bundesrepublik ein Jahr der Rücktritte aus zentralen Machtbereichen der Politik, Kirche und Verwaltung. Die Funktionsträger vermittelten den Eindruck „als sei ihnen die Gestaltung dieses Landes nicht mehr wichtig genug, um ihr Leben damit zu füllen“ (Bartsch 2010, 66). In diesem Aufsatz stehen nicht die Vorgeschichte, Gründe oder die Bewertung von Rücktritten im Vordergrund, sondern die linguistische Perspektive – d.h. die sprachliche Ausgestaltung sowie die Funktionen der Textsorte Rücktrittserklärung.
"Themengebundene Verwendung(en)" als neuer Angabetyp unter der Rubrik "Besonderheiten des Gebrauchs"
(2011)
Der Lehrer, der an der Tafel steht und rechnet, gilt als Inbegriff des Mathematikunterrichts. Der Topos kommt nicht von ungefähr: Das Lösen von Übungsaufgaben im fragend-entwickelnden Unterrichtsgespräch nimmt bei der Vermittlung von Mathematik zumindest in den oberen Schulstufen nach wie vor eine wichtige Stellung ein. Doch was macht eine Lehrperson genau, wenn sie gemeinsam mit den Lernenden eine Übungsaufgabe löst? Der vorliegende Beitrag gibt eine empirisch fundierte Antwort auf diese Frage. Er beruht auf audiovisuellen Aufnahmen, die in einer Mathematikstunde an einer Fachhochschule entstanden. Die Analyse zeichnet das konkrete Handeln eines Dozenten nach, der an der Tafel die Lösung einer Übungsaufgabe zu Ungleichungen erarbeitet. Der Dozent reagiert damit auf die Bemerkung einer Studentin, sie könne mit dem Thema ‘Ungleichungen’ „gar nichts anfangen“. Das Lösen der Aufgabe lässt sich also als Verfahren konzeptionalisieren, mit dem der Dozent eine konkrete Anforderung bearbeitet, die sich aus der Interaktion mit den Studierenden ergeben hat.
Aus den Argumentstrukturen von Verben lassen sich vielfach eigenständige Argumentstrukturmuster mit idiosynkratischen formalen oder inhaltlichen Eigenschaften abstrahieren. Der Artikel zeigt, dass sich Ähnlichkeiten zwischen solchen Mustern nicht, wie von Goldberg (1995) vorgeschlagen, über das Konzept polysemer Argumentstrukturkonstruktionen erfassen lassen, sondern adäquater über ein Netz von Familienähnlichkeiten modelliert werden können. Die einzelnen Argumentstrukturmuster zeigen dabei eine Vielzahl von idiosynkratischen lexikalischen Kookkurrenzen, die spezifisch für die je einzelnen Argumentstrukturmuster sind und in einer implikativen Beziehung zu diesen stehen. Überlegungen zur angemessenen sprachtheoretischen Modellierung der Daten zeigen dabei sowohl Schwächen valenzbasierter Theorien als auch Mängel konstruktionsbasierter Ansätze auf.
Ausdrucksalternativen bei Konnektoren – Varianten oder Fehler? Protokoll eines fiktiven Gesprächs
(2011)
Kombinationen aus Präposition und artikelloser Nominalprojektion, deren syntaktischer Kopf ein zählbares Substantiv im Singular ist, fristeten lange Zeit ein Schattendasein in der Grammatikschreibung. Sie wurden ignoriert oder als Ausnahmen beschrieben, obwohl sie offenkundig regelhaft gebildet werden. Im vorliegenden Aufsatz verwenden wir computerlinguistische Verfahren, insbesondere „Annotation Mining“ und logistische Regression, um die syntaktische Distribution dieser Kombinationen zu charakterisieren und anhand zweier Präpositionen (‚ohne‘ und ‚unter‘) detailliert die Realisationsbedingungen zu bestimmen.
Im vorliegenden Beitrag werden Ergebnisse aus zwei Benutzungsstudien präsentiert, die zum Wörterbuch elexiko im Januar bzw. März 2011 realisiert wurden. Wörterbuchbenutzungsforschung für ein neu konzipiertes, noch im Aufbau befindliches, umfangreiches Onlinewörterbuch zur deutschen Gegenwartssprache wie elexiko ist bislang nur in geringem Umfang durchgeführt worden.Dabei ist der Bedarf an Klärung der Benutzerbedürfnisse und -meinungen insgesamt groß. Solch eine Klärung kann einerseits als Bestätigung von Entscheidungen, die für Inhalt und Präsentation des Wörterbuchs getroffen wurden, dienen. Sie dient andererseits aber auch als Anregung für deren Verbesserung auf der Grundlage nicht vermeintlicher, sondern tatsächlicher Bedürfnisse und Meinungen zur Wörterbuchbenutzung.
Bericht über die 15. Arbeitstagung zur Gesprächsforschung vom 30. März - 1. April 2011 in Mannheim
(2011)
Dieser Beitrag thematisiert semantische Bedingungen des unpersönlichen Passivs im Deutschen und in anderen Sprachen. Traditionellerweise nimmt man an, dass nur atelische und agentivische Verben im unpersönlichen Passiv akzeptabel sind. Ich werde die empirischen Hypothesen der bisherigen Forschung auf der Grundlage von Akzeptabilitätsstudien und einer breiteren korpusbasierten Datenmenge revidieren. Die hier behandelten semantischen Aspekte wurden in einflussreichen Arbeiten als Evidenz für die Überlegenheit einer konstruktionsgrammatischen Herangehensweise gewertet. Ich werde diese Evidenz in Frage stellen und beschränkungsbasierte Alternativen präsentieren.
Das Kicktionary ist ein dreisprachiges (deutsch-englisch-französisches) elektronisches Wörterbuch der Fußballsprache. Es basiert auf einem Korpus von geschriebenen Fußballberichten und (in geringerem Umfang) gesprochenen Fußballkommentaren und nutzt die Ideen der Framesemantik (Fillmore 1982, Fillmore et al. 2003) sowie der lexikalischen Relationen (Fellbaum 1998) zur Strukturierung des Wortschatzes. Verschiedene Aspekte der Erstellung, Präsentation und Nutzung des Kicktionary sind in Schmidt (2008, 2009 und 2010) dargestellt. Im vorliegenden Beitrag konzentriere ich mich auf die Frage, welche Datenmodelle und welche Datenformate zur Modellierung des Wortschatzes im Kicktionary zum Einsatz kamen. Zu diesem Zweck möchte ich einleitend zunächst mein Verständnis dieser drei Begriffe – Datenmodell, Datenformat und Modellierung – näher erläutern.
Den Wald vor lauter Bäumen sehen - und andersherum: zum Verhältnis von 'Mustern' und 'Regeln'
(2011)
Die Konstruktionsgrammatik setzt dem Begriff der konstruktiven Regel den des komplexen Musters entgegen, das in syntaktischen Generalisierungsprozessen analogisch erweitert wird. Der vorliegende Beitrag präsentiert eine solche musterbasierte Analyse von deutschen Konstruktionen mit lokativem Subjekt (Wiesen und Wälder wuchern vor Blumen und Kräutern) als Extension einer Reihe verwandter Konstruktionen mit kausaler und intensivierender Funktion, aus denen die lokative Variante mutmaßlich hervorgegangen ist. Die Analyse argumentiert, dass der umgebenden ,Ökologie‘ der Zielkonstruktion im sprachlichen Wissen der Sprecher eine zentrale Rolle für die Erklärung der attestierten Varianten zukommt, die in regelbasierten Zugängen als unmotivierte ,Ausnahmen‘ von allgemeinen Linkingprinzipien gelten müssen.
Im vorliegenden Beitrag soll der Aufbau einer maßgeschneiderten XML-Modellierung für ein Wörterbuchnetz erläutert werden. Diese Schriftfassung beruht auf einem gleichlautenden Vortrag, der auf dem ersten Arbeitstreffen des DFG-Netzwerks "Internetlexikografie" in Mannheim im Mai 2011 gehalten wurde. Der Beitrag ist als Werkstattbericht zu verstehen, d. h. als praktisch orientierter Blick sowohl darauf, wie wir unsere Modellierung für OWID konzipiert haben, welche Konsequenzen dies für die lexikographische Arbeit sowie für die Recherchemöglichkeiten der Nutzer hat, als auch darauf, welche Vor- und Nachteile wir bei diesem Modellierungsansatz sehen. Der vorliegende Beitrag bietet damit keine umfassende theoretische Auseinandersetzung mit verschiedenen Möglichkeiten der Modellierung. Lediglich im folgenden Kapitel werden die Grundzüge des Modellierungsansatzes kurz erläutert und es wird auf entsprechende weiterführende projektbezogene Literatur verwiesen.
Der Definitionswortschatz im einsprachigen Lernerwörterbuch des Deutschen. Anspruch und Wirklichkeit
(2011)
Der vorliegende Band beschäftigt sich im theoretisch orientierten ersten Teil mit der Geschichte des Ansatzes, in Lernerwörterbüchern einen kontrollierten Definitionswortschatz zu verwenden. Zudem wird die kontroverse Diskussion um den kontrollierten Definitionswortschatz in der Metalexikografie wiedergegeben. Den Hauptteil der Arbeit bildet die korpusbasierte Analyse des Definitionswortschatzes des Langenscheidt Taschenwörterbuchs Deutsch als Fremdsprache und des Duden/Hueber Wörterbuchs Deutsch als Fremdsprache. Zum einen werden sowohl quantitative als auch qualitative Merkmale des verwendeten Definitionswortschatzes untersucht, zum anderen geht es um die Frage, inwieweit die beiden Wörterbücher ihren Eigenanspruch eines computerkontrollierten Definitionswortschatzes einhalten. Die Untersuchung schließt damit einerseits eine metalexikografische Forschungslücke, andererseits enthält sie Empfehlungen an die praktische Lexikografie.
Der Einsatz einer maßgeschneiderten, feingranularen XML-Modellierung im lexikografischen Prozess
(2011)
Ausdrücke wie Globalisierung und Wirtschaftskrise sind Teil unserer öffentlichen Alltagssprache. Sie stehen für politische und soziokulturell brisante Debatten und ihre semantische Analyse zeigt den engen Zusammenhang zwischen Sprache und Gesellschaft. Der alltägliche Gebrauch solcher Ausdrücke etabliert gemeingesellschaftliche Diskurse, die mit korpuslinguistischen Verfahren analysierbar sind. In diesem Beitrag wird der Diskurs der Finanz- und Wirtschaftskrise in der öffentlichen Sprache von Zeitungstexten betrachtet. Zentrales Diskursobjekt ist der lexikalische Ausdruck Wirtschaftskrise selbst. Die Ermittlung relevanter Kontextbeziehungen, wie sie in Kollokationen vorhanden sind, und regelhafter Verwendungsmuster spielt für seine Beschreibung die wichtigste Rolle, da diese Indikatoren zum einen typische Thematisierungen sind und zum anderen Lexikalisierungen mit Bewertungspotenzial darstellen. Abschließend erfolgt eine kurze kritische Betrachtung der Dokumentation diskurs-relevanter Ausdrücke in deutschen Wörterbüchern der Gegenwartssprache.
Wenn man einen Blick in die traditionellen Grammatiken wirft, so wird man feststellen, dass die Struktur der deutschen Sprache hier eher isoliert beschrieben wird, das heißt, dass sich die Beschreibung grammatischer Phänomene auf das Deutsche konzentriert. Hierbei handelt es sich sicherlich um fundierte Analysen der deutschen Sprachstruktur, die wichtige Einblicke und Erkenntnisse liefern. Allerdings hat diese einzelsprachlich orientierte Betrachtungsweise einen entscheidenden Nachteil – die Besonderheiten einer Sprache können so gar nicht erfasst werden, da sich die spezifischen Charakteristika natürlich erst im Vergleich mit anderen Sprachen zeigen. Mit anderen Worten: Wenn nur das Deutsche betrachtet wird, lassen sich gar keine Aussagen darüber treffen, was nun charakteristisch für diese Sprache ist. Ebenso wenig lassen sich Gemeinsamkeiten mit anderen Sprachen herausstellen. Phänomene, die nicht nur auf eine Sprache beschränkt sind, sind aber wiederum von Bedeutung für die linguistische Theoriebildung.
In diesem abschließenden Beitrag soll zunächst verdeutlicht werden, was die zurückliegenden Fallanalysen an allgemeinen Einsichten für didaktisches Handeln unter Bedingungen faktischer Interaktion eröffnet haben. Es geht also um Einsichten, die in ihrer Bedeutung über das einzelne analysierte Beispiel hinausgehen (Kap. 2). Darüber hinaus soll gezeigt werden, welche Konsequenzen sich auf der Grundlage dieser falltranszendierenden Einsichten für eine handlungsgegründete Konzeption von Didaktik ergeben (Kap. 3). Schließlich soll die Frage gestellt werden, welche Perspektiven sich für die Ausbildung von Referendarinnen/Referendaren und die Weiterbildung von Lehrern/Lehrerinnen auf der Grundlage der produzierten Ergebnisse eröffnen (Kap. 4). An einem konkreten Beispiel soll abschließend aufgezeigt werden, welche Möglichkeiten bestehen, die Analyseergebnisse für eine Sensibilisierung sowohl in der Ausbildung von Referendaren/ Referendarinnen als auch der Weiterbildung von Lehrerinnen/Lehrern für Mechanismen von Interaktion zu nutzen und für den Unterricht zur Verfügung zu stellen (Kap. 5).
Die Aufnahme deutscher Siedler und die Bildung von Sprachinseln in Russland seit Katharina II
(2011)
In dieser ersten Fallstudie geht es um die Rekonstruktion der Entwicklung eines „brisanten“ Themas im Englisch-Unterricht. Aus der Bearbeitung der aktuellen Aufgabe „Steckbriefe prominenter Personen verfassen, vorlesen und erraten“ entsteht in mehreren Etappen das Thema „nationale Identität“, an dem sich unterschiedliche Schüler und der Lehrer beteiligen. Wir beschreiben zunächst, aus welchem schulischen Zusammenhang der für die Analyse ausgesuchte Videoausschnitt stammt (Kap. 2). Dabei stellen wir auch kurz den Unterrichtszusammenhang dar, der dem analysierten Ausschnitt vorausgeht (Kap. 3). Dieser wiederum verdeutlicht, aus welchem konkreten Zusammenhang sich das „brisante Thema“ entwickelt und unter welchen Bedingungen dies geschieht. Danach rekonstruieren wir die schrittweise Entstehung dieses Themas (Kap. 4). Im Anschluss daran konzentrieren wir uns auf die interaktive Beteiligungsweise des Lehrers und fragen nach den konkreten Anforderungen, die sich für ihn aus der thematischen Entwicklung ergeben (Kap. 5) und nach den Verfahren, die er zur Bearbeitung dieser Anforderungen einsetzt (Kap. 6). Weiter verdeutlichen wir die mit den Verfahren verbundenen Implikationen in Begriffen von „Chancen und Risiken“ (Kap. 7) und beschreiben den Zusammenhang von unterrichts- und fachspezifischen Ressourcen der vom Lehrer eingesetzten interaktiven Verfahren (Kap. 8). Eine kurze Schlussbemerkung vervollständigt unsere Darstellung (Kap. 9).
In diesem Beitrag soll zunächst der Hintergrund des DWDS-Wörterbuchs dargestellt werden. Im zweiten Abschnitt erfolgt eine kurze Charakterisierung des im DWDS-Wörterbuch verwendeten Kollokationsbegriffs. Dessen Einbettung in die Wörterbuchstruktur des DWDSWörterbuchs wird im dritten Abschnitt beschrieben. Das eigentliche digitale Herzstück der Kollokationsbeschreibung im DWDS-Wörterbuch ist das DWDS-Wortprofil, eine auf syntaktischer Analyse und statistischer Auswertung basierende automatische Kollokationsextraktion, deren Grundlagen und Qualität in Abschnitt 4 dargestellt werden. In Abschnitt 5 soll anhand einiger Beispiele illustriert werden, wie die Arbeitsteilung der automatischen Kollokationen und der lexikographischen Intuition in der täglichen lexikographischen Arbeit aussieht. Schließlich geben wir im letzten Abschnitt einen Ausblick auf die künftige Arbeit.
In der letzten Zeit wurde aus verschiedenen linguistischen Teildisziplinen heraus versucht, die Anwendbarkeit der Construction Grammar in Bereichen wie beispielsweise der Gesprächsforschung zu überprüfen. Für die Gesprächsforschung bzw. Interaktionale Linguistik bietet die Construction Grammar einen viel versprechenden theoretischen Rahmen, da sich viele der Grundannahmen von Construction Grammar und Interaktionaler Linguistik/Gesprächsanalyse decken. Trotz dieser positiven Übereinstimmungen führt das zeichenbasierte Konzept der Konstruktionsgrammatik zu Problemen bei der Analyse gesprochener Sprache. Häufig können bestimmte Phrasen, Satzmuster oder Wörter nicht bestimmten Konstruktionen eindeutig zugeordnet werden, da zu ihrem Verständnis Kontextinformationen nötig sind oder da sie die Merkmale mehrerer Konstruktionen teilen. Anhand dreier problematischer Fälle aus dem gesprochenen Deutsch, bei denen das Konzept, Konstruktionen als Zeichen zu betrachten, zu Problemen führt, werden die Grenzen des konstruktionsgrammatischen Modells aufgezeigt. In einem zweiten Schritt wird als Lösungsvorschlag die Theorie der Granularität nach Bittner/Smith (2001a und b, 2003) vorgestellt, die dazu entwickelt wurde, „to map vague concepts onto crisp portions of reality“ (Bittner/Smith 2011a, S 1). Zuletzt wird eine granulare Re-Analyse der eingangs vorgestellten Problemfälle vorgenommen.
Die Kausalkonjunktionen denn, weil, da im Deutschen und perché, poiché, siccome im Italienischen
(2011)
Gegenstand des vorliegenden Aufsatzes sind die deutschen Kausalkonjunktionen denn, weil und da und ihre (partiellen) italienischen Äquivalente perché, poiché und siccome. Sie werden vergleichend in syntaktischer und semantischer Hinsicht untersucht, mit dem Ziel, Gemeinsamkeiten und Unterschiede zwischen ihnen aufzuweisen.
Die Ordnung des öffentlichen Diskurses der Wirtschaftskrise und die (Un-)Ordnung des Ausgeblendeten
(2011)
Die vorliegende Arbeit befasst sich mit der Frage, wie Sprachvariation in Gesprächen in sozialsymbolisierender Funktion eingesetzt wird. Sie entstand vor dem Hintergrund der ethnographisch-soziolinguistischen Stadtsprachenforschung im Rahmen des Projekts "Kommunikation in der Stadt" von Inken Keim und Werner Kallmeyer, das sich mit dem Kommunikationsverhalten von Zugehörigen unterschiedlicher sozialer Milieus der Mannheimer Bevölkerung beschäftigt und unter anderem die sozial bedeutsame Verwendung von Sprachvariation analysiert. Bei der hier betrachteten Sprachvariation handelt es sich um die Variation zwischen Standard und dem Saarlouiser Dialekt, der zu den moselfränkischen Dialekten zählt. Ziel dieser Arbeit ist es, festzustellen, ob und wie sprachliche Symbolisierungen mit Hilfe von Sprachvariation gebildet werden. Es wird untersucht, wie bestimmte soziale Kategorien in der Selbst- und Fremddarstellung der Sprecher im Erzählen oder im Gespräch durch Sprachvariation ausgedrückt werden können und wie diese bewertet werden.
Die Sprechmaschine Wolfgang von Kempelens stellt in ihrer Art als erste grundsätzlich funktionierende Apparatur zur Sprachsynthese einen ganz besonderen Meilenstein in der Geschichte der Linguistik dar. Zwar gerieten Kempelen und seine Sprachforschung niemals völlig in Vergessenheit, doch sind seine und die Forschungen seiner Zeitgenossen heute nur noch einem eher kleinen Kreis näher bekannt. Im Rahmen dieser vom Autor ursprünglich als Magisterarbeit verfassten Abhandlung sollen der historische Kontext und die herausragende Leistung Kempelens detailliert dargestellt und kommentiert werden.
DIL ist ein deutsch-italienisches Online-Fachwörterbuch der Linguistik. Es ist ein offenes Wörterbuch und mit diesem Beitrag wird für eine mögliche Zusammenarbeit, Kollaboration plädiert. DIL ist noch im Aufbau begriffen; zur Zeit ist nur die Sektion DaF komplett veröffentlicht, auch wenn andere Sektionen in Bearbeitung sind. Die Sektion LEX (Lexikographie), die zur Veröffentlichung ansteht, wird zusammen mit den wichtigsten Eigenschaften des Wörterbuches präsentiert.
Der vorliegende Aufsatz beschäftigt sich mit der Frage, wie Argumente während des Sprachverstehens erkannt werden, welche Eigenschaften einem Argument in Abwesenheit des Verbs zugeschrieben werden und welche Art von Vorhersagen mit der Argumentinterpretation verbunden sind. Ausgehend von der Annahme, dass beim Sprachverstehen in Echtzeit jedes Wort so maximal wie möglich interpretiert wird, werden wir argumentieren, dass die zugrunde liegenden, sprachübergreifend zu findenden Mechanismen durch die Interaktion von typologisch motivierten Prominenzskalen (z.B. Belebtheitshierarchie) beschrieben werden sollten. Diese gestatten nicht nur eine Erklärung bestehender Befunde, sondern besitzen das Potenzial, zentrale Aspekte der Sprachverstehensarchitektur modelltheoretisch abzuleiten. Experimentell liegt der Fokus des Aufsatzes auf der Erfassung elektrophysiologischer-neuronaler Aktivierungsmuster, da diese uns im Gegensatz zu Urteilen oder Korpusverteilungen einen unmittelbaren Einblick in die Verarbeitung im Echtzeitbereich gestatten.
Editorial
(2011)
Der vorliegende Beitrag stellt einen neuartigen Typ von mehrsprachiger elektronischer Ressource vor, bei dem verschiedene Lehnwörterbücher zu einem "umgekehrten Lehnwörterbuch" für eine bestimmte Gebersprache zusammengefasst werden. Ein solches Wörterbuch erlaubt es, die zu einem Etymon der Gebersprache gehörigen Lehnwörter in verschiedenen Nehmersprachen zu finden. Die Entwicklung einer solchen Webanwendung, insbesondere der zugrundeliegenden Datenbasis, ist mit zahlreichen konzeptionellen Problemen verbunden, die an der Schnittstelle zwischen lexikographischen und informatischen Themen liegen. Der Beitrag stellt diese Probleme vor dem Hintergrund wünschenswerter Funktionalitäten eines entsprechenden Internetportals dar und diskutiert einen möglichen Lösungsansatz: Die Artikel der Einzelwörterbücher werden als XML-Dokumente vorgehalten und dienen als Grundlage für die gewöhnliche Online-Ansicht dieser Wörterbücher; insbesondere für portalweite Abfragen werden aber grundlegende, standardisierte Informationen zu Lemmata und Etyma aller Portalwörterbücher samt deren Varianten und Wortbildungsprodukten (hier zusammenfassend als "Portalinstanzen" bezeichnet) sowie die verschiedenartigen Relationen zwischen diesen Portalinstanzen zusätzlich in relationalen Datenbanktabelle nabgelegt, die performante und beliebig komplex strukturierte Suchabfragen gestatten.
Einführung
(2011)
Einleitung
(2011)
Einleitung
(2011)
Der Artikel stellt die Projekte vor, die sich im Rahmen der Projektmesse zur „Elektronischen Lexikografie“ präsentiert haben. Diese Messe wurde begleitend zur 46. Jahrestagung des Instituts für Deutsche Sprache veranstaltet. Es wird in diesem Beitrag auf der Basis der Messepräsentationen dargelegt, inwiefern Entwicklungen der Korpuslexikografie und der Internetlexikografie die lexikografische Erfassung syntagmatischer Aspekte des deutschen Wortschatzes befördern und welche lexikografischen Internetressourcen dazu verfügbar sind.
Im vorliegenden Beitrag wird untersucht, welche lexikographischen Traditionen bei der Beschreibung von Bedeutung und Verwendung der Stichwörter in elexiko, einem Online-Wörterbuch zur deutschen Gegenwartssprache, fortgesetzt werden. Gezeigt wird anhand verschiedener Beispiele auch, wie dieses Internetwörterbuch über das tradierte Beschreibungsinventar in allgemeinsprachigen Bedeutungswörterbüchern hinausgeht. Hieraus leiten sich einige Fragen zur Zukunft des Typs .Bedeutungswörterbuch’ ab.
Dieser Band gewährt Einblick in den Entstehungsprozess von elexiko, einem im Aufbau befindlichen, korpusgestützten Online-Wörterbuch zur deutschen Gegenwartssprache. Das elexiko-Wörterbuch wird kontinuierlich erweitert (durch neue Stichworteinträge, durch die Freischaltung redaktionell bearbeiteter Wortartikel, durch die Integration automatisch ermittelter Informationen) und kann sich auch an der Benutzeroberfläche verändern (durch ein neues Design oder weitere Recherchemöglichkeiten). Solche Veränderungen, insbesondere aber auch die Erfahrungen, die bei der Erarbeitung der Wortartikel auf der Grundlage eines umfangreichen zeitungssprachlichen Korpus gemacht wurden und die ein Nachdenken über die ursprüngliche Konzeption bedingten, werden in den verschiedenen Beiträgen beschrieben. Alle zentralen Angabebereiche in den Wortartikeln (Bedeutungserläuterung, lexikalische Mitspieler, typische Verwendungsmuster, sinnverwandte Wörter, Besonderheiten des Gebrauchs und Grammatik) sind dabei berücksichtigt. Daneben werden kleinere lexikografische Angaben (z.B. Illustrationen, Ausspracheangaben) wie Fragen der Lemmatisierung (z.B. von Eigennamen) thematisiert. Schließlich werden die praktischen Erfahrungen mit der Datenmodellierung von elexiko (eine granulare, maßgeschneiderte XML-Struktur) reflektiert.
In den letzten Jahren entwickelten sich in vielen europäischen Großstädten unter Jugendlichen der 2. und 3. Migrantengeneration ethnolektale Formen des Deutschen. Sie sind charakteristisch für multilinguale Kontexte, in denen Sprecher unterschiedlicher Herkunftssprachen die regionale Umgangssprache des Landes, in dem sie leben, als lingua franca benutzen. Die neuen Formen haben große Überschneidungsbereiche mit den regionalen Varietäten, unterscheiden sich aber prosodisch- phonetisch, lexikalisch und morphosyntaktisch. Meist werden sie nur in bestimmten Kontexten verwendet, und die Sprecher wechseln virtuos zwischen regionalen Varietäten, Herkunftsvarietäten, sprachlichen Mischungen und ethnolektalen Formen.
Auf der Basis von drei ethnografischen Fallstudien in Mannheim wird gezeigt, wie die von den Migrantenjugendlichen entwickelten ethnolektalen Formen aussehen und zu welchen Zwecken die Jugendlichen sie verwenden. Die Jugendlichen haben ein weites Sprachrepertoire, verfugen über ethnolektale sowie standardnahe Formen und nutzen die Differenz zwischen beiden als kommunikative Ressource.
In diesem Beitrag befassen wir uns mit Aspekten der textuellen Verwendung von Possessiva im Deutschen, im Polnischen und im Ungarischen, die wir aus ihrem jeweiligen Formensystem und dessen Einbettung in das entsprechende Sprachsystem zu erklären suchen. Im Mittelpunkt des Beitrags stehen Possessiva mit anaphorischen Bezügen, die in deutsch-, polnisch- und ungarischsprachigen Texten die Possessiva der 3. Person betreffen. Wir widmen uns insbesondere folgenden drei Fragen: (i) Welcher Formunterscheidungen bedienen sich das Deutsche, das Polnische und das Ungarische beim Gebrauch der Possessiva, um die Identifikation des richtigen Bezugsausdrucks im Text zu ermöglichen? (ii) Wie lassen sich die jeweiligen Formentscheidungen in den betreffenden Kontexten erklären? (iii) Welche textuelle Wirkung wird durch die Wahl der jeweiligen Formen erreicht? Diese Fragen werden auf Grund der durchgeführten empirischen Paralleltextanalysen beantwortet.
Gesprächstraining
(2011)
Grammatik ohne Wörter?
(2011)
Am Beispiel des Deutschen wird gezeigt, dass verschiedene Strategien, die traditionelle Unterscheidung zwischen Wörtern und Syntagmen so zu modifizieren, dass sie die sehr differenzierten Daten vollständig, detailliert und widerspruchsfrei erfasst, zur inhaltlichen Entleerung dieser Unterscheidung führen und sie damit letztlich überflüssig machen. Das gilt sowohl für die populäre Aufspaltung von Wort vs. Syntagma in mehrere spezifischere Kategorienpaare (phonologisches Wort vs. phonologisches Syntagma, graphematisches Wort vs. graphematisches Syntagma usw.) als auch für ihre Umdeutung als Prototypen- oder Default-Kategorien. Allerdings kann man an der Unterscheidung zwischen Wörtern und Syntagmen festhalten, wenn man Einschränkungen der Vollständigkeit, Detailtreue oder Widerspruchsfreiheit in Kauf nimmt (wie in der linguistischen Praxis oft unumgänglich). Diese Überlegungen übertragen sich auf die auf Wort vs. Syntagma beruhenden Abgrenzungen linguistischer Teilgebiete, wie Syntax vs. Morphologie vs. Phraseologie, z.T. auch Grammatik vs. Lexikon.
Die Nutzung von Korpora hat die Grammatikforschung in den letzten Jahren wirkungsvoll vorangebracht und birgt immer noch großes Potenzial. Korpora vermitteln Einsichten in den Sprachgebrauch und ermöglichen es, auch Phänomenen auf die Spur zu kommen, die in der Grammatikografie bisher unbeachtet blieben. Die Beiträge zur Dritten Internationalen Konferenz Grammatik und Korpora (Mannheim 2009) thematisieren zum einen korpusgestützte grammatische Untersuchungen zu verschiedenen Sprachen, zum anderen übereinzelsprachlich ausgerichtete methodologisch-korpuslinguistische Ansätze. Einblicke in laufende Forschungsvorhaben runden den Band ab, der sowohl für Grammatiker mit Interesse an korpuslinguistischen Methoden als auch für Korpuslinguisten gedacht ist, die grammatiktheoretische Fragen nicht ignorieren wollen.
Der Konstruktionsbegriff hielt seinen Einzug in die Spracherwerbsforschung durch gebrauchsbasierte Lerntheorien, nach denen sprachliche Strukturen als Form-Funktionseinheiten aus dem Input abgeleitet werden, Sprache somit ein emergentes System ist (Tomasello 1998a und b; Behrens 2009a und b). Die Abstraktionseinheit für das Kind ist dabei die Äußerung in ihrer situativen Gebundenheit und ihrer Diskursfunktion, mithin die Konstruktion. Die Konstruktion wird gefasst als schematische Einheit mit mehr oder weniger offenen Slots: Teile der Konstruktion können lexikalisch fixiert oder aber produktiv und durch andere Ausdrücke ersetzbar sein. Der Kontrast zum Valenzbegriff bzw. dem der Argumentstruktur in seiner formaleren Definition liegt darin, dass die lexikalischen Eigenschaften der Wörter die Syntax nicht projizieren, sondern dass sowohl die Eigenschaften der Lemmas als auch die der Morphosyntax aus ihrem Vorkommen in konkreten Sätzen abgeleitet werden.
Empirisch konzentriert sich die Forschung auf die Ermittlung der Generalisierungsprozesse und auf deren Basis im Input, dem Sprachangebot. Erwerbsrelevant ist insbesondere der Input in seinen usualisierten Mustern in typischen Interaktionssituationen. Eher wird vor allem der Grad der Produktivität kindlicher Äußerungen analysiert. Bislang weniger untersucht, aber zunehmend im Fokus sind die Generalisierungsprozesse selbst und damit die generative Kraft des Konstruktionsbegriffs. Sobald Aspekte einer Konstruktion abstrahiert worden (= produktiv) sind, sollten sie auf neue Situationen übertragen werden können, und gilt es zu ermitteln, welche formalen, funktionalen und distributionellen Faktoren die Abstraktion sprachlichen Wissens fördern.
In dem Paradigma der gebrauchsbasierten Konstruktionsgrammatik wird die modulare Trennung zwischen Wörtern und Regeln aufgehoben. Somit kann innerhalb eines einheitlichen theoretischen Rahmens sowohl der Erwerb regelhafter als auch der stärker idiosynkratischer Strukturen erklärt werden.
Im Beitrag werden die Methodologie und die Ziele eines Projekts vorgestellt, das anstrebt, auf der Grundlage eines breiten Korpus von Texten aus allen Ländern und Regionen des zusammenhängenden deutschen Sprachgebiets die Variation in der Grammatik der geschriebenen deutschen Standardsprache zu erfassen, in einem Handbuch zu dokumentieren und damit eine Basis sowohl für Grammatiken als auch für weitergehende grammatische Untersuchungen zu schaffen. Nach einleitenden Bemerkungen zum Projekt und zu der Frage, in welcher Relation die geplante „Variantengrammatik des Standarddeutschen“ zum bereits erhältlichen „Variantenwörterbuch des Deutschen“ von Ammon et al. (2004) steht, folgt ein Forschungsüberblick zur grammatischen Variation in der Standardsprache. Dann werden Beispiele für grammatische Variabilität in verschiedenen Phänomenbereichen gegeben, und es wird anhand von zwei Fallbeispielen gezeigt, wie eine grammatische Beschreibung dieser Phänomene aussehen kann. Um Angaben zur arealen Distribution grammatischer Varianten machen zu können, wird den Analysen ein Korpus zugrunde gelegt, das sich auf den geschriebenen Standard beschränkt und darunter den Sprachgebrauch in der Presse fasst. Das Korpus, das als Basis für die Erstellung der geplanten Variantengrammatik dient, wird im Beitrag kurz vorgestellt, außerdem wird erläutert, welche Zielsetzungen mit einer solchen Grammatik verbunden sind.
Die beachtlichen Unterschiede zwischen den Dialekten des Deutschen stehen in Zusammenhang mit der territorialen Zersplitterung des deutschsprachigen Gebiets bis ins 19. Jahrhundert. In gewisser Weise spiegelt die dialektale Vielfalt das dezentrale, plurizentrische Herrschaftsmodell wider, das für das vornationale Heilige Römische Reich charakteristisch ist, bei dem sich kein dauerhaftes Machtzentrum mit sprachlicher Modellwirkung, wie bspw. Paris in Frankreich, herausbilden konnte.
Industrielle Prozessmodellierung als kommunikativer Prozess. Eine Typologie zentraler Probleme
(2011)
Der Beitrag diskutiert mündliche Interaktionen als Bestandteil industrieller Prozessmodellierungsmethoden unter dem Aspekt der dabei auftretenden kommunikativen Probleme und ihrer systematisierenden Darstellung. Die vorgestellte Typologie stützt sich auf die gesprächsanalytische Auswertung authentischer Daten einer Feldstudie, in der die Methodik der industriellen Prozessmodellierung in einem Unternehmen exemplarisch durchgeführt wurde. Die Methodik ist kommunikationsintensiv; sie enthält ein breites Spektrum mündlich, schriftlich und grafisch-symbolisch zu bearbeitender Aufgaben. Die ermittelten Probleme ihrer Bearbeitung lassen sich drei Bereichen zuordnen: vorhabensbezogene, arbeitsorganisationsbezogene und kommunikationsbezogene Probleme. Jeder Bereich umfasst Untertypen von Problemen, die aus dem Vollzug sprachlich-kommunikativer Handlungen resultieren und/oder sich sprachlich manifestieren. Zwei weitere Problembereiche – Transformations- und Multimodalitätsprobleme – werden genannt, aber nicht ausführlich behandelt. Die Ergebnisse der Studie werden für die Gestaltung von Kommunikationstrainings für Ingenieure genutzt.
This paper describes the effort of the Institut für Deutsche Sprache (IDS), the central research institution for the German language, connected with Information and Communications Technology (ICT). Use of ICT in a language research institute is twofold. On the one hand, ICT provides basic services for researches to accomplish their daily work. On the other hand, several national and international institutions have a strong interest in ICT. Therefore, ICT can also be seen as an amplifier for language research. The first part of this paper reports on the activates of the IDS in internal and external ICT-related projects and initiatives. The second part describes a general strategy towards an ICT strategy that could be useful both for the IDS and other national language institutes. We think such a general strategy is necessary to create a strong foundation not only for the ICT-related projects, but as a basis for a modem research institute.
In diesem Beitrag beschäftigen wir uns mit einem für den Unterricht in bestimmten Klassen durchaus bekannten Ereignis, nämlich dem Diktieren eines Textes. Dabei handelt es sich in der Regel um einen überschaubaren Ereigniszusammenhang: Ein Lehrer/eine Lehrerin liest einen Text langsam und stückweise vor, den die Schüler/innen aufschreiben. Wir werden diesen fraglichen Zusammenhang auf der Grundlage eines Videoausschnitts im Detail rekonstruieren, der Bestandteil eines Korpus von Aufzeichnungen in einer Waldorfschule ist. Es handelt sich bei dem Ausschnitt um den Epochenunterricht im Fach Chemie in einer achten Klasse. Wir werden zeigen, dass Diktieren im Kontext des Epochenunterrichts in der Waldorfschule aufgrund der Schultypenspezifik ein sehr komplexer und – anders als man dies zunächst vermuten würde – auch ein im engeren Sinne gemeinsam von der Lehrerin und den Schülern/Schülerinnen gestalteter und hervorgebrachter Ereigniszusammenhang ist. Den Schülerinnen/Schülern fällt beim Diktieren nämlich nicht nur die rezeptive Rolle zu, den von der Lehrerin vorgelesenen Text im Wortlaut aufzuschreiben. Sie tragen vielmehr auf sehr unterschiedliche Weise selbst aktiv zur Entwicklung und Ausgestaltung des Diktierens bei. In diesem interaktiven Zusammenspiel verändert sich die Grundstruktur „Lehrerin liest vor und Schüler/innen schreiben auf“ während des Diktates durch unterschiedliche Initiativen und Beiträge in vielfältiger Weise.
In der akademischen Diskussion zum Global English hat sich seit den 1980er Jahren ein Modell etabliert, das die Staaten, in denen Englisch gesprochen wird, idealtypisch in drei Kreise einteilt: Den Inneren Kreis, in dem Englisch wichtigste Sprache der Gesellschaft sowie L1 eines Großteils der Bevölkerung ist, den Äußeren Kreis, wo Englisch L2 und eine wichtige Sprache unter mehreren ist, sowie den Erweiterten oder Expandierenden Kreis, in dem Englisch als Fremdsprache und als Lingua Franca dominiert (Kachru, 1985). Dieser Beitrag zeigt anhand einer Bestandsaufnahme gesellschaftlicher Funktionen des Deutschen weltweit, dass dieses Modell auch auf das Deutsche übertragen werden kann. Allerdings unterscheidet sich das Deutsche in einigen erheblichen Aspekten vom Englischen: Zum Inneren Kreis gehören die Länder des deutschsprachigen Kerngebietes, zum Äußeren Kreis Länder, in denen Deutsch anerkannte Minderheitensprache ist, und zum Erweiterten (oder im Falle des Deutschen eher Bröckelnden) Kreis Länder, in denen es einzelne deutsche Sprachinseln oder eine deutschsprachige Diaspora gibt, wobei letztere auch erst in jüngster Zeit entstanden sein kann. Schließlich diskutiert der Aufsatz die Position des Baltikums in diesem Modell.
Es ist unbestritten, dass in allen natürlichen Sprachen nicht-kompositionelle Form-Bedeutungspaare verschiedener Komplexitäts- und Abstraktionsgrade existieren. Uneinigkeit besteht dagegen bezüglich der Frage, ob diese Form-Bedeutungspaare als Teil der Grammatik oder gar, wie in der Konstruktionsgrammatik postuliert, als grundsätzliches grammatisches Organisationsprinzip zu verstehen sind. In meinem Beitrag argumentiere ich für eine zentrale Rolle von Konstruktionen bei der Repräsentation sprachlichen Wissens: Da Menschen offensichtlich in der Lage sind, Konstruktionen (im oben genannten Sinne) zu erwerben und zu verarbeiten, muss ein entsprechendes, konstruktionsverarbeitendes System existieren. Dieses kann auch nicht-idiomatische (regelhafte) Strukturen verarbeiten. Umgekehrt kann aber ein regelverarbeitendes System nicht ohne Weiteres idiomatische Strukturen verarbeiten. Das Sparsamkeitsprinzip sagt uns, dass eine Grammatik mit nur einem System einer mit zwei Systemen vorzuziehen ist, wenn es keine zwingenden Gründe für die Annahme eines zweiten Systems gibt. Neben diesem logisch-ökonomischen Argument diskutiere ich abschließend die Möglichkeit, anhand der systematischen Verletzung scheinbar allgemeingültiger grammatischer Regeln die Plausibilität eines konstruktionsverarbeitenden Systems empirisch zu untermauern.
WordNet und FrameNet sind zwei umfangreiche lexikalische Ressourcen. Obwohl sie auf unterschiedlichen Theorien der lexikalischen Organisation basieren und die semantischen und syntaktischen Eigenschaften von Verben in beiden Ressourcen unterschiedlich dargestellt werden, wird mit beiden das Ziel verfolgt, die Regelmäßigkeit des Lexikons hervorzuheben. Seit Levin (1993) ist bekannt, dass die Selektion und Projektion von Argumenten eng mit den semantischen Eigenschaften von Verben zusammenhängt, und dass eine syntaktisch basierte Klassifikation des Verblexikons semantisch homogene Klassen ergibt. In diesem Beitrag werden die unterschiedlichen Ansätze von WordNet und FrameNet, das Verblexikon einheitlich zu klassifizieren, bewertet. Es wird ein laufender Versuch beschrieben, beide Ressourcen teilweise miteinander abzugleichen, indem ausgewählte Verben in einem großen Korpus zunächst manuell mit Bezug auf Einträge in WordNet und FrameNet annotiert werden. Anschließend werden verschiedene Ansätze zur automatischen Abgleichung, wie z.B. der des deutschen SALSA-Projekts, im Überblick dargestellt.
Deutsche oder englische Komposita wie Wasserschloss und handhag realisieren denselben Typ nominaler Bcgriffsbildung wie französisch chateau d'eau bzw. sac a main. Fs handelt sich um den funktionalen Typ der klassifikatorischen Modifikation, bei der ein nominaler Begriff (Schloss, Tasche) zu einem anderen Begriff (Wasser, Hand) in Beziehung gesetzt wird, in der Weise, dass ein Unterbegriff entsteht. Bei der funktionalen Analyse von Nominalphrasen, denen wir insgesamt die Funktion der Referenz auf konkrete oder abstrakte Gegenstände zuweisen, sind sprachübergreifend drei Teilaufgaben zu unterscheiden: die Nomination, die Determination und die Modifikation. Bei der Modifikation unterscheiden wir zwischen referentieller und begrifflicher Modifikation, letztere mit den Untertypen qualitativ und klassifikatorisch. Wir stellen insgesamt sechs Strukturtypen klassifikatorischer Modifikation vor. die zum Teil sprachübergreifend im Deutschen und Französischen (und weiteren europäischen Vergleichssprachen) genutzt werden. z.T. sprachspezifisch sind. Korrelationen zwischen Merkmalen der formalen Strukturtypen und den semantischen Eigenschaflen klassifikatorischer Modifikation, wie Nicht-Referentialität und Offenheit der Beziehung zwischen den Teilen des komplexen Begriffs, werden aufgezeigt und entsprechende Beschränkungen formuliert. So kann eine Markicrtheitsordnung der Strukturmuster angegeben werden: Unmarkierte Muster zeigen eine optimale Form-Funktions-Abstimmung und sind ausschließlich klassifikatorisch zu interpretieren: bei markierten Mustern wird formal o der semantisch von diesem Modell abgewichen.
Wenn man verschiedenartige Forschungsdaten über Metadaten inhaltlich beschreiben möchte, sind bibliografische Angaben allein nicht ausreichend. Vielmehr benötigt man zusätzliche Beschreibungsmittel, die der Natur und Komplexität gegebener Forschungsressourcen Rechnung tragen. Verschiedene Arten von Forschungsdaten bedürfen verschiedener Metadatenprofile, die über gemeinsame Komponenten definiert werden. Solche Forschungsdaten können gesammelt (z.B. über OAI-PMH-Harvesting) und mittels Facetten-basierter Suche über eine einheitliche Schnittstelle exploriert werden. Der beschriebene Anwendungskontext kann über sprachwissenschaftliche Daten hinaus verallgemeinert werden.
Das Werk versteht sich als eine Darstellung der wichtigsten syntaktischen, prosodischen, semantischen und pragmatischen Eigenschaften kausaler und konditionaler Konnektoren des gesprochenen Deutsch.
Die Untersuchung formuliert notwendige theoretische Grundlagen und zeigt die komplexe Interaktion mehrerer Faktoren, die sich auf die Interpretation einer Äußerung auswirken. Empirische Daten belegen, dass die kontextuelle und pragmatische Interpretation der untersuchten Relationen stark mit ihren syntaktischen und prosodischen Mustern korreliert. Jedoch handelt es sich nicht um eine Eins-zu-eins-Beziehung, denn gleiche Lesarten können von kausalen und konditionalen Relationen unterschiedlich markiert sein. Anhand der Ergebnisse wird das Verhältnis zwischen Konditionalität und Kausalität diskutiert.
Das Thema "Konnektoren" stößt in letzter Zeit sowohl in funktionalen als auch in formalen Arbeiten auf großes Interesse. Das Hauptanliegen des vorliegenden Bandes besteht aus dem Bemühen, einen weiten Blickwinkel anzubieten - sowohl hinsichtlich des theoretischen Rahmens, in dem die einzelnen Beiträge entstanden sind, als auch der Auswahl der Schwerpunkte: Er vereint breit angelegte theoretische Beiträge mit solchen, die sich vorwiegend mit einer semantischen Gruppe von Konnektoren auseinandersetzen. Den Schwerpunkt bilden hierbei Kausalkonnektoren. Darüber hinaus widmen sich einzelne Beiträge den Temporalkonnektoren und Adverbkonnektoren aus verschiedenen Perspektiven oder untersuchen Konnektoren sprachvergleichend in unterschiedlichen Kontexten.
Dabei zielen alle Beiträge trotz verschiedenartiger Theorieansätze darauf ab, verschiedene Klassen von Konnektoren in einer Weise zu analysieren, die in einer operationalisierbaren Methode etwa im DaF-Bereich angewendet werden.
Der kindliche Spracherwerb zeichnet sich sowohl durch seine Robustheit als auch durch eine spezifische Dynamik aus. Im Mittelpunkt des Beitrags stehen frühe Phasen des Erwerbs des Deutschen, in denen Konstruktionen unterschiedlicher Analysetiefe koexistieren, die im Laufe der Zeit immer wieder reanalysiert werden und schließlich auf einen einzigen abstrakten Bauplan hin konvergieren. Anhand von Daten aus diversen Fallstudien wird gezeigt, dass die Entwicklung der so genannten „Satzklammer“ des Deutschen als Konvergenzprozess verstanden werden kann, bei dem Lerner bewährte Teilsysteme, darunter anfängliche teilproduktive Formeln, dekonstruieren und auf abstrakterer Ebene rekonstruieren. Untersucht werden typische Übergangsphänomene, u.a. die Verwendung von Platzhaltern und Doppelbesetzungen, die diese Konstruktionsleistung erkennen lassen. Argumentiert wird, dass sich generative und dynamische, konstruktivistische Ansätze bei dem Bemühen um eine Erklärung dieses Erwerbsprozesses sinnvoll ergänzen.
Der Beitrag diskutiert vor dem Hintergrund allgemeiner Eigenschaften von gesprochener Sprache in Interaktionen, inwiefern die Konstruktionsgrammatik (KxG) aus Sicht der Interaktionalen Linguistik (IL) eine geeignete Basis für eine Grammatik der gesprochenen Sprache abgeben kann. Affinitäten und Perspektivenunterschiede zwischen KxG und IL sowie Potenziale und Grenzen ihrer Integration werden aufgezeigt. Am Beispiel einer Untersuchung von dann und also als Inferenzindikatoren wird das konstruktionsgrammatische Zeichenverständnis problematisiert, und es werden einige generelle Überlegungen zum Stellenwert von Grammatik im Kontext einer Theorie der verbalen Interaktion formuliert.
Vorgestellt werden Ziele und erste Ergebnisse des Projektes „Univerbierung“ am Institut für Deutsche Sprache. Das Projekt untersucht in verschiedenen Korpora, ob sich Prozesse der Univerbierung quantitativ belegen lassen. In Form von Univerbierungsprofilen sollen Univerbierungsverläufe dargestellt werden, d.h. die quantitativen Veränderungen, die zeitlich im Verhältnis der Getrennt- und Zusammenschreibungen eintreten (Kap. 1 und 2). Zugleich wird dabei methodologisch reflektiert, ob und inwieweit diese Korpora für solche Untersuchungen geeignet sind (Kap. 3). Exemplarisch werden einige Univerbierungsprofile vorgestellt (Kap. 4). Es handelt sich zum einen um Beispiele, bei denen sich die Normlage im Zuge der Rechtschreibreform nicht geändert hat, und zum anderen um solche, bei denen sie im Untersuchungszeitraum (1985-2008) verändert wurde. Die Untersuchungen zielen in der Perspektive darauf ab, Faktoren herauszuarbeiten, die Univerbierungsprozesse fördern bzw. hemmen, und aufzuklären, was Schreiber(-innen) als ein Wort gilt. Dies kann dazu beitragen, empirisch gestützt Komponenten des Wortkonzepts zu ermitteln (Kap. 5).
Kollokationen sind nach unserem Verständnis phraseologische Kombinationen aus zwei Lexemen, die in einer Sprachgemeinschaft konventionalisiert und deren Elemente semantisch ungleichgewichtig sind: Eines wird in derselben Weise verwendet wie in kompositionellen Wortkombinationen (Basis), das andere (Kollokator) erhält seine spezifische Bedeutung nur innerhalb der Kollokation.
Der Artikel diskutiert Möglichkeiten, Kollokationen in Texten zu identifizieren, die für die deutschen Nationalvarietäten aus Deutschland, Österreich, der Schweiz und Südtirol typisch sind. Der Schwerpunkt liegt dabei auf methodischen Fragen: Lassen sich mit einfachen, im Wesentlichen frequenzbasierten Werkzeugen Kollokationsunterschiede zwischen Österreich und Deutschland, der Schweiz und Deutschland, usw. aufweisen? Wie können die Spezifika der Kollokationswahl in den einzelnen Nationalvarietäten anhand von Korpora genauer dokumentiert werden? Sind Varietäten nur in Bezug auf die Kollokatorenwahl spezifisch, oder auch bezüglich morphosyntaktischer Präferenzen (z.B. Artikelgebrauch etc.)?
In diesem Beitrag geht es einerseits um eine Definition dessen, was korpusgestützte Lexikographie ist, und andererseits um eine Bestandsaufnahme der gegenwärtigen Praxis korpusgestützter Lexikographie. Dabei wird ein Schwerpunkt gelegt auf allgemeinsprachige Wörterbücher der Gegenwartssprache, deren Inhalt die Beschreibung von Bedeutung und Verwendung von Lexemen ist. Außerdem liegt die Einschätzung zugrunde, dass die Auswertung elektronischer Korpora die Wörterbucharbeit weitgehend positiv beeinflusst und verändert, vorausgesetzt, dass zugrunde gelegte Korpus wurde für das geplante Wörterbuch so gut wie möglich in Umfang und Zusammensetzung eingerichtet.
Von Grammatikern erwartet man Auskunft darüber, wie man zu reden und zu schreiben hat, eine Erwartung, die sich auf die Annahme stutzt, es stehe grundsätzlich immer schon fest, was in Sprachen wie etwa dem Deutschen als korrekt gelten kann. Tatsächlich kann jedoch nicht einmal davon ausgegangen werden, dass es so etwas wie das Deutsche als eindeutig bestimmten Gegenstand gibt. Alles, was als Deutsch zu fassen ist, sind ungezählte schriftliche und - sofern aufgezeichnet - mündliche Äußerungen. Bis vor wenigen Jahren waren diese Daten praktisch nur unzureichend zu nutzen, weshalb Grammatikern wenig anderes übrig blieb, als auf der schmalen Basis durch Introspektion gewonnener Daten Simulationen eines allgemeinen Sprachgebrauchs zu entwickeln. Mit der Verfügung über riesige Korpora maschinenlesbarer Texte haben sich die Voraussetzungen für die Untersuchung grammatischer Strukturen entscheidend verändert. Für die Grammatikforschung ergaben sich damit neue Perspektiven: zum einen ein radikaler Bruch mit der Tradition grammatischer Analysen, der weitgehend auf eine statistische Auswertung von Kookkurrenzen setzt, zum andern - weniger radikal, mehr traditionsverbunden - die Möglichkeit, konventionell kompetenzgestutzt erarbeitete Regelhypothesen anhand von Daten zu validieren, wie sie in sehr großen Textkorpora vorliegen und dem, was als Deutsch gelten kann, so nah kommen, wie dies irgend erreichbar ist, da sie durchweg in dem Bemühen zustande kamen, sich korrekt auszudrucken.
In der Arbeit wird die Analyse agonaler Zentren, die Felder (2012) vorgelegt hat, überprüft und um korpuslinguistische Herangehensweisen erweitert. Es wird überprüft, inwiefern bestimmte Wortarten in der Lage sind, die Analyse agonaler Zentren unabhängig vom Thema des Diskurses zu unterstützen. Dazu wird die computergestützte Korpusanalyse mit Hilfe von Konnektoren, Präpositionen, Partikeln, Substantiven, Adjektiven und Verben zunächst an einem bereits von Felder (2012) analysierten Korpus getestet und dann an einem weiteren, im Hinblick auf Thema und Textsorten völlig anderen Korpus überprüft. Insbesondere die Konnektoren stellen sich dabei als für die themenunabhängige, computergestützte Korpusanalyse als leistungsstark heraus.
Thema des Beitrags ist der Einsatz des Dudenkorpus in der Zusammenarbeit von Grammatikautoren und Dudenredaktion. Das annotierte Korpus und die Recherchemöglichkeiten, die es bietet, werden anhand aktueller Beispiele aus der Werkstatt einer Dudenredakteurin beschrieben. Einen Schwerpunkt bildet neben einfachen Vergleichen zwischen zwei oder drei morphologischen Varianten die komplexere Frage, ob temporales wo (der Zeitpunkt, wo; jetzt, wo) in der Dudengrammatik weiterhin als standardsprachlich bezeichnet werden soll. Zugleich wird versucht, die Attraktivität alternativer Konstruktionen (der Zeitpunkt, zu dem; jetzt, da) für Schreibende und Lesende zu messen. Diese ‘Alternativen’ verhalten sich jedoch keineswegs wie die eingangs erwähnten morphologischen Varianten zueinander – zu unterschiedlich sind semantische und syntaktische Leistungen, zu unterschiedlich die Restriktionen, die für ihre Verwendung im Satz gelten, zu unterschiedlich sind schließlich die untersuchten Texte, aus denen die mittels Hochrechnung ausgewerteten über 30 000 Sätze stammen. Zur Diskussion steht, welche Konsequenzen in einer Grammatik für ein breites Publikum zu ziehen sind. Diese Frage wird für die ‘Wortgrammatik’ anders beantwortet als für die ‘Regelgrammatik’.
Am 21. Juli 2011 fand am IDS eine Veranstaltung statt, die schon auf den ersten Blick vom Normalfall der im Hause stattfindenden Kolloquien abwich. In gewissem Maß gilt das schon für die hohe Zahl und die bunte Herkunft der Teilnehmerinnen und Teilnehmer. Dass diese dann aber mit einem musikalischen Vorspiel empfangen worden sind, spricht noch deutlicher davon, dass wir uns auf einer Veranstaltung befanden, die aus dem Rahmen der Kolloquien fällt, die sonst so dann und wann im Vortragssaal des IDS stattfinden. Es ist zweifellos ein exzeptioneller Anlass, dem diese Veranstaltung gewidmet war. Ihre Teilnehmer von innerhalb und außerhalb des Hauses waren zusammengekommen, um Gisela Zifonun, deren Zeit im aktiven Dienst des IDS mit dem Juli 2011 endete, in den Ruhestand zu verabschieden, ihr für ihre Arbeit und ihren Einsatz für das Haus zu danken und mit den Vorträgen, die ihr in diesem Rahmen präsentiert wurden, ihrer wissenschaftlichen Bedeutsamkeit Rechnung zu tragen. Es sind Stimmen aus verschiedenen Richtungen und aus unterschiedlichen Altersschichten unserer Wissenschaft, die hier zu Worte gekommen sind. Die angenehme Pflicht des Direktors des IDS war es, Frau Professor Zifonuns wissenschaftliche Entwicklung und ihre Leistungen nachzuzeichnen.
Kollokationen stellen einen noch zu wenig beachteten Teilbereich der Phraseologie dar. Sie sind bisher in den Wörterbüchern unzureichend erfasst und werden auch nicht systematisch gelehrt und gelernt. Es lassen sich zwei Typen von Kollokationen unterscheiden, die sowohl eine strukturelle als auch eine statistische Herleitung nutzen und beide für die unauffällige und kompetente Sprachproduktion im Alltag von Bedeutung sind. Angesichts der großen Zahl der auffindbaren Kollokationen ist zu differenzieren und zu gewichten: a) Es steht lexikografisch zunächst die Unterstützung bei der Sprachproduktion im Vordergrund sowie b) der Grundwortschatz bzw. Basiswortschatz und es sind c) die Unterscheidung von typischen Wortverbindungen und gebräuchlichen Wortverbindungen ('den Hund loslassen' vs. 'den Hund anleinen/an die Leine nehmen') vorzunehmen.
Schreiben und Redigieren stellen hohe kognitive Anforderungen an Autoren. Selbst publizierte Texte sind nie ganz fehlerfrei. Für viele Fehler kann man die Entstehung rekonstruieren: Funktionen in Textbearbeitungsprogrammen sind zeichenbasiert und berücksichtigen nicht die Elemente und Strukturen der jeweiligen verwendeten Sprache. Autoren müssen ihre Redigierabsichten in eine lange, komplexe Folge solcher zeichenbasierten Funktionen übersetzen.
Editoren für Programmierer hingegen bieten seit langem sprachspezifische Editierfunktionen, die auf den Elementen und Strukturen der verwendeten Programmiersprache operieren. Diese Funktionen tragen dazu bei, das Ändern von Programmcode zu erleichtern und Fehler zu vermeiden.
In dieser Arbeit übertragen wir das Prinzip solcher sprachspezifischen Funktionen in Programmiereditoren auf Funktionen für die Bearbeitung natürlichsprachlicher Texte. Wir entwickeln das Konzept der linguistisch unterstützten Redigierfunktionen unter Berücksichtigung aktueller Erkenntnisse der Schreibforschung. Wir definieren Informations-, Bewegungs- und Modifikationsfunktionen, die auf Elementen und Strukturen natürlicher Sprache operieren. Solche Funktionen sollen Autoren entlasten und helfen, typische Fehler zu vermeiden.
Sprachspezifische Funktionen beruhen auf Methoden zur Erkennung und Bestimmung relevanter Elemente und Strukturen. Wir verwenden dazu computerlinguistische Ressourcen zur morphologischen Analyse und Generierung und zur automatischen Wortartenbestimmung. Die Evaluation verfügbarer Ressourcen ergibt, dass die Situation für die Behandlung des Deutschen nicht so vielversprechend ist, wie ursprünglich angenommen und üblicherweise in der Literatur dargestellt.
Unsere prototypische Implementierung linguistisch unterstützter Redigierfunktionen für die Bearbeitung deutscher Texte zeigt die Möglichkeiten und Grenzen des Konzepts unter Berücksichtigung der Leistungsfähigkeit heute verfügbarer computerlinguistischer Ressourcen und der Eigenschaften des Deutschen.