Refine
Year of publication
Document Type
- Book (138)
- Other (33)
- Part of a Book (7)
- Part of Periodical (6)
- Article (5)
- Doctoral Thesis (2)
- Periodical (2)
- Habilitation (1)
- Report (1)
- Review (1)
Language
- German (197) (remove)
Has Fulltext
- no (197) (remove)
Keywords
- Deutsch (91)
- Wörterbuch (22)
- Korpus <Linguistik> (19)
- Grammatik (18)
- Diskursanalyse (11)
- Konversationsanalyse (9)
- Fremdwort (8)
- Wortschatz (8)
- Semantik (7)
- COVID-19 (6)
Publicationstate
Reviewstate
Publisher
- Institut für Deutsche Sprache (22)
- de Gruyter (20)
- De Gruyter (14)
- Winter (9)
- Narr (8)
- Dudenverlag (7)
- Leibniz-Institut für Deutsche Sprache (IDS) (7)
- Leibniz-Institut für Deutsche Sprache (6)
- Stauffenburg (6)
- Hempen (5)
Die fast unüberschaubare Vielfalt koordinationssyntaktischer Phänomene ist eines der schwierigsten Probleme für eine kohärente Grammatiktheorie. Die vorliegende Untersuchung sieht Koordination nicht als grammatisches Phänomen per se, sondern als eine Technik, die es Sprecher und Hörer erlaubt, eine syntaktische Struktur in effizienter Weise ein zweites Mal zu verwenden. Statt koordinationssyntaktischer Strukturen werden deshalb Ersetzungs- und Linearisierungsprozesse als grundlegend angenommen. Das Buch zeigt, wie diese Idee für die Entwicklung einer einheitlichen und allgemeinen Koordinationstheorie genutzt werden kann, die neben allen Spielarten der Koordination auch andere Erscheinungsformen regulärer Ellipse erklären kann.
Die Untersuchungen erfolgen auf der Grundlage einer formalisierten Version der Dependenzgrammatik, lassen sich aber auch auf andere Grammatiktheorie übertragen, die eine getrennte Darstellung von syntaktischer Struktur und Wortstellung erlauben.
Praxis der Gesprächsanalyse
(1995)
Dependenz und Valenz
(1995)
Neologismen
(1998)
Handlungsanweisungen werden traditionell als sprachlich geäußerte Aktionspläne aufgefasst, denen ein Akteur strikt zu folgen hat. Diese Auffassung führt allerdings dann zu Problemen, wenn der Akteur teilweise autonom handeln kann. Wie soll eine Handlungsanweisung in diesem Fall das Verhalten des Akteurs lenken, ohne zugleich seine Autonomie in der Handlungsausführung einzuschränken?
Henning Lobin wählt in seinem Buch einen alternativen Ansatz: Handlungsanweisungen werden lediglich als Basis für einen Planungsprozess verstanden, zu dem auch andere Kompetenzen des Akteurs wie visuelle Wahrnehmung, Erfahrung und Wissen beitragen. Der Autor vergleicht die sprachlichen Instruktionsformen mit konzeptuellen Strukturen und leitet daraus bestimmte Regeln ab, die zu Aktivitätsschemata als Planungsressourcen führen können. Abschließend diskutiert der Autor die Nutzung von derartigen Planungsressourcen in konkreten Systemen.
Deutsche Grammatik. Thema in Variationen; Festschrift für Hans-Werner Eroms zum 60. Geburtstag
(1998)
Die Extensible Markup Language (XML), eine vereinfachte Version der Standard Generalized Markup Language (SGML), wurde für den Austausch strukturierter Daten im Internet entwickelt. Informationen können damit nicht nur in einem einheitlichen, medienunabhängigen Format strukturiert werden, sondern die Strukturierungsprinzipien selbst sind auch durch ein formales Regelwerk, eine Grammatik, beschreibbar. Erst so werden weitergehende Verarbeitungsprozesse wie geleitete Dateneingaben, Datenkonvertierung, flexibles Navigieren und Viewing der Daten möglich. Neben der elementaren Informationsmodellierung ist mit der Meta-Strukturierung durch sog. Architekturen ein neuer Aspekt hinzugekommen: die objektorientierte Schichtung von Struktur-Grammatiken. Das vorliegende Buch stellt beide Strukturierungstechniken - elementar und architektonisch - erstmalig in zusammenhängender Form dar. Es wendet sich an Leser, die sich detailliert und praxisorientiert mit den Möglichkeiten der SGML-basierten Informationsmodellierung auseinandersetzen wollen.
Dargestellt werden die Techniken und Modelle der Wortbildung, wobei sich das Spektrum von den im Rahmen derselben semantischen Klasse bleibenden Kompositionstechniken bis hin zur Konversion spannt. Der Leser erhält so grundlegende Informationen zu Strukturen und Bildungstypen der deutschen Wortbildung und lernt, den Gebrauch von Wortbildungstechniken in Texten selbständig zu beschreiben und zu beurteilen.
Aspekte der Verbalgrammatik
(2000)
Im Zentrum der Dissertation steht der Begriff Informationsmodellierung oder genauer der Begriff der "textuellen Informationsmodellierung", wobei auf einer bereits vorgeschlagenen Unterscheidung einer primären und einer sekundären Ebene der Informationsstrukturierung aufgebaut wird. Der Gegenstand der primären Ebene sind die textuellen Daten selbst sowie ihre Strukturierung, wohingegen die sekundäre Ebene beschreibt, wie die für die primären Ebenen verwendeten Regelwerke mit alternativen Regelwerken in Beziehung gesetzt werden können. Der Einteilung in eine primäre und eine sekundäre Informationsstrukturierung wird in der Dissertation das Konzept der multiplen Informationsstrukturierung nebengeordnet. Dieses Konzept ist so zu verstehen, dass die primäre Ebene bei Bedarf vervielfacht wird - jedoch bezieht sich jede dieser Ebenen auf dieselbe Datengrundlage. Hierbei ergeben sich auch Auswirkungen auf die sekundäre Informationsstrukturierung. Die Informationsmodellierung erfolgt mit Auszeichnungssprachen. Die Standard Generalized Markup Language (SGML) stellt hierfür einen Rahmen dar, jedoch wurde dieser Formalismus seit seiner 1986 erfolgten Standardisierung nicht nur weiterentwickelt, sondern es wurde mit der Extensible Markup Language (XML) im Jahr 1998 eine wesentlich einfachere Untermenge dieser Sprache definiert, die zudem das derzeitige Zentrum weiterer Entwicklungen auf dem Gebiet der Auszeichnungssprachen darstellt. Der entwickelte Ansatz zur Modellierung linguistischer Information basiert auf der Extensible Markup Language (XML), wobei die weitergehenden Möglichkeiten von SGML selbstverständlich ebenfalls dargestellt und diskutiert werden. Mittels XML können Informationen, die sich nicht in bestimmten Hierarchien (mittels mathematischer Bäume) strukturieren lassen, nicht in einer natürlichen Weise repräsentiert werden. Eine Lösung dieses Problems liegt in der Aufteilung der Strukturierung auf verschiedene Ebenen. Diese neue Lösung wird dargestellt, diskutiert und modelliert.
Die Arbeit behandelt die alltägliche Kreativität des Menschen, seine Fähigkeit, etwas metaphorisch als etwas anderes zu sehen und so komplexen Zusammenhängen der sozialen und kulturellen Welt einen Sinn zu geben. Sie trägt bei zur theoretischen Grundlegung für die kontrastive Analyse von Metaphernsystemen unterschiedlicher Sprachen im DFG-Projekt "Interkulturelle Analyse der Struktur kollektiver Vorstellungswelten", das von 2000 - 2002 an der Universität Bielefeld angesiedelt war. Theoretische Überlegungen zur Einbeziehung soziokultureller Aspekte in die Kognitive Metapherntheorie bilden Teil I der Arbeit. Teil II bilden Beispielanalysen der kulturellen Imagination von Raum (Europa) und Zeit (Ende des Kommunismus).
Dieses Lehrbuch führt in die theoretischen Grundlagen und praktischen Vorgehensweisen der Untersuchung von "narrativer Identität" anhand von autobiografischen Erzählinterviews ein. In den vergangenen Jahren ist "narrative Identität" zu einem Schlüsselkonzept der Identitätsforschung geworden: In der erzählerischenVergegenwärtigung des eigenen Lebens gewinnt das Subjekt ein biografisch begründetes Verhältnis zu sich selbst. Bislang fehlt es aber an einer gegenstandsangemessenen Methodik der Rekonstruktion narrativer Identitäten. Diese Lücke will der Band schließen. Zunächst werden neuere Erkenntnisse zum Erzählen und zur Konstitution von Identität im Erzählen dargestellt, vor allem unter Rückgriff auf die in Deutschland noch kaum rezipierten Theorien der narrativen und diskursiven Psychologie und der Konversations- und Diskursanalyse. Im Zentrum des Textes steht dann die didaktische Darstellung des Prozesses der Auswertung von narrativen Interviews mit vielenTranskriptbeispielen und die Diskussion einzelner Auswertungsstrategien und unterschiedlicher Ebenen der Rekonstruktion narrativer Identität.
Angewandte Linguistik
(2004)
Person
(2005)
In diesem Aufsatz geht es um die Datenbank ‚Mehrsprachigkeit’ und das System EXMARaLDA, die am SFB 538 ‚Mehrsprachigkeit’ der Universität Hamburg entwickelt werden. Da deren konzeptuelle und technische Details bereits an anderer Stelle ausführlich dargestellt worden sind (z.B. Schmidt 2004), soll der Schwerpunkt hier einerseits auf solchen Aspekten liegen, die – gemäß dem Thema des Workshops – mit allgemeineren Fragen zum Umgang mit computerverwertbaren, heterogenen linguistischen Datenbeständen zu tun haben. Andererseits soll versucht werden, aus den praktischen Erfahrungen der nunmehr vierjährigen Projektarbeit einige Erkenntnisse abzuleiten, die über den konkreten Projektzusammenhang hinaus für die weitere Arbeit auf diesem Gebiet interessant sein könnten.
Dieses Buch stellt die Gesprächsanalyse als Methodik zur Erforschung linguistischer Fragestellungen dar. Ihr Ziel ist die umfassende Analyse sprachlicher Phänomene in ihren formalen, funktionalen und kontextuellen Dimensionen. Grundlegende Eigenschaften der verbalen Interaktion werden zunächst auf ihre sprachtheoretischen Konsequenzen befragt. Sodann werden aus ihnen methodologische Prinzipien für die Erhebung und Analyse von Gesprächskorpora entwickelt. Das methodische Vorgehen wird an einer grammatischen und einer semantischen Fragestellung demonstriert. Untersucht werden freie Infinitivkonstruktionen im gesprochenen Deutsch und die Effekte von Kontrastierungsaktivitäten auf die Semantik von Ausdrücken im Gespräch. Theoretische Basis bildet hier die Integration der Gesprächsanalyse mit der construction grammar und der kognitiven Linguistik.
Dieses Handbuch bietet ausführliche und aktuelle Informationen über die gegenwärtige Situation der deutschsprachigen Minderheiten in den Ländern Mittel- und Osteuropas. Dabei werden in einer Zusammenschau sowohl die Sprachinselminderheiten als auch die Minderheiten an den Rändern des geschlossenen deutschen Sprachgebiets in den Blick genommen. In sieben Länderartikeln wird jeweils ein Überblick über Demographie, Geschichte sowie politische und rechtliche Lage der Minderheiten gegeben. Auf der Basis neuer, eigener Erhebungen wird für jedes Land eine Dokumentation der Kompetenz- und Sprachgebrauchssituation, eine Beschreibung und Analyse der soziolinguistischen Situation mit ihren je spezifischen Standard-Substandard-Verteilungen und eine Untersuchung der Spracheinstellungen der Sprecher geboten.
Mit der rasanten Entwicklung einer ganzen Familie von XML-basierten texttechnologischen Standards seit mehr als zehn Jahren ist die Hoffnung verbunden, dass dadurch die technische Handhabung von linguistischen Daten enorm erleichtert werde und computerlinguistische Projekte davon in der Praxis stark profitierten. Dies um so mehr, als auch die meisten etablierten Datenbankmanagementsysteme (DBMS), Open Source-Lösungen sowie fachspezifische und/oder akademische Datenbankprodukte das Potential strukturorientierter Auszeichnungssprachen erkannt und Schritt für Schritt integriert haben. XMLStandards für die Modellierung der Mikrostruktur informationeller Angebote sowie für die Kommunikation mit externen Applikationen, kombiniert mit den bekannten Vorzügen einer datenbankgetützten Verwaltung und Weiterverarbeitung - aus dieser Perspektive heraus betrachtet sollte sich die computerlinguistische Forschung zukünftig vermehrt um das „Was?“ und immer weniger um das oft leidige „Wie?“ kümmern dürfen. In der Tat gibt es für viele Probleme, die vor einigen Jahren noch umfangreiche Spezialentwicklungen erforderten, inzwischen sehr hilfreiche Standard-Werkzeuge. Doch gilt dies durchgängig? Und welche Überlegungen sind vor Implementierungsentscheidungen nach wie vor unerlässlich? Hier soll der interdisziplinäre GLDV-Workshop „Datenbanktechnologien für hypermediale linguistische Anwendungen“, der im Rahmen der Konvens 2008 in Berlin stattfindet, für mehr Klarheit sorgen, indem er Erfahrungen mit hypermedialen Datenbanken aus unterschiedlichen texttechnologischen Projekten zusammenbringt. Die Vorträge und Systemdemonstrationen des Workshops liegen den Artikeln dieses Heftes zugrunde. Die Beiträge zeigen deutlich, dass nach wie vor nicht alle Werkzeuge alle naheliegenden Erwartungen erfüllen und jedes Projekt eine sorgfältige Bestandsaufnahme der verfügbaren technischen Lösungen erfordert. Die Berichte kommen aus höchst unterschiedlichen Anwendungsbereichen. Das Spektrum umfasst beispielsweise sowohl die Verwaltung unterschiedlicher Annotationsformen für geschrieben - wie für gesprochensprachliche Korpora; weiterhin werden Schnittstellen zu Online-Wörtebüchern und Wikis sowie die Verwaltung fachterminologischer Ontologien thematisiert.
Der zweite Band der Reihe des Zentrums Sprachenvielfalt und Mehrsprachigkeit (ZSM) der Universität zu Köln enthält die Beiträge des Kolloquiums "Was ist linguistische Evidenz?". Die Beiträge stammen aus verschiedenen sprachwissenschaftlichen Disziplinen (Allgemeine Sprachwissenschaft, Anglistik, Sprachliche Informationsverarbeitung, Phonetik und Psycholinguistik) und widmen sich der Frage des Kolloquiums aus verschiedenen Perspektiven. Behandelt werden grundsätzliche Diskussionen über den Zusammenhang von Evidenz und sprachwissenschaftlichen Theorien, experimentelle Paradigmen (Priming-Experimente, Eye-Tracking-Experimente, Thermometerverfahren), computergesteuerte Korpusanalyse und Herausforderungen bei der Datengewinnung durch Feldforschung.
Präsentationen sind seit einigen Jahren auch in der Wissenschaft zu einer selbstverständlichen Kommunikationsform geworden: In der Verbindung von spontaner mündlicher Rede und visueller Projektion vor allem mittels PowerPoint wollen sie dem Bedürfnis nach schneller Informationsvermittlung entsprechen. Henning Lobin analysiert die linguistischen und rhetorischen Eigenschaften dieser neuen Kommunikationsform und berücksichtigt insbesondere die spezielle Art der Medienkombination.
Computerlinguistik (die Verarbeitung von Sprache mit dem Computer) und Texttechnologie (die automatisierte Handhabung elektronischer Texte) haben im letzten Jahrzehnt unterschiedliche Richtungen eingeschlagen. Beide Disziplinen speisen sich jedoch aus der gleichen Quelle: der formalen Grammatik. Deshalb ist eine gemeinsame Darstellung sinnvoll. Der Bezug auf die gemeinsamen Grundlagen und die kontrastierende Gegenüberstellung einzelner Teilbereiche fördern das Verständnis der jeweils anderen Disziplin und eröffnen interessante Querbezüge. Erstmals wird die Verknüpfung von Computerlinguistik und Texttechnologie mit dieser Einführung in knapper Form systematisch vollzogen, was sie insbesodere für Module im Bachelor-Studium geeignet macht.
Die Beiträge dieses Heftes gehen zurück auf einen Workshop des Arbeitskreises Hyper-media der Gesellschaft für Computerlinguistik und Sprachtechnologie (GSCL). Der Workshop fand im Rahmen der GSCL-Tagung 2009 in Potsdam statt und sollte den aktuellen Stand der Überlegungen zur Nutzbarkeit hypermedialer Systeme in den E-Humanities beleuchten.
Seit Jakob Nielsen Mitte der Neunzigerjahre die Kriterien für anwenderfreundliche Hypermediasysteme – Easy to learn, efficient to use, easy to remember, few errors, pleasant to use – dargelegt hat, beschäftigt sich die Usability-Forschung mit empirisch verifizierbaren Beurteilungskriterien und Erhebungsmethoden. Ziel ist die Steigerung der Nutzungsqualität hypermedialer Angebote, häufig mit den Schwerpunkten Internet/WWW bzw. Web 2.0 sowie in letzter Zeit verstärkt unter Berücksichtigung multimodaler Schnittstellen.
Die in diesem Heft zusammengestellten Beiträge beleuchten eine Reihe sehr unter-schiedlicher Aspekte von Nutzungsqualität an konkreten Anwendungen und aus theo-retischer Perspektive.
Das kontrastive Verbvalenzwörterbuch Spanisch - Deutsch (Diccionario contrastivo de valencias verbales español - alemán DCVVEA) liefert eine Beschreibung der kombinatorischen Möglichkeiten von über hundert hochfrequenten Verben des Spanischen und ihrer deutschen Äquivalente und macht präzise Angaben zu ihren semantischen und syntagmatischen Eigenschaften. Die Abgrenzung von Bedeutungsvarianten für die polysemen spanischen Lemmata geht zum einen von vorliegenden lexikographische Beschreibungen aus, die an die Zielsetzungen des DCVVEA angepasst wurden, und stützt sich zum anderen auf das empirische Datenmaterial, das die syntaktische Datenbank Base de datos sintácticos del español actual (BDS) zur Verfügung stellt. Die BDS wurde von WissenschaftlerInnen der USC unter der Leitung von Guillermo Rojo erstellt und enthält die Ergebnisse der syntaktischen Analyse von etwa 160.000 Sätzen aus einem Textkorpus der spanischen Gegenwartssprache, ARTHUS (Archivo de textos hispánicos de la Universidad de Santiago de Compostela).
Das DCVVEA ist ein syntagmatisches Wörterbuch mit alphabetischer Struktur und Spanisch als Metasprache. Die Einträge beziehen sich auf die einzelnen Bedeutungsvarianten eines spanischen Verbs und werden mit authentischen Beispielen belegt. Den spanischen Verbvarianten werden deutsche Verben zugeordnet, die zu ihnen in einer vollständigen oder partiellen Äquivalenzrelation stehen. Die Ermittlung dieser Äquivalente stützt sich auf die Übersetzung der Korpusbeispiele. Die Valenzbeschreibung der spanischen und der deutschen Verbvarianten enthält funktionale, kategoriale und semantische Angaben zu den einzelnen Verbaktanten und explizite Hinweise auf kontrastiv relevante Unterschiede zwischen den Einheiten beider Sprachen.
Gegenstand ist die Analyse der Sprachkontakte zwischen dem Deutschen, Tschechischen und Slowakischen anhand der Geschichte der deutschen Lehnwörter in diesen Slawinen vom Beginn ihrer einzelsprachlichen Entwicklung bis ins 20. Jahrhundert. Nach einer synthetisierenden Studie werden im chronologisch und nach regionalen Varietäten gegliederten Wörterbuch in mehr als 3 500 Wörterbuchartikeln über 15 000 einzelne Wortformen analysiert und ihre Erstbelege angeführt. Mit einer umfassenden Bibliographie zum deutsch-slawischen Sprachkontakt und ausführlichen Indices stellt das für die Neuauflage durchgehend überarbeitete und aktualisierte Werk eine nahezu unerschöpfliche Quelle für die Sprachkontaktforschung im Allgemeinen sowie für die Germanistik und Slawistik im Besonderen dar.
Schlafende Zuhörer, unlesbare Folien, monotones Genuschel? Wer im Studium nicht präsentieren kann, langweilt andere und schadet sich selbst.
Henning Lobin erklärt Schritt für Schritt, wie eine gute Präsentation entsteht und das Publikum überzeugt. Erläutert wird, wie man die Aufmerksamkeit anderer gewinnt, wie Visualisierungstechniken richtig eingesetzt werden, welche rhetorischen Techniken wirken und wie man sich in der anschließenden Diskussion bewährt. Studienanfänger wie Doktoranden lernen hier, wie die nächste Präsentation zum Erfolg wird.
Korpuslinguistik
(2012)
Inhaltlich unveränderte Neuauflage. Die Arbeit von Pamela Pachl entdeckt ein Feld künstlerischer Formen, die sich längst jenseits der anwendungsbezogenen Graphik als Sammlerobjekte in hochdifferenzierten Subkulturen etabliert haben. Thema dieser Arbeit sind Skatesticker. Skatesticker sind graphisch gestaltete Aufkleber, die im Besonderen in der Subkultur der Skater gesammelt, gehandelt und verehrt werden. Hergestellt werden die Sticker von Skatecompanys. Ursprünglich zu Werbezwecken produziert, wurden die Sticker zu einem autonomen Ausdruckszeichen des Skater-Lifestyles. Aufgrund der Qualität der graphischen und ästhetischen Gestaltung verlangt dieses Phänomen der Neuzeit geradezu nach einer wissenschaftlichen Untersuchung. Pamela Pachl hat hier ein neues, bisher nicht institutionell legitimiertes Feld entdeckt, seine Konturen und verschiedene Aspekte seiner internen Struktur beschrieben. Dieses Buch richtet sich sowohl an Wissenschaftler verschiedenster Fachrichtungen, wie Kunstwissenschaft, Germanistik und Soziologie als auch an Skater und an der Skateboardkultur Interessierte.
Die Digitalisierung der Medien und die Vernetzung der Kommunikation prägen maßgeblich unseren Alltag: Sie beeinflussen die kommunikativen Kulturtechniken des Lesens, Schreibens und Erzählens. Die Autorinnen und Autoren widmen sich diesem Phänomen aus dem Blickwinkel der Sprach-, Literatur-, Geschichts- sowie Politikwissenschaft und analysieren seine Bedeutung für die Produktion, Organisation und Rezeption unseres kulturellen Wissens.
Wortartikel
(2013)
Im Zuge der Mediatisierung unserer alltäglichen Lebenswelt ergeben sich neue Möglichkeiten der Partizipation an gesellschaftlichen Prozessen. Insbesondere digitale Medien begünstigen das gemeinsame Aushandeln, Mitbestimmen und Gestalten unseres Alltags, der Politik, Wirtschaft und Kultur. Die Autorinnen und Autoren in diesem Band gehen der Frage nach, welche spezifischen Partizipationskulturen sich in den einzelnen Bereichen wie der Unternehmenskommunikation, dem Journalismus, der Politik oder bei Jugendlichen herausbilden und auf welche Weise sich diese Tendenzen als kennzeichnend für eine digitale Gesellschaft beschreiben lassen. Ziel des vorliegenden Bandes ist es, einen Beitrag zur Konturierung der Anwendungsmöglichkeiten und -grenzen des Partizipationsegriffs im Bereich der Forschung zur digitalen Medienkommunikation zu leisten.
Auf dem Weg in die Digitalkultur: Wir Menschen sind heute nicht mehr die Einzigen, die lesen und schreiben - Computer tun es auch. Nach Jahrtausenden des Monopols über die Schrift mussten wir diese Bastion im 21. Jahrhundert räumen. Douglas Engelbart, der Erfinder der Computermaus, hatte die Automatisierung der Schrift und des Schreibens bereits 1968 vorhergesehen.
Dieses Buch zeigt, wie sich Lesen und Schreiben verändern, wenn der Computer uns diese Kulturtechniken immer mehr abnimmt. Bücher, Bibliotheken und Verlage, Schule und Universität, Presse und Zensur befinden sich bereits tief im Umbruch - und nicht zuletzt unser Denken selbst. Henning Lobin schildert die Auswirkungen computergestützter Techniken auf unseren Alltag und gibt einen Ausblick auf die Institutionen, Praktiken und Werte einer zukünftigen "Digitalkultur".
Endungsvariation
(2014)
Wortartikel
(2014)
Die Beschäftigung mit der deutschen Sprache und Kultur trifft in dem großen und vielfältigen Raum, den das subsaharische Afrika umfasst, auf sehr unterschiedliche Voraussetzungen. Diese Bandbreite mit ihren sprachenpolitischen Implikationen und ihren praktischen Folgen auszuleuchten hat sich der DAAD zusammen mit afrikanischen Germanistinnen und Germanisten zur Aufgabe gemacht. Untrennbar damit verbunden ist eine zweite Fragestellung: Unter welchen Aspekten und in welcher fachlichen Akzentuierung ist die Beschäftigung mit der deutschen Sprache und Kultur in Afrika sinnvoll und auch möglich? Die Antworten auf diese Grundfragen bewegen sich stets im Zwischenraum einer interkulturellen Kulturwissenschaft und einer anwendungsorientierten Praxis.
Das es-Gesamtsystem im Neuhochdeutschen. Ein Beitrag zu Valenztheorie und Konstruktionsgrammatik.
(2014)
Das Buch beschäftigt sich mit den verschiedenen Verwendungsweisen des Pronomens es. Grundlage der Analysen bildet ein Korpus, das Nähetexte aus dem Zeitraum zwischen 1650 und 2000 beinhaltet. Im ersten Teil der Arbeit wird das phorische es behandelt. Es werden implizite und explizite Verweise durch es unterschieden. Großer Wert wird dabei auf die ausführliche semantische und morphosyntaktische Beschreibung der einzelnen Subtypen von es gelegt. Bei der Beschreibung des Korrelat-es wird vor allem auf den Begriff der Integration zurückgegriffen und vor diesem Hintergrund ein Stufenmodell korrelativer Satzverbindungen mit es erarbeitet. Der zweite Teil der Arbeit widmet sich der Frage nach dem grammatiktheoretischen Status des nicht-phorischen es. Es wird dafür plädiert, der Beschreibung und Erklärung der verschiedenen Untertypen des nicht-phorischen es valenztheoretische und konstruktionsgrammatische Erkenntnisse zugrunde zu legen.
Die vorliegende Bibliographie zur deutschen Grammatik (BDG) erfasst den Zeitraum von 2008 bis 2012. Sie setzt damit die Bibliographien fort, die Peter Eisenberg mit Alexander Gusovius für den Zeitraum von 1965 bis 1986, Peter Eisenberg mit Bernd Wiese für den Zeitraum von 1984 bis 1994, Helmut Frosch, Roman Schneider, Bruno Strecker und Peter Eisenberg für den Zeitraum 1994 bis 2002 und Helmut Frosch, Roman Schneider und Bruno Strecker für den Zeitraum 2003 bis 2007 in den Studien zur deutschen Grammatik publiziert haben. Seit Ende der 1990er Jahre wird die BDG am Institut für Deutsche Sprache (IDS) in Mannheim gepflegt. Die Bibliographie enthält veröffentlichte Aufsätze und Monographien zur Grammatik der deutschen Gegenwartssprache. Sie umfasst Arbeiten aus den Kernbereichen der deutschen Grammatik, aber auch solche aus Grenzgebieten (wie z. B. der Pragmatik). Jeder Titel wurde bei der Aufnahme von Hand verschlagwortet, das Register dagegen komplett maschinell erstellt. Es ist so aufgebaut, dass zunächst sämtliche Schlagwörter in alphabetischer Reihenfolge aufgeführt werden; für jedes dieser Erstschlagwörter folgen diejenigen Schlagwörter, die bei den Publikationen in Kombination mit dem Erstschlagwort auftreten. Diese sehr aufwändige Anlage des Registers soll die Bibliographie für ihre Anwender noch benutzerfreundlicher gestalten.
Mit traditionellen Methoden der Narratologie ist es nur möglich, eine begrenzte Menge von (meist kanonischen) Texten zu untersuchen. Computer hingegen können große Textmengen bewältigen und über die breitere empirische Basis einen neuen Blick auf das literarischen Schaffen eröffnen. Dazu ist es jedoch notwendig, narratologische Konzepte auch automatisch erfassbar zu machen. Die vorliegende Studie untersucht, wie ein etabliertes Phänomen des Erzählens – die Wiedergabe von Rede, Gedanken und Geschriebenem in narrativen Texten – mit Hilfe automatischer Methoden identifiziert werden kann. Auf der Basis narratologischer Forschungsliteratur wird zunächst ein Annotationsystem für Redewiedergabeformen entwickelt und auf ein Beispielkorpus von deutschsprachigen Erzähltexten angewendet. Anschließend werden Methoden zur automatischen Erkennung und deren Ergebnisse vorgestellt. Prototypen der beschriebenen Redewiedergabeerkenner sind online frei verfügbar. Die Studie liefert konkrete Ansätze für die automatische Erkennung von Redewiedergabe und demonstriert zugleich Strategien für die Nutzung von Methoden der Digital Humanities in der Narratologie.
Medizin betrifft „alle Menschen, Ärzte wie Patienten, Fachleute wie Laien, gleichermaßen zu allen Zeiten. Die Medizin steht daher wie kein zweiter Bereich des Lebens im Spannungsfeld von fachwissenschaftlicher Spezialisierung und menschlichen Alltagserfahrungen“ (Riecke 2004). In diesem Spannungsfeld ist medizinisches Wissen und Handeln ohne Sprache nicht denkbar. Medizin- und Gesundheitskommunikation bilden fachintern wie fachextern, in mündlichen und medialen Diskursen ein prominentes Themenzentrum der medi(k)alisierten Gegenwart. Das Handbuch Sprache in der Medizin bietet einen Überblick über Formen und Funktionen von Arzt-Patient-Kommunikation und ihrer gesprächslinguistischen Erfassung, medizinischen Fachsprachen in Geschichte und Gegenwart sowie Medizin und Gesundheit in medialen Diskursen. Das hierzu notwendige interdisziplinäre Methodenspektrum umfasst sprachwissenschaftliche, Gesprächs- und diskurslinguistische Methoden ebenso wie medien- und kommunikationswissenschaftliche Perspektiven.