Refine
Year of publication
- 2012 (272) (remove)
Document Type
- Part of a Book (120)
- Article (82)
- Conference Proceeding (35)
- Book (19)
- Part of Periodical (11)
- Doctoral Thesis (2)
- Other (2)
- Review (1)
Keywords
- Deutsch (118)
- Korpus <Linguistik> (28)
- Konversationsanalyse (19)
- Computerlinguistik (16)
- Englisch (11)
- Sprachgebrauch (11)
- Interaktion (10)
- Kontrastive Grammatik (10)
- Deutschland (9)
- Diskursanalyse (9)
Publicationstate
- Veröffentlichungsversion (102)
- Zweitveröffentlichung (23)
- Postprint (15)
Reviewstate
Publisher
- de Gruyter (37)
- Institut für Deutsche Sprache (31)
- Narr (17)
- European Language Resources Association (8)
- Lang (8)
- De Gruyter (7)
- European Language Resources Association (ELRA) (5)
- Verl. für Gesprächsforschung (5)
- Akademie Verlag (4)
- Springer (4)
Die Veränderung der individuellen politischen Kommunikation ist ein wesentliches Element des Konzepts der Mediatisierung des Politischen. Immer mehr Politikerinnen und Politiker sowie Bürgerinnen und Bürger nutzen digitale Plattformen, um sich politisch auszutauschen und zu informieren. Dabei stellt sich die Frage, inwiefern Politiker/-innen selbst Austauschmöglichkeiten im Netz bieten und somit direkt Kommunikation fördern. Für die vorliegende Studie wurde die Nutzung des Microblogging-Dienstes Twitter durch Politiker/-innen während ausgewählter Landtagswahlkämpfe des Jahres 2011 auf partizipationsermöglichende Elemente hin untersucht. Diese Elemente wurden mithilfe des „Funktionalen Operatorenmodells“ systematisiert und kategorisiert. Die Ergebnisse verdeutlichen nicht nur eine individuell ausgeprägte Nutzungsfrequenz der einzelnen Politiker/-innen, sondern auch unterschiedliche Stile der Twitternutzung, die sich als „persönlich-interaktiv“ und „thematisch-informativ“ klassifizieren lassen. In Einblick auf deliberative Strukturen ist die Twitterkommunikation im Politiker-Bürger-Dialog hingegen noch ausbaufähig.
Mit rund 200 Millionen Nutzerinnen und Nutzern und stetig wachsenden Zahlen gewinnt das Web 2.0 Angebot Twitter mehr und mehr an Bedeutung. Doch was ist das Besondere an dieser neuen Form der Online-Medien? Jessica Einspänner, Mark Dang-Anh und Tobias Bürger sind Mitarbeitende an der Universität Bonn im Forschungsprojekt „Deliberation im Netz: Formen und Funktionen des digitalen Diskurses am Beispiel des Microbloggingsystems Twitter". Das Projekt ist Teil des DFG- Schwerpunktprogramms „Mediatisierte Welten", in dem insgesamt zwölf Projekte interdisziplinär miteinander zusammenarbeiten. Mit merz sprechen sie über Twitter als neue Form von Öffentlichkeit, die Userinnen und User, aber auch über die Möglichkeiten der Teilhabe und das Potenzial, das dieses Medium - gerade in der politischen Kommunikation - bietet.
Mehr Zivilgesellschaft durch Social Media? Medienethische Perspektiven auf Twitter als Diskursmedium
(2012)
Im Beitrag wird die Frage erörtert, inwiefern sich der Microblogging- Dienst Twitter als Diskursmedium der Zivilgesellschaft eignet. Die spezifischen Produktions-, Distributions- und Rezeptionsbedingungen von Social Media sowie die ihrem Netzwerkcharakter inhärenten neuartigen Konstitutionsoptionen für öffentliche Diskursräume erfordern eine Justierung der medienethischen Perspektive. Doch auch klassische ethische Theorien machen Microblogs greifbar: Die Prämissen der Diskursethik nach Habermas differenzieren sich auch im Handlungsbereich Twitter in prädiskursiven Geltungsansprüchen aus, die von Diskursteilnehmern implizit erhoben werden. Setzt man diese – und hier setzt die notwendige Modifikation des Blickwinkels ein – in Beziehung zu den spezifischen Funktionen des Mediums Twitter, treten komplexe kommunikative Optionen zu Tage. Prüft man die Geltungsansprüche der Wahrheit, Wahrhaftigkeit und Richtigkeit auf empirische Fallbeispiele in Twitter, lassen sich Brüche von medienethischer Relevanz feststellen, die nicht nur die zivilgesellschaftliche, sondern auch die journalistische Nutzung des Mediums in ein neues Licht rücken.
In multimodal scholarly presentations supported by presentation software, spoken and written language, various visualizations on the projected slides as well as the contributors’ gestures and facial expressions build a meaningful oneness. On the one hand, communication scientists as well as linguists have for a relatively long time neglected the presentation as a complex form of communication. On the other hand, since Tafte (2003 ), columnists of major German newspapers have been dealing with the question of the value, the quality and the place of PowerPoint in science, they have even tried to find the answer to the question whether PowerPoint is evil or not.
The presentation practice is perceived as fundamentally deficient of systematic empirical research on presentations. Also Grabowski called attention to this desideratum with two critical articles (Grabowski 2003, 2008). Various questions - still unanswered - have motivated the implementation of a number of experiments (in the summer of 2010) for analyzing the knowledge and learning effects and the communicational impact of scientific presentations. The general aim of these experiments was to conduct empirical research on selected presentations in order to find out what kind of presentation is successful. The main interest is to find out which model of scholarly presentation produces the best results regarding learning effect and communicative impact.
We had found ourselves in the “Gutenberg-Galaxy” before the digitalization made its rise. The development of the book printing by Johannes Gutenberg and developments based on it as well as the following industrialization of printing are decisive for the expansion of the cultural revolution. It has meanwhile been transformed, upgraded and replaced by something which has been called “Turing Galaxy”. One of the most important changes is the automatic processing of data, the program-controlled production or manipulation of texts, images, sounds, formulas, tables and videos. The internet has led us to new distribution channels. The paper shows which trends of development concerning the cultural skills of writing and reading have been realized up to now as a result of the digitalization. Three aspects of development will be discussed: how the way of writing has changed to the present moment by the means of automation, multimodality and networking.
Wissenschaftliche Kommunikation zeichnet sich durch ein besonders hohes Maß an Standardisierung und Organisation aus. Anforderungen der Objektivität, der Nachvollziehbarkeit und der Authentizität schlagen sich in der Struktur aller wissenschaftlichen Textsorten nieder. Die Kulturtechniken der Schrift sind auf diese Bedingungen ausgerichtet, weshalb das Lesen und Schreiben wissenschaftlicher Texte traditionell besonderen Bedingungen unterliegt, die üblicherweise im Studium vermittelt werden. In diesem Beitrag soll zunächst gezeigt werden, welches die wichtigsten wissenschaftlichen Textsorten sind, welche Eigenschaften sie besitzen und welche Ziele mit Ihnen kommunikativ verfolgt werden. Im zweiten Abschnitt geht es um die Digitalisierung von Texten: Welche Merkmale besitzen digitale Texte und welchen technischen Bedingungen unterliegen sie. Auch wird es hier um das Schreiben digitaler Texte überhaupt gehen. Im letzten Abschnitt dieses Beitrags sehen wir uns die Auswirkungen daraus auf die wissenschaftliche Kommunikation an. Digitale Texte weisen Eigenschaften auf, die die kommunizierten Inhalte zu verändern vermögen. Wie ändert sich das wissenschaftliche Schreiben dadurch?
Vor dem Hintergrund einer neuen linguistischen Betrachtungsweise, die wissenschaftliche Präsentationen als eine eigenständige, komplexe, multimodale Textsorte auffasst, wird in diesem Beitrag zunächst der Aspekt der Multimodalität von Präsentationen fokussiert. Die analytische Beschäftigung mit wissenschaftlichen Präsentationen wird dann um erste Ergebnisse unserer Rezeptionsexperimente ergänzt, in denen unter anderem Erhebungen zur Wissensvermittlung unterschiedlicher wissenschaftlicher Präsentationen durchgeführt wurden.
We taught a humanoid robot a number of different actions involving a number of different objects (e.g., touching a green object, moving a red object etc.) alongside a number of simplified linguistic labels for these behaviours (e.g., ‘touch-green’, ‘move-red’ etc.). The robot managed to learn the associations between the behaviours and their linguistic labels, and it succeeded in recognising the compositional structure of the behaviours and their associated linguistic descriptions (ACTION/VERB+OBJECT/NOUN). Moreover, it was able to generalise the learned instructions to novel, previously untrained action+object-combinations (e.g., touch-red). This corresponds to the task of learning and decomposing so-called ‘holophrases’ in early child language acquisition.
Schlafende Zuhörer, unlesbare Folien, monotones Genuschel? Wer im Studium nicht präsentieren kann, langweilt andere und schadet sich selbst.
Henning Lobin erklärt Schritt für Schritt, wie eine gute Präsentation entsteht und das Publikum überzeugt. Erläutert wird, wie man die Aufmerksamkeit anderer gewinnt, wie Visualisierungstechniken richtig eingesetzt werden, welche rhetorischen Techniken wirken und wie man sich in der anschließenden Diskussion bewährt. Studienanfänger wie Doktoranden lernen hier, wie die nächste Präsentation zum Erfolg wird.
This paper presents the application of the <tiger2/> format to various linguistic scenarios with the aim of making it the standard serialisation for the ISO 24615 [1] (SynAF) standard. After outlining the main characteristics of both the SynAF metamodel and the <tiger2/> format, as extended from the initial Tiger XML format [2], we show through a range of different language families how <tiger2/> covers a variety of constituency and dependency based analyses.
We present an experimental approach to determining natural dimensions of story comparison. The results show that untrained test subjects generally do not privilege structural information. When asked to justify sameness ratings, they may refer to content, but when asked to state differences, they mostly refer to style, concrete events, details and motifs. We conclude that adequate formal models of narratives must represent such non-structural data.
A formal narrative representation is a procedure assigning a formal description to a natural language narrative. One of the goals of the computational models of narrative community is to understand this procedure better in order to automatize it. A formal framework fit for automatization should allow for objective and reproducible representations. In this paper, we present empirical work focussing on objectivity and reproducibility of the formal framework by Vladimir Propp (1928). The experiments consider Propp’s formalization of Russian fairy tales and formalizations done by test subjects in the same formal framework; the data show that some features of Propp’s system such as the assignment of the characters to the dramatis personae and some of the functions are not easy to reproduce.
Die Aufbauprinzipien europäischer Possessionssysteme basieren viel öfter als gemeinhin angenommen auf gespaltener Possession. Dieses im Deutschen nicht prominente Phänomen wird anhand von Daten aus ausgewählten Beispielsprachen als in Europa durchaus etablierte Erscheinung vorgestellt. Die mit ihm verbundenen semantischen und morphosyntaktischen Aspekte werden anhand von qualitativen Korpusdaten diskutiert. Die Restriktionen, denen sie unterliegen, sind ebenfalls Gegenstand der Diskussion. In den Schlussfolgerungen wird dafür plädiert, künftig der Possession bei vergleichenden Studien zu europäischen Sprachen mehr Beachtung zu schenken.
In meiner 2010 erschienenen Dissertation „Migration, Sprache und Rassismus“ habe ich mit ethnografischen, gesprächsanalytischen und -rhetorischen Methoden den Kommunikationsstil von zwei akademischen Migrantenmilieus(„emanzipatorische Migranten“ und „akademische Europatürken“) in Deutschland untersucht. Die Studie war Teil des Projekts „Deutschtürkische Sprachvariation und die Herausbildung kommunikativer Stile in dominant türkischen Migrantengruppen“, das am Institut für Deutsche Sprache durchgeführt wurde.
The TEI has served for many years as a mature annotation format for corpora of different types, including linguistically annotated data. Although it is based on the consensus of a large community, it does not have the legal status of a standard. During the last decade, efforts have been undertaken to develop definitive de jure standards for linguistic data that not only act as a normative basis for the exchange of language corpora but also address recent advancements in technology, such as web-based standards, and the use of large and multiply annotated corpora.
In this article we will provide an overview of the process of international standardization and discuss some of the international standards currently being developed under the auspices of ISO/TC 37, a technical committee called “Terminology and other Language and Content Resources”. After that the relationship between the TEI Guidelines and these specifications, according to their formal model, notation format, and annotation model, will be discussed. The conclusion of the paper provides recommendations for dealing with language corpora.
The paper presents an XML schema for the representation of genres of computer-mediated communication (CMC) that is compliant with the encoding framework defined by the TEI. It was designed for the annotation of CMC documents in the project Deutsches Referenzkorpus zur internetbasierten Kommunikation (DeRiK), which aims at building a corpus on language use in the most popular CMC genres on the German-speaking Internet. The focus of the schema is on those CMC genres which are written and dialogic―such as forums, bulletin boards, chats, instant messaging, wiki and weblog discussions, microblogging on Twitter, and conversation on “social network” sites.
The schema provides a representation format for the main structural features of CMC discourse as well as elements for the annotation of those units regarded as “typical” for language use on the Internet. The schema introduces an element <posting>, which describes stretches of text that are sent to the server by a user at a certain point in time. Postings are the main constituting elements of threads and logfiles, which, in our schema, are the two main types of CMC macrostructures. For the microlevel of CMC documents (that is, the structure of the <posting> content), the schema introduces elements for selected features of Internet jargon such as emoticons, interaction words and addressing terms. It allows for easy anonymization of CMC data for purposes in which the annotated data are made publicly available and includes metadata which are necessary for referencing random excerpts from the data as references in dictionary entries or as results of corpus queries.
Documentation of the schema as well as encoding examples can be retrieved from the web at http://www.empirikom.net/bin/view/Themen/CmcTEI. The schema is meant to be a core model for representing CMC that can be modified and extended by others according to their own specific perspectives on CMC data. It could be a first step towards an integration of features for the representation of CMC genres into a future new version of the TEI Guidelines.
Conversation Analysis (CA) and Discursive Psychology (DP) reject the view that assumptions
about cognitive processes should be used to account for discursive phenomena. Instead, cognitive
issues are respecified as discursive phenomena. Discursive psychologists do this by
studying discursive practices of talking about mental phenomena and using mental predicates.
This approach is exemplified by a study of the use of constructions with German verstehen
(‘to understand’) in conversation. Some conversation analysts take another approach,
namely, inquiring into how participants display mental states in talk-in-interaction. This is
exemplified by a study of how grammatical constructions are used to display different types
of inferences drawn from a partner’s prior turn. It will be argued that the constructivist, antiessentialist
stance which CA and DP take with regard to cognition is a prosperous line of
research, which has much in its favor from a methodological point of view. However, it
can be shown that tacit assumptions about cognitive processes are still inevitable when
doing CA and DP. As a conclusion, the paper pleads for an enhanced awareness of how cognitive
processes come into play when analysing talk-in-interaction and it advocates the integration
of a more explicit cognitive perspective into research on talk-in-interaction.
Our paper outlines a proposal for the consistent modeling of heterogeneous lexical structures in semasiological dictionaries, based on the element structures described in detail in chapter 9 (Dictionaries) of the TEI Guidelines. The core of our proposal describes a system of relatively autonomous lexical “crystals” that can, within the constraints of the relevant element’s definition, be combined to form complex structures for the description of morphological form, grammatical information, etymology, word-formation, and meaning for a lexical structure.
The encoding structures we suggest guarantee sustainability and support re-usability and interoperability of data. This paper presents case studies of encoding dictionary entries in order to illustrate our concepts and test their usability.
We comment on encoding issues involving <entry>, <form>, <etym>, and on refinements to the internal content of <sense>.
Although most of the relevant dictionary productions of the recent past have relied on digital data and methods, there is little consensus on formats and standards. The Institute for Corpus Linguistics and Text Technology (ICLTT) of the Austrian Academy of Sciences has been conducting a number of varied lexicographic projects, both digitising print dictionaries and working on the creation of genuinely digital lexicographic data. This data was designed to serve varying purposes: machine-readability was only one. A second goal was interoperability with digital NLP tools. To achieve this end, a uniform encoding system applicable across all the projects was developed. The paper describes the constraints imposed on the content models of the various elements of the TEI dictionary module and provides arguments in favour of TEI P5 as an encoding system not only being used to represent digitised print dictionaries but also for NLP purposes.
This paper describes work in progress on I5, a TEI-based document grammar for the corpus holdings of the Institut für Deutsche Sprache (IDS) in Mannheim and the text model used by IDS in its work. The paper begins with background information on the nature and purposes of the corpora collected at IDS and the motivation for the I5 project (section 1). It continues with a description of the origin and history of the IDS text model (section 2), and a description (section 3) of the techniques used to automate, as far as possible, the preparation of the ODD file documenting the IDS text model. It ends with some concluding remarks (section 4). A survey of the additional features of the IDS-XCES realization of the IDS text model is given in an appendix.
The present contribution addresses an infrastructural issue of universal relevance, addressed in the specific context of the TEI. We describe a combination of open-source tools and an open-access approach to creating knowledge repositories that have been employed in building a bibliographic reference library for the “TEI for Linguists” special interest group (LingSIG). The authors argue that, for an initiative such as the TEI, it is important to choose open, freely available solutions. If these solutions have the advantage of attracting new users and promoting the initiative itself, so much the better, especially if it is done in a non-committal way: no one using the LingSIG bibliographic repository has to be a member of the LingSIG or a “TEI-er” in general.
Die jährlich im Vorfeld der DGfS-Tagung veranstaltete Arbeitstagung Linguistische Pragmatik fand 2012 vor besonderem Hintergrund statt: Es war zugleich die erste Jahrestagung des neu gegründeten, seit 01.01.2012 bestehenden Vereins Arbeitskreis Linguistische Pragmatik. Zu diesem Anlass haben die Organisatoren (Constanze Spieß, Elke Diedrichsen und Jörg Bücker) ein Rahmenthema gewählt, das pragmatisch orientierte Linguistinnen und Linguisten der verschiedensten Forschungsrichtungen zusammenbringt: Sprachkritik und Sprachwandel.
Dieser Beitrag beleuchtet die Vor- und Nachteile korpusgestützter lexikografischer Methoden zur Ermittlung und Dokumentation sinnrelationaler Ausdrücke eines Stichwortes. Konkrete Beispiele aus der Praxis des elexiko-Wörterbuchs dienen der Veranschaulichung von Chancen als auch von konkreten Problemen, die die eingesetzten Methoden mit sich bringen. Für die Gewinnung potentieller Synonyme und Antonyme nutzt elexiko zwei unterschiedliche Verfahren, die mit verschiedenen Prämissen an ein Korpus als Datengrundlage herantreten (cf. Tognini-Bonelli 2001). Das korpusgesteuerte / korpusgeleitete Verfahren der Kollokationsanalyse und die zugrunde liegende Ermittlung von Ausdrücken mit verwandten Kollokationsprofi len (related profiles) (cf. Belica 2011) dienen der empirischen und statistischen Absicherung von sprachlichen Phänomenen. Sie erweisen sich aber als lückenhaft in Bezug auf einige Kontexte, in denen semantisch-konzeptuelle Beziehungen der Ähnlichkeit oder des Gegensatzes realisiert, aber nicht mit Korpustools erfasst werden. Mit der Anwendung der in elexiko komplementär genutzten korpusbasierten Vorgehensweise können diese Lücken teilweise gefüllt werden. Das Zusammenspiel beider Korpusansätze hat sich in der lexikografischen Praxis prinzipiell als vorteilhaft erwiesen, bringt jedoch auch Erkenntnisse zum Vorschein, die bisher weder linguistisch erfasst noch lexikografisch dokumentiert wurden und löst nicht, wie teilweise angenommen, das Problem inhaltlicher Inkonsistenzen (cf. Paradis/Willners 2007). Diese Aspekte werden anhand von konkreten Korpusbeispielen und Wörterbucheinträgen illustriert. Als Online-Wörterbuch profitiert elexiko von seinen schnellen Navigationsmöglichkeiten über Verlinkungen. Diese werden auch für sinnrelationale Partnerwörter wie Synonyme und Antonyme angelegt, um diverse Vernetzungsstrukturen nachvollziehbar zu machen. Die Arbeit mit einem Korpus kann bis zu einem gewissen Grad die Konsistenz der bidirektionalen Vernetzungen gewährleisten, sie aber nicht vollständig absichern. In diesem Beitrag wird auch die Frage beantwortet, inwieweit die erwähnten Korpusmethoden dazu beitragen, das gegenseitige Dokumentieren zwischen Synonym- oder Antonympaaren sicherzustellen. Anhand des für diese Zwecke entwickelten Tools vernetziko, einem Vernetzungsmanager, wird gezeigt, warum die Unterstützung zusätzlicher Software für eine konsistente Verlinkung zwischen paradigmatisch miteinander verbundenen Stichwörtern unerlässlich ist(Storjohann/Meyer 2012).
Der vorliegende Beitrag soll nun diese Diskussion um Sinn, Unsinn und Definition der Kategorie "Satz" als Grundeinheit der gesprochenen Sprache nicht fortsetzen. Ich will vielmehr kurz darlegen, in welcher Weise ein traditioneller Satzbegriff m.E. für die Analyse gesprochener Sprache relevant ist, und wie er sich zu gesprächsanalytischen Kategorien wie "Turn" und "Turnkonstruktionseinheit" verhält. Dies geschieht aber nur als Voraussetzung, um sodann die traditionelle Fragerichtung umzukehren: Anstatt zu fragen, warum in Gesprächen oft nicht-sentenzielle Strukturen vorkommen, gehe ich vom Befund aus, dass ein großer Teil von Turns aus nicht-sentenziellen Strukturen besteht und frage umgekehrt, wieso in Gesprächen überhaupt Sätze (im Sinne der eingangs gegebenen klassischen Definition) verwendet werden. Den Schlüssel zur Antwort suche ich dabei in der temporalen Struktur der Äußerungsproduktion und der Position, die Sätze in Bezug auf diese einnehmen.
A frequently replicated finding is that higher frequency words tend to be shorter and contain more strongly reduced vowels. However, little is known about potential differences in the articulatory gestures for high vs. low frequency words. The present study made use of electromagnetic articulography to investigate the production of two German vowels, [i] and [a], embedded in high and low frequency words. We found that word frequency differently affected the production of [i] and [a] at the temporal as well as the gestural level. Higher frequency of use predicted greater acoustic durations for long vowels; reduced durations for short vowels; articulatory trajectories with greater tongue height for [i] and more pronounced downward articulatory trajectories for [a]. These results show that the phonological contrast between short and long vowels is learned better with experience, and challenge both the Smooth Signal Redundancy Hypothesis and current theories of German phonology.
The perception of syllable prominence depends to a limited extent on the acoustic properties of the speech signal in question. Psychoacoustic factors are involved as well. Thus, research often relies on two types of data: subjective prominence ratings collected in perception experiments and acoustic measures. A problem with the rating data is noise resulting from individual approaches to the rating task. This paper addresses the question of how this noise can be reduced by normalization, evaluating 12 normalization methods. In a perception experiment, prominence ratings concerning German read speech were collected. From the raw rating data 12 different ‘mirror’ data-sets were computed according to the 12 methods. Each mirror data-set was correlated with the same set of underlying acoustic data. The multiple regression setup included raw syllable duration as well as within-syllable maximum F0 and intensity. Adjusted r2-values could beraised considerably with selected methods.
Einleitung
(2012)
Proceeding from the central ideas of the papers contained in this volume, the closing article sets out to achieve a unified theory of the syntax and semantics of verum focus, to be illustrated for the sentence and clause types of present day German. In German, verum focus is realized phonologically by means of pitch accents on morphosyntactic exponents of various classes: finite verb forms, complementizers and subordinators, interrogative and relative phrases, and modal particles. In the first half of the article, these constituents - most of which reside in the left periphery of the sentence or clause - are shown to share the gramma-tical function of distinguishing between sentence moods and other categories of clauses. This observation gives rise to the assumption that verum focus should be explicable as contrastive focus on semantically distinctive features or components of sentence mood and clause type. In the second half of the article this assumption is spelt out for the sentence and clause types of German. We propose a universal semantic structure of sentence meaning which makes it possible to reduce the most typical cases of verum focus and their diverse contextual interpretations to highlighting the connection between the sentence/clause and its textual or dis-course environment. This connection is syntactically implemented by an element occupying the head position of CP: either a finite verb form or a complementizer/subordinator. Realizations of verum focus on prefield constituents in wh- and relative clauses are explained as phonetic remedies deployed when a connecting element in C° is missing. Focusing of modal particles in the middle field and of verb forms in the right periphery of the clause are shown to differ semantically from verum focus stricto sensu, although they have similar pragmatic effects. The theory is built exclusively on assumptions needed for independent reasons and dispenses with the problematic verum operator assumed in most traditional accounts.
Die adnominalen (attributiven) Verwendungsmöglichkeiten von temporalen und lokalen Adverbien im Deutschen werden untersucht und mit denen aus vier anderen europäischen Nachbarsprachen – Englisch, Französisch, Polnisch, Ungarisch – verglichen. Gezeigt wird, wie diese Sprachen unterschiedliche Anbindungsstrategien nutzen, um Adverbien in attributiver Funktion einsetzen zu können. Drei solcher Strategien werden unterschieden: Juxtaposition, Adjektivierung und formale Verknüpfung. Die Anbindungsstrategien sind in den Vergleichssprachen unterschiedlich verteilt und in unterschiedlichem Maße dominant. Verfügt eine Sprache über zwei oder mehr Anbindungsstrategien, so können diese in Abhängigkeit von der semantischen Teilklasse des Attributs mit verschiedenen semantischen Beschränkungen und Effekten korreliert sein. Diese bezeichnen wir als temporale bzw. lokale Kompatibilität, Persistenz und Oppositivität. Es lassen sich z.T. übereinzelsprachlich bestimmte Form-Funktions-Korrelationen zwischen Anbindungsstrategien und semantischen Beschränkungen bzw. Effekten feststellen. So können adjektivische und formal verknüpfte Attribute Persistenz und Oppositivität kodieren, juxtaponierte dagegen grundsätzlich nicht.
Einleitung
(2012)
Die wortinitialen Segmente in Deutsch ja, jung sowie die Zweitkomponenten in den so genannten schließenden Diphthongen wie in Hai, Heu, Hau weisen im Vergleich zu hohen Vokalen in Kuh, Knie eine stark variierende Artikulation auf – zudem treten diese Laute in unterschiedlichen Kontexten auf. Die hier beobachtbaren Zusammenhänge zwischen Distribution und Aussprache lassen auf durch unterschiedliche silbische Positionen bedingte Allophonie schließen (Morciniec 1958; Shannon 1984; Hall 1992; für Englisch: Jakobson/Fant/Halle 1952, S. 20). Eine solche Analyse, die zudem eine erhebliche Reduktion des Phoneminventars beinhaltet, konnte sich bislang für das Deutsche nicht durchsetzen: Gewöhnlich sind sowohl die schließenden Diphthonge als auch [j] im deutschen Phoneminventar aufgeführt; letzteres Segment wird sogar meist als Frikativ klassifiziert. Der Sprachvergleich ergibt neue phonologische Generalisierungen, die eine durch Silbenstruktur bedingte allophonische Analyse stützen. Insbesondere lassen sich Abstufungen erkennen, die auf durch Sonorität bestimmte Silbifizierungsbedingungen schließen lassen.
In this paper, we provide an analysis of temporality in Hausa (Chadic, Afro-Asiatic). By testing the hypothesis of covert tense (Matthewson 2006) against empirical data, we show that Hausa is genuinely tenseless in the sense that the grammar does not restrict the relation between reference time and utterance time. Rather, temporal reference is pragmatically inferred from aspectual and contextual information. We also argue that future time reference in Hausa is realized as a combination of a modal operator and a prospective aspect, thus involving the modal meaning components of intention and prediction as well as event time shifting.
Kochrezepte gibt es, seit Menschen kochen. Aufgeschrieben werden sie, seit Menschen sich dafür interessieren sie aufzuschreiben – zur eigenen Erinnerung, zur Information anderer oder zur Fixierung einer gemeinsamen Tradition. Wie Kochrezepte aufgeschrieben werden, hat sich im Laufe der Jahrhunderte ständig verändert. Zum Beispiel haben deutsche Kochrezeptschreiber die verschiedensten Verbformen ausprobiert. Berühmt ist der adhortative Konjunktiv: Man nehme ... Davon und von vielen weiteren Verbformen in Kochrezepten handelt dieser Beitrag.