Refine
Year of publication
Document Type
- Part of a Book (4484)
- Article (2955)
- Book (826)
- Conference Proceeding (684)
- Part of Periodical (296)
- Review (255)
- Other (112)
- Working Paper (79)
- Doctoral Thesis (64)
- Report (34)
Language
- German (7872)
- English (1713)
- Russian (144)
- French (37)
- Multiple languages (18)
- Portuguese (14)
- Spanish (14)
- Italian (8)
- Polish (7)
- Ukrainian (4)
Has Fulltext
- yes (9839) (remove)
Keywords
- Deutsch (5036)
- Korpus <Linguistik> (910)
- Wörterbuch (581)
- Konversationsanalyse (435)
- Rezension (421)
- Grammatik (384)
- Rechtschreibung (370)
- Gesprochene Sprache (359)
- Sprachgebrauch (349)
- Interaktion (326)
Publicationstate
- Veröffentlichungsversion (3835)
- Zweitveröffentlichung (1636)
- Postprint (391)
- Preprint (10)
- Erstveröffentlichung (8)
- Ahead of Print (7)
- (Verlags)-Lektorat (4)
- Hybrides Open Access (2)
- Verlags-Lektorat (1)
- Verlagsveröffentlichung (1)
Reviewstate
- (Verlags)-Lektorat (3782)
- Peer-Review (1582)
- Verlags-Lektorat (94)
- Peer-review (56)
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (40)
- Review-Status-unbekannt (14)
- Peer-Revied (12)
- (Verlags-)Lektorat (9)
- Abschlussarbeit (Bachelor, Master, Diplom, Magister) (Bachelor, Master, Diss.) (9)
- (Verlags-)lektorat (5)
Publisher
- de Gruyter (1310)
- Institut für Deutsche Sprache (1068)
- Schwann (638)
- Narr (476)
- Leibniz-Institut für Deutsche Sprache (IDS) (255)
- De Gruyter (226)
- Niemeyer (200)
- Lang (180)
- Narr Francke Attempto (169)
- IDS-Verlag (143)
Emoticons erfreuen sich auf der ganzen Welt großer Beliebtheit, vor allem in der alltäglichen elektronischen Kommunikation wie E-Mail, SMS, Forumsdiskussionen, Instant Messaging, Facebook oder Twitter. Zum ersten Mal in der Geschichte wurde 2015 von den Sprachbeobachtern der britischen Oxford Dictionaries ein Emoticon zum Wort des Jahres gewählt: das Grinsegesicht, dem die Freudentränen aus den Augen spritzen (vgl.<www.sueddeutsche.de/kultur/britisches-wortdes-jahres-was-haben wir-gelacht-1.2740952>, Stand: 8.11.2017). Die Jury begründete ihre Wahl wie folgt: „[E]moji have come to embody a core aspect of living in a digital world that is visually driven, emotionally expressive, and obsessively immediate.“
Im September 1522 erschien in Wittenberg „Das newe Testament Deutzsch“ mit einer Auflage von über 3.000 Stück und war binnen einer Woche ausverkauft. Martin Luther, der auf dem Titelblatt auf eigenen Wunsch nicht erwähnt wird, hatte die Übersetzung auf der Wartburg in nur elf Wochen angefertigt und wenig später fünf Wochen lang mit seinem Kollegen und Freund, dem Gräzisten Philipp Melanchthon, insbesondere im Hinblick auf die griechische Urfassung bearbeitet. Die Geschichte der Revisionen der Lutherbibel beginnt im gleichen Jahr – schon für den Nachdruck im Dezember hat Luther dieses so genannte „Septemberevangelium“ an vielen Stellen revidiert. In Teilen erschien danach seine Übersetzung des Alten Testaments, 1534 die vollständige Übersetzung der Bibel. Luther korrigierte den Bibeltext unablässig weiter bis zur Ausgabe von 1545, der Lutherbibel „letzter Hand“.
Alles verstehen heißt alles verzeihen ist ein Satz, der im Deutschen den Charakter eines Spruchs, eines geflügelten Wortes angenommen hat, und der wahrscheinlich auf einem Zitat aus „Corinne ou l‘Italie“ von Madame de Staël (1807) (tout) comprendre c‘est (tout) pardonner basiert. Dieser Satz wurde ins Deutsche übersetzt und als Alles verstehen heißt alles verzeihen tradiert. Die Form eines Spruchs, eines geflügelten Wortes ist im Allgemeinen sehr konstant. Die Tendenz zur grammatischen Variation ist auch dann gering, wenn sie nach gängigen grammatischen Regeln möglich wäre.
Am 1. September 2016 hat das Forschungsprojekt „Lexik des gesprochenen Deutsch“ (= LeGeDe) am Institut für Deutsche Sprache in Mannheim als Kooperationsprojekt der Abteilungen Pragmatik und Lexik seine Arbeit aufgenommen. Dieses drittmittelgeförderte Projekt der Leibniz-Gemeinschaft (Leibniz-Wettbewerb 2016; Förderlinie 1: Innovative Vorhaben) hat eine Laufzeit von drei Jahren (1.9.2016-31.8.2019) und besteht aus einem Team von Mitarbeiterinnen und Mitarbeitern aus den Bereichen Lexikologie, Lexikografie, Gesprächsforschung, Korpus- und Computerlinguistik sowie Empirische Methoden. Im folgenden Beitrag werden neben Informationen zu den Eckdaten des Projekts, zu den unterschiedlichen Ausgangspunkten, dem Gegenstandsbereich, den Zielen sowie der LeGeDe-Datengrundlage vor allem einige grundlegende Forschungsfragen und methodologische Ansätze aufgezeigt sowie erste Vorschläge zur Gewinnung, Analyse und Strukturierung der Daten präsentiert. Zur lexikografischen Umsetzung werden verschiedene Möglichkeiten skizziert und im Ausblick einige Herausforderungen zusammengefasst.
Interaktion und Medien
(2017)
Am 12. Mai 1965 nahmen der Staat Israel und die Bundesrepublik Deutschland offiziell diplomatische Beziehungen auf. Damit kam über 15 Jahre nach der Konstitution der beiden Länder und 20 Jahre nach dem Ende der Shoah ein komplexer Prozess der langsamen politischen Annäherung zu einem keineswegs selbstverständlichen Abschluss. Das fünfzigjährige Jubiläum dieses Ereignisses im Jahr 2015 war weltweit, vor allem aber in Israel und Deutschland, Anlass für zahlreiche Veranstaltungen, über die eine offizielle bilaterale Webseite <www.de50il.org/> (Stand: 6.11.2017) Auskunft gibt. Im Rahmen des Jubiläums wurde am 30. September 2015 in einer feierlichen Abendveranstaltung im Jüdischen Museum Berlin offiziell das „Wörterbuch deutscher Lehnwörter im Hebräischen“ von Uriel Adiv in einer ersten Fassung im „Lehnwortportal Deutsch“ des IDS freigeschaltet. Eine von Koautor Jakob Mendel erheblich überarbeitete und verbesserte zweite Version ging im Mai 2017 online. Der vorliegende Beitrag möchte einige Hintergründe zum deutschen Lehnwortschatz im modernen Hebräischen darstellen sowie die Entstehungsgeschichte des Werks und seinen Platz in der lehnwortlexikografischen Publikationsplattform „Lehnwortportal Deutsch“ <http://lwp.ids-mannheim.de/> (Stand: 6.11.2017) beleuchten.
Was gehört zum Kernbereich des deutschen Wortschatzes? Vor allem Sprachdidaktiker, Lexikografen und Lexikologen suchen eine Antwort auf diese Frage, und sie bedienen sich dabei unterschiedlicher, zumeist sehr kontrovers diskutierter quantitativer und qualitativer Methoden. Die jeweils erzielten Resultate sind oft nicht minder umstritten und sofern sie als bloße Wortlisten publiziert werden, scheint es darüber hinaus kaum angemessen, von einer Grundwortschatzlexikografie zu sprechen. Das Ziel dieser Arbeit ist es, einen Weg aus dieser unbefriedigenden Situation aufzuzeigen.
Dieses Buch bietet einen kompakten Überblick über die Wortbildung des Deutschen. Die zugrundeliegende Sprachtheorie ist mit den üblichen grammatischen Kenntnissen und den üblichen Denkweisen der Logik leicht nachzuvollziehen. Genau beschrieben wird, wie Wortbildung funktioniert, aus welchen Einheiten und mit welchen Verfahren Wörter gebildet werden. Vorschriften werden dabei nicht gemacht. Das Buch ist problemorientiert und forschungsnah. Es setzt sich mit wesentlichen Termini und Begriffen auseinander und diskutiert die verschiedensten traditionellen, aktuellen und revolutionären Erklärungsmodelle der Wortbildungslehre. Es soll sensibilisieren für ein präzises Sprechen über Sprache. Weil es zudem materialreich und sprachrealitätsnah ist, ist es anschaulich und vergnüglich bei höchstmöglich wissenschaftlicher Ausrichtung.
The goal of the MULI (MUltiLingual Information structure) project is to empirically analyse information structure in German and English newspaper texts. In contrast to other projects in which information structure is annotated and investigated (e.g. in the Prague Dependency Treebank, which mirrors the basic information about the topic-focus articulation of the sentence), we do not annotate theory-biased categories like topic-focus or theme-rheme. Trying to be as theory-independent as possible, we annotate those features which are relevant to information structure and on the basis of which typical patterns, co-occurrences or correlations can be determined. We distinguish between three annotation levels: syntax, discourse and prosody. The data is based on the TIGER Corpus for German and the Penn Treebank for English, since the existing information on part-of-speech and syntactic structure can be re-used for our purposes. The actual annotation of an English example sequence illustrates our choice of categories on each level. Their combination offers the possibility to investigate how information structure is realised and can be interpreted.