400 Sprache
Refine
Year of publication
Document Type
- Part of a Book (43)
- Article (33)
- Book (18)
- Conference Proceeding (18)
- Part of Periodical (12)
- Working Paper (5)
- Contribution to a Periodical (2)
- Review (2)
- Doctoral Thesis (1)
- Other (1)
Keywords
- Deutsch (36)
- Korpus <Linguistik> (28)
- Linguistik (13)
- Germanistik (12)
- Corpus linguistics (11)
- Gesprochene Sprache (9)
- Englisch (7)
- Corpus technology (6)
- Deutschland (6)
- Europa (6)
Publicationstate
- Veröffentlichungsversion (63)
- Zweitveröffentlichung (12)
- Postprint (4)
Reviewstate
- Peer-Review (42)
- (Verlags)-Lektorat (33)
- (Verlags-)Lektorat (1)
- Peer Review (1)
- Peer-Revied (1)
- Peer-review (1)
- Qualifikationsarbeit (Dissertation, Habilitationsschrift) (1)
Publisher
- Institut für Deutsche Sprache (25)
- de Gruyter (8)
- Heidelberg University Publishing (6)
- De Gruyter (4)
- Peter Lang (4)
- Leibniz-Institut für Deutsche Sprache (IDS) (3)
- Narr (3)
- Narr Francke Attempto (3)
- Retorika (3)
- Stauffenburg (3)
Das vorliegende Themenheft bündelt theoretische, methodologische und empirische Debatten an der Schnittstelle von Zeichen, Zeichensystem, Zeichenmodalität/-materialität und Medium und möchte sie weiterführen. Die Beiträge befassen sich mit Fragen der begrifflichen und empirischen Grenzziehung zwischen Zeichen und Medien und liefern so Impulse für die Erforschung des Wechselspiels der Gegenstandsbereiche Zeichenhaftigkeit, Medialität und Materialität als Manifestation multimodaler Kommunikation. Ziel des Heftes ist es, die theoretischen und empirischen Diskussionen um Multimodalität und Medialität stärker aufeinander zu beziehen.
Sound units play a pivotal role in cognitive models of auditory comprehension. The general consensus is that during perception listeners break down speech into auditory words and subsequently phones. Indeed, cognitive speech recognition is typically taken to be computationally intractable without phones. Here we present a computational model trained on 20 hours of conversational speech that recognizes word meanings within the range of human performance (model 25%, native speakers 20–44%), without making use of phone or word form representations. Our model also generates successfully predictions about the speed and accuracy of human auditory comprehension. At the heart of the model is a ‘wide’ yet sparse two-layer artificial neural network with some hundred thousand input units representing summaries of changes in acoustic frequency bands, and proxies for lexical meanings as output units. We believe that our model holds promise for resolving longstanding theoretical problems surrounding the notion of the phone in linguistic theory.