Refine
Year of publication
Document Type
- Part of a Book (11)
- Article (4)
- Book (4)
- Conference Proceeding (2)
- Report (1)
- Review (1)
Keywords
- Digitalisierung (23) (remove)
Publicationstate
- Veröffentlichungsversion (23) (remove)
Reviewstate
- (Verlags)-Lektorat (12)
- Peer-Review (9)
- Peer-review (1)
Publisher
- de Gruyter (5)
- IDS-Verlag (2)
- Institut für Deutsche Sprache (2)
- Leibniz-Institut für Deutsche Sprache (IDS) (2)
- Leibniz-Institut für Deutsche Sprache (1)
- Nyelvtudományi Kutatóközpont / Hungarian Research Centre for Linguistics (1)
- OBST (1)
- Research Institute for Linguistics, Hungarian Academy of Sciences (1)
- Springer (1)
- Steiner (1)
Dieser Band fasst die Vorträge des 9. Hildesheimer Evaluierungs- und Retrieval-Workshops (HIER) zusammen, der am 9. und 10. Juli 2015 an der Universität Hildesheim stattfand. Die HIER Workshop-Reihe begann im Jahr 2001 mit dem Ziel, die Forschungsergebnisse der Hildesheimer Informationswissenschaft zu präsentieren und zu diskutieren. Mittlerweile nehmen immer wieder Kooperationspartner von anderen Institutionen teil, was wir sehr begrüßen. HIER schafft auch ein Forum für Systemvorstellungen und praxisorientierte Beiträge.
Hintergrund: Die digitale Transformation prägt gesellschaftliche Systeme weltweit. Digital Health umfasst verschiedene Bereiche, wie z. B. die Verfügbarkeit und Auswertung von Daten, die Möglichkeit der Vernetzung innerhalb der eigenen Berufs- oder Betroffenengruppe und die Art, wie Patient*innen, Angehörige und Behandler*innen miteinander kommunizieren.
Ziel der Arbeit: Digital Health wird mit ihren Auswirkungen auf die Beziehung und die Kommunikation zwischen Patient*innen, Angehörigen und Behandler*innen beleuchtet. Veränderungen, die bereits erkennbar sind, werden beschrieben und Perspektiven aufgezeigt.
Methoden: Das Thema wird aus sozialphilosophischer, sprachwissenschaftlicher und ärztlicher Perspektive in folgenden Bereichen exploriert: digitale vs. analoge Kommunikation, Narration vs. Datensammeln, Internet und soziale Medien als Informationsquelle, Raum für Identitätsbildung und Veränderung der Interaktion von Patient*innen, Angehörigen und Behandler*innen.
Ergebnisse: Die Erweiterung der Interaktion zwischen Patient*innen und Ärzt*innen auf digitale und Präsenzformate sowie die asynchrone und synchrone Kommunikation erhöhen die Komplexität, aber auch die Flexibilität. Die Fokussierung auf „objektive“ Daten kann den Blick auf die Person mit ihrer individuellen Biografie beeinträchtigen, während digitale Räume die Möglichkeiten zur Identitätsbildung aufseiten der Patient*innen und für die Interaktion deutlich erweitern.
Diskussion: Bereits jetzt zeigen sich Vorteile der Digitalisierung (z. B. besseres Selbstmanagement) und Nachteile (Fokussierung auf Daten statt auf die Person). Für den kinder- und jugendärztlichen Bereich bestehen die Notwendigkeiten, professionelle kommunikative Kompetenzen und professionelle Gesundheitskompetenz zu erweitern sowie die Organisation seiner Versorgungseinrichtungen weiterzuentwickeln.
Die Vernetzung von Computern bewirkt die Entstehung eines Netzes aus Texten und, als Folge davon, sozialen Netzen von Nutzern dieser Texte als Schreibern und Lesern. Netzwerke sprachlicher Objekte gab und gibt es zwar auch ohne Digitalisierung und Vernetzung, jedoch weniger umfangreich und wesentlich schwerer, möglicherweise gar nicht in großer Menge analysierbar. Der vorliegende Beitrag befasst sich mit den verschiedenen Typen sprachlicher Netzwerke: Textgeweben, Interaktionsnetzwerken und sozialen Netzwerken. Es werden zentrale Begrifflichkeiten der Netzwerkanalyse erläutert und anhand von Beispielen gezeigt, wie sprachliche Kommunikation auf der Grundlage der Methoden der Netzwerkanalyse aus einer anderen, neuen Perspektive betrachtet werden kann.
Given the relevance of interoperability, born-digital lexicographic resources as well as legacy retro-digitised dictionaries have been using structured formats to encode their data, following guidelines such as the Text Encoding Initiative or the newest TEI Lex-0. While this new standard is being defined in a stricter approach than the original TEI dictionary schema, its reuse of element names for several types of annotation as well as the highly detailed structure makes it difficult for lexicographers to efficiently edit resources and focus on the real content. In this paper, we present the approach designed within LeXmart to facilitate the editing of TEI Lex-0 encoded resources, guaranteeing consistency through all editing processes.
Within a rapidly digitalising society, it is important to understand how the learning and teaching of digital skills play out in situ, particularly amongst older adults who acquire these skills later in life. This paper focuses on participants engaged in the process of learning digital skills in adult education courses. Using video recordings from adult education centres in Finland and Germany, we explore how students mobilise their teachers’ assistance when encountering problems with their smartphones, laptops or tablets. Prior research on social interaction has shown that assistance can be recruited through a variety of verbal and embodied formats. In this specific educational setting, participants can use complaints about their digital skills or mobile devices to obtain assistance. Utilising multimodal conversation analysis, we describe two basic sequence types involving students’ complaints, discuss their cross-linguistic characteristics, and reflect on their connection to this educational setting and digital devices.
In the currently ongoing process of retro-digitization of Serbian dialectal dictionaries, the biggest obstacle is the lack of machine readable versions of paper editions. Therefore, one essential step is needed before venturing into the dictionary-making process in the digital environment – OCRing the pages with the highest possible accuracy. Successful retro-digitization of Serbian dialectal dictionaries, currently in progress, has shown a dire need for one basic yet necessary step, lacking until now – OCRing the pages with the highest possible accuracy. OCR processing is not a new technology, as many opensource and commercial software solutions can reliably convert scanned images of paper documents into digital documents. Available software solutions are usually efficient enough to process scanned contracts, invoices, financial statements, newspapers, and books. In cases where it is necessary to process documents that contain accented text and precisely extract each character with diacritics, such software solutions are not efficient enough. This paper presents the OCR software called “SCyDia”, developed to overcome this issue. We demonstrate the organizational structure of the OCR software “SCyDia” and the first results. The “SCyDia” is a web-based software solution that relies on the open-source software “Tesseract” in the background. “SCyDia” also contains a module for semi-automatic text correction. We have already processed over 15,000 pages, 13 dialectal dictionaries, and five dialectal monographs. At this point in our project, we have analyzed the accuracy of the “SCyDia” by processing 13 dialectal dictionaries. The results were analyzed manually by an expert who examined a number of randomly selected pages from each dictionary. The preliminary results show great promise, spanning from 97.19% to 99.87%.
The Leibniz-Institute for the German Language (IDS) was established in Mannheim in 1964. Since then, it has been at the forefront of innovation in German linguistics as a hub for digital language data. This chapter presents various lessons learnt from over five decades of work by the IDS, ranging from the importance of sustainability, through its strong technical base and FAIR principles, to the IDS’ role in national and international cooperation projects and its expertise on legal and ethical issues related to language resources and language technology.
This chapter will present lessons learned from CLARIN-D, the German CLARIN national consortium. Members of the CLARIN-D communities and of the CLARIN-D consortium have been engaged in innovative, data-driven, and community-based research, using language resources and tools in the humanities and neigh-bouring disciplines. We will present different use cases and users’ stories that demonstrate the innovative research potential of large digital corpora and lexical resources for the study of language change and variation, for language documentation, for literary studies, and for the social sciences. We will emphasize the added value of making language resources and tools available in the CLARIN distributed research infrastructure and will discuss legal and ethical issues that need to be addressed in the use of such an infrastructure. Innovative technical solutions for accessing digital materials still under copyright and for data mining such materials will be presented. We will outline the need for close interaction with communities of interest in the areas of curriculum development, data management, and training the next generation of digital humanities scholars. The importance of community-supported standards for encoding language resources and the practice of community-based quality control for digital research data will be presented as a crucial step toward the provisioning of high quality research data. The chapter will conclude with a discussion of impor-tant directions for innovative research and for supporting infrastructure development over the next decade and beyond.
CLARIN stands for “Common Language Resources and Technology Infrastructure”. In 2012 CLARIN ERIC was established as a legal entity with the mission to create and maintain a digital infrastructure to support the sharing, use, and sustainability of language data (in written, spoken, or multimodal form) available through repositories from all over Europe, in support of research in the humanities and social sciences and beyond. Since 2016 CLARIN has had the status of Landmark research infrastructure and currently it provides easy and sustainable access to digital language data and also offers advanced tools to discover, explore, exploit, annotate, analyse, or combine such datasets, wherever they are located. This is enabled through a networked federation of centres: language data repositories, service centres, and knowledge centres with single sign-on access for all members of the academic community in all participating countries. In addition, CLARIN offers open access facilities for other interested communities of use, both inside and outside of academia. Tools and data from different centres are interoperable, so that data collections can be combined and tools from different sources can be chained to perform operations at different levels of complexity. The strategic agenda adopted by CLARIN and the activities undertaken are rooted in a strong commitment to the Open Science paradigm and the FAIR data principles. This also enables CLARIN to express its added value for the European Research Area and to act as a key driver of innovation and contributor to the increasing number of industry programmes running on data-driven processes and the digitalization of society at large.
We are witnessing an emerging digital revolution. For the past 25–30 years, at an increasing pace, digital technologies—especially the internet, mobile phones and smartphones—have transformed the everyday lives of human beings. The pace of change will increase, and new digital technologies will become even more tightly entangled in human everyday lives. Artificial intelligence (AI), the Internet of Things (IoT), 6G wireless solutions, virtual reality (VR), augmented reality (AR), mixed reality (XR), robots and various platforms for remote and hybrid communication will become embedded in our lives at home, work and school.
Digitalisation has been identified as a megatrend, for example, by the OECD (2016; 2019). While digitalisation processes permeate all aspects of life, special attention has been paid to its impact on the ageing population, everyday communication practices, education and learning and working life. For example, it has been argued that digital solutions and technologies have the potential to improve quality of life, speed up processes and increase efficiency. At the same time, digitalisation is likely to bring with it unexpected trends and challenges. For example, AI and robots will doubtlessly speed up or take over many routine-based work tasks from humans, leading to the disappearance of certain occupations and the need for re-education. This, in turn, will lead to an increased demand for skills that are unique to humans and that technologies are not able to master. Thus, developing human competences in the emerging digital era will require not only the mastering of new technical skills, but also the advancement of interpersonal, emotional, literacy and problem-solving skills.
It is important to identify and describe the digitalisation phenomena—pertaining to individuals and societies—and seek human-centric answers and solutions that advance the benefits of and mitigate the possible adverse effects of digitalisation (e.g. inequality, divisions, vulnerability and unemployment). This requires directing the focus on strengthening the human skills and competences that will be needed for a sustainable digital future. Digital technologies should be seen as possibilities, not as necessities.
There is a need to call attention to the co-evolutionary processes between humans and emerging digital technologies—that is, the ways in which humans grow up with and live their lives alongside digital technologies. It is imperative to gain in-depth knowledge about the natural ways in which digital technologies are embedded in human everyday lives—for example, how people learn, interact and communicate in remote and hybrid settings or with artificial intelligence; how new digital technologies could be used to support continuous learning and understand learning processes better and how health and well-being can be promoted with the help of new digital solutions.
Another significant consideration revolves around the co-creation of our digital futures. Important questions to be asked are as follows: Who are the ones to co-create digital solutions for the future? How can humans and human sciences better contribute to digitalisation and define how emerging technologies shape society and the future? Although academic and business actors have recently fostered inclusion and diversity in their co-creation processes, more must be done. The empowerment of ordinary people to start acting as active makers and shapers of our digital futures is required, as is giving voice to those who have traditionally been silenced or marginalised in the development of digital technology. In the emerging co-creation processes, emphasis should be placed on social sustainability and contextual sensitivity. Such processes are always value-laden and political and intimately intertwined with ethical issues.
Constant and accelerating change characterises contemporary human systems, our everyday lives and the environment. Resilience thinking has become one of the major conceptual tools for understanding and dealing with change. It is a multi-scalar idea referring to the capacity of individuals and human systems to absorb disturbances and reorganise their functionality while undergoing a change. Based on the evolving new digital technologies, there is a pressing need to understand how these technologies could be utilised for human well-being, sustainable lifestyles and a better environment. This calls for analysing different scales and types of resilience in order to develop better technology-based solutions for human-centred development in the new digital era.
This white paper is a collaborative effort by researchers from six faculties and groups working on questions related to digitalisation at the University of Oulu, Finland. We have identified questions and challenges related to the emerging digital era and suggest directions that will make possible a human-centric digital future and strengthen the competences of humans and humanity in this era.
Gerade wenn es um die Gewinnung und eine erste Bewertung von Forschungsdaten geht, ist derzeit oft vom Übergang zu citizen science die Rede. Nachdem dieses Konzept zunächst in den Lebenswissenschaften eine größere Rolle gespielt hat, findet es sich neuerdings auch in Teilen der Sprachwissenschaft. Viele einschlägige Initiativen schließen an die Tätigkeiten an, bei denen sich auch traditionell schon die professionalisierte Wissenschaft der Hilfe der ‚Laien‘ bediente, sie können allerdings jetzt die in ungeahntem Ausmaß gewachsenen Möglichkeiten elektronischer Kommunikation und elektronischen Daten-Managements nutzen. Das digitale Interagieren erweitert die Möglichkeiten der als beteiligte „Laien“ gesehenen Personen aber doch so sehr, dass sich auch qualitativ ein neues Verhältnis zwischen den am Forschungsprozess Beteiligten entwickelt. In diesem Beitrag wird diskutiert, welche Folgen diese Veränderung für die wissenschaftliche Praxis, aber auch für das Verständnis des Konzepts „Wissenschaft“ hat.
EFNIL, the European Federation of National Institutions for Language, promotes the standard languages and the linguistic diversity of the European countries as an essential characteristic of their cultural diversity and wealth. The 17th annual conference of EFNIL in Tallinn dealt with the relation between language and economy.
• Language politics often have economic intentions, the language use of the individual is embedded in economic conditions, languages seem to differ in their economic value. In recent years, economists and sociolinguists have developed models of describing these interdependencies.
• The interaction in multilingual settings needs professional handling. There are traditional instances such as language teaching or translation and new professional fields of the digital age such as multilingual databases. Lots of economic needs and opportunities appear in this field.
• Digitization and societal diversity are two elements leading to more successful interaction, assisted by the use of automatic everyday translation, the development of plain language etc.
This volume presents an extensive overview of the interplay of language and economy.
Dieser Beitrag beschreibt, welche Schritte nötig sind, um die Daten des Archivs der Grafen v. Platen (AGP) für Forschungsdateninfrastrukturen (FDI) zugänglich zu machen: die Daten konvertieren, die Metadaten extrahieren, Daten und Metadaten indizieren sowie die Datenmodelle für Daten und Metadaten so ergänzen, dass sie die Bestände des Archivs sinnvoll erfassen. Zugleich wird begründet, weshalb man überhaupt solchen Aufwand treiben sollte: nämlich, damit die Daten einem größeren Publikum zur Verfügung stehen und überdies mit Werkzeugen bearbeitet werden können, die in den Infrastrukturen zur Verfügung stehen, und damit eine weitere Verlinkung und Kombination mit externen Ressourcen erfolgen kann, sodass ein deutlicher Mehrwert entstehen kann.
Transdisciplinary research is research not only on, but also for and, most of all, with practitioners. In the research framework of transdisciplinarity, scholars and practitioners collaborate throughout research projects with the aim of mutual learning. This paper shows the value transdisciplinarity can add to media linguistics. It does so by investigating the digital literacy shift in journalism: the change, in the last two decades, from the predominance of a writing mode that we have termed focused writing to a mode we have called writing-by-the-way. Large corpora of writing process data have been generated and analyzed with the multimethod approach of progression analysis in order to combine analytical depth with breadth. On the object level of doing writing in journalism, results show that the general trend towards writing-by-the-way opens up new niches for focused writing. On a meta level of doing research, findings explain under what conditions transdisciplinarity allows for deeper insights into the medialinguistic object of investigation.
Ein Teildiskurs der Digital Humanities dreht sich um die Frage, wie tradierte Wissensressourcen der Geisteswissenschaften sinnvoll mit digitalen Technologien und Tools verbunden werden können. Auch bei der Neubearbeitung des Deutschen Wörterbuchs von Jacob Grimm und Wilhelm Grimm (DWB) ist dieser Diskurs spürbar, denn mit der Ende 2016 abgeschlossenen Arbeit des traditionsreichen Unternehmens liegt ein konzeptuell einzigartiges Referenzwerk der historischen Lexikografie des Deutschen vor, das in ‘traditioneller’ Printform entstanden, dessen Umsetzung in ein digitales Format jedoch bereits beschlossen ist. Im Laufe der Arbeit am DWB sind überdies zwei Datensammlungen entstanden, die mittlerweile digitalisiert wurden und öffentlich zugänglich sind: das (digitale) Quellenverzeichnis und die Kartei Literatur zur Wortforschung (LW-Kartei). Ihre Einbindung in die Wörterbucharbeit und -benutzung trägt auf unterschiedliche Weise zum Verständnis des DWB bei; weiterhin verweisen sie als digitale Werkzeuge auf grundlegende Möglichkeiten zur Aufbereitung von lexikografischen Daten.
Im Folgenden werden beide Projekte, die sich ursprünglich als innerbetriebliche lexikografische Werkzeuge aus der Wörterbuchpraxis ergaben, vorgestellt. Anschließend wird anhand mehrerer ausgewählter Beispielwörter demonstriert, inwiefern sich die LW-Kartei und das Quellenverzeichnis für ein breites Spektrum von Forschungsfragen nutzen lassen. Am Ende werden Überlegungen zur Erweiterung der Datenbanken, d. h. der jeweiligen Systeme zur elektronischen Datenverwaltung, und ihrer Vernetzung mit den jeweiligen DWB-Artikeln diskutiert – Themen, denen u. a. bei der anstehenden Retrodigitalisierung des DWB besondere Beachtung zukommen sollte.
Den Wortschatz einer Sprache auf hohem Niveau zu dokumentieren und in all seinen Eigenschaften zu beschreiben, ist gleichermaßen wichtig wie schwierig. Verschiedene Gründe haben dazu geführt, dass die Tradition der großen Wörterbücher derzeit zusammenbricht. An ihre Stelle werden in der Zukunft flexibel handhabbare digitale lexikalische Systeme treten.
Moderne Grammatiktheorien sind statisch, d.h. skriptizistisch und synchronizistisch. Dies bedeutet, dass deren Beschreibungsapparat auf die Strukturen gegenwärtiger Schrift- und Standardsprachen zugeschnitten ist. Im Beitrag wird für einen dynamischen, d.h. nichtskriptizistischen und nichtsynchronizistischen, Perspektivenwechsel in der Grammatikforschung plädiert, der auf folgenden empirisch fundierten Überlegungen basiert:
1. Literalisierung ist eine kulturelle Universalie, die kognitiv verankert ist.
2. Es sind unterschiedliche Phasen der Literalisierung zu unterscheiden.
3. Literalisierung im Allgemeinen und die Phasen der Literalisierung im Besonderen haben Konsequenzen für die grammatische Struktur.
4. Die Interpretation von grammatischen Strukturen ist nur vor der Folie der jeweiligen Phase der Literalisierung möglich.
5. Ein dynamisches Grammatikmodell muss das historische Verhältnis auch begrifflich abbilden. Dies wird an zentralen grammatischen Konzepten wie Aggregation vs. Integration, Wortgruppe vs. Phase und an der Wortstellung (Verbklammer, Stellungsfeldermodell, Satzrandglieder) veranschaulicht.
6. Historisch ist von einem dynamischen Verhältnis von Online- und Offlinesyntax, von syntaktischer Zeitlichkeit und syntaktischer Räumlichkeit, auszugehen. Was zu einer bestimmten Zeit und in einer bestimmten Varietät als Onlinestruktur zu interpretieren ist, hängt von dem jeweiligen historischen Verhältnis von Online- und Offlinestrukturen ab.
Ein Teildiskurs der Digital Humanities dreht sich um die Frage, wie tradierte Wissensressourcen der Geisteswissenschaften sinnvoll mit digitalen Technologien und Tools verbunden werden können. Auch bei der Neubearbeitung des Deutschen Wörterbuchs von Jacob Grimm und Wilhelm Grimm (DWB) ist dieser Diskurs spürbar, denn mit der Ende 2016 abgeschlossenen Arbeit des traditionsreichen Unternehmens liegt ein konzeptuell einzigartiges Referenzwerk der historischen Lexikografie des Deutschen vor, das in ‘traditioneller’ Printform entstanden, dessen Umsetzung in ein digitales Format jedoch bereits beschlossen ist. Im Laufe der Arbeit am DWB sind überdies zwei Datensammlungen entstanden, die mittlerweile digitalisiert wurden und öffentlich zugänglich sind: das (digitale) Quellenverzeichnis und die Kartei Literatur zur Wortforschung (LW-Kartei). Ihre Einbindung in die Wörterbucharbeit und -benutzung trägt auf unterschiedliche Weise zum Verständnis des DWB bei; weiterhin verweisen sie als digitale Werkzeuge auf grundlegende Möglichkeiten zur Aufbereitung von lexikografischen Daten. Im Folgenden werden beide Projekte, die sich ursprünglich als innerbetriebliche lexikografische Werkzeuge aus der Wörterbuchpraxis ergaben, vorgestellt. Anschließend wird anhand mehrerer ausgewählter Beispielwörter demonstriert, inwiefern sich die LW-Kartei und das Quellenverzeichnis für ein breites Spektrum von Forschungsfragen nutzen lassen. Am Ende werden Überlegungen zur Erweiterung der Datenbanken, d. h. der jeweiligen Systeme zur elektronischen Datenverwaltung, und ihrer Vernetzung mit den jeweiligen DWB-Artikeln diskutiert – Themen, denen u. a. bei der anstehenden Retrodigitalisierung des DWB besondere Beachtung zukommen sollte.
Der Beitrag behandelt konzeptionelle und methodische Fragen aus einem Projekt, in dem eine neue Referenzausgabe des Thomas Mannschen Gesamtwerks für die Publikation in zwei Medien aufbereitet wird: als Buch und als elektronische Ausgabe. Die Basis dafür bildet ein Informationspool, in dem die Texte SGML/XML-basiert vorgehalten und durch eine Topic Map verknüpft werden. Der Beitrag skizziert die Architektur des Systems sowie die dahinter stehenden technischen und konzeptionellen Überlegungen. Es wird gezeigt, wie gerade die elektronische Version neue Wege beschreitet, damit ein Arbeitswerkzeug für Literaturwissenschaftler entsteht, das völlig neuartige Zugriffsmöglichkeiten auf das Werk Thomas Manns bietet.