Refine
Year of publication
Document Type
- Report (35) (remove)
Language
- German (32)
- English (2)
- Multiple languages (1)
Keywords
- Deutsch (7)
- Tagungsbericht (7)
- CLARIAH-DE (6)
- Edition (6)
- Digitale Edition (5)
- Basisformat des Deutschen Textarchivs (DTABf) (4)
- Kongressbericht (4)
- Linguistik (4)
- Austauschformat (3)
- Institut für Deutsche Sprache (IDS) (3)
Publicationstate
Reviewstate
- Peer-Review (9)
- (Verlags)-Lektorat (5)
Publisher
Zum Orientierungskurs über Methoden der Linguistik am Institut für deutsche Sprache in Mannheim
(1970)
The Lyon’s team research task consists in the study of the way in which multilingual resources are mobilized in team work within collaborative activities; how they are exploited in a specific way in order both to enhance collaboration and to respect the specificities of the members’ linguistic competences and practices within the team. Central to our analytical work, which is inspired by ethnomethodological conversation analysis, is the relationship between multilingual resources and the situated organization of linguistic uses and of social practices.
Die Abbildung und Modellierung von Varianz wird im Projekt Wechselwirkungen zwischen linguistischen Verfahren, Methoden und Algorithmen auf der sprachlichen Seite u.a. repräsentiert durch die Metalemmaliste, die Lemmata der neuhochdeutschen Standardsprache mit diachronisch und diatopisch markierten Lemmata verknüpft. Die zeitlich und regional markierten Varianten stammen aus Wörterbüchern des Trierer Wörterbuchnetzes. Die Lemmata der nhd. Standardsprache werden in einer korpusgenerierten Basislemmaliste (BLL) zur Verfügung gestellt, in der neben den Lemmata auch Angaben zu deren Wortart(en) und Gebrauchshäufigkeit verzeichnet sind. Die Lemmata der BLL bilden das Gemeinsame Dritte, auf das die Lemmata der Varietäten-Wörterbücher in der Metalemmaliste abgebildet sind, die Lemmata der BLL der nhd. Standardsprache konstituieren die Metalemmata der Metalemmaliste. Die BLL soll in ihrer Funktion als Tertium Comparationis den Sprachgebrauch im heutigen Standarddeutsch widerspiegeln. Dadurch wird sichergestellt, dass die verschiedenen Instanzen der Varietätenlemmata auf Lemmata abgebildet werden, die momentan in der Standardsprache gebräuchlich sind. Über das Metalemma lassen sich die äquivalenten Ausdrücke in den Varietäten finden, ohne dass man von deren regionalen oder historischen Ausprägungen Kenntnisse besitzt. Die Umsetzung der semasiologischen Zugriffsmöglichkeit auf sämtliche Varietätenlemmata über ein Lemma der nhd. Standardsprache erfolgt auf der Grundlage einer XML-basierten Datenbank nach aktuellen Standards der Kodierung von Lexikoneinträgen (TEI P5). Die Metalemmaliste ist dynamisch und netzartig konzipiert, so dass immer neue Teilbereiche, Verzweigungen und Ontologien angedockt werden können (vgl. TV 2). Die Anknüpfung der Varietätenlemmata an die Lemmata der nhd. Standardsprache aus der BLL erfolgt mit Hilfe von Algorithmen, die im TV 3.2. (Informatik Würzburg) implementiert wurden.
Die zentrale Aufgabenstellung des Verbundprojektes TextTransfer (Pilot) war eine Machbarkeitsprüfung für die Entwicklung eines Text-Mining-Verfahrens, mit dem Forschungsergebnisse automatisiert auf Hinweise zu Transfer- und Impactpotenzialen untersucht werden können. Das vom Projektkoordinator IDS verantwortete Teilprojekt konzentrierte sich dabei auf die Entwicklung der methodischen Grundlagen, während der Projektpartner TIB vornehmlich für die Bereitstellung eines geeigneten Datensatzes verantwortlich war. Solchen automatisierten Verfahren liegen zumeist textbasierte Daten als physisches Manifest wissenschaftlicher Erkenntnisse zugrunde, die im Falle von TextTransfer (Pilot) als empirische Grundlage herangezogen wurden. Das im Verbund zur Anwendung gebrachte maschinelle Lernverfahren stützte sich ausschließlich auf deutschsprachige Projektendberichte öffentlich geförderter Forschung. Diese Textgattung eignet sich insbesondere hinsichtlich ihrer öffentlichen Verfügbarkeit bei zuständigen Gedächtnisorganisationen und aufgrund ihrer im Vergleich zu anderen Formaten wissenschaftlicher Publikation relativen strukturellen wie sprachlichen Homogenität. TextTransfer (Pilot) ging daher grundsätzlich von der Annahme struktureller bzw. sprachlicher Ähnlichkeit in Berichtstexten aus, bei denen der Nachweis tatsächlich erfolgten Transfers zu erbringen war. Im Folgenden wird in diesen Fällen von Texten bzw. textgebundenen Forschungsergebnissen mit Transfer- und Impactpotenzial gesprochen werden. Es wurde ferner postuliert, dass sich diese Indizien von sprachlichen Eigenschaften in Texten zu Projekten ohne nachzuweisenden bzw. ggf. auch niemals erfolgtem, aber potenziell möglichem Transfer oder Impact unterscheiden lassen. Mit einer Verifizierung dieser Annahmen war es möglich, Transfer- oder Impactwahrscheinlichkeiten in großen Mengen von Berichtsdaten ohne eingehende Lektüre zu prognostizieren.
Das Projekt „Bürgernahe Sprache in der Finanzverwaltung“ verfolgt das Ziel, Texte aus dem Bereich der Steuerverwaltung in bürgernaher Sprache umzusetzen. Im September 2020 hat das IDS in enger Rückbindung an den Lenkungskreis des Projektes begonnen, eine Pilotstudie zu entwickeln. Hierin wurden ausgewählte Texte (Textbausteine) in einem Online-Umfrageformat mit verschiedenen Bewertungsskalen aufbereitet. Die Beispieltexte in der Studie stammen aus den Erläuterungstexten zum Einkommensteuerbescheid sowie den Ausfüllanleitungen zur Grundsteuer. Die Testpersonen sollten in mehreren unterschiedlichen Aufgabenblöcken ausgewählte Texte in Vorher- und/oder Nachher-Versionen über die Bewertungsskala bewerten. Zusätzlich konnten sie auf jeder Aufgabenseite Anmerkungen in einem Freifeld notieren. Das Ziel der Umfrage ist es, Bürgerinnen und Bürger zu ihren Eindrücken zu befragen und aus den Ergebnissen Rückschlüsse auf die Verständlichkeit der Texte zu ziehen. Ein wichtiges übergeordnetes Ziel der Pilotstudie ist es, die eigentlichen Adressatinnen und Adressaten der Texte in die Projektarbeit mit einzubeziehen. Die Einschätzungen und Anmerkungen der Beteiligten geben für den weiteren Projektverlauf hilfreiche Hinweise und werden in die weiteren Überlegungen und praktischen Umsetzungen einfließen. Dieser Bericht fasst die Ergebnisse aus der Pilotstudie zusammen. Er gibt zu den verschiedenen Blöcken, die die Probandinnen und Probanden bearbeitet haben, Einblick, wie die Testpersonen die ihnen präsentierten Texte bewertet haben. Dabei werden die quantitativ ausdrückbaren Ergebnisse durch grafische Darstellungen visualisiert und in textueller Form zusammengefasst. Die Antworten auf die offenen Fragen geben einen qualitativen Eindruck der Anmerkungen, die die Probandinnen und Probanden in Freifeldern hinterlassen haben.
Das neue Onlineformat PREPCONonline führt durch die Welt der Korpusdaten und zeigt, welchen Erklärungswert authentische Sprache, die von Experten aufbereitet ist, für die eigene sprachliche Kompetenz haben kann. Dieser Ansatz folgt der Überzeugung, dass vor allem auf einem gehobenen Kompetenzniveau reale Sprachausschnitte, die für einen Aspekt des Gebrauchs besonders typisch sind, möglichst unverfälscht abrufbar sein sollten, um Sprache, so wie sie wirklich verwendet wird, versteh- und anwendbar zu machen.
Forschungsprojekte erschließen, erfassen und publizieren eine große Menge digitaler Daten. Bis zur Publikation entstehen häufig Vorarbeiten oder auch Nebenprodukte des beabsichtigten Ergebnisses (beispielsweise Transkriptionen einzelner Texte oder Textzeugen, die die Grundlage z.B. für eine Edition bilden). CLARIAH-DE bietet verschiedene Möglichkeiten zur Integration von Angeboten und Inhalten aus der Community, die deren längerfristige Sicht- und Nachnutzbarkeit sicherstellt. Die vorliegende Handreichung befasst sich mit den Fragen, welche Textangebote wo und auf welche Weise archiviert werden können, sowie welche Kriterien verschiedene Arten von Daten erfüllen müssen, um grundsätzlich für eine Übernahme in den CLARIAH-DE-, Forschungsdatenmanagement- oder NFDI-Kontext geeignet zu sein.
Privacy in its many aspects is protected by various legal texts (e.g. the Basic Law, Civil Code, Criminal Code, or even the Law on Copyright in artistic and photographic works (KunstUrhG), which protects image rights). Data protection law, which governs the processing of information about individuals (personal data), also serves to protect their privacy. However, some information referring to the public sphere of an individual’s life (e.g. the fact that X is a mayor of Smallville) may still be considered personal data (see below), and as such fall within the scope of data protection rules. In this sense, data protection laws concern information that is not private.
Therefore, privacy and data protection, although closely related, are distinct notions: one can violate someone else’s privacy without processing his or her personal data (e.g. simply by knocking at one’s door at night, uninvited), and vice versa: one can violate data protection rules without violating privacy.
The following handouts focus exclusively on data protection rules, and specifically on the General Data Protection Regulation (GDPR). However, please keep in mind that compliance with the GDPR is not the only aspect of protecting privacy of individuals in research projects. Other rules, such as academic ethics and community standards (such as CARE) also need to be observed.
We are witnessing an emerging digital revolution. For the past 25–30 years, at an increasing pace, digital technologies—especially the internet, mobile phones and smartphones—have transformed the everyday lives of human beings. The pace of change will increase, and new digital technologies will become even more tightly entangled in human everyday lives. Artificial intelligence (AI), the Internet of Things (IoT), 6G wireless solutions, virtual reality (VR), augmented reality (AR), mixed reality (XR), robots and various platforms for remote and hybrid communication will become embedded in our lives at home, work and school.
Digitalisation has been identified as a megatrend, for example, by the OECD (2016; 2019). While digitalisation processes permeate all aspects of life, special attention has been paid to its impact on the ageing population, everyday communication practices, education and learning and working life. For example, it has been argued that digital solutions and technologies have the potential to improve quality of life, speed up processes and increase efficiency. At the same time, digitalisation is likely to bring with it unexpected trends and challenges. For example, AI and robots will doubtlessly speed up or take over many routine-based work tasks from humans, leading to the disappearance of certain occupations and the need for re-education. This, in turn, will lead to an increased demand for skills that are unique to humans and that technologies are not able to master. Thus, developing human competences in the emerging digital era will require not only the mastering of new technical skills, but also the advancement of interpersonal, emotional, literacy and problem-solving skills.
It is important to identify and describe the digitalisation phenomena—pertaining to individuals and societies—and seek human-centric answers and solutions that advance the benefits of and mitigate the possible adverse effects of digitalisation (e.g. inequality, divisions, vulnerability and unemployment). This requires directing the focus on strengthening the human skills and competences that will be needed for a sustainable digital future. Digital technologies should be seen as possibilities, not as necessities.
There is a need to call attention to the co-evolutionary processes between humans and emerging digital technologies—that is, the ways in which humans grow up with and live their lives alongside digital technologies. It is imperative to gain in-depth knowledge about the natural ways in which digital technologies are embedded in human everyday lives—for example, how people learn, interact and communicate in remote and hybrid settings or with artificial intelligence; how new digital technologies could be used to support continuous learning and understand learning processes better and how health and well-being can be promoted with the help of new digital solutions.
Another significant consideration revolves around the co-creation of our digital futures. Important questions to be asked are as follows: Who are the ones to co-create digital solutions for the future? How can humans and human sciences better contribute to digitalisation and define how emerging technologies shape society and the future? Although academic and business actors have recently fostered inclusion and diversity in their co-creation processes, more must be done. The empowerment of ordinary people to start acting as active makers and shapers of our digital futures is required, as is giving voice to those who have traditionally been silenced or marginalised in the development of digital technology. In the emerging co-creation processes, emphasis should be placed on social sustainability and contextual sensitivity. Such processes are always value-laden and political and intimately intertwined with ethical issues.
Constant and accelerating change characterises contemporary human systems, our everyday lives and the environment. Resilience thinking has become one of the major conceptual tools for understanding and dealing with change. It is a multi-scalar idea referring to the capacity of individuals and human systems to absorb disturbances and reorganise their functionality while undergoing a change. Based on the evolving new digital technologies, there is a pressing need to understand how these technologies could be utilised for human well-being, sustainable lifestyles and a better environment. This calls for analysing different scales and types of resilience in order to develop better technology-based solutions for human-centred development in the new digital era.
This white paper is a collaborative effort by researchers from six faculties and groups working on questions related to digitalisation at the University of Oulu, Finland. We have identified questions and challenges related to the emerging digital era and suggest directions that will make possible a human-centric digital future and strengthen the competences of humans and humanity in this era.
Das vorliegende Dokument befasst sich mit der Anwendung des DTA-Basisformats für Manuskripte (DTABf-M) auf die kritische Edition handgeschriebener historischer Texte und ist im Kontext des CLARIAH-DE-Projekts (2019–2021) entstanden. Innerhalb von Arbeitspaket (AP) 1 „Forschungsdaten, Standards, Verfahren“ wird anhand ausgewählter Fallbeispiele evaluiert, inwieweit sich das Basisformat des Deutschen Textarchivs (DTABf) sinnvoll als Austauschformat für digitale Editionen allgemein einsetzen lässt. Die Evaluation wurde anhand der kommentierten Edition der Reise- und Sammlungsbeschreibungen Philipp Hainhofers vorgenommen, welche an der Herzog August Bibliothek (HAB) Wolfenbüttel angesiedelt ist und in Kooperation mit der Trierer Arbeitsstelle für Künstlersozialgeschichte entsteht.
Das vorliegende Dokument befasst sich mit der Anwendung des DTA-Basisformats für Manuskripte (DTABf-M) auf die Edition handgeschriebener historischer Texte und ist im Kontext des CLARIAH-DE-Projekts (2019–2021) entstanden. Innerhalb von Arbeitspaket (AP) 1 „Forschungsdaten, Standards, Verfahren“ wird anhand ausgewählter Fallbeispiele evaluiert, inwieweit sich das Basisformat des Deutschen Textarchivs (DTABf) sinnvoll als Austauschformat für digitale Editionen allgemein einsetzen lässt. Die Evaluation wurde anhand eines kürzlich abgeschlossenen Editionsprojektes, welches an der Herzog August Bibliothek (HAB) Wolfenbüttel angesiedelt ist, durchgeführt. Bei dem Projekt "Selbstzeugnisse der Frühen Neuzeit in der Herzog August Bibliothek. Digitale Edition des Diariums von Herzog August dem Jüngeren, Selbstzeugnis-Repertorium und Forschungsportal" handelt es sich um ein vom Niedersächsischen Ministerium für Wissenschaft und Kultur (Pro* Niedersachsen) gefördertes Unternehmen.
Evaluationsbericht: Das DTA-Basisformat als Austauschformat für kritische Editionen (Neologie)
(2021)
Dieser Bericht befasst sich mit der Anwendung des DTA-Basisformats (DTABf) auf Editionen historischer Texte. Er ist im Kontext des CLARIAH-DE-Projekts entstanden und behandelt die Frage, inwiefern das DTABf als Austauschformat für Editionen historischer Texte sinnvoll eingesetzt werden kann. Dies wird an konkreten Beispielen solider Editionspraxis überprüft. Der generelle Rahmen ist im einleitenden Text (Fisseni et al., 2021) beschrieben. Dieser Evaluationsbericht stellt die Auswertung des ersten von drei Fallbeispielen (zusammen mit Schulz, 2021a, 2021b) für die Konversion unterschiedlich komplexer Editionen in das DTABf dar. Die hier betrachteten Beispiele stammen aus der Bibliothek der Neologie (BdN).