Refine
Document Type
- Report (17) (remove)
Language
- German (14)
- English (2)
- Multiple languages (1)
Keywords
- CLARIAH-DE (6)
- Edition (6)
- Digitale Edition (5)
- Basisformat des Deutschen Textarchivs (DTABf) (4)
- Austauschformat (3)
- Deutsch (3)
- Sprachkompetenz (3)
- DTA-Basisformat (2)
- DTA-Basisformat für Manuskripte (DTABf-M) (2)
- Fertigkeit (2)
Publicationstate
- Veröffentlichungsversion (17) (remove)
Reviewstate
Qualifizierungsmaßnahmen wie „Perspektive für Flüchtlinge Plus“ (PerFPlus) können als wichtige Bestandteile der neuen Willkommenskultur in Deutschland betrachtet werden. Deutschland als Einwanderungsland kann mit Hilfe solcher Initiativen gezielt für Arbeitsbereiche und Berufsgruppen werben, in denen es an Nachwuchs mangelt. Den Neuzugewanderten bieten sie die eine Chance sich in der hiesigen Arbeitswelt zu orientieren und Berufsfelder zu erkunden, die ihnen bislang noch nicht oder nur in anderer Form bekannt waren. Auf der anderen Seite bergen solche Maßnahmen aber auch ihr Risiko: Wenn sie ihr Ziel verfehlen und Frustrationen auf beiden Seiten erzeugen, sind lange Warteschleifen, Arbeitslosigkeit und möglicherweise politische Polarisierung und Radikalisierung die Folge. Insofern ist eine schnelle Intervention hinsichtlich der Verbesserung solcher Maßnahmen essentiell. Der vorliegende Bericht soll die konzeptionell-arbeitenden Teams bei der Bundesagentur für Arbeit (BA) sowie bei Bildungsanbietern die mit der BA kooperieren bei ihren wichtigen Aufgaben unterstützen. Alle Partner bleiben im Bericht anonym.
Deutschland sieht sich in den nächsten Jahren vor enormen Herausforderungen gegen-übergestellt. Mit der Fluchtmigration von knapp 1,5 Mio. Menschen alleine zwischen 2014 und 2017 stehen nahezu in jedem gesellschaftlichen Bereich und hier insbesonde-re in den Sektoren Bildung und Arbeit große Integrationsaufgaben an. Steven Vertovec, der Leiter des Max-Planck-Instituts zur Erforschung multireligiöser und multiethnischer Gesellschaften bezeichnet die Fluchtmigration von 2015 auch deshalb als die „zweite Wende“ (Vertovec 2015) für Deutschland, die das Land nachhaltig verändern wird. Nach seiner Einschätzung werden die gesellschaftlichen Transformationen dermaßen tiefgrei-fend sein, dass die Formulierung „seit der Flüchtlingskrise“ eine ebenso geläufige Rede-wendung sein wird wie die Formulierung „seit der Wende“.
Berufliche Qualifizierungsmaßnahmen wie „GASTRO“ im Rhein-Neckar-Raum sind in diesem Kontext sehr wichtige Anstrengungen im Hinblick auf die strukturelle Integrati-on der Fluchtmigranten. Im gesamtgesellschaftlichen Kontext sind sie unverzichtbare Bestandteile der neuen Willkommenskultur, die seit den 2010ern versucht wird, in Deutschland zu etablieren. Als Einwanderungsland kann Deutschland mit Hilfe solcher Initiativen gezielt für Arbeitsbereiche und Berufsgruppen werben, in denen es an Nach-wuchs mangelt. Den Neuzugewanderten bieten sie die Chance sich in der hiesigen Ar-beitswelt zu orientieren und möglicherweise Berufsfelder zu erkunden, die ihnen bis-lang noch nicht oder nur in anderer Form bekannt waren.
Die Arbeitsgruppe konstituierte sich im Rahmen des Workshops „Querbezüge des Knowledge Engineering zu Methoden des Software Engineering und der Entwicklung von Informationssystemen" auf der 2. Deutschen Tagung Expertensysteme [AnS93]. Anfangs beteiligten sich zehn verschiedene Gruppen bzw. Einzelpersonen an der Arbeitsgruppe. Zur Fokussierung der Arbeiten beschloß die Arbeitsgruppe, sich primär mit den Themen Vorgehensmodelle und Methoden zu beschäftigen. Unter einem Vorgehensmodell wurde dabei die „Festlegung der bei der Entwicklung eines Systems durchzuführenden Arbeitsschritte verstanden, ... Beziehungen zwischen den Arbeitsschritten sind ebenso festzulegen wie Anforderungen an die zu erzeugenden Ergebnisse." [AL0+93]. Als eine Methode wurde eine „systematische Handlungsvorschrift zur Lösung von Aufgaben einer bestimmten Art verstanden." [AL0+93]. Dementsprechend wurde in der Arbeitsgruppe der Begriff Methodik im Sinne von Methodensammlung verwendet. Außerdem einigte man sich in der Arbeitsgruppe darauf, die Arbeiten anhand einer vergleichenden Fallstudie durchzuführen. In Abwandlung des oft verwendeten IFIP Beispiels [0SV82] wurde als Aufgabenstellung für die Fallstudie die Entwicklung eines (wissensbasierten) Systems zur Tagungsverwaltung ausgewählt. Im Rahmen ihrer Arbeit organisierte die Arbeitsgruppe noch einen weiteren Workshop „Vorgehensmodelle und Methoden zur Entwicklung komplexer Softwaresysteme", der auf der 18. Deutschen Jahrestagung für Künstliche Intelligenz durchgeführt wurde [KuS94]. Leider zeigte es sich in der laufenden Arbeit der Arbeitsgruppe, daß es insbesondere für Mitglieder aus der Wirtschaft sehr schwierig ist, sich über eine längeren Zeitraum aktiv an einer derartigen Arbeitsgruppe zu beteiligen. So blieben für die letzte Phase der Arbeitsgruppe nur noch vier Gruppen übrig, die auch in diesem Abschlußbericht vertreten sind. Von daher sollte klar sein, daß dieser Abschlußbericht keine alle Aspekte umfassende Analyse sein kann, sondern sich vielmehr auf Schlußfolgerungen beschränken muß, die auf Grund der analysierten Methodiken möglich sind. Gleichwohl beinhalten diese Methodiken aus Sicht der Autoren typische methodische Vorgehensweisen in den beteiligten Fachgebieten. Um einen systematischen Vergleich der Methodiken zu ermöglichen, erarbeitete die Arbeitsgruppe einen Kriterienkatalog, mit dem charakteristische Eigenschaften einer Methodik erfaßt werden können [Kri97]. Dieser Kriterienkatalog wird nachfolgend verwendet, um jede der vier Methodiken detailliert zu charakterisieren.
Bericht vom zweiten nationalen Best-Practice-Workshop der deutschen Open-Access-Monografienfonds
(2021)
Nachdem die letzte Konferenz der International Pragmatics Association (IPrA) aufgrund der COVID-19-Pandemie in den virtuellen Raum verlegt werden musste, kehrte die 18th International Pragmatics Conference wieder in die Präsenz zurück. Etwa 1300 Wissenschaftler:innen und Interessierte fanden sich vom 09. bis zum 14. Juli 2023 in der Europahauptstadt Brüssel zusammen, um sich unter dem Motto The shape of interaction: the pragmatics of (a)typicality über aktuelle Themen der Pragmatik auszutauschen. In mehr als 400 Sessions präsentierten Wissenschaftler:innen aus aller Welt ihre Forschung und diskutierten, was Typikalität und Atypikalität für die Sprachwissenschaft bedeutet. Dabei standen nicht nur die Teilnehmer:innen in Präsenz vor der Schwierigkeit, bei bis zu 24 simultan ablaufenden Vorträgen den thematisch passendsten auszuwählen: Die Konferenz fand erstmals als hybrides Format statt. Es schalteten sich rund 200 Teilnehmer:innen über die Konferenzplattform online dazu und folgten entweder der Vielzahl an Vorträgen oder präsentierten ihre eigenen Forschungsergebnisse.
Das vorliegende Dokument befasst sich mit der Evaluation des Basisformats des Deutschen Textarchivs (DTABf) als potenziellem Austausch- bzw. Zielformat für digitale Editionen. Der Text ist im Kontext des Projekts CLARIAH-DE entstanden und möchte die Fragen beantworten, wie und inwieweit das DTABf allgemein sinnvoll in der Editionsarbeit eingesetzt werden und in seiner aktuellen Fassung die Bedürfnisse von Edierenden bei der Textauszeichnung erfüllen kann. Ausgehend von bestehenden Editionsdaten, wird deren Auszeichnung auf ihre Interoperabilität und ihr Überführungspotenzial zum DTABf überprüft, damit gleichzeitig aber auch Kodierungsempfehlungen für die Neuanlage von Editionen abgeleitet. Im Bericht wird die angewandte Methodik erläutert, sowie die Ergebnisse der Evaluation zusammengefasst.
Die Editionsmatrix EdMa ist ein Hilfsmittel zur Kategorisierung von Editionen, das als Ausgangspunkt für eigene Planungen von Editorinnen und Editoren und für eine gezielte Beratung genutzt werden kann.
Die vorliegende Handreichung bzw. Anleitung zur kriterienbasierten Erfassung und Kategorisierung digitaler Editionen ist im Kontext des Projekts CLARIAH-DE entstanden, welches in seiner ersten Phase von April 2019 bis März 2021 vom Bundesministerium für Bildung und Forschung gefördert wurde.
Evaluationsbericht: Das DTA-Basisformat als Austauschformat für kritische Editionen (Neologie)
(2021)
Dieser Bericht befasst sich mit der Anwendung des DTA-Basisformats (DTABf) auf Editionen historischer Texte. Er ist im Kontext des CLARIAH-DE-Projekts entstanden und behandelt die Frage, inwiefern das DTABf als Austauschformat für Editionen historischer Texte sinnvoll eingesetzt werden kann. Dies wird an konkreten Beispielen solider Editionspraxis überprüft. Der generelle Rahmen ist im einleitenden Text (Fisseni et al., 2021) beschrieben. Dieser Evaluationsbericht stellt die Auswertung des ersten von drei Fallbeispielen (zusammen mit Schulz, 2021a, 2021b) für die Konversion unterschiedlich komplexer Editionen in das DTABf dar. Die hier betrachteten Beispiele stammen aus der Bibliothek der Neologie (BdN).
Das vorliegende Dokument befasst sich mit der Anwendung des DTA-Basisformats für Manuskripte (DTABf-M) auf die Edition handgeschriebener historischer Texte und ist im Kontext des CLARIAH-DE-Projekts (2019–2021) entstanden. Innerhalb von Arbeitspaket (AP) 1 „Forschungsdaten, Standards, Verfahren“ wird anhand ausgewählter Fallbeispiele evaluiert, inwieweit sich das Basisformat des Deutschen Textarchivs (DTABf) sinnvoll als Austauschformat für digitale Editionen allgemein einsetzen lässt. Die Evaluation wurde anhand eines kürzlich abgeschlossenen Editionsprojektes, welches an der Herzog August Bibliothek (HAB) Wolfenbüttel angesiedelt ist, durchgeführt. Bei dem Projekt "Selbstzeugnisse der Frühen Neuzeit in der Herzog August Bibliothek. Digitale Edition des Diariums von Herzog August dem Jüngeren, Selbstzeugnis-Repertorium und Forschungsportal" handelt es sich um ein vom Niedersächsischen Ministerium für Wissenschaft und Kultur (Pro* Niedersachsen) gefördertes Unternehmen.
Das vorliegende Dokument befasst sich mit der Anwendung des DTA-Basisformats für Manuskripte (DTABf-M) auf die kritische Edition handgeschriebener historischer Texte und ist im Kontext des CLARIAH-DE-Projekts (2019–2021) entstanden. Innerhalb von Arbeitspaket (AP) 1 „Forschungsdaten, Standards, Verfahren“ wird anhand ausgewählter Fallbeispiele evaluiert, inwieweit sich das Basisformat des Deutschen Textarchivs (DTABf) sinnvoll als Austauschformat für digitale Editionen allgemein einsetzen lässt. Die Evaluation wurde anhand der kommentierten Edition der Reise- und Sammlungsbeschreibungen Philipp Hainhofers vorgenommen, welche an der Herzog August Bibliothek (HAB) Wolfenbüttel angesiedelt ist und in Kooperation mit der Trierer Arbeitsstelle für Künstlersozialgeschichte entsteht.
We are witnessing an emerging digital revolution. For the past 25–30 years, at an increasing pace, digital technologies—especially the internet, mobile phones and smartphones—have transformed the everyday lives of human beings. The pace of change will increase, and new digital technologies will become even more tightly entangled in human everyday lives. Artificial intelligence (AI), the Internet of Things (IoT), 6G wireless solutions, virtual reality (VR), augmented reality (AR), mixed reality (XR), robots and various platforms for remote and hybrid communication will become embedded in our lives at home, work and school.
Digitalisation has been identified as a megatrend, for example, by the OECD (2016; 2019). While digitalisation processes permeate all aspects of life, special attention has been paid to its impact on the ageing population, everyday communication practices, education and learning and working life. For example, it has been argued that digital solutions and technologies have the potential to improve quality of life, speed up processes and increase efficiency. At the same time, digitalisation is likely to bring with it unexpected trends and challenges. For example, AI and robots will doubtlessly speed up or take over many routine-based work tasks from humans, leading to the disappearance of certain occupations and the need for re-education. This, in turn, will lead to an increased demand for skills that are unique to humans and that technologies are not able to master. Thus, developing human competences in the emerging digital era will require not only the mastering of new technical skills, but also the advancement of interpersonal, emotional, literacy and problem-solving skills.
It is important to identify and describe the digitalisation phenomena—pertaining to individuals and societies—and seek human-centric answers and solutions that advance the benefits of and mitigate the possible adverse effects of digitalisation (e.g. inequality, divisions, vulnerability and unemployment). This requires directing the focus on strengthening the human skills and competences that will be needed for a sustainable digital future. Digital technologies should be seen as possibilities, not as necessities.
There is a need to call attention to the co-evolutionary processes between humans and emerging digital technologies—that is, the ways in which humans grow up with and live their lives alongside digital technologies. It is imperative to gain in-depth knowledge about the natural ways in which digital technologies are embedded in human everyday lives—for example, how people learn, interact and communicate in remote and hybrid settings or with artificial intelligence; how new digital technologies could be used to support continuous learning and understand learning processes better and how health and well-being can be promoted with the help of new digital solutions.
Another significant consideration revolves around the co-creation of our digital futures. Important questions to be asked are as follows: Who are the ones to co-create digital solutions for the future? How can humans and human sciences better contribute to digitalisation and define how emerging technologies shape society and the future? Although academic and business actors have recently fostered inclusion and diversity in their co-creation processes, more must be done. The empowerment of ordinary people to start acting as active makers and shapers of our digital futures is required, as is giving voice to those who have traditionally been silenced or marginalised in the development of digital technology. In the emerging co-creation processes, emphasis should be placed on social sustainability and contextual sensitivity. Such processes are always value-laden and political and intimately intertwined with ethical issues.
Constant and accelerating change characterises contemporary human systems, our everyday lives and the environment. Resilience thinking has become one of the major conceptual tools for understanding and dealing with change. It is a multi-scalar idea referring to the capacity of individuals and human systems to absorb disturbances and reorganise their functionality while undergoing a change. Based on the evolving new digital technologies, there is a pressing need to understand how these technologies could be utilised for human well-being, sustainable lifestyles and a better environment. This calls for analysing different scales and types of resilience in order to develop better technology-based solutions for human-centred development in the new digital era.
This white paper is a collaborative effort by researchers from six faculties and groups working on questions related to digitalisation at the University of Oulu, Finland. We have identified questions and challenges related to the emerging digital era and suggest directions that will make possible a human-centric digital future and strengthen the competences of humans and humanity in this era.
Privacy in its many aspects is protected by various legal texts (e.g. the Basic Law, Civil Code, Criminal Code, or even the Law on Copyright in artistic and photographic works (KunstUrhG), which protects image rights). Data protection law, which governs the processing of information about individuals (personal data), also serves to protect their privacy. However, some information referring to the public sphere of an individual’s life (e.g. the fact that X is a mayor of Smallville) may still be considered personal data (see below), and as such fall within the scope of data protection rules. In this sense, data protection laws concern information that is not private.
Therefore, privacy and data protection, although closely related, are distinct notions: one can violate someone else’s privacy without processing his or her personal data (e.g. simply by knocking at one’s door at night, uninvited), and vice versa: one can violate data protection rules without violating privacy.
The following handouts focus exclusively on data protection rules, and specifically on the General Data Protection Regulation (GDPR). However, please keep in mind that compliance with the GDPR is not the only aspect of protecting privacy of individuals in research projects. Other rules, such as academic ethics and community standards (such as CARE) also need to be observed.
Forschungsprojekte erschließen, erfassen und publizieren eine große Menge digitaler Daten. Bis zur Publikation entstehen häufig Vorarbeiten oder auch Nebenprodukte des beabsichtigten Ergebnisses (beispielsweise Transkriptionen einzelner Texte oder Textzeugen, die die Grundlage z.B. für eine Edition bilden). CLARIAH-DE bietet verschiedene Möglichkeiten zur Integration von Angeboten und Inhalten aus der Community, die deren längerfristige Sicht- und Nachnutzbarkeit sicherstellt. Die vorliegende Handreichung befasst sich mit den Fragen, welche Textangebote wo und auf welche Weise archiviert werden können, sowie welche Kriterien verschiedene Arten von Daten erfüllen müssen, um grundsätzlich für eine Übernahme in den CLARIAH-DE-, Forschungsdatenmanagement- oder NFDI-Kontext geeignet zu sein.
Das neue Onlineformat PREPCONonline führt durch die Welt der Korpusdaten und zeigt, welchen Erklärungswert authentische Sprache, die von Experten aufbereitet ist, für die eigene sprachliche Kompetenz haben kann. Dieser Ansatz folgt der Überzeugung, dass vor allem auf einem gehobenen Kompetenzniveau reale Sprachausschnitte, die für einen Aspekt des Gebrauchs besonders typisch sind, möglichst unverfälscht abrufbar sein sollten, um Sprache, so wie sie wirklich verwendet wird, versteh- und anwendbar zu machen.
Das Projekt „Bürgernahe Sprache in der Finanzverwaltung“ verfolgt das Ziel, Texte aus dem Bereich der Steuerverwaltung in bürgernaher Sprache umzusetzen. Im September 2020 hat das IDS in enger Rückbindung an den Lenkungskreis des Projektes begonnen, eine Pilotstudie zu entwickeln. Hierin wurden ausgewählte Texte (Textbausteine) in einem Online-Umfrageformat mit verschiedenen Bewertungsskalen aufbereitet. Die Beispieltexte in der Studie stammen aus den Erläuterungstexten zum Einkommensteuerbescheid sowie den Ausfüllanleitungen zur Grundsteuer. Die Testpersonen sollten in mehreren unterschiedlichen Aufgabenblöcken ausgewählte Texte in Vorher- und/oder Nachher-Versionen über die Bewertungsskala bewerten. Zusätzlich konnten sie auf jeder Aufgabenseite Anmerkungen in einem Freifeld notieren. Das Ziel der Umfrage ist es, Bürgerinnen und Bürger zu ihren Eindrücken zu befragen und aus den Ergebnissen Rückschlüsse auf die Verständlichkeit der Texte zu ziehen. Ein wichtiges übergeordnetes Ziel der Pilotstudie ist es, die eigentlichen Adressatinnen und Adressaten der Texte in die Projektarbeit mit einzubeziehen. Die Einschätzungen und Anmerkungen der Beteiligten geben für den weiteren Projektverlauf hilfreiche Hinweise und werden in die weiteren Überlegungen und praktischen Umsetzungen einfließen. Dieser Bericht fasst die Ergebnisse aus der Pilotstudie zusammen. Er gibt zu den verschiedenen Blöcken, die die Probandinnen und Probanden bearbeitet haben, Einblick, wie die Testpersonen die ihnen präsentierten Texte bewertet haben. Dabei werden die quantitativ ausdrückbaren Ergebnisse durch grafische Darstellungen visualisiert und in textueller Form zusammengefasst. Die Antworten auf die offenen Fragen geben einen qualitativen Eindruck der Anmerkungen, die die Probandinnen und Probanden in Freifeldern hinterlassen haben.
Die zentrale Aufgabenstellung des Verbundprojektes TextTransfer (Pilot) war eine Machbarkeitsprüfung für die Entwicklung eines Text-Mining-Verfahrens, mit dem Forschungsergebnisse automatisiert auf Hinweise zu Transfer- und Impactpotenzialen untersucht werden können. Das vom Projektkoordinator IDS verantwortete Teilprojekt konzentrierte sich dabei auf die Entwicklung der methodischen Grundlagen, während der Projektpartner TIB vornehmlich für die Bereitstellung eines geeigneten Datensatzes verantwortlich war. Solchen automatisierten Verfahren liegen zumeist textbasierte Daten als physisches Manifest wissenschaftlicher Erkenntnisse zugrunde, die im Falle von TextTransfer (Pilot) als empirische Grundlage herangezogen wurden. Das im Verbund zur Anwendung gebrachte maschinelle Lernverfahren stützte sich ausschließlich auf deutschsprachige Projektendberichte öffentlich geförderter Forschung. Diese Textgattung eignet sich insbesondere hinsichtlich ihrer öffentlichen Verfügbarkeit bei zuständigen Gedächtnisorganisationen und aufgrund ihrer im Vergleich zu anderen Formaten wissenschaftlicher Publikation relativen strukturellen wie sprachlichen Homogenität. TextTransfer (Pilot) ging daher grundsätzlich von der Annahme struktureller bzw. sprachlicher Ähnlichkeit in Berichtstexten aus, bei denen der Nachweis tatsächlich erfolgten Transfers zu erbringen war. Im Folgenden wird in diesen Fällen von Texten bzw. textgebundenen Forschungsergebnissen mit Transfer- und Impactpotenzial gesprochen werden. Es wurde ferner postuliert, dass sich diese Indizien von sprachlichen Eigenschaften in Texten zu Projekten ohne nachzuweisenden bzw. ggf. auch niemals erfolgtem, aber potenziell möglichem Transfer oder Impact unterscheiden lassen. Mit einer Verifizierung dieser Annahmen war es möglich, Transfer- oder Impactwahrscheinlichkeiten in großen Mengen von Berichtsdaten ohne eingehende Lektüre zu prognostizieren.
The Lyon’s team research task consists in the study of the way in which multilingual resources are mobilized in team work within collaborative activities; how they are exploited in a specific way in order both to enhance collaboration and to respect the specificities of the members’ linguistic competences and practices within the team. Central to our analytical work, which is inspired by ethnomethodological conversation analysis, is the relationship between multilingual resources and the situated organization of linguistic uses and of social practices.