Refine
Year of publication
Document Type
- Report (32) (remove)
Language
- German (32) (remove)
Keywords
- Deutsch (7)
- Tagungsbericht (7)
- CLARIAH-DE (6)
- Edition (6)
- Digitale Edition (5)
- Basisformat des Deutschen Textarchivs (DTABf) (4)
- Kongressbericht (4)
- Linguistik (4)
- Austauschformat (3)
- Institut für Deutsche Sprache (IDS) (3)
Publicationstate
Reviewstate
- Peer-Review (9)
- (Verlags)-Lektorat (5)
Publisher
Nachdem die letzte Konferenz der International Pragmatics Association (IPrA) aufgrund der COVID-19-Pandemie in den virtuellen Raum verlegt werden musste, kehrte die 18th International Pragmatics Conference wieder in die Präsenz zurück. Etwa 1300 Wissenschaftler:innen und Interessierte fanden sich vom 09. bis zum 14. Juli 2023 in der Europahauptstadt Brüssel zusammen, um sich unter dem Motto The shape of interaction: the pragmatics of (a)typicality über aktuelle Themen der Pragmatik auszutauschen. In mehr als 400 Sessions präsentierten Wissenschaftler:innen aus aller Welt ihre Forschung und diskutierten, was Typikalität und Atypikalität für die Sprachwissenschaft bedeutet. Dabei standen nicht nur die Teilnehmer:innen in Präsenz vor der Schwierigkeit, bei bis zu 24 simultan ablaufenden Vorträgen den thematisch passendsten auszuwählen: Die Konferenz fand erstmals als hybrides Format statt. Es schalteten sich rund 200 Teilnehmer:innen über die Konferenzplattform online dazu und folgten entweder der Vielzahl an Vorträgen oder präsentierten ihre eigenen Forschungsergebnisse.
Die Arbeitsgruppe konstituierte sich im Rahmen des Workshops „Querbezüge des Knowledge Engineering zu Methoden des Software Engineering und der Entwicklung von Informationssystemen" auf der 2. Deutschen Tagung Expertensysteme [AnS93]. Anfangs beteiligten sich zehn verschiedene Gruppen bzw. Einzelpersonen an der Arbeitsgruppe. Zur Fokussierung der Arbeiten beschloß die Arbeitsgruppe, sich primär mit den Themen Vorgehensmodelle und Methoden zu beschäftigen. Unter einem Vorgehensmodell wurde dabei die „Festlegung der bei der Entwicklung eines Systems durchzuführenden Arbeitsschritte verstanden, ... Beziehungen zwischen den Arbeitsschritten sind ebenso festzulegen wie Anforderungen an die zu erzeugenden Ergebnisse." [AL0+93]. Als eine Methode wurde eine „systematische Handlungsvorschrift zur Lösung von Aufgaben einer bestimmten Art verstanden." [AL0+93]. Dementsprechend wurde in der Arbeitsgruppe der Begriff Methodik im Sinne von Methodensammlung verwendet. Außerdem einigte man sich in der Arbeitsgruppe darauf, die Arbeiten anhand einer vergleichenden Fallstudie durchzuführen. In Abwandlung des oft verwendeten IFIP Beispiels [0SV82] wurde als Aufgabenstellung für die Fallstudie die Entwicklung eines (wissensbasierten) Systems zur Tagungsverwaltung ausgewählt. Im Rahmen ihrer Arbeit organisierte die Arbeitsgruppe noch einen weiteren Workshop „Vorgehensmodelle und Methoden zur Entwicklung komplexer Softwaresysteme", der auf der 18. Deutschen Jahrestagung für Künstliche Intelligenz durchgeführt wurde [KuS94]. Leider zeigte es sich in der laufenden Arbeit der Arbeitsgruppe, daß es insbesondere für Mitglieder aus der Wirtschaft sehr schwierig ist, sich über eine längeren Zeitraum aktiv an einer derartigen Arbeitsgruppe zu beteiligen. So blieben für die letzte Phase der Arbeitsgruppe nur noch vier Gruppen übrig, die auch in diesem Abschlußbericht vertreten sind. Von daher sollte klar sein, daß dieser Abschlußbericht keine alle Aspekte umfassende Analyse sein kann, sondern sich vielmehr auf Schlußfolgerungen beschränken muß, die auf Grund der analysierten Methodiken möglich sind. Gleichwohl beinhalten diese Methodiken aus Sicht der Autoren typische methodische Vorgehensweisen in den beteiligten Fachgebieten. Um einen systematischen Vergleich der Methodiken zu ermöglichen, erarbeitete die Arbeitsgruppe einen Kriterienkatalog, mit dem charakteristische Eigenschaften einer Methodik erfaßt werden können [Kri97]. Dieser Kriterienkatalog wird nachfolgend verwendet, um jede der vier Methodiken detailliert zu charakterisieren.
Das neue Onlineformat PREPCONonline führt durch die Welt der Korpusdaten und zeigt, welchen Erklärungswert authentische Sprache, die von Experten aufbereitet ist, für die eigene sprachliche Kompetenz haben kann. Dieser Ansatz folgt der Überzeugung, dass vor allem auf einem gehobenen Kompetenzniveau reale Sprachausschnitte, die für einen Aspekt des Gebrauchs besonders typisch sind, möglichst unverfälscht abrufbar sein sollten, um Sprache, so wie sie wirklich verwendet wird, versteh- und anwendbar zu machen.
Die zentrale Aufgabenstellung des Verbundprojektes TextTransfer (Pilot) war eine Machbarkeitsprüfung für die Entwicklung eines Text-Mining-Verfahrens, mit dem Forschungsergebnisse automatisiert auf Hinweise zu Transfer- und Impactpotenzialen untersucht werden können. Das vom Projektkoordinator IDS verantwortete Teilprojekt konzentrierte sich dabei auf die Entwicklung der methodischen Grundlagen, während der Projektpartner TIB vornehmlich für die Bereitstellung eines geeigneten Datensatzes verantwortlich war. Solchen automatisierten Verfahren liegen zumeist textbasierte Daten als physisches Manifest wissenschaftlicher Erkenntnisse zugrunde, die im Falle von TextTransfer (Pilot) als empirische Grundlage herangezogen wurden. Das im Verbund zur Anwendung gebrachte maschinelle Lernverfahren stützte sich ausschließlich auf deutschsprachige Projektendberichte öffentlich geförderter Forschung. Diese Textgattung eignet sich insbesondere hinsichtlich ihrer öffentlichen Verfügbarkeit bei zuständigen Gedächtnisorganisationen und aufgrund ihrer im Vergleich zu anderen Formaten wissenschaftlicher Publikation relativen strukturellen wie sprachlichen Homogenität. TextTransfer (Pilot) ging daher grundsätzlich von der Annahme struktureller bzw. sprachlicher Ähnlichkeit in Berichtstexten aus, bei denen der Nachweis tatsächlich erfolgten Transfers zu erbringen war. Im Folgenden wird in diesen Fällen von Texten bzw. textgebundenen Forschungsergebnissen mit Transfer- und Impactpotenzial gesprochen werden. Es wurde ferner postuliert, dass sich diese Indizien von sprachlichen Eigenschaften in Texten zu Projekten ohne nachzuweisenden bzw. ggf. auch niemals erfolgtem, aber potenziell möglichem Transfer oder Impact unterscheiden lassen. Mit einer Verifizierung dieser Annahmen war es möglich, Transfer- oder Impactwahrscheinlichkeiten in großen Mengen von Berichtsdaten ohne eingehende Lektüre zu prognostizieren.
Bericht vom zweiten nationalen Best-Practice-Workshop der deutschen Open-Access-Monografienfonds
(2021)
Das Projekt „Bürgernahe Sprache in der Finanzverwaltung“ verfolgt das Ziel, Texte aus dem Bereich der Steuerverwaltung in bürgernaher Sprache umzusetzen. Im September 2020 hat das IDS in enger Rückbindung an den Lenkungskreis des Projektes begonnen, eine Pilotstudie zu entwickeln. Hierin wurden ausgewählte Texte (Textbausteine) in einem Online-Umfrageformat mit verschiedenen Bewertungsskalen aufbereitet. Die Beispieltexte in der Studie stammen aus den Erläuterungstexten zum Einkommensteuerbescheid sowie den Ausfüllanleitungen zur Grundsteuer. Die Testpersonen sollten in mehreren unterschiedlichen Aufgabenblöcken ausgewählte Texte in Vorher- und/oder Nachher-Versionen über die Bewertungsskala bewerten. Zusätzlich konnten sie auf jeder Aufgabenseite Anmerkungen in einem Freifeld notieren. Das Ziel der Umfrage ist es, Bürgerinnen und Bürger zu ihren Eindrücken zu befragen und aus den Ergebnissen Rückschlüsse auf die Verständlichkeit der Texte zu ziehen. Ein wichtiges übergeordnetes Ziel der Pilotstudie ist es, die eigentlichen Adressatinnen und Adressaten der Texte in die Projektarbeit mit einzubeziehen. Die Einschätzungen und Anmerkungen der Beteiligten geben für den weiteren Projektverlauf hilfreiche Hinweise und werden in die weiteren Überlegungen und praktischen Umsetzungen einfließen. Dieser Bericht fasst die Ergebnisse aus der Pilotstudie zusammen. Er gibt zu den verschiedenen Blöcken, die die Probandinnen und Probanden bearbeitet haben, Einblick, wie die Testpersonen die ihnen präsentierten Texte bewertet haben. Dabei werden die quantitativ ausdrückbaren Ergebnisse durch grafische Darstellungen visualisiert und in textueller Form zusammengefasst. Die Antworten auf die offenen Fragen geben einen qualitativen Eindruck der Anmerkungen, die die Probandinnen und Probanden in Freifeldern hinterlassen haben.
Das vorliegende Dokument befasst sich mit der Evaluation des Basisformats des Deutschen Textarchivs (DTABf) als potenziellem Austausch- bzw. Zielformat für digitale Editionen. Der Text ist im Kontext des Projekts CLARIAH-DE entstanden und möchte die Fragen beantworten, wie und inwieweit das DTABf allgemein sinnvoll in der Editionsarbeit eingesetzt werden und in seiner aktuellen Fassung die Bedürfnisse von Edierenden bei der Textauszeichnung erfüllen kann. Ausgehend von bestehenden Editionsdaten, wird deren Auszeichnung auf ihre Interoperabilität und ihr Überführungspotenzial zum DTABf überprüft, damit gleichzeitig aber auch Kodierungsempfehlungen für die Neuanlage von Editionen abgeleitet. Im Bericht wird die angewandte Methodik erläutert, sowie die Ergebnisse der Evaluation zusammengefasst.
Evaluationsbericht: Das DTA-Basisformat als Austauschformat für kritische Editionen (Neologie)
(2021)
Dieser Bericht befasst sich mit der Anwendung des DTA-Basisformats (DTABf) auf Editionen historischer Texte. Er ist im Kontext des CLARIAH-DE-Projekts entstanden und behandelt die Frage, inwiefern das DTABf als Austauschformat für Editionen historischer Texte sinnvoll eingesetzt werden kann. Dies wird an konkreten Beispielen solider Editionspraxis überprüft. Der generelle Rahmen ist im einleitenden Text (Fisseni et al., 2021) beschrieben. Dieser Evaluationsbericht stellt die Auswertung des ersten von drei Fallbeispielen (zusammen mit Schulz, 2021a, 2021b) für die Konversion unterschiedlich komplexer Editionen in das DTABf dar. Die hier betrachteten Beispiele stammen aus der Bibliothek der Neologie (BdN).