Was ist Datenqualität in historisch arbeitenden Fächern?

Qualitätsmaßstäbe – Qualitätsmanagement – Qualitätskriterien: nicht erst seit dem Einzug von maschinellem Lernen und Künstlicher Intelligenz in die Arbeitskultur wissenschaftlicher Disziplinen scheinen qualitätvolle Daten eine zentrale Rolle zu spielen. Für die Geschichtswissenschaft besteht schon lange die Herausforderung, Quellen in ihrer Qualität einzuschätzen:

  • Wie gut lässt sich eine mittelalterliche Handschrift lesen?
  • Welche Druckqualität hat ein frühneuzeitliches Flugblatt?
  • Und in welchem Verhältnis stehen nochmal die Fotografien in einem Album zu den dazugehörigen Texten?

Zur Beantwortung dieser Fragen sind jeweils unterschiedliche Einschätzungen der Qualität des vorliegenden Quellenmaterials nötig: von der reinen Schrift- und Bildqualität bis zur semantischen Verbindung unterschiedlicher Wissens- und Informationsträger.nen Schrift- und Bildqualität bis zur semantischen Verbindung unterschiedlicher Wissens- und Informationsträger.

Doch warum ist die Qualität von Forschungsdaten eigentlich so wichtig?

Der Verein der „Nationalen Forschungsdateninfrastruktur e.V.” gibt aus, dass „von [der] NFDI wertvolle Datenbestände von Wissenschaft und Forschung für das gesamte deutsche Wissenschaftssystem systematisch erschlossen, vernetzt und nachhaltig sowie qualitativ nutzbar gemacht [werden].” Die NFDI-Konsortien selbst verschreiben sich der Vision, „Daten als gemeinsames Gut für exzellente Forschung organisiert durch die Wissenschaft in Deutschland” voranzubringen. ‚Qualität’ steht im Feld des wissenschaftlichen Forschungsdatenmanagements (FDM) in enger Verbindung dazu, Forschungsdaten in ihrer Beschaffenheit und Güte zu bestimmen sowie unter Maßgabe der FAIR-Prinzipien einer wissenschaftlichen Nachnutzung zuzuführen. Qualität von und für Forschungsdaten gilt als ein Ausweis von Exzellenz, die zu Innovation führt.

Was ist das Besondere an Forschungsdaten in historisch arbeitenden Fächern?

In historisch arbeitenden Fächern liegen Forschungsdaten sowohl in inhaltlicher Vielfalt als auch in struktureller Heterogenität vor. Betrachtet man den Begriff der ‚Qualität‘ zunächst in seiner grundständigen Bedeutung – nämlich als Beurteilung der Beschaffenheit eines Gegen- oder Zustands – so stellt man fest, dass Forschungsdaten in historisch arbeitenden Fächern kaum in ihrer Beschaffenheit eingegrenzt werden können. Von historischen Dokumenten, Drucken, Handschriften und Büchern über Exzerpte, Transkriptionen, Audio- und Videoaufnahmen bis zum Social Media Post, einem digital born data set, Netzwerkvisualisierungen und Quellcode: Nahezu alle Informationen, Artefakte, Bauwerke oder Wissensspeicher unserer Zeit können perspektivisch zu Quellen zukünftiger Historiker*innen werden. Diese Quellen zu rezipieren, zu analysieren, zu bewerten und in ihren jeweiligen Kontext einzuordnen, ist Aufgabe der Forschungsfragen zukünftiger Historiker*innen. Datenqualität in historisch arbeitenden Fächern bedeutet daher stets, Kontextinformationen einer jeweiligen Quelle bzw. eines Forschungsdatums so zu erfassen, dass ihre Entstehungs- und Wirkungskontexte daraus rekonstruiert werden können.

Ein idealtypischer Forschungsdatenlebenszyklus für die historisch arbeitenden Fächer sieht einen iterativen Prozess vor, in dem Daten mehrfach durch die Auswahl, Aufbereitung und Auswertung von Quellen erzeugt bzw. kompiliert, bearbeitet und abgelegt werden.

Ein idealtypischer Research Data LifeCycle unter Einbeziehung von Publikation, Archivierung und Nachnutzung (aus:Puhl, Johanna et. al. 2015: „Diskussion und Definition eines Research Data LifeCycle für die digitalen Geisteswissenschaften,”, DARIAH-DE Working Papers 11, S. 43)

Für den Aufbau und Erhalt von Datenqualitätskriterien besteht insbesondere dann eine Herausforderung, wenn – wie in historisch arbeitenden Fächern üblich – Daten während des Forschungsprozesses nicht selbst erhoben oder generiert, sondern in Gedächtniseinrichtungen wie Archiven, Bibliotheken und Forschungsinstituten zusammengetragen und ausgewertet werden. Solche komplexen Derivatprozesse und Kompilationsformen abzubilden, gehört zu den zentralen Aufgaben und Herausforderungen eines Datenqualitätsmanagements für historisch arbeitende Fächer.

Neben diesen strukturellen und teilweise stark wissenschaftspolitisch geprägten Aspekten von Datenqualität in historisch arbeitenden Fächern kommt der digitalen Aufbereitung und freien Verfügbarmachung von Quellen meist auch eine ethische Verantwortung zu. Gerade im Hinblick auf Daten, die Personen oder Personengruppen adressieren oder beschreiben, sowie eine Kontextualisierung von Daten, die aus heutiger Perspektive politische, soziale, sprachliche, gesellschaftliche oder auf Geschlecht bezogene Diskriminierung zeigen, fehlen bisher fachgeleitete Empfehlungen zur Genese und dem Processing von Daten und Metadaten. Insbesondere eine inhaltliche Auseinandersetzung mit Parametern, wie sie die“CARE Principles for Indigenous Data Governance” der „Global Indigenous Data Alliance (GIDA)“ für die ethnologische Forschung bieten, können wertvolle Denkanstöße für die Auszeichnung ethisch-sensibler Inhalte in Forschungsdatenbeständen historischer Forschung und Data Governance-Strukturen von Gedächtniseinrichtungen sein.

Wir schlagen Ihnen vor, diesen Beitrag wie folgt zu zitieren: Was ist Datenqualität in historisch arbeitenden Fächern? Anna-Lena Körfer (2026, März). Veröffentlichungen zur Datenqualität in den historischen Wissenschaften. https://datenqualitaet.org/datenqualitaet/