Johannes Paulmann, John Carter Wood, Fabian Cremer |

Historiker und Historikerinnen haben eine gut bewährte Art und Weise, mit ihren Quellen und der Forschungsliteratur umzugehen: Von der Konzeption einer Fragestellung über die Identifizierung möglicher Quellen, das Sammeln von Information, die kritische Verwendung von Quellen, die Veröffentlichung von Forschungsergebnissen in Fachpublikationen bis hin zum Rezensionswesen stehen etablierte Methoden und Praktiken bereit. Diese haben sich seit dem 19. Jahrhundert in vielen historisch arbeitenden Fächern herausgebildet und garantieren wissenschaftliche Standards, Nachvollziehbarkeit, Überprüfbarkeit und Qualität. Sie bestimmen nicht nur das individuelle wissenschaftliche Arbeiten, sondern sind auch eingebettet in institutionelle Strukturen von Universität, Gedächtniseinrichtungen (wie Archiven, Bibliotheken oder Sammlungen) und des Verlagswesens. 

Historischer Wandel

Wir erleben allerdings durch die Digitalisierung einen grundlegenden Wandel, der die vertrauten Wege vom Archiv über den Schreibtisch bis ins Bibliotheksregal verändert. Das sind einerseits äußerliche, willkommene Veränderungen, weil wir vielleicht nicht mehr physisch in ein Archiv müssen oder die Forschungsliteratur online am PC lesen können. Andererseits greifen digitale Entwicklungen tief in wissenschaftliche Methoden sowie in die empirische Basis historisch arbeitender Disziplinen ein: Wir beginnen digitale Forschungsdaten maschinell zu suchen, zu sammeln und auszuwerten. Wir produzieren Daten, wir reichern sie an und wir nutzen sie nach. All das erfordert technische Expertise und praktische Übung: Das ist mehr oder weniger mühsam zu erlernen. Doch darüber hinaus bergen historische Daten als digitale Repräsentation von Quellen eine besondere Herausforderung. 

Forschungsdaten und die ihnen zugrunde liegenden Quellen sind nicht nur sehr heterogen: Sie reichen von Texten über Statistiken und Bilder bis hin zu audiovisuellen Medien und originär digitalen Informationen der gegenwartsnahen Geschichte. Entscheidend für ihre wissenschaftliche und gesellschaftliche Verwendung ist jedoch ihre Bindung an bestimmte historische Kontexte: Für ihr Verständnis und ihre Interpretation müssen wir wissen, wo, wie und in welchem Format sie ursprünglich hergestellt wurden. Und natürlich wer sie wann und wofür produziert hat. Die empirischen Grundlagen historischer Erkenntnis – unsere Quellen – sind in vielfältigen gesellschaftlichen und kulturellen Zusammenhängen entstanden, in denen etwa die Bedeutung von Bezeichnungen und Ortsnamen, aber auch Begriffe, Kategorien und Konzepte sich nicht nur unterschieden, sondern historisch wandelten. Dieses Wissen über die Historizität darf durch ihre digitale Repräsentation nicht verloren gehen. Es könnte vielmehr zugänglicher werden als bisher und sogar verbessert werden. Dazu ist allerdings die enge Zusammenarbeit von Forschung, Lehre, Gedächtniseinrichtungen und Forschungsinfrastrukturen notwendig. Zugleich bedarf es einer kritischen Reflexion, auch über die institutionellen, gesellschaftlichen und ökonomischen Bedingungen der aktuellen Digitalisierung.1 Dazu gehört auch, die an europäischen Wissensordnungen orientierten Vorstellungen und Praktiken global einzuordnen und zu hinterfragen. 

Im Rahmen des von der Gemeinsamen Wissenschaftskonferenz des Bundes und der Länder geförderten Aufbaus einer Nationalen Forschungsdateninfrastruktur (NFDI) für alle Disziplinen hat sich eine Konsortialinitiative für historisch arbeitende Geisteswissenschaften gebildet. Unter dem Namen 4Memory strebt sie an, die systematische Vernetzung von forschenden, lehrenden, bewahrenden und infrastrukturellen Einrichtungen voranzutreiben, die historisch-kritische Methode in das digitale Zeitalter zu transformieren und die historischen Geisteswissenschaften so in die Lage zu versetzen, ihre kritische Funktion für die gegenwärtige Gesellschaft auch in Zukunft auszuüben. Die wesentlichen Ziele von 4Memory lassen sich anhand des Akronyms »Linkage« kurz zusammenfassen.

Linking research, memory institutions and infrastructure

Digitaler Zugang zu Forschungsdaten bietet die Chance, die institutionelle Trennung zwischen Forschung, bewahrenden Institutionen und Infrastrukturen zu überbrücken: Ein übergreifender Wissenszugang, der über die bisherige zumeist arbeitsteilige Kooperation hinausreicht, kann geschaffen werden. Es existieren selbstverständlich schon herausragende Dienste wie etwa das Archivportal-D, die Deutsche Digitale Bibliothek oder Europeana:2 institutionell gestützte, größere Vorhaben, deren sinnvolle Verknüpfung mit Forschung und Infrastruktureinrichtungen im Prozess der Digitalisierung kontinuierlich überdacht und gepflegt werden muss.

Historisch orientierte Forschungen basieren jedoch häufig auf kleineren Einzelvorhaben oder Verbundprojekten, deren digitale Komponenten bestenfalls finanziell gefördert, aber von anderen nicht gefunden werden können oder nach Ende eines Projektes verschwinden. Hier sollten Angebote zur Verfügung stehen, Forschungsdaten aus unterschiedlichen institutionellen Zusammenhängen systematisch zu vernetzen. Um Daten findable, accessible, interoperable und reusable zu machen (die FAIR-Prinzipien, die in NFDI-Konsortien umgesetzt werden) und ein größtmögliches Nutzungspotenzial zu erreichen, sollte die Archivierung und Bereitstellung forschungsgeleitet sein.

Die Digitalisierung der Arbeits- und Forschungsprozesse eröffnet mit der Überwindung räumlicher und institutioneller Distanzen viele neue Kooperationsformen: Archive werden verstärkt zu Partnern in Forschungsvorhaben und verstehen sich als Forschungsinfrastrukturen, Museen öffnen ihre Sammlungen und werden zu Providern für Forschungsdaten, nicht nur für die Forschung im eigenen Haus. Bibliotheken sind gefordert, die informationstechnologischen Grundlagen der Vernetzung von Forschungsdaten zu entwickeln. Infrastruktur kann so gemeinsam gedacht werden. All dies führt diese Einrichtungen viel näher an die Forschungsprozesse heran und erfordert neue Modelle der integrativen Zusammenarbeit anstelle der bisherigen kooperativen Arbeitsteilung. Ziel von 4Memory ist die Förderung digitaler Dienste und Standards, die eine innovative Forschungsumgebung bereitstellen.

Integrating historical source criticism into Data Management

Historikerinnen und Historiker verfügen über die Tradition der Quellenkritik als einen elementaren Bestandteil ihrer historischen Forschungsarbeit.3 Zentral sind für sie die Fragen nach Autorschaft und Entstehung von Quellen (das sind Texte, Gegenstände oder Tatsachen), nach ihrer zeitlichen Einordnung und ihrer Echtheit. Vor der Interpretation wird gewöhnlich eine Art Befund erhoben: Auf Texte bezogen heißt das, nach den Autorinnen und Autoren zu fragen, nach ihren Lebensumständen und Intentionen beim Verfassen. Es ist zu klären, ob eine Quelle echt oder gefälscht ist, wie weit sie verbreitet war und wie sie rezipiert wurde. Diese letzten Gesichtspunkte hängen eng mit der materiellen Beschaffenheit der Texte und Gegenstände zusammen. Handelt es sich um eine Urkunde auf Pergament, einen Einblattdruck, eine illustrierte Zeitschrift oder die Transkription eines Gesprächs?

Bei der Digitalisierung drohen zahlreiche Informationen, die der Quelle als Objekt anhaften, verloren zu gehen. Die Ablösung vom Trägermaterial führen zu einer Entmaterialisierung, während maschinelle Lesbarkeit und Filterfunktionen ungewollt Kontexte ausblenden können. Schon bei einer »einfachen« Abbildung eines Schriftstücks als PDF-Datei lässt sich etwa der Streusand zum Trocknen feuchter Schreibtinte nicht mehr spüren, die schlechte Papierqualität während der Weltkriege und der Papiermangel sind nicht mehr erkennbar. Konservatorisch mag die Digitalisierung erwünscht sein, historisch betrachtet gehen Informationen über die Entstehungsbedingungen von Quellen verloren. Noch weiter abgelöst vom Original ist die Repräsentation und Anreicherung von Texten in einer sogenannten Auszeichnungssprache (markup language) wie die Annotation durch HTML oder die Strukturierung mit XML. Da die Befunde im Rahmen der Quellenkritik wesentlich für die Deutung sind, um Fehlinterpretationen zu vermeiden, gilt es, sowohl die Digitalisierung von Quellen als auch die Weiterarbeit mit digitalen Forschungsdaten so zu gestalten, dass diese Informationen weiterhin zur Verfügung stehen und die Authentizität gesichert bleibt. Dazu sind historisches Wissen, Kompetenz im Umgang mit den Dingen, aus denen wir Kenntnis über die Vergangenheit gewinnen, sowie informationswissenschaftliche Expertise notwendig.

Umgekehrt bieten digitale Forschungsdaten neue Möglichkeiten, die Quelleninhalte mit Kontextinformationen aus anderen digitalen Beständen zu verknüpfen – gezielt, aber auch automatisiert. Das können ähnliche zeitgenössische Quellenbestände, aber auch Forschungsliteratur oder im Prozess von Forschungen generierte Informationen (Exzerpte, Zeitzeugeninterviews oder Statistiken und Ähnliches) sein. Digital fällt die notwendige Kontextualisierung leichter und erfolgt eventuell umfassender. Um etwa zu erfahren, ob Aussagen in einem Text einmalig oder zu ihrer Zeit konventioneller Natur oder auch gattungsspezifischer Art gewesen sind, lassen sie sich mit anderen Texten aus der Zeit oder anderen Epochen maschinell vergleichen, ohne dass die Forschenden unzählige Vergleichstexte lesen müssen. Dies ist auch deswegen eine große Aufgabe, weil es nicht lediglich um technische Verfügbarkeit, sondern um die Qualität der digitalen Daten im Sinne der quellenkritischen Nachprüfbarkeit geht. Und wir sollten um die digitalen Lücken wissen, damit digitale Nichtverfügbarkeit nicht als Nichtexistenz missverstanden wird.

Network of historically oriented research communities

4Memory definiert seine Forschungscommunity als die historisch arbeitenden Wissenschaften in einem breiten Verständnis. Die Geschichtswissenschaften selbst umfassen ein epochal und methodisch vielfältiges Forschungsfeld, das von der Alten Geschichte über Mittelalter und Frühe Neuzeit bis in die Neueste und Zeitgeschichte reicht. Räumlich beziehen sie sich auf Lokal- und Regionalgeschichte, die deutsche Geschichte, aber selbstverständlich auch darüber hinaus auf die europäische Geschichte sowie die Vergangenheit anderer Weltregionen und die Globalgeschichte. Methodisch handelt es sich um ein ausdifferenziertes Feld, das entsprechend dem historischen Interesse am Handeln und Denken von Menschen gegenwärtig vor allem im Austausch mit verschiedenen Sozialwissenschaften und Kulturwissenschaften steht. Doch beschränkt sich die Forschungscommunity keineswegs auf das breite Fach der Geschichtswissenschaften, denn ein historischer Zugang wird seit dem 19. Jahrhundert auch in zahlreichen anderen Disziplinen gepflegt.

Screenshot des 4Memory-Moderatorenteams aus dem 2. Community-Treffen »Questions & Answers« im März 2020. 

Die digitale Transformation der Kommunikationsprozesse und die zunehmend datengestützten Arbeitsprozesse tragen zur Ausweitung der Forschungscommunity bei: Digitale Kommunikationsinfrastruktur vereinfacht die Zusammenarbeit in Verbünden und bildet damit auch eine wesentliche Grundlage für interdisziplinäre Ansätze. Durch den ortsunabhängigen und maschinellen Zugriff auf große Datenmengen können auch klassische regionale oder temporale Themeneingrenzungen ausgedehnt werden. Werden dabei klassische disziplinäre Grenzen überschritten, entstehen jedoch neue methodologische Anforderungen, die eine interdisziplinäre Zusammenarbeit, Multiperspektivität und Methodenvielfalt erfordern. Digitale Methoden liegen daher auch oft quer zu traditionellen Methodologien. Als Beispiele seien historische Netzwerkanalyse, Distant reading, Topic modelling oder Spatial history genannt. Offene Forschungsdaten tragen wesentlich zu dieser interdisziplinären Kultur bei, denn sie laden zur Nachnutzung ein – auch aus einer anderen disziplinären Perspektive.

4Memory wird daher auch die Bedarfe und Interessen anderer Fächer, die mit historischen Daten arbeiten oder die Daten verwenden, die durch historische Methoden analysiert werden müssen, berücksichtigen. Dies kann noch nicht flächendeckend erfolgen, sondern nur schrittweise, einerseits durch die exemplarische Beteiligung ausgewählter Disziplinen und andererseits durch die Abstimmung mit anderen Konsortien der NFDI. Direkt beteiligt sind zurzeit bereits die Historische Philosophie, die Religionswissenschaft, die Area studies und die Wirtschafts- und Sozialgeschichte. Sie stehen vor denselben Herausforderungen bezüglich historischer Daten, haben aber auch ihre je eigenen fachlichen Anforderungen. Ihre Partizipation erschließt für 4Memory unter anderem die Reflexion über unterschiedliche Wissensordnungen, die Forschungsdaten von nicht europäischen Gesellschaften und Kulturen sowie den Zugang zu sozialwissenschaftlichen Methoden. Zugleich erreichen die seitens unseres Konsortiums erzielten Ergebnisse und Einsichten in den Umgang mit historischen Daten auf diesem Weg eine breitere Community von historisch Forschenden. Im NFDI-Prozess hat 4Memory hierzu ferner eine Kooperationsvereinbarung mit drei weiteren geisteswissenschaftlichen Konsortialinitiativen getroffen: mit 4Culture, die insbesondere Kunst- und Musikwissenschaft sowie Medien- und Theaterwissenschaft mit Blick auf kulturelles Erbe bedient, mit 4Objects, die mit der Archäologie und der Denkmalpflege die materielle Kultur bearbeitet, sowie mit Text+, die sich der Sprachwissenschaft und den textbasierten Daten widmet. Aus der Perspektive der historisch arbeitenden Disziplinen kommt damit die Vielfalt relevanter Forschungsdaten von kulturellen Erzeugnissen über Gegenstände bis zu Texten in den Blick –, auf deren historischen Wandel und Kontextgebundenheit sich 4Memory konzentriert und damit den Partnern zentrale Expertise und Services anbieten kann.

Knowledge order for the digital future of the past

Wissen wird in Ordnungssystemen produziert, klassifiziert und verbreitet. Diese schaffen abgegrenzte institutionelle und disziplinäre Räume des Wissens und setzen sie zueinander in Beziehung. Die gegenwärtige europäische Wissensordnung ist über Jahrhunderte gewachsen. In den Geisteswissenschaften ist die etablierte Wissensordnung von Büchern und Zeitschriften, von bibliothekarischen Klassifikationssystemen, Methoden der Archivierung von Papier und Distributionssystemen geprägt. Wir wissen – oder haben wenigstens Kriterien dafür –, was »geprüftes« Wissen in analogen Kontexten ist und wie wir es zitieren sollen. Die digitale Transformation von Wissen und Forschung verändert diese Ordnung. In gewissem Sinne unterläuft sie sie, weil die Qualität von Wissen nicht sofort erkennbar wird, die archivalischen, bibliothekarischen und sammlungsbezogenen Klassifikationssysteme für die Suche im digitalen Raum weniger Bedeutung zu haben scheinen und die disziplinären Abgrenzungen verschwimmen. Um Qualität, Auffindbarkeit und fachlich-methodische Zusammenhänge zu sichern, sollte eine der analogen Infrastruktur funktional vergleichbare digitale Infrastruktur entwickelt werden.4 Für Forschende sollte sie Datenbestände systematisch erschließen, nachhaltig sichern und für die wissenschaftlichen Anliegen nutzbar machen. Das heißt auch, Datenbestände in Fachdomänen so verknüpfbar zu gestalten, dass »Datensilos« geöffnet werden. Nationale und internationale Vernetzung von Einrichtungen mit ihren Forschungsdaten sind dabei von großer Bedeutung, um einer Kleinteiligkeit, die der vielfältigen geisteswissenschaftlichen Einzelforschung und den historisch gewachsenen institutionell-territorialen Ordnungen von Archiven, Bibliotheken und Sammlungen eigen ist, entgegenzuwirken. Das erfordert eine fortwährende Entwicklung und ein stetiges Engagement der Beteiligten, die 4Memory unterstützen soll.

Es geht jedoch um mehr als Datenmanagement. Die digitale Infrastruktur sollte die historisch-kritische Funktion der Geisteswissenschaften für die gesellschaftliche Entwicklung sichern. Dazu ist die enge Entwicklungszusammenarbeit zwischen Forschung und Informationsinfrastruktur erforderlich. Die bewahrenden Einrichtungen haben bereits die Verpflichtung, als wertvoll erachtete Bestände für die Zukunft zu sichern. Sie besitzen zentrale Kompetenzen, sie auffindbar und zugänglich zu machen sowie ihre Authentizität zu prüfen. Diese Fähigkeiten im Verbund mit der historisch orientierten Forschung sowie mit der informationswissenschaftlichen Expertise für digitale Forschung, das heißt für wissenschaftliches Arbeiten mit digitalen Werkzeugen und Verfahren weiterzuentwickeln, ist eine zentrale Aufgabe. Zugleich besteht die Herausforderung darin, analoge Forschungsdaten nicht aus dem Blick zu verlieren und damit unbeabsichtigt eine Wissenshierarchie oder gar eine Lücke zu schaffen.

Advancing the analogue/digital interface of historical source material and data

Struktur und Charakter der medialen Träger einer Wissensordnung sind keineswegs trivial, sie sind aber auch nicht homogen. Wir wissen, dass historisch medialer Wandel in der Regel nicht zur Ablösung von Medien, sondern zur Ergänzung von bekannten durch neue 

Medien führte. Das Radio hat die Zeitung nicht verdrängt, das Fernsehen das Radio nicht ausgeschaltet und so werden auch digitale Medien die vorhandenen Kommunikations- und Repräsentationswerkzeuge nicht »zu den Akten legen«, sondern eine neue Mischung und Funktionsteilung bewirken. Eine durch und durch digitalisierte Welt gehört zum Genre der Science-Fiction. Sie erscheint dem einen als Utopie, der anderen als Dystopie. Doch nicht nur divergierende Zukunftsvisionen, sondern schon allein die Endlichkeit und ungleiche Verteilung der Ressourcen führt dazu, dass eine umfassende Digitalisierung von Quellen im Sinne der digitalen Repräsentation unseres empirischen Materials nicht realisiert werden wird. Wenn wir für historisch arbeitende Geisteswissenschaften digitale Forschungsinfrastrukturen fördern wollen, ist es eine der wichtigen Aufgaben, die Schnittstellen zur analogen Überlieferung systematisch auszubauen und zu verbessern. Andernfalls kreieren wir eine wissenschaftlich anmutende digitale Blase ohne Sinn jenseits ihrer selbst – in wissenschaftlicher wie in gesellschaftlicher Hinsicht.

Die digitale Transformation der Wissenschaft bedeutet nicht eine umfassende Digitalisierung der Zeugnisse, sondern zielt in erster Linie auf umfassenden und offenen Zugang zu Quellen und Daten. Ein wesentlicher Teil dieser Demokratisierung des Zugangs zu Wissen sind öffentliche und offene Forschungsinfrastrukturen. Auch die wachsende Zahl originär digitaler Quellen ist nur ein Teil der kulturellen und gesellschaftlichen Wirklichkeit und diese entstehen in historisch bestimmten politischen und ökonomischen Kontexten. Sie im forschenden Umgang mit Daten analytisch durch den quellenkritischen Befund für die Deutung von historischem Wandel zu erschließen und zu verbinden, ist eine genuine Aufgabe historisch orientierter Wissenschaft in Gegenwart und Zukunft.

Generating standards for historical research data and sustainability

Die NFDI soll sowohl generische als auch fachspezifische Bedarfe des Forschungsdatenmanagements abdecken. Für die Qualitätssicherung der Forschungsdaten werden Standards angestrebt, die sowohl übergreifende als auch fachspezifische Kriterien vereinen. Gerade weil unsere Disziplinen Quellen untersuchen, deren Datenformate in anderen Disziplinen standardisiert werden, sind die historischen Fragestellungen in diesen Standardisierungsprozessen häufig unterrepräsentiert (zum Beispiel historische Bezüge im Textencoding, temporale Ebenen in Normdatenvokabularen, räumliche und zeitliche Differenzierung in Erschließungskatalogen). 4Memory möchte daher die Entwicklung von fachspezifischen Standards und Verfahren im Umgang mit Forschungsdaten in den historisch arbeitenden Geisteswissenschaften unterstützen und vorantreiben.

Qualitätssicherung und Forschungsdatenmanagement finden nicht nur auf Dateiebene statt, sondern erfordern die Entwicklung von Verfahren zur Dokumentation und Kuration, die eine Nachnutzung auf der technischen und rechtlichen (Nutzbarkeit), aber auch der intellektuellen Ebene (Verstehbarkeit) ermöglicht. Um Nachhaltigkeit wirklich zu erreichen, müssen diese Verfahren in die Arbeitsprozesse der Forschung integriert werden. Dies erfordert zur Entlastung auch neue Professionen wie das Forschungsdatenmanagement und die Diskussion um einen zielgerichteten und angemessenen Ressourceneinsatz, denn Forschungsdatenmanagement ist Teil des Forschungsprozesses und der guten wissenschaftlichen Praxis. Vor allem aber sollten Forschende in die Lage versetzt werden, schon bei der Produktion ihrer Daten auf die Standards und Formate zu achten, sodass ihre Daten nachhaltig archiviert und nutzbar gemacht werden können. Die Sicherung der Qualität von Informationen stellt also hohe, nicht nur technische, sondern auch informations- und fachwissenschaftliche Anforderungen an diejenigen, die Daten produzieren, bewahren und bereitstellen, sowie an diejenigen, die sie nutzen und weiterverarbeiten wollen. Schließlich erfordert eine Qualitätssicherung von Forschungsdaten auch eine Integration in unsere Fachkultur durch ein digitales Rezensionswesen, Kriterien für Qualitätsstufen, Prinzipien für Datenautorschaft, sowie Reputationsgewinn und ein fachspezifisches Gutachterwesen.

Education and citizen participation

Historisch arbeitende Wissenschaftlerinnen und Wissenschaftler nutzen digitale Werkzeuge bereits vor allem in ihrem Alltag als Medien der Kommunikation bei der Recherche, während des forschenden Denkens und in der Verbreitung ihrer neuen Erkenntnisse. Weniger kompetent fühlen sich viele und sind sie es in der Verwendung digitaler Werkzeuge und Methoden in der Produktion und im Umgang mit digital bearbeitbaren Forschungsdaten. Wie kann ich Quellentexte in einer markup language darstellen und wie kann ich sie mit Metadaten anreichern? Wie muss ein Algorithmus geschrieben werden, damit ich mit seiner Hilfe die Daten sinnvoll für meine Forschungsfragen auswerten kann? In welcher Form und wo speichere ich meine Daten langfristig? Die Antworten auf solche Fragen sind vielen nicht selbstverständlich. Sie sind auch keineswegs rein technischer Natur, sodass sie als Dienstleistung abgerufen werden könnten. Sie sind vielmehr eng mit 

den historischen Forschungsinteressen und -methoden verwoben. Um solche Fragen selbstständig und im Verbund zu beantworten, bedarf es einer grundlegenden »Datenlesefähigkeit« der Einzelnen und der Förderung einer »Datenkultur« in der Breite der historisch arbeitenden Geisteswissenschaften. 

Um die Ziele von Linkage zu erreichen, brauchen nicht nur digital affine Wissenschaftlerinnen und Wissenschaftler data literacy, sondern möglichst alle historisch Forschenden müssen sie erwerben können. 4Memory möchte daher für die Möglichkeiten und Anforderungen digitaler historischer Forschung sensibilisieren und Angebote für die digitale Aus- und Fortbildung entwickeln. 4Memory wird dies nach dem Prinzip des teaching the teachers vorgehen. Aufbauend auf bereits vorhandene, an verschiedenen Orten entwickelte Ideen, wird 4Memory die existierenden Zentren und Komponenten zusammenführen, um Ausbildungskonzepte, Curricula und Module für die notwendigen digitalen Kompetenzen für universitäre Lehrgänge, Archive und Bibliotheken zu evaluieren und weiterzuentwickeln. Langfristiges Ziel wird es sein, den Erwerb von data literacy – die Fähigkeiten, Daten zu sammeln, aufzubereiten, auszuwerten und auf konkrete Forschungsfragen anzuwenden – an den Universitäten und Forschungseinrichtungen institutionell zu verankern. Auch für historisch Forschende außerhalb dieser Institutionen ist es im Rahmen von citizen science von hoher Bedeutung, Kompetenzen im Umgang, der Interpretation und der Bewertung digitaler Daten zu erwerben. So können zum einen partizipatorische Forschungsvorhaben qualitätvoll durchgeführt und das Wissen sowie das Engagement der Bevölkerung eingebunden werden. Zum anderen dient die Verbreitung digitaler Lesefähigkeit der gesellschaftlichen und politischen Entwicklung. 

Die Grenzen zwischen wissenschaftlichem und nicht wissenschaftlichem Wissen werden heute durch die Digitalisierung oft unklarer. Wenn Wissenschaft nicht mehr nur in Universitätsbibliotheken als gedruckte Monografien, Sammelbände oder Zeitschriftenartikel zu finden ist, sondern auf jedem Bildschirm (wo sie von eher fragwürdigen Informationsquellen, die auf der Oberfläche erscheinen, eventuell kaum zu unterscheiden sind), verändert sich der Umgang mit Wissenschaft grundlegend. Die aktuellen Entwicklungen in der Welt unterstreichen die kritische Funktion der Geisteswissenschaft. Um ihre gesellschaftlichen und politischen Aufgaben auch künftig auf der Basis wissenschaftlicher Qualitätsstandards und Verfahren erfüllen zu können, möchte 4Memory die quellenkritischen Methoden weiterentwickeln. So können Forschung, bewahrende Einrichtungen und Infrastrukturen gemeinsam den historischen Wandel mitgestalten – in den historisch arbeitenden Geisteswissenschaften, im Rahmen der disziplinübergreifenden Nationalen Forschungsdateninfrastruktur und in den Gesellschaften unser globalen Gegenwart und Zukunft.

 Fußnoten

1 Zur Notwendigkeit kritischer Reflexion der digitalen Infrastrukturen und zum Verhältnis von analogen und digitalen Methoden siehe Petra Gehring, Hype oder Chance? Experiment oder Falle? Digitalität als Sache von fachlichem Unterscheidungs- und Entscheidungsbedarf

2 https://www.archivportal-d.de/; https://www.deutsche-digitale-bibliothek.de/; https://www.europeana.eu/

3 Siehe auch den Beitrag von Ursula Lehmkuhl, Jenseits der Herausforderungen der Ad-hoc-Digitalisierung. Überlegungen zur Auswirkung des digital turn auf die geschichtswissenschaftliche Lehre

4 Der Text folgt hier Johannes Paulmann, Eva Schlotheuber, Digitale Wissensordnung und Datenqualität. Herausforderungen, Anforderungen und Beitrag historisch arbeitender Wissenschaften, in: Archivar 73, 2020, H. 1, S. 9 – 12, http://www.archive.nrw.de/ archivar/hefte/2020/Ausgabe-1/ Archivar-1_2020.pdf, zuletzt abgerufen am 6.7.2020. 

Johannes Paulmann

Johannes Paulmann ist Direktor des Leibniz-Instituts für Europäische Geschichte in Mainz. Er ist Sprecher des Konsortiums NFDI4Memory, einer Initiative für historische arbeitende Geisteswissenschaften im Rahmen der Nationalen Forschungsdateninfrastruktur. Aktuelle Publikationen: »Globale Vorherrschaft und Fortschrittsglaube. Europa 1850 – 1914« (C. H. Beck, 2019), »Gendering Global Humanitarianism in the Twentieth Century. Practice, Politics and the Power of Representation« (hg. mit E. Möller u. K. Stornig, Palgrave Macmillan, 2020).

John Carter Wood

John Carter Wood ist Wissenschaftlicher Koordinator des NFDI4Memory Konsortiums. Nach einem Studium der Geschichte an der Northern Illinois University und der Promotion an der University of Maryland, College Park (2001), war er an der Open University (Großbritannien), der Johannes Gutenberg-Universität Mainz (Habilitation 2018) und am Leibniz-Institut für Europäische Geschichte tätig. Seine neueste Publikation ist »This Is Your Hour: Christian Intellectuals in Britain and the Crisis of Europe, 1937 – 1949 (Manchester University Press, 2019).

Fabian Cremer

Fabian Cremer verantwortet das Forschungsdatenmanagement am Leibniz-Institut für Europäische Geschichte (IEG) in Mainz. Er studierte Kunstgeschichte und Kunstpädagogik in Frankfurt und Wien. Seit 2011 berät er Forschende und entwickelt Unterstützungsmethoden für eine digitale Forschung – in internationalen und interdisziplinären Kontexten. Neben Datenmanagement und Infrastrukturen in der Forschung beschäftigt er sich im »DH Lab« des IEG mit den Transformationsprozessen des digitalen Wandels in den Wissenschaftsorganisationen.