Konzept

Vor dem Hintergrund umfassender Digitalisierungsprozesse werden Forschungsansätze, die mit digitalen Daten, Tools und Methoden arbeiten, sowie die koordinierte Sammlung und projektübergreifende Nutzung von Forschungsdaten für die Geistes-, Kultur- und Sozialwissenschaften immer wichtiger. Hierfür sind Weiterbildung und Austausch genauso notwendig wie eine entsprechende Ausstattung und Infrastruktur. Das Digital Lab unter der Leitung von Prof. Manuel Burghardt ist der Ort, an dem diese Bestrebungen am ReCentGlobe koordiniert werden.

Die Arbeit des Labs erstreckt sich auf drei Felder – 1) Digitalisierung und Datafizierung, 2) Analyse und Exploration sowie 3) Archivierung und Nachnutzung –  die im Projektkontext oftmals fließend ineinander übergehen. Einen weiteren, übergreifenden Bereich stellt 4) Forschungsdatenmanagement (FDM) dar. Alle potenziell relevanten digitalen Forschungsaktivitäten können entlang dieser Arbeitsfelder gebündelt und als interdisziplinäre Forschungsprojekte kanalisiert werden. Im Laufe der Zeit entstehen so spezialisierte „Instrumente, Techniken und Apparaturen“ (Hannaway, 1986) in allen genannten Arbeitsfeldern sowie good practices zu deren optimaler Bedienung, welche jeweils in verschiedenen Ausbildungs- und Qualifikationsprogramme zurückfließen können. Dies gilt insbesondere für die Digital Humanities-Studiengänge (B.Sc. / M.Sc.) am Institut für Informatik sowie das Curriculum der strukturierten Promovierendenausbildung der an ReCentGlobe angebundenen Graduate School Global and Area Studies (GSAGS). Auch das Zertifikatsprogramm für Postdocs der Graduiertenschule und die M.A.-Programme des Global and European Studies Institute (GESI) können hiervon profitieren.

Konzept des Digital Lab
PDF 288 KB

Arbeitsbereiche

Mit dem zentralen Schritt der Digitalisierung erfolgt eine Übertragung von analogen Forschungsobjekten in digitale, maschinenlesbare Forschungsdaten. Der damit einhergehenden Datafizierung inhärent ist dabei, dass sozio-kulturelle Daten – die häufig durch ein hohes Maß an Ambiguität und Heterogenität gekennzeichnet sind – immer auch auf eine formale Art und Weise modelliert und repräsentiert werden müssen, um überhaupt erst computergestützten Analysen zugänglich gemacht zu werden. Dieser Übersetzungsschritt, der neben der Erschließung häufig auch eine Annotation und Anreicherung der Daten mit sich bringt, stellt eine zentrale Herausforderung dar, die in den Digital Humanities stark diskutiert wird.

Konkrete Themenbereiche:

  • Digitale Aufnahme (Scan, Audio- und Videodigitalisierung)
  • Semi-automatische Transkription (OCR, speech-to-text, image-to-text, etc.)
  • Bereitstellung von verschiedenen Datenformaten und dazu passenden Viewern / Suchfunktionen
  • Annotation und Anreicherung (Objekterkennung, Segmentierung, Feature-Extraktion für Ähnlichkeitssuche, etc.)
  • Semi-automatische Katalogisierung und Verschlagwortung
  • Clustering und Aggregierung von Metadaten
  • Verknüpfung von Datensätzen (untereinander / zu Normdaten)
  • Qualitätskontrolle (Schemaebene, Plausibilitätschecks, Ausreißeranalysen…)
  • Digitale Quellenkritik

Nach der erfolgreichen Digitalisierung und Datafizierung von Forschungsobjekten ergeben sich in der Folge spannende Fragen zur Verwendung von digitalen Tools und Methoden, wenn es etwa darum geht, quantitative Muster in den vorher modellierten Daten zu finden und diese gegen qualitatives Domänenwissen von Expert:innen zu validieren. Zu erwarten sind in diesem Arbeitsfeld vor allem analytische Methoden mit quantitativ-empirischer Ausrichtung (etwa im Sinne der cultural analytics), aber auch innovative Ansätze im Spannungsfeld von close und distant reading, die häufig als scalable reading bezeichnet werden. Bei Letzterem bieten sich vor allem Methoden der explorativen Datenanalyse sowie die Visual Analytics an.

Konkrete Themenbereiche:

  • Überblick zu bestehenden digitalen Toolangeboten (DH tool directories)
  • Anwendung und Entwicklung quantitativer Methoden im Sinne der cultural analytics / computational social science / humanities data science
  • Analytische Ansätze im Sinne des close / distant / scalable reading
  • Methodenadaption aus anderen Domänen (bspw. cultural evolution)
  • Methodenevaluierung (qualitativ und quantitativ)
  • Methodenreflexion, epistemologische Implikationen und Theoriebildung
  • Visualisierung / Visual Analytics
  • Explorative Tools und Informationssysteme (Research Software Engineering)
  • Immersive und interaktive Technologien für die Geistes- und Sozialwissenschaften (Humanist-Computer-Interaction, Immersive Humanities)

Für die Archivierung und Publikation von Forschungsdaten steht für die am Zentrum angesiedelten Forschungsprojekte das Dataverse-basierte Repositorium „GlobeData“ zur Verfügung, welches Ende 2022 in den Regelbetrieb überführt wird. GlobeData steht darüber hinaus als fachliches Repositorium auch Forschenden anderer Institutionen und aus aller Welt offen. Gemäß des Ansatzes der „verteilten Archivierung“ können Metadaten zudem in fachlich ggf. einschlägigeren Repositorien abgebildet oder umgekehrt von dort via Harvesting in GlobeData eingespeist werden. Das Repositorium bietet zwischen der Veröffentlichung von Forschungsdaten und der reinen (geschlossenen) Archivierung zu Überprüfungszwecken auch abgestufte Varianten wie die gezielte Freigabe von Daten für bestimmte Personen oder etwa temporäre Embargos. Die koordinierte Kuration, Sammlung und Bereitstellung von Forschungsdaten via GlobeData bietet nicht zuletzt die Chance auf eine gezielte Nachnutzung von Daten in neuen Forschungsprojekten am Zentrum und dabei natürlich auch die Konzipierung neuer Projekte auf Basis vorhandener Bestände.

Konkrete Themenbereiche:

  • Qualitätssicherung der Datensätze
  • Sicherstellung einer nachvollziehbaren Dokumentation
  • Überprüfung rechtlicher Voraussetzungen
  • Auswahl geeigneter Dateiformate
  • Beschreibung der Datensätze mit standardisierten Metadaten

Forschungsdatenmanagement erfährt seit einigen Jahren erhöhte Aufmerksamkeit in der akademischen Welt. Fächerübergreifend sind Wissenschaftler:innen aufgefordert, sich mit der Frage nach dem Verbleib ihrer Daten und Materialien nach Abschluss eines Projekts oder einer Publikation auseinanderzusetzen und sie ggf. für eine Überprüfung oder Nachnutzung zur Verfügung zu stellen. Dies stellt die Geistes-, Sozial- und Kulturwissenschaften vor besondere Herausforderungen. Grundsätzliches Ziel dieses Arbeitsbereichs ist daher die Entwicklung und Unterstützung eines angemessenen FDM der am Zentrum angesiedelten Verbünde und Projekte. Fragen nach dem Umgang mit Forschungsdaten sind grundsätzlich in allen Phasen des Forschungsprozesses relevant, vor allem bei der Arbeit mit digitalen Ansätzen und Methoden. Für eine spätere Archivierung und ggf. Nachnutzung durch andere ist es i.d.R. eine Voraussetzung, viele FDM-Elemente wie etwa Datendokumentation oder Rechtsfragen sind jedoch auch unabhängig hiervon relevant und nützlich.  

Konkrete Themenbereiche:

  • Erstellung von Datenmanagementplänen in Forschungsprojekten
  • Einrichtung technischer Dienste (z.B. Speicherung, Backup, Verschlüsselung)
  • Beratung zu verschiedenen FDM-Themen (z.B. Datendokumentation und -organisation, rechtliche Aspekte)
  • Archivierung und ggf. Veröffentlichung von Forschungsdaten- und materialien im zentrumseigenen Repositorium GlobeData (s. Punkt 3)
  • Beratung bzgl. FDM bei Antragsstellung

Diese Seite befindet sich aktuell im Aufbau und wird ständig erweitert.