Vor dem Hintergrund umfassender Digitalisierungsprozesse werden Forschungsansätze, die mit digitalen Daten, Tools und Methoden arbeiten, sowie die koordinierte Sammlung und projektübergreifende Nutzung von Forschungsdaten für die Geistes-, Kultur- und Sozialwissenschaften immer wichtiger. Hierfür sind Weiterbildung und Austausch genauso notwendig wie eine entsprechende Ausstattung und Infrastruktur. Das Digital Lab unter der Leitung von Prof. Manuel Burghardt ist der Ort, an dem diese Bestrebungen am ReCentGlobe koordiniert werden.

Konzept

Der Einsatz neuartiger, digitaler Verfahren macht den Erwerb entsprechender Fertigkeiten zur Bedienung der digitalen Werkzeuge – also etwa grundlegende Kenntnisse im Bereich der Datenmodellierung, der statistischen Analyse und der Programmierung – erforderlich (data literacy). Gleichzeitig fließen bei der Entwicklung digitaler Analyseverfahren geistes- und sozialwissenschaftliches Domänenwissen mit ein. Die regelmäßige Reflexion des wechselseitigen Einflusses von digitalen Methoden und bestehenden Theorien und Epistemen eröffnet im Digital Lab zusätzlich die Möglichkeit erkenntnistheoretischer Experimente.

Die Arbeit des Labs erstreckt sich auf drei Felder – 1) Digitalisierung und Datafizierung, 2) Analyse und Exploration sowie 3) Archivierung und Nachnutzung –  die im Projektkontext oftmals fließend ineinander übergehen. Einen weiteren, übergreifenden Bereich stellt 4) Forschungsdatenmanagement (FDM) dar. Alle potenziell relevanten digitalen Forschungsaktivitäten können entlang dieser Arbeitsfelder gebündelt und als interdisziplinäre Forschungsprojekte kanalisiert werden. Im Laufe der Zeit entstehen so spezialisierte „Instrumente, Techniken und Apparaturen“ (Hannaway, 1986) in allen genannten Arbeitsfeldern sowie good practices zu deren optimaler Bedienung, welche jeweils in verschiedenen Ausbildungs- und Qualifikationsprogramme zurückfließen können. Dies gilt insbesondere für die Digital Humanities-Studiengänge (B.Sc. / M.Sc.) am Institut für Informatik sowie das Curriculum der strukturierten Promovierendenausbildung der an ReCentGlobe angebundenen Graduate School Global and Area Studies (GSAGS). Auch das Zertifikatsprogramm für Postdocs der Graduiertenschule und die M.A.-Programme des Global and European Studies Institute (GESI) können hiervon profitieren.

Vorläufiges Konzept
PDF 288 KB

Arbeitsbereiche

zur Vergrößerungsansicht des Bildes:

Mit dem zentralen Schritt der Digitalisierung erfolgt eine Übertragung von analogen Forschungsobjekten in digitale, maschinenlesbare Forschungsdaten. Der damit einhergehenden Datafizierung inhärent ist dabei, dass sozio-kulturelle Daten – die häufig durch ein hohes Maß an Ambiguität und Heterogenität gekennzeichnet sind – immer auch auf eine formale Art und Weise modelliert und repräsentiert werden müssen, um überhaupt erst computergestützten Analysen zugänglich gemacht zu werden. Dieser Übersetzungsschritt, der neben der Erschließung häufig auch eine Annotation und Anreicherung der Daten mit sich bringt, stellt eine zentrale Herausforderung dar, die in den Digital Humanities stark diskutiert wird.

Konkrete Themenbereiche:

  • Digitale Aufnahme (Scan, Audio- und Videodigitalisierung)
  • Semi-automatische Transkription (OCR, speech-to-text, image-to-text, etc.)
  • Bereitstellung von verschiedenen Datenformaten und dazu passenden Viewern / Suchfunktionen
  • Annotation und Anreicherung (Objekterkennung, Segmentierung, Feature-Extraktion für Ähnlichkeitssuche, etc.)
  • Semi-automatische Katalogisierung und Verschlagwortung
  • Clustering und Aggregierung von Metadaten
  • Verknüpfung von Datensätzen (untereinander / zu Normdaten)
  • Qualitätskontrolle (Schemaebene, Plausibilitätschecks, Ausreißeranalysen…)
  • Digitale Quellenkritik

Nach der erfolgreichen Digitalisierung und Datafizierung von Forschungsobjekten ergeben sich in der Folge spannende Fragen zur Verwendung von digitalen Tools und Methoden, wenn es etwa darum geht, quantitative Muster in den vorher modellierten Daten zu finden und diese gegen qualitatives Domänenwissen von Expert:innen zu validieren. Zu erwarten sind in diesem Arbeitsfeld vor allem analytische Methoden mit quantitativ-empirischer Ausrichtung (etwa im Sinne der cultural analytics), aber auch innovative Ansätze im Spannungsfeld von close und distant reading, die häufig als scalable reading bezeichnet werden. Bei Letzterem bieten sich vor allem Methoden der explorativen Datenanalyse sowie die Visual Analytics an.

Konkrete Themenbereiche:

  • Überblick zu bestehenden digitalen Toolangeboten (DH tool directories)
  • Anwendung und Entwicklung quantitativer Methoden im Sinne der cultural analytics / computational social science / humanities data science
  • Analytische Ansätze im Sinne des close / distant / scalable reading
  • Methodenadaption aus anderen Domänen (bspw. cultural evolution)
  • Methodenevaluierung (qualitativ und quantitativ)
  • Methodenreflexion, epistemologische Implikationen und Theoriebildung
  • Visualisierung / Visual Analytics
  • Explorative Tools und Informationssysteme (Research Software Engineering)
  • Immersive und interaktive Technologien für die Geistes- und Sozialwissenschaften (Humanist-Computer-Interaction, Immersive Humanities)

Für die Archivierung und Publikation von Forschungsdaten (s. Punkt 3) steht für die am Zentrum angesiedelten Forschungsprojekte das Dataverse-basierte Repositorium „GlobeData“ zur Verfügung, welches Ende 2022 in den Regelbetrieb überführt wird. GlobeData steht darüber hinaus als fachliches Repositorium auch Forschenden anderer Institutionen und aus aller Welt offen. Gemäß des Ansatzes der „verteilten Archivierung“ können Metadaten zudem in fachlich ggf. einschlägigeren Repositorien abgebildet oder umgekehrt von dort via Harvesting in GlobeData eingespeist werden. Das Repositorium bietet zwischen der Veröffentlichung von Forschungsdaten und der reinen (geschlossenen) Archivierung zu Überprüfungszwecken auch abgestufte Varianten wie die gezielte Freigabe von Daten für bestimmte Personen oder etwa temporäre Embargos. Die koordinierte Kuration, Sammlung und Bereitstellung von Forschungsdaten via GlobeData bietet nicht zuletzt die Chance auf eine gezielte Nachnutzung von Daten in neuen Forschungsprojekten am Zentrum und dabei natürlich auch die Konzipierung neuer Projekte auf Basis vorhandener Bestände.

Konkrete Themenbereiche:

  • Qualitätssicherung der Datensätze
  • Überprüfung rechtlicher Voraussetzungen
  • Sicherstellung einer nachvollziehbaren Dokumentation
  • Beschreibung der Datensätze mit standardisierten Metadaten

Forschungsdatenmanagement erfährt seit einigen Jahren erhöhte Aufmerksamkeit in der akademischen Welt. Fächerübergreifend sind Wissenschaftler:innen aufgefordert, sich mit der Frage nach dem Verbleib ihrer Daten und Materialien nach Abschluss eines Projekts oder einer Publikation auseinanderzusetzen und sie ggf. für eine Überprüfung oder Nachnutzung anderen zur Verfügung zu stellen (s. Punkt 3). Dies stellt die Geistes-, Sozial- und Kulturwissenschaften vor besondere Herausforderungen. Grundsätzliches Ziel dieses Arbeitsbereichs ist daher die Entwicklung und Unterstützung eines angemessenen FDM der am Zentrum angesiedelten Verbünde und Projekte.
Bei der Arbeit mit digitalen Daten sind Fragen nach dem Umgang mit diesen grundsätzlich in allen Phasen des Forschungsprozesses relevant. Für eine spätere Archivierung und ggf. Nachnutzung durch andere ist es i.d.R. eine Voraussetzung, einige Aspekte wie etwa Datendokumentation oder Rechtsfragen sind jedoch auch unabhängig hiervon relevant und nützlich.  

Konkrete Themenbereiche:

  • Erstellung von Datenmanagementplänen in Forschungsprojekten
  • Einrichtung technischer Dienste (z.B. Speicherung, Backup, Verschlüsselung)
  • Beratung zu verschiedenen FDM-Themen (z.B. Datendokumentation und -organisation, rechtliche Aspekte)
  • Archivierung und ggf. Veröffentlichung von Forschungsdaten- und materialien im zentrumseigenen Repositorium GlobeData
  • Beratung bzgl. FDM bei Antragsstellung

Veranstaltungen

Projektsprechstunde

In der Projektsprechstunde haben Forschende die Möglichkeit, ihr Projekt und damit verbundene Herausforderungen vorzustellen und zu diskutieren. Termine finden in kleinerem Rahmen statt, bei Interesse kontaktieren Sie uns bitte.

Methoden-Basar

In diesem Format werden digitale Methoden und Tools der Digital Humanities vorgestellt und diskutiert. Die Methodenpräsentation richtet sich an alle Interessierten, die derartige Tools und Methoden kennenlernen oder diese in ihre Forschung integrieren möchten.

Aktuelle Termine

Alle Termine finden vor Ort im Computational Humanities Lab (P612, Paulinum) und online statt. Eine Anmeldung ist nicht nötig.

Folien bisheriger Vorträge finden Sie hier.

Datum Thema Vortragende(r)
21.02.2023, 10–11 Uhr Layering in GIS as a Method of Historical Deconstruction and Source Criticism Julius Wilm (SFB 1199, ReCentGlobe)
14.02.2023, 10–11 Uhr Digitale Annotation und Geovisualisierung am Beispiel der Reisetagebücher von Marco Polo Andreas Niekler (Computational Humanities, Institut für Informatik)
6.12.2022, 10–11 Uhr Zoetrope – ein Prototyp zur interaktiven computergestützten Analyse von Videos Bernhard Liebl (Computational Humanities, Institut für Informatik)
15.11.2022, 10–11 Uhr Datenbankerstellung in den Humanities mit der Software Heurist Thorben Pelzer (SFB 1199, ReCentGlobe)
25.10.2022, 10–11 Uhr Ba[sic?] – ein Werkzeug zur Suche und Identifikation von Normdaten Uwe Kretschmer (Sächs. Akademie der Wissenschaften, SAW)

Workshops

Aktuelle Termine

Nodegoat Historical Network Analysis Sampler Workshop

Datum: 9.12.2022, 9–11.30 Uhr
Dozent: Francis Harvey (Leibniz-Insitut für Länderkunde)
Sprache: Englisch

Weitere Informationen und Anmeldung hier.

In Kooperation mit dem Forum Digital Humanities Leipzig (FDHL) Webseite

Diese Seite befindet sich aktuell im Aufbau und wird ständig erweitert.