R for humanities and social sciences: basics to first applications
Die Veranstaltung findet auf Englisch statt. Mehr Informationen finden Sie hier.
Die Veranstaltung findet auf Englisch statt. Mehr Informationen finden Sie hier.
"Figuring out the Past": Do numbers tell stories?
Das transnationale Forschungsseminar besteht aus Vorträgen internationaler Gäste, die sich der Analyse von Kulturtransfers zwischen unterschiedlichen Regionen der Welt widmen. Die Sitzungen werden in Französisch, Englisch oder Deutsch abgehalten, wobei die Sprache des Vortrages sich aus dem…
07.11.2024, Vortrag
Multilingual Digital Humanities Research: A Critical Overview
Cecily Raynor (McGill University, Montreal, Canada)
02.07.2024, Methodenbasar
Taking Bibliometrics to the Next Level: Measuring Book Publications
Kathleen Schlütter & Carolina Rozo Higuera (ReCentGlobe)
Folien
1 MB
28.05.2024, Methodenbasar
Methods of Map Analysis: Between Hermeneutic Perspective and Digital Data Processing
Jana Moser & Philipp Meyer (Leibniz-Institut für Länderkunde, IfL / SFB 1199)
24.05.2024, Vortrag
Nodegoat als Tool für die historisch arbeitenden Wissenschaften
Kathleen Schlütter & Carolina Rozo Higuera (ReCentGlobe)
07.05.2024, Methodenbasar
EpiMedDat: an Open Data Collection on Medieval Disease Outbreaks
Martin Bauch & Thomas Wozniak (Leibniz-Institut für Geschichte und Kultur des östlichen Europa, GWZO)
23.04.2024, Projektsprechstunde
Die Treuhand im Spiegel der zeitgenössischen Medien: Neue Zugänge zu alten Quellen
Jannis Klähn (Computational Humanities Group)
23.01.2024, Methodenbasar
A Scalable View on the Visual Narrative: Exploring Relationships in News Videos
Nicolas Ruth (Computational Humanities Group)
17.01.2024, Workshop
AI-enhanced Scholarly Writing: A Holistic Workflow
Vera Piontkowitz (Computational Humanities Group)
16.01.2024, Projektsprechstunde
Historical Transport GIS
Thorben Pelzer (ReCentGlobe)
13.12.2023 Methodenbasar
Utilizing APIs for Humanities Research. Examples from the New York Times and The Guardian
Vincent Schober (ReCentGlobe)
Folien
1 MB
05.12.2023 Workshop
OCR4all – ein Tool zur automatischen Texterkennung von historischen Quellen
28.11.2023 Methodenbasar
Distant-Viewing Alchemical Laboratory Apparatus in Early Modern Print
Sarah Lang (Karl-Franzens-Universität Graz)
Folien
321 KB
21.11.2023 Projektsprechstunde
Literatur und Lebensalter. Das präzise Lebensalter als abstrakte Abbreviatur in erzählenden Texten des ausgehenden 18. und 19. Jahrhundert
Charlotte Rathjen (Institut für Germanistik)
07.11.2023 Methodenbasar
Exploring the History of the Entertainment Industries with GIS-based Mapping
Antje Dietze (SFB 1199, ReCentGlobe)
Folien
2 MB
18.07.2023 Methodenbasar
GlobeData Repository: Archiving Your Research Data and Materials
Eva Ommert (SFB 1199, ReCentGlobe)
Folien
1 MB
06.06.2023 Methodenbasar
Visual Narratives in TV News: a Method for Analysis of Archival Footage
Katarina Ristić (Global and European Studies Institute)
23.05.2023 Methodenbasar
Living with ChatGPT – Austauschforum zum Einsatz von KI-Tools in der Wissenschaft
Vera Piontkowitz (Forum Digital Humanities Leipzig)
Folien
1 MB
16.05.2023 Projektsprechstunde
The Spatial and Digital Analysis of 19th-Century Istanbul through a City Inventory (Mir'ât-ı İstanbul)
Fatma Aladağ (Leipzig University/Üsküdar University)
21.02.2023 Methodenbasar
Layering in GIS as a Method of Historical Deconstruction and Source Criticism
Julius Wilm (SFB 1199, ReCentGlobe)
Folien
2 MB
14.02.2023 Methodenbasar
Digitale Annotation und Geovisualisierung am Beispiel der Reisetagebücher von Marco Polo
Andreas Niekler (Computational Humanities, Institut für Informatik)
Folien
2 MB
6.12.2022 Methodenbasar
Zoetrope – ein Prototyp zur interaktiven computergestützten Analyse von Videos
Bernhard Liebl (Computational Humanities, Institut für Informatik)
15.11.2022 Methodenbasar
Datenbankerstellung in den Humanities mit der Software Heurist
Thorben Pelzer (SFB 1199, ReCentGlobe)
Folien
4 MB
25.10.2022 Methodenbasar
Ba[sic?] – ein Werkzeug zur Suche und Identifikation von Normdaten
Uwe Kretschmer (Sächs. Akademie der Wissenschaften, SAW)
Folien
568 KB
Über die Mailingliste werden Sie über aktuelle Veranstaltungen des Digital Lab informiert.
Der Einsatz neuartiger, digitaler Verfahren macht den Erwerb entsprechender Fertigkeiten zur Bedienung der digitalen Werkzeuge – also etwa grundlegende Kenntnisse im Bereich der Datenmodellierung, der statistischen Analyse und der Programmierung – erforderlich (data literacy). Gleichzeitig fließen bei der Entwicklung digitaler Analyseverfahren geistes- und sozialwissenschaftliches Domänenwissen mit ein. Die regelmäßige Reflexion des wechselseitigen Einflusses von digitalen Methoden und bestehenden Theorien und Epistemen eröffnet im Digital Lab zusätzlich die Möglichkeit erkenntnistheoretischer Experimente.
Die Arbeit des Labs erstreckt sich auf drei Felder – 1) Digitalisierung und Datafizierung, 2) Analyse und Exploration sowie 3) Archivierung und Nachnutzung – die im Projektkontext oftmals fließend ineinander übergehen. Einen weiteren, übergreifenden Bereich stellt 4) Forschungsdatenmanagement (FDM) dar. Alle potenziell relevanten digitalen Forschungsaktivitäten können entlang dieser Arbeitsfelder gebündelt und als interdisziplinäre Forschungsprojekte kanalisiert werden. Im Laufe der Zeit entstehen so spezialisierte „Instrumente, Techniken und Apparaturen“ (Hannaway, 1986) in allen genannten Arbeitsfeldern sowie good practices zu deren optimaler Bedienung, welche jeweils in verschiedenen Ausbildungs- und Qualifikationsprogramme zurückfließen können. Dies gilt insbesondere für die Digital Humanities-Studiengänge (B.Sc. / M.Sc.) am Institut für Informatik sowie das Curriculum der strukturierten Promovierendenausbildung der an ReCentGlobe angebundenen Graduate School Global and Area Studies (GSAGS). Auch das Zertifikatsprogramm für Postdocs der Graduiertenschule und die M.A.-Programme des Global and European Studies Institute (GESI) können hiervon profitieren.
Mit dem zentralen Schritt der Digitalisierung erfolgt eine Übertragung von analogen Forschungsobjekten in digitale, maschinenlesbare Forschungsdaten. Der damit einhergehenden Datafizierung inhärent ist dabei, dass sozio-kulturelle Daten – die häufig durch ein hohes Maß an Ambiguität und Heterogenität gekennzeichnet sind – immer auch auf eine formale Art und Weise modelliert und repräsentiert werden müssen, um überhaupt erst computergestützten Analysen zugänglich gemacht zu werden. Dieser Übersetzungsschritt, der neben der Erschließung häufig auch eine Annotation und Anreicherung der Daten mit sich bringt, stellt eine zentrale Herausforderung dar, die in den Digital Humanities stark diskutiert wird.
Konkrete Themenbereiche:
Nach der erfolgreichen Digitalisierung und Datafizierung von Forschungsobjekten ergeben sich in der Folge spannende Fragen zur Verwendung von digitalen Tools und Methoden, wenn es etwa darum geht, quantitative Muster in den vorher modellierten Daten zu finden und diese gegen qualitatives Domänenwissen von Expert:innen zu validieren. Zu erwarten sind in diesem Arbeitsfeld vor allem analytische Methoden mit quantitativ-empirischer Ausrichtung (etwa im Sinne der cultural analytics), aber auch innovative Ansätze im Spannungsfeld von close und distant reading, die häufig als scalable reading bezeichnet werden. Bei Letzterem bieten sich vor allem Methoden der explorativen Datenanalyse sowie die Visual Analytics an.
Konkrete Themenbereiche:
Für die Archivierung und Publikation von Forschungsdaten (s. Punkt 3) steht für die am Zentrum angesiedelten Forschungsprojekte das Dataverse-basierte Repositorium „GLOBEDATA“ zur Verfügung, welches Ende 2022 in den Regelbetrieb überführt wird. GlobeData steht darüber hinaus als fachliches Repositorium auch Forschenden anderer Institutionen und aus aller Welt offen. Gemäß des Ansatzes der „verteilten Archivierung“ können Metadaten zudem in fachlich ggf. einschlägigeren Repositorien abgebildet oder umgekehrt von dort via Harvesting in GlobeData eingespeist werden. Das Repositorium bietet zwischen der Veröffentlichung von Forschungsdaten und der reinen (geschlossenen) Archivierung zu Überprüfungszwecken auch abgestufte Varianten wie die gezielte Freigabe von Daten für bestimmte Personen oder etwa temporäre Embargos. Die koordinierte Kuration, Sammlung und Bereitstellung von Forschungsdaten via GlobeData bietet nicht zuletzt die Chance auf eine gezielte Nachnutzung von Daten in neuen Forschungsprojekten am Zentrum und dabei natürlich auch die Konzipierung neuer Projekte auf Basis vorhandener Bestände.
Konkrete Themenbereiche:
Forschungsdatenmanagement erfährt seit einigen Jahren erhöhte Aufmerksamkeit in der akademischen Welt. Fächerübergreifend sind Wissenschaftler:innen aufgefordert, sich mit der Frage nach dem Verbleib ihrer Daten und Materialien nach Abschluss eines Projekts oder einer Publikation auseinanderzusetzen und sie ggf. für eine Überprüfung oder Nachnutzung anderen zur Verfügung zu stellen (s. Punkt 3). Dies stellt die Geistes-, Sozial- und Kulturwissenschaften vor besondere Herausforderungen. Grundsätzliches Ziel dieses Arbeitsbereichs ist daher die Entwicklung und Unterstützung eines angemessenen FDM der am Zentrum angesiedelten Verbünde und Projekte.
Bei der Arbeit mit digitalen Daten sind Fragen nach dem Umgang mit diesen grundsätzlich in allen Phasen des Forschungsprozesses relevant. Für eine spätere Archivierung und ggf. Nachnutzung durch andere ist es i.d.R. eine Voraussetzung, einige Aspekte wie etwa Datendokumentation oder Rechtsfragen sind jedoch auch unabhängig hiervon relevant und nützlich.
Konkrete Themenbereiche:
Siehe auch:
Eva Ommert (2023): Forschungsdatenmanagement im SFB 1199. SFB 1199 Working Paper 39. https://research.uni-leipzig.de/~sfb1199/publications/1-1-2023_sfb_-working-paper_-forschungsdatenmanagement-10-mar-2023/