von Rebekka Reichert
Mit 152 internationalen Teilnehmer*innen aus Kunst-, Kultur- und Marktforschung, GLAM-Institutionen und Data Science zeigte die Konferenz „Digital Turn. Sammlungen – Provenienzen – Märkte“ am 27. und 28. November 2025 im Jacob-und-Wilhelm-Grimm-Zentrum der Humboldt-Universität zu Berlin eindrucksvoll, wie dynamisch sich das Feld der Digitalen Provenienz-, Sammlungs- und Kunstmarktforschung derzeitig entwickelt. Konzipiert und organisiert wurde die Tagung von Gabriele Zöllner (SODa / HU Berlin), Meike Hopp (TU Berlin) und Dorothee Wimmer (Forum Kunst und Markt, TU Berlin). Ziel der Konferenz war es, aktuelle digitale Ansätze in der Provenienz-, Sammlungs- und Kunstmarktforschung zusammenzuführen, ihren Stand kritisch zu reflektieren und Perspektiven für ihre Weiterentwicklung zu diskutieren.
Nach einem Grußwort von Sarah Elena Link (Koordinierungsstelle für wissenschaftliche Universitätssammlungen in Deutschland / HU Berlin) brachte Gabriele Zöllner in ihrer Einführung den zentralen Anspruch der Tagung auf den Punkt. Der „Digital Turn“ erschöpft sich nicht darin, vorhandene Datenbanken zu kennen oder neue Tools zu nutzen. Objektdaten sind als Forschungsdaten zu verstehen inklusive möglicher Unsicherheiten, Mehrdeutigkeiten und Lücken. Sie müssen systematisch erhoben, beschrieben, analysiert und langfristig archiviert werden. Digitale Forschung ist damit zwangsläufig interdisziplinär angelegt und setzt Datenkompetenz voraus: die Fähigkeit, Daten kritisch zu sammeln, zu bewahren, zu verwalten und zu analysieren. Diese Setzung rahmte die folgenden Beiträge sehr überzeugend als Einblicke in ein Forschungsfeld, das digitale Methoden nicht als bloße Werkzeuge versteht, sondern als konstitutiv für neue Fragestellungen und Erkenntnisprozesse.
Session I: Provenienz- und Marktdaten. Finden – Modellieren – Analysieren
Die erste Session machte unmittelbar deutlich, wie grundlegend Fragen der Datenstruktur, Standardisierung und Dokumentationspraxis für die digitale Provenienz- und Kunstmarktforschung sind.
Besonders prägnant zeigte dies der Auftaktvortrag von Stefanie Schneider (LMU München)* und Elisa Ludwig (Museum Ulm)*. Anhand einer vergleichenden Analyse öffentlich zugänglicher Museumswebseiten in Deutschland und den USA wurde sichtbar, wie uneinheitlich Provenienzangaben bislang strukturiert, dokumentiert und zugänglich sind und wie stark diese Unterschiede von (oft knappen) institutionellen Ressourcen abhängen. Der Beitrag war nicht nur analytisch scharf, sondern benannte klar strukturelle Ursachen, wie projektbasierte Finanzierung, geringe Stellenanteile und fehlende Verstetigung. Vor diesem Hintergrund stellte sich unmittelbar die Frage, wie sich mit fragmentierten, heterogene Datenbestände systematisch arbeiten lässt. Genau hier setzte der folgende Beitrag von Alisha Mund, Sabine Lang und Mathias Zinnen (FAU Erlangen-Nürnberg) an. Sie zeigten, welches Potenzial automatisierte Verfahren entfalten können, indem sie einen multimodalen Workflow zur Auswertung historischer Auktionskataloger vorstellten, der Layoutanalyse, OCR und Vision-Language-Modelle kombiniert. Während dieser Workflow vor allem auf die Effizienz im Umgang mit großen Datenmengen zielte, verschob der anschließende Beitrag den Fokus auf den produktiven Umgang mit Unsicherheit, der eine zentrale Herausforderung digitaler Provenienz- und Marktforschung ist: Alexandre Leroux* und Fenya Almstadt (Royal Museums of Fine Arts of Belgium)* präsentierten ein ereignisbasiertes Modell, bei dem Unsicherheiten, Vagheit und Unvollständigkeit in Anlehnung an den VISU-Ansatz nach Fabio Mariani klar dokumentiert werden. Wie sich solche modelltheoretischen Ansätze im institutionellen Alltag bewähren, verdeutlichte Johanna Stauber (Brandenburgisches Landeshauptstadtarchiv). In einer Live Demonstration stellt sie ein internes Provenance Interface vor, das quellennahe Recherche durch relationale Datenbankstrukturen unterstützt und komplexe Akteurs- und Ereigniszusammenhänge nachvollziehbar abbildet. Sie verdeutlichte aber auch, dass projektbasierte Stellenanteile kaum Raum bieten, diese nachhaltig weiterzuentwickeln und für eine Nachnutzung durch andere bereitzustellen.
Poster Session
Die Posterpräsentationen in der Minute Madness boten einen lebendigen Querschnitt durch zahlreiche Projekte: Vom digitalisierten Gästebuch des Künstlerpaars Ben-Gavriêl bis zur internationalen Plattform PHAROS, die kunsthistorische Fotografien aus 13 Fotoarchiven in einer gemeinsamen Forschungsumgebung vereint. Gerade diese Vielfalt machte deutlich, wie breit das Feld aufgestellt ist, thematisch und methodisch.
Abendvortrag von Meike Hopp
Der Abendvortrag von Meike Hopp setzte einen wichtigen analytischen Akzent. Anhand des Vergleichs dreier Provenienzerfassungen aus verschiedenen Institutionen zeigte sie, wie stark Darstellungsformen, Granularität und Zugänglichkeit zu Provenienzangaben variieren und erläuterte, warum es bis heute nicht „die“ zentrale Provenienzdatenbank gibt. Darauf aufbauend entwickelte Hopp eine kritisch-digitalhumanistische Perspektive: Digitale Sammlungen und Daten sind nicht neutral, sondern spiegeln institutionelle Entscheidungen, strukturelle Rahmenbedingungen und kulturelle Prägungen wider, die sich als Biases von der Quellenauswahl über die Methodik bis in Datenmodelle und Darstellungen fortschreiben. Mit dem Prinzip „Three steps before you share“ – innehalten, kritisch prüfen, Verantwortung übernehmen – plädierte Hopp für Offenheit, aber ebenso für einen bewussten und verantwortungsvollen Umgang mit digitaler Sichtbarkeit.
Session II: FAIR, CARE und Beyond
Die zweite Session rückte konsequent die ethischen Implikationen digitaler Datenarbeit in den Mittelpunkt und machte deutlich, das ethische Prinzipien wie CARE keine nachgelagerten Zusatzthemen sind, sondern den Kern digitaler Markt-, Sammlungs- und Provenienzforschung betreffen. Einen konzeptionellen Rahmen dafür bot Katharina Leyrer (FAU Erlangen-Nürnberg / SODa) mit der Einführung des Ansatzes Value Sensitive Design. Sie zeigte anhand überzeugender Beispiele, wie Werte und potenzielle Zielkonflikte systematisch in digitale Entwicklungsprozesse einbezogen werden können. Stella Barsch (Sammlung Kulturen der Welt Lübeck)* und Deborah Ehlers (Universität Lübeck)* zeigten in ihrem beeindruckenden Projekt, wie kolonial geprägte Orts- und Objektbezeichnungen sowie konkurrierende Wissensordnung in einem digitalen Interface sichtbar werden können. Auf diese Weise wurde Mehrdeutigkeit nicht als Problem, sondern als zentrale Information vermittelt. Jennifer Tadge (Landesmuseum Natur und Mensch Oldenburg)* machte greifbar, wie partizipativ entwickelte 3D-Modelle ethnologischer Objekte neue Zugänge eröffnen, wenn methodische Entscheidungen gemeinsam mit Herkunftsgesellschaften getroffen werden. Leslie Zimmermann und Jamie Dau (Reiss Engelhorn Museen Mannheim) thematisierten den Umgang mit kolonialer Sprache in Titeldaten und argumentierten, dass Museumswebseiten durch bewusste Kontextualisierung dazu beitragen können, auch im Training von Sprachmodellen alternative und kritisch reflektierte Sprachverwendungen zu vermitteln.
Session III: KI & Co in Datenerschließung und -forschung
Die dritte Session widmete sich dem Einsatz KI-gestützter Verfahren in der Datenerschließung und machte klar: Technologische Möglichkeiten sind nur so gut wie ihre kritische Einordnung. Ruth von dem Bussche (selbstständig) und Georg Schelbert (Zentralinstitut für Kunstgeschichte München) zeigten am Beispiel historischer Inventarkarten der Photothek, wie Computer-Vision-Modelle eingesetzt werden können. Anne Uhrland (Jewish Cultural Recovery Project)* präsentierte eine neue digitale Plattform zum NS-verfolgungsbedingt entzogenem Kulturgut. Eigentumskarten und Fotos der Alliierten aus den CCPs Wiesbaden und Marburg werden erstmals mithilfe von OCR, KI-gestützter Texterkennung und manueller Prüfung strukturiert erschlossen. So werden zentrale Informationen zu Objekte, Personen und Orten des NS-verfolgungsbedingten Entzugs jüdischen Kulturguts zugänglich gemacht. Den anwendungsnahen Anschluss der Session bildete der Beitrag von Carolin Faude-Nagel (Ketter Kunst München), die anhand konkreter Fallbeispiele erläuterte, wie KI-gestützte Bildersuche die Recherche nach konkreten Kulturobjekten beschleunigen kann, zugleich hob sie die Notwendigkeit einer fachwissenschaftlichen Prüfung und Einordnung der Ergebnisse hervor.
Abschlussdiskussion und -reflektion mit Ruth von dem Bussche, Sarah Fründt und Martin Stricker
Die in den vorangegangenen Sessions diskutierten methodischen, technischen und ethischen Fragen liefen in der abschließenden Tagungsreflexion zusammen. Ruth von dem Bussche, Sarah Fründt (Deutsches Zentrum Kulturgutverluste) und Martin Stricker (SODa / HU Berlin) bündelten die zentralen Herausforderungen und offenen Fragen der Konferenz. Ruth von dem Bussche betonte die Bedeutung geeigneter Datenmodelle und verwies auf das aktuell stark gestiegene Interesse an Auktions- und Preisdaten, dass eine bessere Erschließung, Strukturierung und Durchsuchbarkeit erfordert. Sarah Fründt ordnete die Diskussion entlang der Themen Übersetzung, Zugang, Kontrolle sowie Mensch und Maschine und machte deutlich, dass technische Rahmenbedingungen Inhalte mitprägen und wachsende Offenheit neue Fragen nach Transparenz, Nutzung und Kontrolle von Daten aufwirft. Martin Stricker fasste digitale Provenienzforschung als interdisziplinäre Praxis mit methodischer Vielfalt und klaren ethischen Ansprüchen zusammen, die nicht nur mit Daten arbeitet, sondern Daten, Werkzeuge und Zugänge aktiv gestaltet.
Resümee
Die Konferenz überzeugte durch ihre klare Struktur und eine stringente Dramaturgie, in der die Sessions inhaltlich aufeinander aufbauten und zentrale Fragestellungen konsequent weiterentwickelten. Es wurde deutlich, dass digitale Provenienz-, Sammlungs- und Kunstmarktforschung weit mehr ist als der Einsatz neuer Technologien.
Besonders gelungen war weiter, dass digitale Ansätze nicht als Selbstzweck verhandelt wurden, sondern stets in ihrem methodischen, institutionellen und ethischen Kontext. Die vorgestellten Projekte zeigten, wie eng Datenkompetenz, kritische Reflexion und Verantwortung miteinander verbunden sind und dass Unsicherheiten, Lücken und Biases nicht als Störfaktoren, sondern als zentrale Bestandteile wissenschaftlicher Arbeit ernst genommen werden.
Die Tagung machte damit deutlich, dass digitale Forschung nur dann nachhaltig erfolgreich sein kann, wenn technische Innovationen mit langfristigen Strukturen, interdisziplinärer Zusammenarbeit und einer reflektierten Gestaltung von Daten, Werkzeugen und Zugängen einhergehen. Der intensive Austausch vor Ort unterstrich, wie lebendig und engagiert dieses Forschungsfeld ist und dass der „Digital Turn“ vor allem dort produktiv wird, wo Fachwissen und kritische Diskussion zusammenkommen.
Alle Poster und einige Präsentationsfolien sind über die Zenodo-Community der Tagung zugänglich https://zenodo.org/communities/digital-turn
*Sprecher*innen einer Gruppe. Mehr Informationen finden Sie hier: https://sammlungen.io/dt2025