Skip to content

EDiM - Rückblick auf drei Jahre Digitalisierung im Kunstmuseum Moritzburg

Anlässlich eines Fragebogens, den das Kultusministerium von Sachsen-Anhalt 2014 an Museen des Landes ausgegeben hat, um den Stand der Digitalisierung zu ermitteln, haben wir uns einmal systematisch Gedanken gemacht, was eigentlich tatsächlich zu einer erfolgreichen Digitalisierung im Museum dazugehört. Dieser Blog ist gemeint als kleine Zusammenfassung und als Rückblick auf den zurückgelegten Weg. Sicherlich ist er geprägt von der Art des Museums: Das Kunstmuseum Moritzburg in Halle (Saale) ist ein Haus mit einem Schwerpunkt auf der Kunst des 19. bis 20. Jahrhunderts, mit sechs großen Sammlungsbereichen: Gemälde, Grafik, Plastik, Kunsthandwerk & Design, Photographie sowie das sachsen-anhaltinische Landesmünzkabinett (Münzen. Medaillen, Papiergeld).

Neben einer gewissen technischen Grundausstattung wie Kameras, Stativen, Scannern, Datenbanken und Ähnlichem benötigt man Personal mit zum Teil umfangreiche Kenntnissen aus recht unterschiedlichen Bereichen. Soweit ich weiß kann man diesen Bereich nicht studieren, sondern muss ihn sich derzeit noch selbst erarbeiten (auch wenn das Studium der Museologie sicherlich in diese Richtung geht, aber aus unserer Sicht nicht alles umfasst). Für gewöhnlich erarbeitet sich ein Wissenschaftler neue Wissensbereiche, ob es sich dabei um wissenschaftliche Themen handelt oder darum, wie ich eine professionelle Foto-Reproanlage benutze und diese bis hin zu den verwendeten Dateiformaten und Langzeitarchivierungsstrategien und einer Sicherung und Nachhaltigkeit des Arbeitsergebnisses durchdenke. Ein Wissenschaftler kennt sich darüber hinaus mit den wissenschaftlichen Informationen in der Datenbank aus. Zusätzlich braucht man jemanden, der sich in der professionellen Verwaltung und Verzeichnung einer Sammlung auskennt: Arbeitsabläufe, konservatorische Rahmenbedingungen, Lagerung, Sicherheit etc. bilden sich auch in der Datenbank ab. Für das Grundverständnis einer Datenbank und deren Bedürfnisse braucht es das technische Wissen bzw. ein entsprechendes Verständnis. Für die Erstellung von guten Abbildungen benötigt man Wissen über die konservatorischen Rahmenbedingungen für das fotografierte bzw. reproduzierte Material, damit es bei dieser Gelegenheit nicht beschädigt wird. Außerdem muss man die Digitalfotografie (immerhin ein voller Ausbildungsberuf bzw. ein Studium) und bei dieser insbesondere die Farbtreue (Colormanagement) beherrschen - eine Grundbedingung in einem Kunstmuseum. Dazu kommt die Kenntnis dessen, was mit der Onlinepublikation der Daten im Internet verbunden ist:
- die Referenzierung auf Normdaten und anderen Internetquellen, die in der Ausgangsdatenbank mitgedacht werden sollten (GND, VIAF, Wikipedia, spezielle oder allgemeine Thesauri zu unterschiedlichen Themen: ULAN, Geonames, TGN, AAT u. a.)
- Kenntnis und Beherrschen von LIDO, das ebenfalls günstigstenfalls in der hauseigenen Datenbank mitgedacht und einbezogen sein sollte
- eingehende Kenntnisse der rechtlichen Rahmenbedingungen sowohl intern als auch für die Onlinepublikation, insbesondere des Urheberrechts.
Grundbedingung und Basis einer effektiven Digitalisierung ist eine gut funktionierende und zu den Anforderungen der Digitalisierung passende IT-Struktur und IT-Betreuung im eigenen Haus.

Eine Datenbank ist etwas grundsätzlich anderes als eine Karteikarte, sie kann viel mehr, eröffnet eine neue Welt von Möglichkeiten. Wenn man sich eine Datenbank kauft, muss einem bewusst sein, dass man sich ein (meist) sehr leistungsfähiges Instrument anschafft, das man beherrschen muss, damit man es für sich nutzen und punktgenau einsetzen kann. Man muss es zunächst verstehen, seine Wirkungsmöglichkeiten, seine Defizite. Dann sollte man sich überlegen, wo die bisher erhobenen Informationen hinkommen sollen, damit sie später für die zu erwartenden Arbeitsabläufe an der richtigen Stelle stehen und voll nutzbar sind. Damit sind Abläufe innerhalb des Hauses im Blick, die mit den Kollegen abgesprochen und auf Tauglichkeit erprobt werden müssen. Eine Erfahrung aus anderen Häusern ist (die Moritzburg ist noch nicht so weit), dass sich sogar durch das Vorhandensein der Datenbank Arbeitsabläufe ändern, sogar effektiver und zeitsparender werden können, wenn man denn willens und in der Lage ist, diese auszuprobieren.

Mit der Übertragung von analog vorliegenden Informationen in die Datenbank wäre man schlecht beraten, wenn man einfach nur den bisherigen Erfassungsstand abschreibt. Es wäre ein ungewöhnlich gut geführtes Museum, dessen Erfassungsunterlagen immer auf dem neuesten, besten Stand sind und alle Angaben immer fehlerfrei sind. Die Realität dürfte in den meisten Häusern eine andere sein. Aus diesem Grund sollte man nicht nur die z. B. für die Online-Publikation zusätzlichen Informationen mit in die Datenbank aufnehmen, sondern auch die Ressourcen im Internet zur Erweiterung und Verbesserung der Informationsgrundlage zu den eigenen Werken nutzen bzw. auch - wenn nötig - die Bibliothek konsultieren. Klar: Befinden sich die analogen Erfassungsunterlagen in schlechtem Zustand und ist infolgedessen der Nachrecherchebedarf groß, können eine geringere Anzahl von Datensätzen erarbeitet werden als wenn auf guten Unterlagen aufgebaut werden kann. Gute Unterlagen können von geringer qualifiziertem Personal übertragen werden. Je mehr Informationen fehlen oder überarbeitet werden müssen, desto höher muss der Bildungsgrad des Personals sein.

Personal, insbesondere gutes Personal, ist sowieso Dreh- und Angelpunkt von allem: Wofür der eine zwei Monate benötigt, daran arbeitet ein anderer ein ganzes Jahr. Da die Digitalisierung eine Langzeitaufgabe ist, ist neben der ebenfalls sehr wichtigen Qualität der Arbeit auch die Arbeitsgeschwindigkeit des Personals extrem wichtig. Es lässt sich leicht ausrechnen, wohin man mit der Person, die innerhalb von zwei Monaten ein Werk bearbeiten kann, innerhalb von 10 Jahren kommt, und wohin mit der anderen.

Es mag einige überraschen, aber aus unserer Sicht ist der Arbeitsbereich der Digitalisierung ein neuer innerhalb des Museums, der - wenn man ihn professionell und kompetent betreibt und nicht nur Dinge irgendwo in eine Datenbank hineinschreibt, mit seiner Gemengelage aus Kompetenzen durchaus anspruchsvoll ist. In dieser Aussage liegen verschiedene Problemlagen versteckt, die die Kollegen in den Häusern sicherlich wiedererkennen werden, wenn sie hier kurz angerissen werden. Ältere Kollegen sind oft schwer für die Digitalisierung zu erwärmen. Der strukturierende Aufwand vor Beginn der eigentlichen Digitalisierung bzw. die Folgen, die die Einführung einer Datenbank hat, werden unterschätzt. Es kann kein oder zu wenig Personal eingestellt werden für diese zusätzliche Aufgabe. Das Personal hat nicht die notwendigen Kenntnisse. Es fehlt die Langfristigkeit.

Eines scheint aber sicher: Die Zukunft ist digital und deswegen ist ein Museum gut beraten, sich früher oder später auf den Weg zu machen und seine eigene Strategie dieser Gewissheit gegenüber zu entwickeln. Was auch klar ist: Es führen mehrere Wege zum Ziel und in jedem Haus gibt es unterschiedliche Bedürfnisse, Wünsche, Anforderungen. Deswegen gibt es kein für alle geltendes Rezept für die Digitalisierung und jedes Haus muss seinen Weg selbst suchen.

 

EDiM - Datenmigration 5

Seit den ersten Erfahrungen mit der Datenmigration zu Beginn des Projektes gab es weitere. Aus ihnen ziehe ich für mich als Projektleiterin das generelle Fazit, dass Datenmigrationen am besten zu vermeiden sind: Sie kosten, sie müssen bis ins Einzelne vorbereitet werden, sie müssen begleitet werden - also ein enger Kontakt zu den Technikern gehalten werden, die die Migration umsetzen, weil es erfahrungsgemäßig dort eine Bereitschaft gibt, bei auftretenden Problemen diese selbst im eigenen Sinne, also möglichst einfach und daher nicht im Sinne eines qualitativ guten Ergebnisses für den Kunden zu lösen -, sie haben fast immer irgendeinen Bereinigungsaufwand zur Folge.

Aus diesem Grund und weil plötzlich die Preise für Migrationen bei unserem Software-Anbieter extrem angestiegen sind, haben wir zuletzt eine "Migration per Hand" beauftragt: Wir haben mit der Hälfte der durch den Software-Anbieter verabschlagten Summe jemanden bezahlt, der die Daten passgenau, ohne Ärger und anschließenden Bereinigungsaufwand, per copy & paste von einer Datenbank in die andere umsetzt - ein sehr schnelles und zufriedenstellendes Ergebnis. Jeder, der eine Migration plant und finanziell das meiste herausholen möchte, sollte genau durchkalkulieren, was auf ihr zukommt. Sonst ergeht es ihm möglicherweise wie uns zu Beginn des Projektes. Ein möglicher Weg könnte sein, die Dauer einer Bereinigung oder des copy & paste-Verfahrens über ein paar Stunden auszuprobieren und anschließend hochzurechnen.

Handelt es sich um große Mengen Daten, die womöglich auch noch von ausgezeichneter Qualität sind (und damit "Wert" haben), sieht es natürlich anders aus. Es könnte sein, dass sich dann zum Beispiel solche Lösungen empfehlen wie die Daten aus der Datenbank auszugeben (zum Beispiel in Tabellenform) und diese dann zu bearbeiten (zum Beispiel nicht passende Inhalte in eine neu angelegte Spalte direkt daneben umzusetzen oder über Sammelveränderungen Einträge zu vereinheitlichen). Einzelne Arbeiten können aufgrund der Struktur der Zieldatenbank möglicherweise besser in dieser bewältigt werden. Übersteigt die Anzahl der Datensätze eine kritische Menge, ist tatsächlich die Migration nicht zu vermeiden. Zu den Kosten der Migration müssen als natürliche Folge dieses Vorgangs dann auch immer die Kosten für Personal, das eine Bereinigung vornimmt, mitkalkuliert werden. Wo die kritische Menge anfängt, muss jeder für sich selbst ermitteln. Nach meiner Erfahrung liegt sie aber deutlich höher als 1.000 Datensätze.

EDiM - Datenmigration 4

Unmittelbar vor der Schulung Mitte Mai 2012 wurde die Datenbank hier vor Ort installiert, zusammen mit den hinein migrierten Daten. Es stellte sich bereits bei der Schulung heraus, dass die Datenbank Fehlfunktionen zeigte, die auch die beiden Zetcom-Mitarbeiter, die bei der Schulung anwesend waren, mit Fragezeichen im Gesicht zurückließ. Sie versicherten jedoch, dass sie sich nach den Gründen für diese Phänomene erkundigen würden und stellten Antworten in Aussicht. Doch auch die Datenmigration der Künstlernamen war nicht so gelungen wie gewünscht. Dieser Punkt war erst Mitte Juli abgeschlossen.

Um es kurz zu machen: Im September 2012 trafen wir uns mit den beiden Geschäftsführern der Firma Zetcom zu einem Krisengespräch, bei dem wir den Rücktritt vom Ankauf von MuseumPlus in Aussicht stellten, wenn nicht die Datenbank in absehbarer Zeit stabil und ohne Fehlfunktionen (wie z. B. das selbsttätige Beenden von Arbeitssitzungen) läuft. Erst bei diesem Termin erhielten wir die definitive Auskunft, dass scheinbar die Datenbank-Software Oracle, auf der MuseumPlus bei uns installiert war, für diese Fehlfunktionen verantwortlich sei. Bereits zuvor hatten wir diese Auskunft, formuliert als Vermutungen, erhalten. Immer jedoch ließ uns die Firma Zetcom wissen, dass es sich allein um unser Problem handeln würde, denn ihre Software liefe einwandfrei. Wenn sie bei uns nicht liefe, sei etwas in der IT-Struktur bei uns nicht richtig. Tatsächlich scheint MuseumPlus nur dann fehlerfrei auf Oracle zu laufen, wenn sich jemand im Haus befindet, der dieses Programm sehr gut kennt, alle neuen Systemversionen sofort einspielt und es bis in Details hinein (z. B. Konfiguration von Spracheinstellungen etc.) beherrscht.

Diese Anforderung war bei uns im Haus nicht gegeben. Wir war es dazu gekommen? Bis heute steht auf der Homepage von Zetcom zu den Systemanforderungen, dass MuseumPlus für Standardumgebungen entweder auf einem MS SQL-Server oder auf Oracle läuft. Da unser IT-Experte im Haus bei anderen Anwendungen gute Erfahrungen mit Oracle gemacht hat, bevorzugte er dieses Programm und wir kaufen es an, obwohl es teurer als ein MS SQL-Server war. Wir bekamen zu keinem Zeitpunkt eine Warnung oder auch nur ein Hinweis, dass mit Oracle ggf. Schwierigkeiten zu erwarten seien oder größere Anstrengungen zu einbem fehlerfreien Betrieb zu machen seien. Und gingen aufgrund unserer hauseigenen Erfahrungen davon aus, dass es sich um ein Abstimmungsproblem zwischen Oracle und MuseumPlus handelt, bei dem nach unserer Auffassung MuseumPlus mindestens zur Hälfte mitverantwortlich wäre.

Wir erhielten bei dem oben genannten Krisengespräch von Zetcom daraufhin das Angebot, für die Hälfte der normalerweise in Rechnung gestellten Kosten von dem Oracle-Server auf einen MS SQL-Server umzuziehen. Dieses wurde bis Mitte Oktober 2012 realisiert. Danach kamen keine Fehlfunktionen mehr vor und die Datenbank läuft seitdem stabil.

Die Unsicherheit, ob Arbeiten in der Datenbank ordnungsgemäß gespeichert und am nächsten Tag wieder aufzurufen waren, führte dazu, dass wir bis Oktober 2012 außer Suchabfragen keine Eingaben oder Datenbereinigungen vornahmen, also mit der Datenbank nicht aktiv arbeiteten. Da auch bei der Datenmigration Zweifel an der Qualität des Ergebnisses aufgetaucht waren, wollten wir auch an diesem ggf. zu reklamierenden Ergebnis bis zur Beantwortung dieser Frage keine Veränderungen vornehmen.

Diese ganzen Verzögerungen waren natürlich an sich ärgerlich. Wir hatten immerhin Personal für Datenbankarbeiten eingeplant, das woanders eingesetzt werden musste. Nicht zuletzt hatten wir einen Dreijahresplan erstellt mit einer nicht unerheblichen Anzahl an Datensätzen und einem durchgerechneten Arbeitsprogramm. So war klar, dass sich dies in den beiden folgenden Jahren "drängen" würde. Dazu später mehr.

Im Nachhinein lässt sich sagen, dass es günstiger gewesen wäre, nach Ende der Datenmigration und Installation der Software im Haus deren einwandfreie Funktionsweise zunächst zu prüfen. Und auch die Datenbereinigung hätte erst abgenommen werden müssen.

 

EDiM - Datenmigration 3

Bei dem Zusammentreffen mit den Mitarbeitern der Firma Zetcom Mitte März, mit denen die zu migrierenden Daten besprochen wurden (Detailspezifikation), stellten sich einige Dinge als nachteilig heraus.

1. Eine der zu migrierenden Dateien lag in einem derart veralteten Zustand vor (Access 2000), dass es im Haus nur noch einen einzigen Computer gab, auf dem man die Daten aufrufen konnte. Wir haben darauf spekuliert, dass es reichen würde, wenn zum Migrationsgespräch der Leiter dieser betreffenden Sammlung, der die Inhalte der Datenbank überschauen sollte, hinzukommt und den Mitarbeitern von Zetcom die entsprechenden Auskünfte persönlich erteilt. Dies hat sich als zutreffend herausgestellt. Im Prinzip ist diese Vorgehensweise allerdings nicht zu empfehlen, denn man sollte sich jede Spalte vor der Migration genau von oben bis unten ansehen, auch wenn es sich wie in diesem Fall um 30.000 Datensätze handelt.

2. Die Software, mit der wir zur Detailspezifikation die zu migrierende Datei ansehen wollten (FileMaker), war nur mit zwei Lizenzen im Haus vorhanden und nur in einer anderen Liegenschaft ca. 500m Luftlinie entfernt an zwei Computern anderer Kollegen verfügbar. Die Verantwortliche für den Migrationsprozess kannte sich nicht (wie auch kein anderer im Haus, sogar die User) mit der Benutzung, Administration und den Details dieses Programms aus. So war es schwierig bis fast unmöglich, vorher Änderungen an den Daten vorzunehmen, ohne eine gewisse Einführung in das Programm.

3. Da das Software-Unternehmen, dass eine der zu migrierenden Datenbanken seinerzeit programmiert hat (Nr. 6), insolvent geworden ist, lag zum Zeitpunkt der Migration nur noch ein Datenbank-Dump (eine Kopie der Datenbank) bzw. ein Export in Excel vor, so dass die Datenstruktur live in der Datenbank nicht mehr nachvollzogen werden konnte.

Für die Projektleiterin als Verantwortliche für den Migrationsprozess war es neben diesen technischen Problemen weder auf die Schnelle noch von Wissen her möglich, die Datenqualität im Detail zu beurteilen oder sogar inhaltlich zu verbessern. Dennoch kann man auf eine "strukturelle" "technische" Richtigkeit achten: Es kam bei den Gesprächen über die Details des Migrationsprozesses heraus, dass für eine gute Qualität des Endergebnisses wichtig ist, dass entweder jede Information in einem extra-Feld vorliegt, so dass sie bequem an die richtige Stelle gelenkt werden kann, oder die Angaben mit einer maschinellen, nämlich 100%igen Präzision immer identisch eingetragen sind.
Dazu ein paar Beispiele: Wir hatten ein Feld mit Maßen, dass nach der Struktur der vorherigen Datenbank völlig richtig mit den Maßen von Höhe, Breite und Tiefe mit drei Werten, getrennt durch "x", befüllt war (also z. B.: 35x34x56 oder 35cm x 34cm x 56cm). Nun sah die neue Datenbank die Trennung der drei Werte in eigene Felder für Höhe, Breite und Tiefe vor. Nur wenn in allen, aber wirklich allen Feldern (in diesem Fall z. B. 14.400 Mal) die Einträge immer gleich sind, einschließlich der verwendeten Leerzeichen zwischen den "x", können diese Daten maschinell getrennt werden. Sollte mal ein Tippfehler vorkommen, passiert an dieser Stelle bei der Übernahme ein Fehler.
Die Erfahrung lehrt, dass von Menschen erzeugte Daten ebenso wie solche von Museumsobjekten sich dieser 100%-Regel entziehen. So muss man neben schlichten Fehlern z. B. mit Zusätzen zu den Maßen im Sinne eines Kommentars rechnen (z. B. "mit Sockel 15 cm") und anderen Ausnahmen, für die dann eine eigene Spalte einzurichten wäre. Kennt man die Regeln für die Übernahme genau (und von Firma zu Firma dürften dort Unterschiede sein), kann man vor der Migration seinen Datenbestand nach diesen Kriterien optimieren, ohne in die Inhalte gehen zu müssen. Inhaltliche Fehler bleiben natürlich bestehen und werden auch durch eine neue Datenbank nicht besser. Dort wirken die Fehler nur noch deplazierter.

Häufig dürfte es sich bei einer Migration um ein Überspielen einer einfachen Datenstruktur in eine komplexere handeln. Es bietet sich an, sich vor der Migration den Aufwand der Bereinigung vorher bzw. hinterher sehr klar und deutlich vor Augen zu führen. Bei uns war es leider so, dass wir zwar vor der Detailspezifikation Zeit gehabt hätten, diese Bereinigungen durchzuführen, aber nicht abschätzen konnten, dass dies nötig sein würde. Und nach der Detailspezifikation war der Zeitplan so eng, dass wir nur noch Details ändern konnten, bevor wir die Dateien endgültig abgeben mussten. Wären wir uns der Konsequenzen für die anschließende Bereinigung, die übrigens derzeit immer noch nicht abgeschlossen ist!, bewusst gewesen, hätten wir natürlich den Zeitplan in Frage gestellt. Es kam uns sogar so vor, als hätte uns die Firma gern vorher über den aus unserer Sicht für erfahrene Datenmigrierer absehbaren Bereinigungsaufwand aufmerksam machen können. Dieser Eindruck kam zustande, weil die Firma zur kostenmäßigen Veranschlagung der Datenmigration gesagt hatte, sie würde die Daten "analysieren". Bei uns entstand - etwas naiv im Nachhinein - der Eindruck, als würde sich die Firma der Daten in irgendeiner Hinsicht "annehmen", uns Unerfahrene beraten und die Daten auf der Basis ihrer umfangreichen Migrationserfahrung mit technischen Mitteln womöglich noch "verbessern", indem die Firma Probleme erkennt und technisch löst oder uns eben auf sie hinweist. Dies war ein folgenschwerer Irrtum.

Aber dennoch bleibt im Nachhinein der Wunsch, vorher auf den abzusehende Bereinigungsaufwand hingewiesen worden zu sein. Wir hatten zum Bereinigen mehr die Inhalte im Blick. Heute wissen wir, dass sogar eine Migration von einer hochkomplexen Software in eine andere zu z. T. erheblichem Bereinigungsaufwand führt, allein deswegen, weil beide Programme ihre Inhalte technisch oder strukturell auf eine andere Weise ablegen.
Ein anderes Beispiel veranschaulicht ein ähnliches Problem: In der FileMaker-Datei zu 21.700 Photographien hat der Eingebende über 20 Jahre für jedes Foto neu den Autor (den Fotografennamen) angelegt und hingeschrieben. In neueren Systemen wie auch im MuseumPlus ist dieses Problem heute überwiegend so gelöst, dass nur noch einmal ein Künstlername geschrieben wird und dieser dann, wenn man ihn braucht, mit dem entsprechenden Objektdatensatz nur noch verknüpft wird und entsprechend tausende Male zweitverwendet werden kann. Beim Schreiben dieser Namen hat der Eingebene (natürlich!) Fehler gemacht: Mal war das Komma zwischen Namen und Vornamen ein Punkt oder ein Semikolon geworden, mal fehlten Buchstaben etc. Weil die Namensspalte vorher nicht bereinigt war, hat jede andere Schreibweise des Namens, auch wenn es sich nur um ein Komma handelte, einen neuen Künstlerdatensatz verursacht, so dass bis zu fünf Namensvarianten und damit Datensätze pro Person existierten. Bei knapp 10.000 Künstlern wächst sich die Bereinigung allein dieser Spalte zu einer Monate umfassenden Tätigkeit aus.
Ein klarer Nachteil war, dass die Datenbank hier nicht vor Ort installiert war, so dass die Möglichkeiten, sich als Laie das Migrationsergebnis Spalte für Spalte vor Augen zu führen, so gut wie unmöglich war.

 

EDiM - Datenmigration 2

Keine Datenmigration ist gleich und jeder Prozess und jede Institution hat andere Rahmenbedingungen. Ich kann im Folgenden nur beschreiben, wie der Ablauf bei uns war und welche Vor- oder Nachteile sich dabei ergeben haben. Insgesamt hat es sich zum Beispiel als vorteilhaft erwiesen, dass es im Interesse des Ergebnisses für diesen ganzen Prozess einen Verantwortlichen gab, der oder die alle Fäden in der Hand hält. Und dieser zukünftige Datenbankadministrator sollte die Dateien und die Inhalte genau kennen:

Teil des Migrationsprozesses war eine so genannte "Detailspezifikation", d. h. eine Besprechung der zu migrierenden Dateien mit einem Mitarbeiter der Firma Zetcom über drei Tage hier vor Ort in Halle. Datei für Datei und Spalte für Spalte ist besprochen worden, in welches Feld der neuen Datenbank die Inhalte wandern sollen. Dazu ist ein Dokument erstellt worden, das die Besprechungsergebnisse festhält: Es handelt sich um eine Excel-Liste, in der im Kern schlicht eine Spalte aus der Ausgangsdatei einer Spalte in der Zieldatenbank zugeordnet ist. Jeder, der eine Migration anstrebt, kann sich das zukünftige Ergebnis sehr gut selbst vor Augen führen, wenn er sich die Inhalte der Ausgangsspalte (vollständig bis ganz nach unten!) ansieht und in der zukünftigen vorstellt. Jegliche in der Ausgangsdatei strukturell falsch abgelegte Information wird in der Zieldankenbank in der falschen Spalte erscheinen und wird entweder vorher oder hinterher bereinigt werden müssen.

Nun geht es in die Details: In unserem Fall hatten wir es mit der Firma Zetcom und ihrem Produkt "MuseumPlus" mit einem Zusatzbereich (=Ausstellungsmanagement) zu tun. Firmenpraxis ist, dass die Datenbank vor dem Ankauf nur auf ausdrücklichen Wunsch des Auftraggebers vor Ort installiert wird. Andere Software-Anbieter stellen eine kostenlos und einfach herunterzuladende Demo-Datenbank zur Verfügung, damit der Käufer Tests und alle denkbaren Arten von Eingaben bzw. Suchabfragen tätigen kann, um die Datenbank zuvor eingehend kennen zu lernen. Auf eine vorherige Installation des Programms und auf umfangreiche Tests im Vorfeld haben wir verzichtet, weil wir überraschend und vorfristig - dankenswerterweise! - bereits Ende 2010 Geld zur Verfügung gestellt bekamen, das innerhalb von 4-5 Wochen, bis Ende des Jahres, ausgegeben werden musste. Insgesamt hatten wir aber auch das Vertrauen, dass dieses Programm, das bei anderen Einrichtungen zufriedenstellend läuft und Spectrum-zertifiziert ist, alle Funktionen aufweist, die die Moritzburg braucht. Offiziell lautet die Begründung dafür, dass die Datenbank "ungern" zu Testzwecken beim Interessenten installiert wird, dass möglicherweise bei der Benutzung des Programms ein falscher Einruck von seiner Leistungsfähigkeit etc. entsteht, weil sich der User mit Datenbank nicht ausreichend auskennt.

Nachdem wir den Ankauf in Eile verwaltungsmäßig über die Bühne gebracht hatten und der Installation der Datenbank bei uns freudig entgegen sahen, erhielten wir die Auskunft, dass diese erst nach der Datenmigration zu uns kommen würde, weil die Migration beim Anbieter vor Ort in Berlin stattfindet. Daraufhin haben wir uns (im Januar) nach dem grundsätzlichen Ablauf der nächsten Monate erkundigt und erhielten von Zetcom einen Zeitplan, der die Monate März bis Mai 2012 von der Detailspezifikation über die Migration bis zur Schulung umfasste.

Die Erfahrungen hat gezeigt, dass wir uns diesen Zeitplan nicht hätten "diktieren" lassen dürfen. Aber wer hätte gedacht, dass das Programm nicht stabil laufen würde und auch das Migrationsergebnis Wünsche offen ließ?

 

 

 

EDiM - Datenmigration 1

In fünf Abschnitten berichten wir jetzt von unseren Erfahrungen rund um die Datenmigration in der Stiftung Moritzburg - ein etwas kniffliges Thema, weil dabei nicht alles zu 100% gut gelaufen ist. Umso mehr lohnt sich ein genauer Blick auf die neuralgischen Punkte und ein Erfahrungsbericht.

Dieser Bericht ist "gut abgehangen": So können wir nicht nur mitteilen, was wir gemacht haben, sondern auch, ob es sich als hilfreich erwiesen hat. Ein weiterer Grund, warum wir nicht aus der Arbeit heraus oder direkt im Anschluss berichtet haben, ist, dass wir uns das Ergebnis zum Teil anders vorgestellt hatten und daher nicht rundum mit unserem Software-Partner zufrieden waren. Es spielte aber auch eine Rolle, dass wir unerfahren waren: Klar, wir haben uns eine Software gekauft, weil wir keine hatten.

Der ganze Prozess begann vor knapp drei Jahren mit der Auswahl und der Veranschlagung der für die Migration vorgesehenen Dateien/Datenbanken. Auswahlkkriterium Nr. 1 war inhaltlicher Gehalt und Nr. 2 die Anzahl der Datensätze in einer Datei.
Hat die Datei nur 4-5 Spalten, also Kategorien wie Inventarnummer, was ist es, wie heißt es, Maße und Künstler, ist das inhaltliche Gewicht vermutlich zu gering, um einen hochbezahlten Spezialisten daran zu setzen und eine Migration durchführen zu lassen. Wäre eine solche Datei allerdings viele tausend Datensätze stark, wäre dies schon wieder anders zu bewerten. Die bereits vorhandenen Informationen könnten eine Basis für eine Vertiefung sein.
Ein Mitarbeiter einer Software-Firma hat mir den Tipp gegeben, dass eine Datei ab 1.000 Datensätzen erst die Kosten lohnt. An diesem Rat haben wir uns orientiert. Im Nachhinein ist diese Information allerdings mit einem "aber" zu versehen, denn muss man hinterher das Migrationsergebnis noch aufwändig bereinigen, lohnt sich vermutlich eine Neueingabe bzw. das copy & paste-Verfahren mehr. Man muss die Kosten für die Migration gegen die Kosten für das Personal abwägen. Wir haben bei der Bereinigung unserer Datensätze tatsächlich die Erfahrung gemacht, dass eine Bereinigung fast die Zeit einer Neueingabe in Anspruch nehmen kann. Dabei handelte es sich immerhin um eine "umfangreiche", 70 Spalten starke Datei. Auf die genauen Gründe dafür komme ich anlässlich der Datenbereinigung, also einige Blogs später zurück.

Die Stiftung Moritzburg hat insgesamt sechs Dateien migrieren lassen:

1. eine Access-Datenbank zu rund 30.000 Geldscheinen (ohne Bilder)
2. eine Access-Datenbank zu 1.665 Münzen (ohne Bilder)
3. eine FileMaker-Datei zu 21.760 Photographien (ohne Bilder)
4. eine Excel-Datei mit rund 4.000 Adressen
5. eine Excel-Liste zu 1.350 Plakaten (ohne Bilder)
6. eine Datenbank mit 14.400 Datensätzen querbeet durch alle Sammlungen und Abteilungen der Moritzburg, mit je einem JPG-Bild.

gesamt rund 73.000

Diese Daten sind nicht etwa durch die Wissenschaftler der Abteilungen erstellt worden, sondern in zwei Fällen (Nr. 1 und 3) durch ehrenamtliche Spezialisten, denen hier und überhaupt für ihr Engagement nicht genug zu danken ist! Eine Datei ist durch eine museologisch ausgebildete Fach-Praktikantin erstellt worden (Nr. 5) und eine im Rahmen einer über mehrere Jahre laufenden AB-Maßnahme, während der vorhandene Erfassungen transkribiert und anlässlich von Buchprojekten entstandene Ektas von Objekten als TIFF gescannt wurden (Nr. 6). 

Die Kosten für eine Migration richten sich grundsätzlich nach der Anzahl der Spalten (nach rechts), während die Anzahl der Datensätze (nach unten) keine Rolle spielt. Unsere Dateien lagen in der Jahreswende 2011/2012 zwischen 410,- plus MWSt. (Excel-Adress- und Plakatdatei = ein halber Arbeitstag eines Software-Mitarbeiters zu 820,-) und 1.640,- plus MWSt. für die Migration der unter 6. genannten 70 Spalten umfassenden Datenbank. Es ist naheliegend, dass einfache und gängige Dateiformate wie Excel und Access weniger kosten als beispielsweise Daten, die aus einem proprietären System herausgeholt werden müssen.

museum-digital wird mehrsprachig

In fast allen Versionen von museum-digital ist es jetzt möglich eine von mehreren Sprachvarianten auszuwählen. Die Sprachumstellungen betreffen die Erläuterungs- und Erklärungstexte - die inhaltlichen Angaben, Beschreibungen von Objekten zum Beispiel, werden nicht übersetzt. Die jetzt vorhanden Übersetzungen in  Englisch, Italienisch, Ungarisch, Polnisch und Bahasa Indonesia haben Freunde von museum-digital, zumeist MuttersprachlerInnen erstellt. Danke dafür.

Der Sprachwahlschalter ist immer in der oberen Navigationsleiste rechts zu finden. Weitere Übersetzungen sind geplant.

EDiM - ein Fund zum Teilen

Reisen bildet, so auch hier: Der Besuch der Herbsttagung der Fachgruppe Dokumentation des Dt. Museumsbundes hat wieder viele Kontakte gebracht, aber auch Flyermaterial in unseren hungrigen Rachen gespült.
Das aus unserer Sicht interessanteste Heftchen ist die "Handreichung - Rechliche Rahmenbedingungen für Digitalisierungsprojekte von Gedächtnisinstitutionen" von John H. Weitzmann  und Paul Klimpel.

http://irights.info/wp-content/uploads/2014/10/Handreichung_Digitalisierung_Recht_Gedaechtnisinstitutionen.pdf

44.444 Objekte bei museum-digital

Mal wieder eine "runde" Zahl zu vermelden ... Gestern wurde das 44.444 ste Objekt bei museum-digital veröffentlicht. Es handelt sich um ein "Bruchstück einer Heiligenfigur" aus der Sammlung "Kloster Seehausen" des Museums im Dominikanerkloster Prenzlau. In den letzten Tagen sind etliche kleinere und größere Sammlungen hinzugekommen, beispielsweise eine Fotodokumentation zur Geschichte des Klosters in Heiligengrabe, eine Sammlung von Plakaten zur Reihe "Hausmusik bei Kleist" des Kleist-Museums in Frankfurt/Oder, die Sammlung von Holzbildtafeln des "Vorschuss-Vereins" des Museums Eberswalde sowie etliche Objekte aus dem Blüchermuseum in Kaub (die erst nach und nach veröffentlicht werden).

EDiM - Bildrechte: eine gute Nachricht!

Für ein Museum wie das Kunstmuseum Moritzburg in Halle (Saale) mit Werken überwiegend aus dem 19. und 20. Jahrhundert ist bei der Onlinepublikation das gegenwärtig geltende Urheberrecht eine spürbare Hürde.

Hier ein kurzer Überblick über die Bedingungen in diesem Bereich, selbstverständlich ohne Anspruch auf Vollständigkeit oder juristisches Niveau: Damit ein Museum Werke kostenfrei online publizieren kann, muss der Künstler 70 Jahre verstorben sein. Erst dann werden die Werke nach dem deutschen Urheberrechtsgesetz "gemeinfrei", d. h. die Urheberrechte, die der Künstler an seinem Werk hatte, sind abgelaufen. Zuvor hat er ein Anrecht auf eine finanzielle Kompensation, es sei denn, dass er oder seine Erben ausdrücklich und am besten schriftlich auf sie verzichten.

Neben dem Werk-Urheberrecht sind darüber hinaus die Urheberrechte des Fotografen bei der Online-Publikation zu berücksichtigen: In seinem Arbeitsvertrag oder auch Werkvertrag müssen die Nutzungsrechte des Museums an den Fotos so klar benannt sein, dass das Museum diese Abbildungen ohne weitere Kosten publizieren darf.

Das Kunstmuseum Moritzburg möchte natürlich eine profilbestimmende Auswahl seiner Werke online zeigen, d. h. vor allem Werke der Klassischen Moderne. Nur rund ein Drittel der Künstler (geschätzt) aus dieser Zeit sind bereits 70 Jahre verstorben!

Auch in einem anderen Projekt der Moritzburg, bei dem moderne Kunstmedaillen aus der Zeit zwischen 1870 bis zur Gegenwart erfasst und online publiziert werden, war der Wunsch nach einer Publikationserlaubnis durch die Künstler, die zum Teil von der VG Bild-Kunst (Verwertungsgesellschaft Bild-Kunst) vertreten werden, groß. Viele dieser Künstler leben noch.

Um zumindest ein Stück weit aus diesem Dilemma herauszukommen, war schon lange angedacht, einige derjenigen Künstler, die noch leben und deren Adresse wir kennen, anzuschreiben und höflich und nett um Erlaubnis zu einer kostenfreien Publikation zu bitten. Vorbild für diese Vorgehensweise war das Berliner Münzkabinett, dass schon öfter diesen Weg erfolgreich gegangen ist, und tatsächlich in seiner Online-Datenbank IKMK (Interaktiver Katalog des Münzkabinetts der Berliner Museen) viele Werke noch lebender bzw. noch nicht 70 Jahre verstorbener Künstler zeigt.

Das dabei verwendete Abfrage-Formular hat das Kunstmuseum Moritzburg für seine eigenen Zwecke angepasst. Zunächst haben wir die Künstler, die nicht von der VG Bild-Kunst vertreten werden, angeschrieben. Erfragt wurde zur Sicherheit, ob der Künstler von der VG Bild-Kunst vertreten wird oder nicht. Immerhin kann es sein, dass der Künstler erst kürzlich Mitglied geworden ist oder dass - dies ist tatsächlich gleich mehrfach vorgekommen - die online stehende Datenbank der Künstler, die von der VG Bild-Kunst vertreten werden (siehe Homepage der VG Bild-Kunst), nicht ganz korrekt bzw. aktuell ist. Anschließend haben wir abgefragt, ob die Moritzburg kostenfrei die Werke der Künstler sowohl in gedruckten Publikationen als auch im Internet publizieren darf. Nach drei Wochen haben ungefähr die Hälfte der rund 70 Künstler geantwortet und alle positiv.

Wir hatten zufällig auch einige Künstler, die von der VG Bild-Kunst vertreten werden, in unserer Adressliste: Mit ihrer Unterschrift hatten wir plötzlich die Erlaubnis von Künstlern, die von der VG Bild-Kunst vertreten werden, ihre Werke online zu publizieren. Was war passiert? Wir hatten zunächst keine Antwort darauf.
Wir dachten, dass dies gerade nicht ginge: Denn die Aufgabe der VG Bild-Kunst ist, die Urheberrechte der bei ihnen gemeldeten Künstler zu vertreten bzw. die Tatiemen aus den Nutzungsrechte an ihren Werken einzuziehen und an ihre Mitglieder auszuschütten. Die Zustimmung der Künstler schien dem zu widersprechen.
Ermutigt durch einen hilfreichen Kontakt aus dem Ulmer Museum riefen wir direkt bei der VG Bild-Kunst an und erhielten die ermutigende und wirklich gute Nachricht, dass auch diejenigen Künstler, die ihre Online-Publikationsrechte über die VG Bild-Kunst vertreten lassen, mit einer recht formlosen Email oder auch einem etwas aufwändigeren Formular wie dem unsrigen auf die Gebühren für die Online-Publikation ihrer Werken verzichten können. Nur auf die Tatiemen aus der Publikation in gedruckten Werken dürfen sie nicht verzichten. Aus diesem Grund ist in unserem Formular dieser Passus gelb markiert: Sollten Sie Lust haben, unser Formular für ähnliche Abfragen in Ihrem Haus zu verwenden, müssten Sie das Formular für Künstler, die von der VG Bild-Kunst vertreten werden, an dieser Stelle ändern. Natürlich muss die VG Bild-Kunst von Ihrer Absprache mit den Künstlern erfahren: Leiten Sie die Mails einfach an die VG  Bild-Kunst weiter oder senden Sie ihr die Kopien Ihrer Formulare.

Ein erstmal nicht lösbares "Problem" ist, die Erben verstorbener Künstler zu ermitteln - ob nun von der VG Bild-Kunst vertreten oder nicht. Dafür müsste ein erheblicher Rechercheaufwand geleistet werden. Diesen Weg werden wir - zumindest im Augenblick - nicht gehen.  

Ingesamt scheint mir, dass die Abfragemöglichkeit nach den Online-Publikationsrechten bei den noch lebenden Künstlern eine gute Lösung für Museen mit viel moderner Kunst ist und eine sehr gute Nachricht zum Wochenende! Ich wünsche viel Erfolg!

Continue reading "EDiM - Bildrechte: eine gute Nachricht!"

EDiM - ein kleiner Schritt vorwärts bei den Bildrechten

Im Rahmen der Frühjahrstagung des Deutschen Museumsbunds Anfang Mai 2014 haben die VG Bild-Kunst und der Deutsche Museumsbund einen neuen Rahmenvertrag unterzeichnet, der Verbesserungen für diejenigen Museen bringen soll, die mit der VG Bild-Kunst Verträge abschließen müssen, um Abbildungen von Werken publizieren zu können, deren Schöpfer von der VG Bild-Kunst vertreten werden.

Details dazu unter:

http://www.bildkunst.de/vg-bild-kunst/news/detailansicht/article/neue-vertragskonditionen-fuer-museen.html

http://www.museumsbund.de/de/das_museum/themen/bildrechte/

Rahmenvertrag:

http://www.bildkunst.de/fileadmin/User_upload/bilder/newsletter_2014/Museumsvertrag_Dt_Museumsbund.pdf

Noch nicht abgedeckt werden konnte der für das Kunstmuseum Moritzburg und das Projekt "moderne_digital" wichtige Bereich der Online-Datenbanken. Die VG Bild-Kunst und der Deutsche Museumsbund waren sich über den diesbezüglichen Handlungsbedarf einig und vereinbarten weitere Gespräche. Man darf gespannt sein.



Glasplattendigitalisierung IV

Moosgummi-Abstandshalter auf Scanner
mittig: ausgeschnittenes Sichtfenster
oberhalb: schmaler Kalibrierungsstreifen

Detail: Abstandshalterung

Ab Anfang März 2014 haben wir mit der Digitalisierung von Glasplattennegativen begonnen. Wie schon in den Blogbeiträgen I bis III erwähnt, nutzen wir den Flachbettscanner Epson Perfection V750 pro (ca. 750 € Neupreis) in Verbindung mit der Software LSI Silverfast Studio 8 (ca. 300€ Neupreis) und Adobe Photoshop Elements 10 (nicht mehr erhältlich, Neupreis für Version 12 ca. 80€).

Wir haben uns entschlossen, die Glasplatten nicht direkt auf das Scannerglas aufzulegen. Ansonsten würde Glas auf Glas liegen und so bestünde die Gefahr, dass die Glasplatte des Scanners oder die Glasnegative selbst zerkratzen. Zwei direkt und plan aufeinanderliegende Flächen sind zudem schwierig voneinander zu trennen – in diesem Fall also: das Glasnegativ nach dem Scanvorgang wieder von dem Scannerglas aufzunehmen. Aus diesem Grund haben wir einen Abstandshalter gebastelt.
Während bei Foto Marburg Halterungen aus Hartplastik verwendet werden, entschlossen wir uns, unsere Halterungen aus einfachem Moosgummi zu basteln. Für die Materialwahl sprach der geringe finanzielle Aufwand, aber auch der Umstand, dass Glasplatten unterschiedlichster Größen zur Digitalisierung anstehen und dabei nahezu für jede Größe eine eigene Halterung entworfen werden muss. Das Moosgummi ist in verschiedenen Materialstärken kostengünstig verfügbar und lässt sich mit einem scharfen Cuttermesser relativ einfach und schnell zurechtschneiden.
Jede Abstandshalterung besteht zunächst aus einer Maske, die nahezu die gesamte Scanfläche abdeckt. In diese Maske wird ein Sichtfenster in Größe der zu scannenden Vorlage geschnitten. Außerdem muss die Maske oberhalb einen schmalen freien Streifen aussparen. Wird dieser Streifen nicht freigelassen, wird folgend schlichtweg eine durchgehend schwarze Fläche gescannt.
Beim Zuschneiden des Moosgummi-Abstandshalters müssen alle Kanten möglichst gerade und rechtwinklig ausgeschnitten werden (Für nähere Erläuterungen zur Ausrichtung der Scans vgl. Blogbeitrag „EDiM - Funktionsweise und Workflow an der Reproanlage“ insbesondere Abschnitt „Warum ist uns die Rechtwinkligkeit so wichtig?“).
Beim bequemen und geraden Auflegen der Glasnegative helfen zwei erhöhte Kanten. Diese Kanten haben wir ebenfalls aus Moosgummi ausgeschnitten und mit einem lösemittelfreien Bastelkleber auf Wasserbasis angebracht.

Die Wahl der Moosgummi-Materialstärke von 2 mm liegt in der Spezifik des Scanners begründet. Andere Scanner mögen eventuell eine andere Materialstärke erfordern. Der hier zum Einsatz kommende Scanner Epson Perfection V750 pro verfügt während des Durchlichtbetriebs im Wesentlichen nur über zwei verschiedene Scanmodi. In der Software Silverfast lauten die Bezeichnungen dieser Modi „Durchlicht“ und „Durchlicht groß“. Wird der Modus „Durchlicht groß“ gewählt, kann der Scanner Durchlichtvorlagen auf der nahezu A4-großen Scanfläche komplett erfassen. Der Fokuspunkt liegt innerhalb dieses Modus direkt über dem Glas. Vorlagen müssten also – um bestmögliche Ergebnisse zu erzielen – direkt auf das Scannerglas aufgelegt werden, was in unserem speziellen (Glasnegativ-)Fall bereits nicht möglich ist. Ein weiterer Nachteil dieses Scanmodus scheint darin zu bestehen, dass die seitlichen Bereiche der Scanfläche nicht direkt über einen Sensor, sondern nur über Spiegel erfasst werden. In den Randbereichen wird also weniger präzise abgebildet.
Wird der Modus „Durchlicht“ gewählt, verfügt der Scanner zunächst über einen deutlich verkleinerten Scanbereich. Es wird nur noch ein schmaler Streifen mittig der Gesamtfläche abgebildet. Hierbei handelt es sich um den Bereich, der tatsächlich direkt von dem Sensor – ohne Spiegel – erfasst werden kann. Außerdem liegt der Fokuspunkt nicht direkt über dem Scannerglas, sondern leicht erhöht, da dieser Modus speziell zur Verwendung mit den mitgelieferten Epson-Filmhaltern (nur für Kleinbild oder Mittelformat) gedacht ist, welche die Vorlage ebenfalls leicht erhöht positionieren.
In der Dokumentation des Scanners sind die hier beschriebenen Eigenarten des Geräts leider nicht sehr ausführlich behandelt. Die angeführten Werte resultieren aus einem Telefonat mit der Firma Laser Soft Imaging, können aber sinngemäß auch in deren Web-Forum nachgelesen werden: http://forum.silverfast.com/v750-negtiv-dunkles-vorschubild-t6578.html

Für die gestellten Anforderungen sind die Moosgummi-Abstandshalter durchaus geeignet. Dennoch gibt es einige Nachteile: Selbst mit einem sehr scharfen Cuttermesser und schnellen, kräftigen Schnitten lässt sich keine absolute Präzision erreichen. Durch die Flexibilität des Materials gibt dieses stellenweise nach oder verzieht sich beim Beschneiden. Das Ergebnis sind Schnittkanten, die leicht ausfransen können oder keine hundertprozentige Geradlinigkeit erreichen. Zudem kann bei Dauernutzung eines Moosgummi-Abstandshalters dieser am Ende des Arbeitstages – durch die Wärmeentwicklung des Scanners – leicht verzogen sein. Das ‚Offenlassen’ der Abdeckung zwischen den Scanvorgängen kann dem jedoch ausreichend vorbeugen. Aufgrund der insgesamt einfachen und unkomplizierten Handhabung ist das Moosgummi trotz der genannten Nachteile generell zu empfehlen.


Kalibrierung des Scanners

Vor dem Scannen sollte der Scanner kalibriert werden. Dieses kann über ein Durchlicht IT-8-Target (ca. 60€) erfolgen. Zum Kalibrieren wird das Target einfach auf der Scannerfläche positioniert und in der Silverfast Software der Button mit der Beschriftung „IT-8“ gewählt, worauf die automatische Kalibrierung erfolgt. Nach Abschluss des Vorgangs muss lediglich der Dialog geschlossen und der Speicherort für das Profil bestätigt werden.
Die Kalibrierungs-Automatik der Software funktioniert erstaunlich gut und erkennt sogar schief aufliegende Targets präzise.

Wir scannen unsere Glasplatten als TIFF mit 1800 dpi und 48 Bit Farbtiefe. Dies führt zu einer durchschnittlichen Dateigröße von ungefähr 500Mb pro Scan.

Negativ mit farbiger Retusche (Finsler)

Warum werden Schwarz-Weiß Negative in Farbe gescannt?

Was bei der dpi-Einstellung noch nachvollziehbar scheint, nämlich möglichst hohe Auflösung für möglichst hohe Detailwiedergabe, sorgt bei der Farbtiefe eventuell für Verwirrung. Warum sollten Schwarz-Weiß Negative, welche bloß Schwarz-Weiß Abzüge vorbringen sollen, plötzlich farbig gescannt werden?

Die Digitalisierung der Glasplattennegative stellt für uns zunächst eine Bestandssicherung und gleichzeitige Dokumentation des aktuellen Zustands dar. Auch wenn die Negative stets für die Herstellung von Schwarz-Weiß Abzügen gedacht waren, existieren die Glasplatten ‚in der Wirklichkeit’ in Farbe. Lagerungsspuren, generelle Materialalterung, aber auch Feuchtigkeitsschäden, Bakterien, beginnende Zersetzung oder andere Spuren haben teilweise zu beachtlichen Verfärbungen geführt. Außerdem soll das Digitalisat möglichst einem digitalen Faksimile entsprechen. Häufig wurden und werden auf den Negativen Retuschen vorgenommen. Diese wurden meist durch das Aufbringen von sogenannten Abschwächern oder Verstärkern durchgeführt. Gerade letztere hinterlassen eine rötliche Verfärbung auf den behandelten Flächen. Ein Schwarz-weiß Scan würde diese durch den Fotografen vorgenommene Bearbeitung nicht mehr erkennbar machen. Der farbige Scan gewährleistet hingegen, dass das Digitalisat sämtliche Informationen – auch die farbigen – bereithält, die auch in der Vorlage selbst enthalten sind. Die 48 Bit stellen für uns einen Kompromiss aus möglichst hoher Farbtiefe und Dateigröße dar. Zwar hält die Software die Möglichkeit bereit, Dateien mit 68 Bit Farbtiefe zu erzeugen, jedoch wird die Datei durch diese Einstellung auch unangemessen groß.


Bildoptimierungen

Auch wenn die Software einige Möglichkeiten bereithält, das Scanergebnis zu optimieren, werden im Arbeitsablauf sämtliche dieser Verbesserungen ausgeschaltet. Da es uns um ein digitales Faksimile der Vorlage geht, wären Funktionen wie „Automatische Filmkornglättung“ oder „Automatische Kontrastoptimierung“ dem anvisierten Ziel eher abträglich, da das Ergebnis keine exakte Kopie mehr darstellen würde. Insgesamt bleiben also sämtliche Optimierungsfunktionen deaktiviert. Auch am Tonwertumfang nehmen wir keine Veränderungen oder Anpassungen vor.

Digitalisat eines Abzugs von Finsler

Digitalisiertes Negativ zum obigen Abzug, nur invertiert

Digitalisiertes Negativ zum obigen Abzug, invertiert und leicht nachbearbeitet

Arbeitsablauf: Scannen und Ablegen

Bevor wir mit dem Scannen beginnen, reinigen wir das Glasnegativ. Wir säubern allerdings nur auf der Glasseite mit einem feinen Marderhaarpinsel. Mit diesem können Staub und andere Verschmutzungen gut entfernt werden. Für gröbere Verschmutzungen eignet sich ein feines Mikrofasertuch, durch welches auch leichter (!) Druck ausgeübt werden kann. Die Schichtseite lassen wir gänzlich unbehandelt, da zu schnell irreversible Schäden entstehen könnten und wir keine ausgebildeten Foto-Restauratoren sind.
Nach Auflegen des Glasnegativs auf die Moosgummi-Abstandshalterung starten wir den Vorschauscan. In dem sich öffnenden Fenster wird dann mittels beweglicher Begrenzungsrahmen der tatsächlich zu scannende Bildausschnitt festgelegt. Diesen wählen wir so, dass das Motiv nicht durch die Begrenzungsrahmen angeschnitten wird, dass aber auch nicht zu große Bereiche der Abstandshalterung mitgescannt werden. Anschließend kann der eigentliche Scanvorgang ausgelöst werden.
Die dabei erzeugte Datei legen wir danach unter der entsprechenden Inventarnummer mit dem Namenszusatz „_master“ ab. Diese Master-Datei wird nicht weiter bearbeitet oder beschnitten. Von ihr wird allerdings eine Kopie erzeugt und diese mit dem Programm Adobe Photoshop Elements 10 bearbeitet. Innerhalb des Programms beschneiden wir den Bildausschnitt dann weiter, so dass nur noch das Motiv – ohne Abstandshalterung – zu erkennen ist. Anschließend wird das Bild in Graustufen konvertiert, horizontal gespiegelt und die Farben umgekehrt – also ein digitaler Abzug erzeugt. Die durch die Bearbeitung entstehende Datei wird dann unter der jeweiligen Inventarnummer mit dem Namenszusatz „_abzug“ in dem gleichen Ordner wie die Master-Datei als TIFF abgespeichert. Natürlich wird der auf diese Art entstandene Abzug nicht dem entsprechen, was dem damaligen Urheber vorschwebte. Allerdings stellt dieser digitale Abzug auch nur einen zusätzlichen ‚Service’ für potentielle Betrachter dar und soll nur eine grobe Vorstellung des letztendlichen Motivs liefern, da es für viele Betrachter schwierig ist, Negative zu interpretieren. Der Hauptaufgabe, dem Digitalisieren und Faksimilieren des Glasnegativs, ist bereits durch die Master-Datei nachgekommen.

Dadurch, dass dem Fotografen beim Belichten und Vergrößern mehrere Möglichkeiten offenstehen, weiteren Einfluss auf das Motiv und den letztendlichen Abzug zu nehmen, stellt unsere Methode, das bloße Invertieren des Negativs, nicht unbedingt das Ergebnis dar, welches sich auch der Fotograf vorstellte. Schließlich stellt auch das Papier, auf welches das Foto ausbelichtet wurde, einen weiteren Einflussfaktor dar. Allerdings kann das Motiv mittels digitaler Bildbearbeitung weiter angeglichen werden. Einerseits bedeutet eine solche Nachbearbeitung jedoch einen erhöhten Zeitaufwand und andererseits stellt sich diese dort als besonders schwierig dar, wo kein Künstlerabzug, sondern nur das Negativ vorhanden ist. Hier gibt es keine Möglichkeiten, den digitalen Abzug mit dem Künstlerabzug abzugleichen. Stattdessen bedeutet hier jedes Erzeugen eines Abzugs gleichzeitig auch Interpretation des Motivs. Der Bildbearbeiter muss sich stets fragen, wie hell oder dunkel der Abzug ausfallen oder welche Tonwerte das Motiv aufweisen sollte. Links ist erkennbar, wie weit fotografischer Abzug und der – mit unserer Methode erstellte – digitale Abzug auseinanderliegen können und wie der digitale Abzug dem fotografischen Abzug mit etwas Zeitaufwand angeglichen werden kann.

Bei den beschriebenen Einstellungen kommen wir auf eine Scanzeit, die pro Scanvorgang bei circa acht Minuten liegt. Hinzu kommen noch der Vorschau-Scan, das ordnungsgemäße Ablegen der Datei, das Erstellen des Abzugs sowie ein eventuelles Umpacken des Glasnegativs und die Beschriftung der Neuverpackung, so dass bis zu 15 Minuten für den gesamten Vorgang veranschlagt werden können (ohne digitale Nachbearbeitung).

Mit der aus den Einstellungen resultierenden Dateigröße um 500 MB bewegen sich die Bilddateien in dem Bereich, der auch durch die Reproanlage erzeugt wird. Zur Moosgummi-Abstandshalterung lässt sich sagen, dass die Maske an jeder Seite circa 2mm des aufgelegten Negativs verdeckt. Bei vielen Glasplatten ist dies unproblematisch, jedoch gibt es auch Glasplatten, bei denen das Motiv bis an den Rand reicht.
Ein letzter Kritikpunkt betrifft die Software Adobe Photoshop Elements 10. Leider kann das Bildbearbeitungsprogramm nicht mit höheren Farbtiefen umgehen und unterstützt zudem Farbmanagement nicht im vollen Umfang. Für eine tiefgreifende Bearbeitung der Digitalisate ist es daher nicht geeignet. Die Dateien müssten zuvor in eine geringere Farbtiefe umgewandelt werden, wodurch Informationen verloren gingen. Scheinbar muss an dieser Stelle doch auf die aktuelle CS Variante des Bildbearbeitungsprogramms zurückgegriffen werden. Dieses unterstützt sämtliche angesprochenen Funktionen, ist jedoch auch mit erheblich höheren Kosten verbunden.

Pressemitteilung aus dem Kultusministerium Sachsen-Anhalts

Zum fünfjährigen Bestehen von museum-digital hat das Kultusministerium Sachsen-Anhalt eine gemeinsame Pressemitteilung mit dem Museumsverband des Landes veröffentlicht. Von etlichen Print- und Online-Medien wurde diese Mitteilung in leicht variierenden Formen veröffentlicht. Den Text der Mitteilung finden sie hier. Die Veröffentlichung wird wahrgenommen. Das zeigt sich deutlich an der hohen Zahl der Besucher von www.museum-digital.de  in den letzten Stunden.