Publikationsserver des Leibniz-Zentrums für
Zeithistorische Forschung Potsdam e.V.

Archiv-Version

Peter Haber

Zeitgeschichte und Digital Humanities

Version: 1.0, in: Docupedia-Zeitgeschichte, 24.09.2012
https://docupedia.de//zg/Digital_Humanities

DOI: https://dx.doi.org/10.14765/zzf.dok.2.269.v1

Artikelbild: Zeitgeschichte und Digital Humanities

Der analoge Diskurs über das Potential digitaler Medien in der Geschichtswissensdchaft - hier am THATCamp 2011 in Lausanne (Schweiz). Foto: Peter Haber Flickr (CC BY-NC-SA 2.0)

Ist Facebook eine zeithistorische Quelle, und wer archiviert die Tweets der Politiker? Wie nutzt man digitale Quellen, und wie verändert sich die Quellenkritik, wenn die Kopie sich vom Original nicht mehr unterscheiden lässt? Seit Beginn der 2010er-Jahre wird unter dem Stichwort „Digital Humanities” insbesondere im angelsächsischen Raum eine intensive Debatte über neue Potenziale für die Geisteswissenschaften geführt: Peter Haber zeichnet in seinem Beitrag die Entwicklung der Digital Humanities nach und fragt, ob sich mit der Digitalisierung nicht nur die Qualität und Quantität der Quellen, sondern auch der gesamte Arbeitsprozess von Zeithistoriker/innen verändert hat.
Zeitgeschichte und Digital Humanities

von Peter Haber

Ist Facebook eine zeithistorische Quelle, und wer archiviert die Tweets der Politiker? Wie nutzt man digitale Quellen, und wie verändert sich die Quellenkritik, wenn die Kopie sich vom Original nicht mehr unterscheiden lässt? Mit dem digitalen Wandel der letzten Jahre stellen sich einige grundlegende Fragen der Zeitgeschichtsschreibung neu. Nicht nur die Art und die Menge der Quellen haben sich verändert, der gesamte Arbeitsprozess von Zeithistoriker/innen hat etliche Modifikationen erfahren.

Seit Beginn der 2010er-Jahre wird zudem unter dem Stichwort „Digital Humanities” insbesondere im angelsächsischen Raum eine intensive Debatte über neue Potenziale für die Geisteswissenschaften geführt. Das Themenfeld ist vielschichtig und nicht klar konturiert, denn der Begriff Digital Humanities bezeichnet ein sich neu bildendes Forschungsfeld, bei dem noch viele Fragen ungeklärt sind: Sind Digital Humanities ein eigenständiges Fach? Ein Set von neuen geistes- und kulturwissenschaftlichen Methoden? Oder handelt es sich lediglich um digitale Ergänzungen zu bestehenden Fragestellungen und Methoden?

Die derzeit laufenden Debatten haben eine rund fünfzigjährige Vorgeschichte, und viele der nun unter dem Stichwort Digital Humanities diskutierten Fragen werden innerhalb der Geschichtswissenschaft – wenn auch mit anderen Begrifflichkeiten – bereits seit Jahren verhandelt. Eine Historisierung der Wechselbeziehungen zwischen den Geschichtswissenschaften und dem Einsatz von Computertechnologien tut deswegen not, ebenso eine Bestandsaufnahme der heutigen historiografischen Arbeitspraxis im digitalen Zeitalter.[1]

Historische Entwicklung

Die Beschäftigung innerhalb der Geistes- und Kulturwissenschaften mit den Möglichkeiten computergestützter Arbeitsweisen setzte erstaunlich früh ein. Eine der ersten Konferenzen zu diesem Thema fand 1962 in Österreich statt.[2] Zu den dort behandelten Fragen gehörten der allgemeine Einsatz von Computern in den Geisteswissenschaften sowie die elektronische Verarbeitung von kulturellen Daten. Schnell etablierte sich ein Kreis von Spezialisten, der diese und ähnliche Fragen in einem internationalen und auch interdisziplinären Kontext diskutierte. Das vielleicht wirkungsmächtigste Themenfeld, das sich in diesen frühen Jahren herausbildete, war die computergestützte Textanalyse. Zahlreiche Textcorpora vor allem aus der Literatur und aus der Antike wurden damals digitalisiert und für eine maschinelle Verarbeitung aufbereitet. So ließen sich etwa Worthäufigkeiten berechnen oder Wortregister erstellen. Ein zweites, für die Geschichtswissenschaft folgenreicheres Feld war die automatisierte Auswertung von seriellen historischen Quellen wie etwa Geburtsregistern oder Sterbeurkunden. Diese quantitative Art der Geschichtsschreibung erreichte in den 1970er- und 1980er-Jahren ihren Höhepunkt, als zahlreiche Arbeiten insbesondere aus den Bereichen der Sozial- und Bevölkerungsgeschichte auf computergestützte Methoden zurückgriffen. Die Arbeit mit dem Computer wurde dabei weniger als methodisch innovativ, sondern eher als eine Arbeitserleichterung wahrgenommen: „Die Computerschwelle ist daher qualitativ nichts Neues, sondern die EDV ermöglicht genauere und schnellere Antworten auf traditionelle Fragestellungen.”[3]

Als Sammelbegriff für diese neuen Arbeitsweisen hatte sich „Humanities Computing” durchgesetzt.[4] Unter diesem Dach entstanden sowohl in den Philologien als auch in den historischen Wissenschaften je eigene Fachinfrastrukturen mit Tagungen, Fachgesellschaften und Zeitschriften. So gründeten 1972 Soziologen und Historiker an der Universität Köln eine informelle Arbeitsgruppe, um die Verknüpfung von sozialwissenschaftlichen und geschichtswissenschaftlichen Methoden zu diskutieren. Kurze Zeit später, nach dem Historikertag 1974 in Braunschweig, kam es ebenfalls in Köln zu einem ersten Treffen von Historikern, die an quantitativen Methoden interessiert waren, und aus diesem Kreis entstand 1975 die „Arbeitsgemeinschaft für Quantifizierung und Methoden in der historisch-sozialwissenschaftlichen Forschung”. In Köln wurde 1977 auch das Zentrum für Historische Sozialforschung gegründet, das später ins GESIS Leibniz-Institut für Sozialwissenschaften integriert wurde.[5] Auf internationaler Ebene ist insbesondere die 1987 gegründete Association for History and Computing zu nennen und die von ihr herausgegebene Zeitschrift „History and Computing”.

Doch während in den Philologien sich bis heute weitgehend ungebrochene Traditionslinien ausmachen lassen, verlief die Entwicklung in den historischen Wissenschaften weniger geradlinig. Einer der Gründe dafür ist der Umstand, dass die Geschichtswissenschaft stark in nationalen und lokalen Zusammenhängen verwurzelt ist und sich dadurch weniger als in anderen geisteswissenschaftlichen Disziplinen ein internationales Feld etablieren konnte. Zum anderen konzentrierte sich die Computernutzung in der Geschichtswissenschaft in dieser Frühphase auf quantitative Ansätze. Mit der Krise der Sozialgeschichte in den 1990er-Jahren wurden auch die EDV-gestützten Verfahren eher an den Rand gedrängt.

Mehr als für andere geisteswissenschaftliche Disziplinen bedeuteten die Anfänge des World Wide Web deswegen für die Geschichtswissenschaft eine Art Neustart: Ab den 1990er-Jahren konnten Historiker/innen ihre Bemühungen um eine Integration der Computertechnik in die Forschung neu justieren und positionieren. Dabei war das dominierende Interesse an den digitalen Techniken jedoch vor allem bibliothekarisch-kommunikativ und weniger genuin kulturwissenschaftlich. Im Vordergrund standen demnach Möglichkeiten der historischen Informationsverarbeitung, Informationserschließung und der historischen Fachkommunikation.

Gerade im Bereich der historischen Fachkommunikation entstand bereits recht früh eine große Dynamik. Ein wichtiger Schritt dabei war die Etablierung eines umfassenden Mail-Netzwerks in den USA namens H-Net, das 1993 startete.[6] Das Prinzip war einfach: Wer an einem bestimmten historischen Thema interessiert war, konnte sich in eine entsprechende Liste eintragen und erhielt fortan jede Meldung automatisch zugestellt, die an diese Liste adressiert wurde. Der Anspruch von H-Net war ursprünglich breiter, als nur der Betrieb der Mailinglisten: Die Initiatoren wollten auch die Medienkompetenz ihrer Kollegen verbessern und die Nutzung von historisch relevanten Online-Ressourcen fördern. Die erste Liste widmete sich dem Thema Stadtgeschichte und historische Stadtforschung (H-URBAN)[7], es folgten Listen zu den Themen Frauen- und Geschlechtergeschichte sowie Holocaust Studies.[8] Heute zählt das Netzwerk rund 180 verschiedene Fachlisten. 1996 startete ein deutschsprachiger Ableger des Netzwerks mit dem Kürzel H-Soz-u-Kult, was für Sozial- und Kulturgeschichte steht.[9] Anders als bei den englischsprachigen Listen fand beim deutschsprachigen Pendant keine thematische Aufteilung statt. Heute hat die Liste rund 20.000 Abonnentinnen und Abonnenten und veröffentlicht jedes Jahr mehrere tausend Fachrezensionen, Tagungsberichte, Stellenausschreibungen und Call for Papers aus dem Bereich der historischen Wissenschaften.

Perioden der Web-Nutzung in der Geschichtswissenschaft

Bezogen auf die Nutzung des World Wide Web durch die geschichtswissenschaftliche Zunft lassen sich rückblickend verschiedene, zeitlich aufeinander folgende und sich jeweils ergänzende Zugriffe unterscheiden. In einer ersten, ungefähr in der Mitte der 1990er-Jahre einsetzenden Periode stand die reine Informationsbeschaffung im Vordergrund. Die Auswahl an zur Verfügung stehenden Informationsquellen war recht bescheiden, und es waren vor allem Bibliothekskataloge, die historisch relevante Informationen in Form von bibliografischen Angaben zur Verfügung stellten. In dieser Zeit war erst wenig nachträglich digitalisiertes („retrodigitalisiertes”) Material im Netz greifbar, was sich auch mit den geringen Bandbreiten der damaligen Netzverbindungen erklären lässt.[10]

Rund ein halbes Jahrzehnt später, um die Jahrhundertwende, ließ sich eine neue Nutzungsart des World Wide Web beobachten: die Publikation eigener Forschungsergebnisse durch Historikerinnen und Historiker respektive durch einschlägige Institutionen. Dies war zwar noch mit einem nicht geringen technischen Aufwand auf Seiten der Informationsanbieter verbunden, versprach aber den Zugang zu neuen Leserkreisen sowie die Möglichkeit, neuartige Publikationsformen zu erproben. Wegweisend für den deutschen Sprachraum war zum Beispiel das Projekt „pastperfect.at”,[11] das an der Universität Wien von einem Team von Historikern, Programmierern und Grafikern entwickelt wurde und die Zeitenwende vom 15. zum 16. Jahrhundert dokumentierte. Das Thema wurde in Form eines Hypertextes mit mehreren hundert Texten und tausenden von Verknüpfungen realisiert.[12]

Zeitgleich fingen viele große Institutionen an, einen Teil ihrer Bestände zu digitalisieren und im Netz einer interessierten Fachöffentlichkeit zur Verfügung zu stellen. Die gezielte Förderpolitik – etwa in Deutschland durch die Deutsche Forschungsgemeinschaft und in den USA durch das National Endowment for the Humanities – führte zu einer großen Zahl von online verfügbaren historischen Quellensammlungen wie „Compact Memory”[13] für Jüdische Studien, den „Open Society Archives”[14] (OSA) in Budapest zur mitteleuropäischen Zeitgeschichte oder die „Scripta Paedagogica Online”[15] zur Bildungsgeschichte.

In der zweiten Hälfte der 2000er-Jahre kam zu den bisherigen Nutzungsmodi des Netzes ein weiterer Aspekt hinzu. Unter dem Schlagwort Web 2.0 entstand eine Reihe von neuen, niederschwellig interaktiven Netz-Diensten. Das potenziell soziale Element dieser neuen Dienste hat dazu geführt, dass statt vom eher technisch konnotierten Begriff Web 2.0 immer mehr auch von Social Web oder von Social Media gesprochen wird. Den unterschiedlichen Diensten lassen sich verschiedene funktionale Schwerpunkte zuordnen: zusammenarbeiten, Material teilen und soziale Kontakte pflegen.[16]

In der Zeitgeschichte sind in dieser Zeit mehrere wegweisende Netzprojekte aufgebaut worden, die unterschiedlich stark Elemente von Social Media integriert haben. Als zentrale Plattform für den deutschen Sprachraum hat sich das seit 2004 existierende Portal „Zeitgeschichte-online”[17] etabliert, das gemeinsam vom Zentrum für Zeithistorische Forschung (ZZF) in Potsdam und der Staatsbibliothek zu Berlin - Preußischer Kulturbesitz (SBB) betrieben wird. Der Dienst umfasst Verzeichnisse von Zeithistoriker/innen und zeithistorischen Institutionen, bietet einen Rezensionsdienst und einen umfassenden Terminkalender. Ein ähnliches Grundkonzept verfolgen auch die übrigen Themenportale, die vom ZZF aufgebaut wurden. Das Portal „www.17juni53.de”[18] fordert zusätzlich die Besucher auf, eigenes Material zum Aufstand von 1953 über entsprechende Formulare zur Verfügung zu stellen, beim Themenportal „www.chronik-der-mauer.de”[19] stehen hingegen die multimedialen Elemente im Vordergrund. Mit „www.ungarn1956.de”[20] wird eher ein Fachpublikum angesprochen, das hier umfassende Literaturlisten und Online-Materialien zum ungarischen Aufstand 1956 abrufen kann.

Einen anderen Ansatz verfolgt „The September 11 Digital Archive”,[21] das vom Roy Rosenzweig Center for History and New Media (CHNM) an der George Mason University in Fairfax (Virginia) konzipiert wurde. Es versteht sich als ein lebendiges Archiv, das Erinnerungsmaterial zu den Anschlägen vom 11. September 2001 sammelt, aufbereitet und der Öffentlichkeit zur Verfügung stellt. Seit 2002 sind über 150.000 digitale Objekte zum Thema zusammengekommen.

Nicht ausschließlich der Zeitgeschichte widmen sich Portale wie „Europäische Geschichte Online”[22] vom Leibniz-Institut für Europäische Geschichte (IEG) in Mainz und „historicum.net”[23] des Zentrums für Elektronisches Publizieren der Bayerischen Staatsbibliothek. Sie bündeln Online-Ressourcen, Rezensionen und einführende Texte zu einzelnen Schwerpunktthemen und versuchen damit auch ein breiteres Publikum anzusprechen.

Neben diesen thematischen Portalen haben sich in den letzten Jahren auch funktionale Portale etabliert. Die „sehepunkte”[24] zum Beispiel sind ein ausschließlich online erscheinendes Rezensionsjournal für das gesamte Gebiet der Geschichtswissenschaft, während bei „recensio.net”[25] Rezensionen aus verschiedenen Zeitschriften nochmals online abgebildet werden. Autoren haben hier zudem die Möglichkeit, ihre eigenen Arbeiten mit den wichtigsten Thesen zu präsentieren.

Seit einiger Zeit wächst schließlich auch im deutschen Sprachraum das Interesse an wissenschaftlichen Blogs, wie sich das im amerikanischen und französischen Raum bereits seit längerer Zeit beobachten lässt. Das französischsprachige Blog-Portal „hypotheses.org”[26] zum Beispiel umfasst als Teil von „openedition.org”[27] mehrere hundert Blogs aus dem Bereich der Geistes- und Sozialwissenschaften. Anfangs 2012 lancierten fünf Partner aus Deutschland, Österreich und der Schweiz einen deutschsprachigen Ableger namens „de.hypotheses.org”.[28] Als Portal für historische Fotografien hat sich „Flickr Commons”[29] etabliert, eine Plattform, auf der rund fünfzig Gedächtnisinstitutionen wie die Nationalarchive von Großbritannien oder den USA, das Smithsonian Institute und zahlreiche Forschungsbibliotheken ihre digitalen Bildersammlungen zur Verfügung stellen. Ebenfalls zu den funktionalen Portalen lässt sich „Docupedia-Zeitgeschichte”[30] zählen, das ein Online-Nachschlagewerk zu zentralen Begriffen, Konzepten, Forschungsrichtungen und Methoden der zeithistorischen Forschung darstellt.

Vom Mangel zum Überfluss?

Alle diese Entwicklungen der letzten Jahre haben die Geschichtswissenschaft und damit auch die Zeitgeschichte bereits tiefgreifend verändert. Praktisch der gesamte Arbeitsprozess („workflow”) ist vom Wandel betroffen, wenn auch unterschiedlich stark.[31] Dies fängt bei der Themenwahl an. Durch die einfache Zugänglichkeit einer schier unendlichen Menge an Informationen entsteht bei der Themensuche und der Eingrenzung eines Forschungsvorhabens oder einer geplanten Qualifikationsarbeit beim Suchenden sehr schnell der Eindruck, dass es zu fast jedem Thema bereits „etwas” gibt.

Damit könnte eine der wichtigsten Grundprämissen geschichtswissenschaftlichen Arbeitens modifiziert werden: Die Heuristik der Geschichtswissenschaft basierte bisher auf der Annahme, dass aus der Vergangenheit grundsätzlich zu wenig Material überliefert sei und es zu den Aufgaben der Geschichtsforschung gehöre, diese Lücken mit den Methoden der Hermeneutik interpretativ zu schließen. Der Subtext der historischen Methode, wie sie von Ranke, Droysen und vor allem auch Bernheim im 19. und im beginnenden 20. Jahrhundert begründet und expliziert wurde, lautete, dass an dem, was aus der Vergangenheit erhalten geblieben ist, tendenziell Mangel herrscht, dass die Überlieferung unvollständig und lückenhaft ist. Dies galt insbesondere für die ältere und mittelalterliche Geschichte, prägte aber insgesamt die historische Arbeitsweise.

Die Digitalität von immer mehr zeithistorischen Quellen kehrt dieses Prinzip – zumindest scheinbar – um.[32] Nicht das Zuwenig ist das Thema, sondern das Zuviel. Nicht Mangel, sondern Überfluss scheinen immer mehr die arbeitsleitenden Paradigmen bei der „opération historiographique” (Michel de Certeau) zu sein. Wenn dem tatsächlich so sein sollte, dann gilt es, die hermeneutischen Grundprinzipien des geschichtswissenschaftlichen Arbeitens neu zu hinterfragen. Statt Lücken in der Überlieferung verstehend und – wie es Gadamer betont hat – mit Intuition und manchmal auch Irrationalität zu schließen, muss das im Überfluss Vorhandene aggregiert werden. Dann müssen nicht nur statistische Mittelwerte errechnet, sondern auch komplexe Muster in den Informationsmassen erkannt werden. Die Herausforderung dabei ist, bei dieser neuen Herangehensweise nicht dem Reiz simplifizierender statistischer Methoden zu verfallen und in eine Art von Positivismusfalle zu geraten.[33] Das hermeneutische Verfahren des Verstehens gilt es, auch im Kontext eines für die statistische Analyse scheinbar prädestinierten Datenüberflusses zu bewahren. Entscheidend bleiben dabei zweifellos immer die Fragen, die Historiker/innen an das Material richten. Doch das Kontingent aller möglichen Fragen ist geprägt von der Beschaffenheit des Materials und davon, wie es sich dem Fragenden präsentiert. Das heißt, dass die schiere Menge an Daten die Art und Weise des Fragens beeinflussen wird.

Auch wenn es schon immer zu den Aufgaben der Historiker/innen gehört hat, aus einer bestimmten Menge von Unterlagen die aus historiografischer Sicht relevanten Informationen auszuwählen, so war dies doch eine jeweils intellektuell zu erledigende Arbeit. Mit der Verfügbarkeit von großen digitalen Datenmengen stellt sich die Frage, was sinnvollerweise intellektuell und was algorithmisiert zu bearbeiten ist. Die rund 250.000 Depeschen aus dem Afghanistan- und dem Irak-Krieg, die durch WikiLeaks zum Beispiel veröffentlicht wurden, hätten manuell kaum analysiert werden können. Die Maschinenlesbarkeit der Daten aber machte es möglich, dass bestimmte Strukturen herausgelesen und analysiert werden konnten.

Mit dem vermehrten Aufkommen von digitalem Archiv- und Sammlungsgut in der Zeitgeschichte verändert sich auch die Bestandsbildung. So bestehen bisher nur punktuelle Strategien, um die Zeugnisse der immer dominanter werdenden Netzkultur zu sichern und zu archivieren. Zwar hat der Microblogging-Dienst Twitter[34] mit der Library of Congress in Washington D.C. eine Vereinbarung zur Archivierung der Millionen Tweets getroffen, die täglich über den Dienst verschickt werden. Doch weder Facebook noch die anderen Social Network Services kennen eine solche Politik, sodass mit einem „Gedächtnissturz” zur rechnen ist.[35]

Die schwindende Bedeutung staatlichen Archivguts und die zunehmend disparater werdende Archivierung nicht-staatlicher Quellen dürften dazu führen, dass die Diskrepanz zwischen sehr einfach zugänglichen Online-Quellen und fast gar nicht zugänglichen Offline-Quellen zunehmen wird. So ist ein Teil der Dokumente für eine breite Öffentlichkeit digital sehr einfach zugänglich, während nicht-veröffentlichte Dokumente auch für Historikerinnen und Historiker noch mehr in den Hintergrund rücken. Die inkonsistente Archivierungs- und Digitalisierungspolitik der verschiedenen involvierten Stellen wie Archive, Behörden sowie wissenschaftliche und private Dokumentationszentren hat auch zur Folge, dass die bisher themenbeeinflussende 30-Jahre-Sperrfrist staatlicher Archive de facto aufgeweicht wird.

Vom Umgang mit dem „Google-Syndrom”

Eng verbunden mit diesem paradigmatischen Wechsel vom Mangel zum Überfluss ist ein Phänomen in der historischen Heuristik, welches sich mit dem Begriff „Google-Syndrom” umschreiben lässt: Alle großen Suchhilfen im Netz suggerieren eine Vollständigkeit in ihrer Suche. Der Umstand, dass dank der Digitalität jede Information, jeder Datenbestand vollständig erfasst, indexiert und durchsucht werden kann, nährt das Phantasma einer umfassenden Wissensmaschine, die auf jede Antwort eine Frage weiß. Tatsächlich ergibt fast jede Suchanfrage an Google einen Treffer, und sei er noch so unsinnig. Der simple Suchschlitz von Google, der an den Suchenden keine ergänzenden Fragen zu stellen braucht, symbolisiert den Blick des Suchenden ins Unendliche, aus dessen Tiefen Google innerhalb von Sekundenbruchteilen eine Antwort hervorzuziehen versteht. Zu den unnützesten, aber symbolisch bedeutendsten Angaben auf der Trefferliste von Google zählt die Zeit, die Google benötigt hat, um die Suche durchzuführen. Sie ist deswegen eines der wenigen Elemente, das bisher sämtliche Design-Revisionen bei Google überdauert hat.

Gleichzeitig mit der Erfahrung, dass jede Suche bei Google irgendeinen Treffer generiert, stellt sich das schale Gefühl ein, dass es mehr als die hier präsentierten Treffer geben muss oder einfach auch nur bessere Treffer, als auf der Liste sichtbar. Die Suchalgorithmen von Google (wie auch von anderen Suchmaschinen) sind nicht öffentlich, damit die Inhaltsanbieter ihre Seiten nicht auf ein möglichst hohes Ranking hin optimieren können. So ist jedes Arbeiten mit Google nicht nur ein Ankämpfen gegen das phantasmatische Allwissen der Suchmaschine, sondern auch ein Ringen mit der vermuteten, aber nicht überprüfbaren Lückenhaftigkeit der Ergebnisse.

Die Frage nach einer geschichtswissenschaftlichen Heuristik ist heute deshalb ganz stark auch eine Frage nach der Funktionsweise, der Kontrolle und der Macht von Suchmaschinen. Konkret würde dies eine vertiefte Auseinandersetzung mit den Strukturen, den technischen Möglichkeiten und auch den realen Machtverhältnissen bei Suchmaschinenbetreibern bedingen.[36] In der Realität ist es aber so, dass aufgrund der Unstrukturiertheit der Bestände in modernen Suchmaschinen – und das gilt für Google ebenso wie für alle anderen Suchmaschinen – das Vorwissen des Einzelnen an Bedeutung gewinnt. Gemeint ist zum Beispiel die Fähigkeit, die je nach Suchmaschine richtigen Suchbegriffe zu kennen oder den Kontext und damit die Grenzen eines bestimmten Informationssystems einschätzen zu können. „Wer hat, dem wird gegeben”, gilt im digitalen Suchraum in verstärktem Maße. Der Digital Divide im akademischen Kontext bedeutet, dass zwar alle Zugang zu den neuen Technologien haben, aber nicht alle in der Lage sind, die neuen Möglichkeiten adäquat anzuwenden. Die Frage, welche Kompetenzen heute zum Rüstzeug eines Historikers, einer Historikerin gehören, erhält unter diesem Aspekt eine neue Bedeutung.

Seit einiger Zeit schon arbeitet Google daran, die Suchergebnisse auf die Bedürfnisse des einzelnen Suchenden zuzuschneiden. Dies geschieht mit einer Auswertung des bisherigen Suchverhaltens, mit einer Analyse der Inhalte der Mails, die gegebenenfalls über Google Mail versandt werden, oder über die Vorlieben, die bei Google+, einem weiteren Dienst des Konzerns, angegeben wurden. Mit der zunehmenden Personalisierung fragmentiert sich aber auch der kollektive Wissensraum, weshalb ein Austausch über bestimmte Themen und Fragestellungen im Laufe der Zeit immer mehr erschwert werden könnte.[37]

Die Alternativen zu Google sind vielfältig und äußerst eng zugleich. Vielfältig deshalb, weil es zahlreiche Fachangebote wie etwa „Historical Abstracts”,[38] „JSTOR”[39] oder die Online-Contents-Sondersammelgebietsausschnitte „OLC-SSG”[40] der deutschen Bibliotheken gibt. Sie gehen allesamt mehr in die Tiefe als Google das kann, bilden aber niemals die Breite ab, die Google oder auch Google Scholar bieten.

Data Driven History

Die großflächige Retrodigitalisierung historisch relevanter Ressourcen in den letzten Jahren hat dazu geführt, dass riesige Datenmengen maschinenlesbar vorhanden sind. Die Digitalisate verfügen über mehr oder weniger brauchbare Metadaten. Auf jeden Fall aber war die Menge der nun online erreichbaren Quellen noch vor wenigen Jahren kaum vorstellbar.[41] Ein beträchtlicher Anteil der Digitalisate stammt aus dem Projekt Google Books,[42] mit dem Google alle verfügbaren Bücher der Welt – nach Schätzungen zwischen 85 und 130 Millionen Titel – digitalisieren und online verfügbar machen will.

In Bezug auf diese großen Datenmengen stellt sich die Frage, ob neue Analyseverfahren möglich und gegebenenfalls auch sinnvoll sind. Es geht dabei um die methodischen Herangehensweisen und die Schlussfolgerungen, die sich aus solchen Datenanalysen ziehen lassen. Eine zentrale Bedeutung kommt bei einer solchen „Data Driven History” der Quellenkritik zu. Am Beispiel des bekanntesten einschlägigen Projekts lässt sich das illustrieren: Mit dem Online-Tool „Ngram Viewer”[43] lassen sich Buchstabenfolgen von rund 5,2 Millionen Büchern analysieren. Ein simples Suchfeld erlaubt die Eingabe von verschiedenen Begriffen, auszuwählen sind ferner Sprache und der gewünschte Zeitraum. Als Ergebnis visualisiert eine Grafik die Anzahl Bücher, welche die gesuchten Zeichenfolgen mindestens einmal enthalten – ausgedrückt in Prozent der Zahl der eingescannten Bücher eines bestimmten Jahres. Es stellt sich dabei die Frage, ob ein solches Tool Spielerei oder forschungsrelevant ist. Und: Wie verlässlich sind die Daten? Erfährt man etwas, was man sonst nicht hätte herausfinden können? Das Tool macht es jedenfalls möglich, einen Textkorpus dieses Ausmaßes nach bestimmten Mustern und Unregelmäßigkeiten zu befragen. Es handelt sich also um ein Instrument, das die Geschichtsforschung zu Forschungsfragen hinführen kann.[44]

Der Ngram Viewer lässt sich als ein Versuchslabor für den geistes- und geschichtswissenschaftlichen Umgang mit großen Textbasen verstehen. Der verwendete Textkorpus reicht bis in die Anfänge des Buchdrucks zurück, die besten Ergebnisse indes lassen sich bisher für englische Texte aus den Jahren 1800 bis 2000 erzielen. Für die historischen Methoden könnte Ngram (oder ähnliche elaboriertere Projekte) durchaus von großer Bedeutung sein. Insbesondere die bisher kaum quantitativ arbeitende historische Diskursanalyse, aber auch die Begriffsgeschichte und Historische Semantik könnten sich mit lexikalischen Zeitreihenanalysen ein ergänzendes, algorithmisch fundiertes Standbein geben. Dies knüpft methodisch an die Arbeit großer digitaler Textcorpora wie zum Beispiel des „Digitalen Wörterbuchs der deutschen Sprache”[45] (DWDS) oder der im „COSMAS II”[46] (Corpus Search, Management and Analysis System) versammelten Textcorpora an.

Eng verbunden mit der Frage nach dem Umgang mit großen Datenmengen in der Geschichtswissenschaft ist die Frage nach den möglichen Darstellungsformen im Kontext digitaler Systeme. Der Ngram Viewer präsentiert keine Zahlenreihe, sondern eine (wenn auch sehr simple) Visualisierung der Ergebnisse. Die Visualisierung von historischen Zusammenhängen stellt eine neue Möglichkeit dar, deren Potenzial noch längst nicht ausgeschöpft ist. Die meisten Anwendungen in diesem Bereich konzentrieren sich auf die Verwendung von historischen Karten, auf die entsprechende Zusatzinformationen gelegt werden. So verspricht die Entwicklung Geografischer Informationssysteme (GIS) für die Geschichtswissenschaft ein wichtiges neues Forschungsfeld zu werden.[47] Und auch die Konzeption neuer, zum Beispiel auch interaktiv zu bedienender Visualisierungstools könnte für die Geschichtswissenschaft von großer Bedeutung sein, um im Sinne einer Public History auch in Zukunft ein größeres Publikum über die engen Fachgrenzen hinaus anzusprechen.

Digital verzeichnen, digital publizieren

Verfolgt man den historiografischen Arbeitsprozess weiter, dann lässt sich auch bei der Erfassung und der Auswertung der Rechercheergebnisse ein tiefgreifender Umbruch beobachten. Der einfachere Zugang zu einem Mehrfachen an Information erfordert nicht nur bei der Arbeit mit Quellen, sondern auch bei der persönlichen Literaturverwaltung ein Umdenken. Die mit dem Zettelkasten verbundenen Kulturtechniken haben ausgedient, die Zettelwirtschaft wurde abgelöst von der Datenbank.[48] Waren es lange Zeit lokale Systeme, die vor allem verwendet wurden, so sind es mehr und mehr Online-Datenbanken, die für die eigene bibliografische Arbeit zum Einsatz kommen. Sie bieten den Vorteil, von jedem Rechner aus erreichbar zu sein, und die Datensätze können bei Bedarf mit Kolleginnen und Kollegen geteilt oder gemeinschaftlich erstellt werden.[49]

Mit „Zotero”[50] und „Litlink”[51] stehen zwei mächtige, sowohl lokal als auch online arbeitende Literaturverwaltungssysteme zur Verfügung. Sie weisen unterschiedliche Schwerpunkte auf: Während Zotero vor allem die Zusammenarbeit in Gruppen und das Verzeichnen von Web-Ressourcen perfektioniert hat, liegt die Stärke von Litlink in der Fähigkeit, Literaturnachweise, Exzerpte und biografische Informationen engstens miteinander zu verknüpfen. Beide Programme sind kostenlos.

Während sich die Recherche nach und die Verzeichnung von Material in den letzten Jahren massiv verändert haben, lässt sich beim eigentlichen Schreibprozess eine gewisse Beharrlichkeit beobachten. Schreibprogramme, die das assoziative und strukturierte Schreiben unterstützen sollen, haben sich in der wissenschaftlichen Textproduktion kaum etablieren können.[52] Plattformen, die die kooperative Textarbeit in Gruppen unterstützen, führen ebenfalls ein Schattendasein, zum einen, weil sie eine reduzierte Palette an Formatierungs- und Strukturierungsoptionen bieten, zum anderen, weil das Vertrauen in entsprechende Anbieter wie etwa Google mit Google Drive (früher: Google Docs)[53] nicht besonders groß ist. Die gemeinschaftliche Arbeit an wissenschaftlichen Texten rüttelt aber auch am Selbstbild von Historiker/innen, das immer noch gerne davon ausgeht, dass ein Text das Ergebnis eines solitären, individuell erarbeiteten Forschungsprozesses ist. Die kooperative Textproduktion hat sich hingegen bei protowissenschaftlichen (Thomas S. Kuhn) Texten durchaus etabliert: etwa bei Projektanträgen und Abschlussberichten insbesondere von großen Vorhaben wie etwa Sonderforschungsbereichen.

Mehr Dynamik ist bei der Entwicklung neuer digitaler Publikationsformen zu beobachten. Bei den historischen Fachzeitschriften erscheinen immer mehr Titel hybrid, das heißt zusätzlich zu einer gedruckten Ausgabe sind elektronische Versionen, zumeist als PDF-Datei, abrufbar. In der Regel sind die elektronischen Versionen gegen Bezahlung zugänglich, ein wachsender Anteil an Fachperiodika erscheint aber als Open Access. Dabei werden in den meisten Fällen die Kosten von den Lesern auf die Autoren umgelagert, die eine sogenannte author fee zu entrichten haben. Lange Zeit galten elektronische Publikationen als weniger seriös, weil ihnen nachgesagt wurde, die qualitätssichernden Maßnahmen, die sich bei den etablierten gedruckten Zeitschriften eingespielt hätten, seien hier nicht anwendbar. Doch hier werden zwei unterschiedliche Fragen miteinander vermischt, denn der Prozess der Qualitätssicherung hat im Grunde genommen mit der Frage nach dem Distributionskanal wenig zu tun. Peer Review-Verfahren lassen sich bei elektronischen Publikationen ebenso gut, auf jeden Fall aber flexibler anwenden als bei gedruckten Produkten. Bei elektronischen Publikationen lassen sich nämlich verschiedene Prozessschritte implementieren, etwa ein Open Peer Review oder auch ein Peer Review ex post, bei dem verschiedene öffentliche Kommentierungsphasen eingeplant werden.

Das Roy Rosenzweig Center for History and New Media[54] hat mit „PressForward”[55] ein Projekt lanciert, bei dem verschiedene digitale Publikationsformen an der Schnittstelle von Blog, Plattform und eJournal ausgelotet werden. Das amerikanisch-schweizerische Teilprojekt „Global Perspectives on Digital History”[56] zum Beispiel aggregiert aus einem Kompendium von rund 200 einschlägigen Blogs und Newslettern die relevantesten Beiträge, die wiederum die Grundlage für längere, eigens angefertigte Essays bilden, die dann schließlich in einer stabilen Version als eJournal erscheinen.

Entsprechende Experimente gibt es auch bei Buchprojekten, wobei es dort vor allem um die Möglichkeiten geht, ein vorgegebenes Thema in einem offenen Diskussionsprozess gemeinschaftlich zu erarbeiten. Beim Buchprojekt „Hacking the Academy”[57] etwa wurde innerhalb sehr kurzer Zeit ein Textkonvolut erstellt, aus dem dann in einem anschließenden Redaktionsprozess eine Auswahl erarbeitet wurde. Das erste deutschsprachige Projekt dieser Art, „historyblogosphere.org”,[58] beschäftigt sich auf ähnliche Weise mit dem Thema wissenschaftliches Bloggen, arbeitet mit einem Open Peer Review und wird in Zusammenarbeit mit dem Oldenbourg Verlag in München realisiert.

Der historische Publikationsmarkt ist also im Umbruch – wer die Verlierer und wer die Sieger sein werden, scheint noch nicht klar. Eng wird es auf jeden Fall für diejenigen werden, die sich jeglicher Veränderung widersetzen und ausschließlich am gedruckten Medium festhalten wollen. Zugleich ist auch unbestritten, dass die gedruckte und womöglich schön gebundene Monografie im Feld der historischen Wissenschaften weiterhin ihren Platz haben wird. Auf dem akademischen Reputationsmarkt bleibt diese Publikationsform wohl noch für einige Zeit die wichtigste Währung, gleichsam der „Goldstandard” der historischen Zunft. Doch der gesamthaft schrumpfende Markt für historische Publikationen dürfte dazu führen, dass die bisherige Infrastruktur nicht mehr aufrechtzuhalten sein wird.

Fazit

Zweifellos ist die Zeitgeschichte ebenso wie die meisten anderen geisteswissenschaftlichen Disziplinen vom digitalen Umbau der Wissenschaften stark betroffen. Anders als in den letzten Jahren könnte diesmal nicht nur die Arbeitsweise, sondern mit dem Aufkommen wirklich großer Datenmengen auch der epistemologische Kern der geschichtswissenschaftlichen Arbeit in Frage gestellt werden. Etwas überspitzt ließe sich formulieren, dass wir in den ersten rund fünfzehn Jahren seit dem Aufkommen des World Wide Web tatsächlich über alten Wein in neuen Schläuchen diskutiert haben und dass die Entwicklung heute so weit ist, dass sich wirklich Grundlegendes verändern könnte. Veränderungen in der Medialität der Vergangenheit haben immer wieder auch die methodische Herangehensweise der Historikerinnen und Historiker beeinflusst.[59] So hat die Telegrafie den Sinn für den Zusammenhang von Raum und Zeit ebenso beeinflusst wie das Fernsehen den Sinn fürs Performative und Visuelle geschärft hat. Das Universalmedium World Wide Web, das ja vor allem alle anderen Medien zu inkorporieren begonnen hat, schärft ganz offensichtlich den Blick für die Fragen der Medialität an und für sich.

Die scheinbare Raum- und Körperlosigkeit digitaler Medien lenkt zugleich die Aufmerksamkeit auf die Frage nach der Persistenz und der Endlichkeit des Archivierten. Das klassische Archiv folgte der Prämisse, dass alles archivierte Material für eine nicht näher spezifizierte Ewigkeit aufzubewahren sei. Das digitale Archiv kennt – zumindest in seinen heutigen technischen Ausprägungen – das Konzept der Ewigkeit gar nicht, denn alle bisherigen digitalen Datenträger haben eine sehr überschaubare Lebenserwartung. Was bedeut dies für die Arbeit der Geschichtswissenschaft? In welchem Wechselverhältnis stehen kulturelles und digitales Gedächtnis? Welche Rolle spielen dabei die technischen Bedingtheiten des Archivs, welche die intellektuellen Konzepte der Geschichtswissenschaft?

Die Rede von den Digital Humanities bildet gleichsam das semantische Zelt über eine Vielzahl von Baustellen: technische, intellektuelle, ökonomische und politische Debatten über nichts weniger und nichts mehr als über die Zukunft unserer Vergangenheit.

Empfohlene Literatur zum Thema

David M. Berry, The Computing Turn: Thinking About the Digital Humanities, in: Culture Machine. 12, 2011, ISSN 1465-4121 (online).

David M. Berry (Hrsg.), Understanding digital humanities, Palgrave Macmillan, Basingstoke 2012, ISBN 9780230371934.

Roy Rosenzweig, Daniel J. Cohen, Digital history. A guide to gathering, preserving, and presenting the past on the Web, Univ. of Pennsylvania Press, Philadelphia 2006, ISBN 9780812219234.

Kathleen Fitzpatrick, Planned obsolescence. Publishing, technology, and the future of the academy, New York University Press, New York 2011, ISBN 9780814728963.

Martin Gasteiner, Peter Haber (Hrsg.), Digitale Arbeitstechniken. Für die Geistes- und Kulturwissenschaften, UTB, Wien 2010, ISBN 3825231577.

Peter Haber, Digital Past. Geschichtswissenschaft im digitalen Zeitalter, Oldenbourg Wissenschaftsverlag, München 2011, ISBN 3486707043.

Jakob Krameritsch, Geschichte(n) im Netzwerk. Hypertext und dessen Potenziale für die Produktion, Repräsentation und Rezeption der historischen Erzählung, Waxmann, Münster 2007, ISBN 3830918356.

Kiran Klaus Patel, Zeitgeschichte im digitalen Zeitalter, in: Vierteljahrshefte für Zeitgeschichte. 59, Nr. 3, 2011, S. 331-352.

Roy Rosenzweig, Clio wired. The future of the past in the digital age, Columbia University Press, New York 2010, ISBN 9780231150866.

Wolfgang Schmale, Digitale Geschichtswissenschaft, Böhlau, Wien 2010.

Martin Gasteiner, Jakob Krameritsch, Wolfgang Schmale (Hrsg.), E-Learning Geschichte, Böhlau, Wien 2007.

John Unsworth, Ray Siemens, Susan Schreibman (Hrsg.), A Companion to Digital Humanities, Wiley, Malden, Mass. 2004 (online).

Zitation

Peter Haber, Zeitgeschichte und Digital Humanities, Version: 1.0, in: Docupedia-Zeitgeschichte, 24.9.2012, URL: http://docupedia.de/zg/Digital_Humanities

Versionen: 1.0

Nutzungsbedingungen für diesen Artikel

Logo Creative Commons by-nc-nd 3.0 Dieser Text wird veröffentlicht unter der Lizenz „Creative Commons CC BY-NC-ND 4.0“. Eine Nutzung ist für nicht-kommerzielle Zwecke in unveränderter Form unter Angabe des Autors bzw. der Autorin und der Quelle zulässig. Im Artikel enthaltene Abbildungen und andere Materialien werden von dieser Lizenz nicht erfasst. Detaillierte Angaben zu dieser Lizenz finden Sie unter: https://creativecommons.org/licenses/by-nc-nd/4.0/deed.de .

Anmerkungen