Digital Humanities

Darf man es einer Künstlichen Intelligenz überlassen, die einflussreichsten Romanautoren zu bestimmen? Es gibt eine Software, die genau das getan hat. Sie erklärte im Falle des englischsprachigen Romans sowohl Walter Scott als auch Jane Austen zu den größten Vorbildern. So eine Bewertung war bisher dem menschlichen Geiste vorbehalten.

Ist künstliche Intelligenz objektiv? Jedenfalls macht sie nicht länger vor den Toren der alterwürdigen Philologien halt. Sie kommt unter dem hübschen Namen „Digital Humanities“ daher, die digitale Geisteswissenschaft. Den einen bietet sie einen ganz neuen Zugang zur Literatur, den anderen einen Herzinfarkt. Wollen Computer jetzt den „Geist“ aus diesen Wissenschaften verjagen? Das befürchten einige Philologen, mit denen ich gesprochen habe. Digital Humanities als Fach ist natürlich nicht auf die Philologie beschränkt. Ich habe sie als Beispiel gewählt, um den Konflikt zu veranschaulichen.

„Digital Humanities“ wäre langweilig, ginge es nur darum, Bücher zu digitalisieren. In dem Projekt eCodicology etwa entwickeln Forscher Algorithmen zum „Tagging“ alter Manuskripte. 500 mittelalterliche Handschriften aus der Benediktinerabtei St. Matthias in Trier sollen in ihren physikalischen Eigenschaften digital erfasst werden: Wie groß ist der Schriftspiegel? Wie ist das Verhältnis von Bild und Schrift?

Die Forscher wollen diese Infos nicht von Werk zu Werk in eine Datenbank eintragen – ihr Ziel ist die Automatisierung, was verdächtig nach Industrierobotik klingt. Die Software erstellt automatisch die Metadaten zu allen eingescannten Handschriften: Seitenformat, Zeilenformat, Beschriftungen, Register, Paratexte oder Marginalien. Sobald die Daten im Internet zur Verfügung stehen, lassen sich vielleicht einige Handschriften wieder ihrem Ursprungsort und -kontext zuordnen. Denn viele mittelalterliche Schriften sind in der Welt verteilt, und manchmal weiß der Besitzer nicht, wo sie entstanden sind. Das wäre hilfreich, um den Inhalt besser zu verstehen.

Ein anderes, interessantes Projekt heißt ePoetics. Darmstädter und Stuttgarter Forscher haben sich deutsche Texte zur Literaturtheorie, die zwischen 1770 bis 1960 verfasst wurden, vorgenommen. Die Software ermittelt anhand von Statistiken, welche Terminologien wo und wann auftreten. Daraus lässt sich herauslesen, wie sich Literaturtheorie verbreitet hat. In dem Projekt eTraces versuchen Forscher mit Software den Spuren nachzugehen, die die Luther-Bibel in deutschen Romanen bis 1900 hinterlassen hat. Auch hier geht es um die Frage: Wie verbreiten sich Ideen?

Die Bewältigung immenser Textmassen ist der große Vorteil der Informationstechnik. Kein Mensch kann so viel Bücher lesen wie ein Rechner. Wenn ein erfahrener Literaturwissenschaftlicher einen Bildungsroman liest, fallen ihm allerhand Bezüge zu anderen Texten auf – doch nur zu denen, die er gelesen hat. Es gibt Leute, die sagen, der Mensch liest im Durchschnitt so 4.000 bis 5.000 Bücher im Leben. Es wird also Bücher geben, die der Autor eines Romanes kannte, der Literaturwissenschaftler aber nicht. Die Software kann sie innerhalb von Sekunden ausfindig machen und chronologisch aufbereiten. Der Forscher kann damit tiefer in die Materie eintauchen.

Die Idee der Computerphilologie ist nicht neu. Roberto Busa hatte sich Ende der 1940er Jahre mit IBM zusammen getan, weil er mit den damals noch klobigen Rechnern das riesige Werk von Thomas von Aquin nach Begriffen durchforsten und einen „Index Thomisticus“ erstellen wollte – eine alphabetischen Begriffs-Liste mit Angaben der Fundorte. Sage und schreibe 30 Jahre lange arbeiteten bis zu 60 Leute an dem Projekt. Ergebnis war ein 56-bändiges gedrucktes Werk mit 70.000 Seiten, das später digitalisiert wurde. Es ist heute noch im Internet verfügbar (www.corpusthomisticum.org). Das Projekt hat in der Literaturwissenschaft einen Register-Boom ausgelöst.

Doch viel mehr gab die Technik anscheinend nicht her. In den 1980ern und 1990ern war der Enthusiasmus für die Computerphilologie längst versiegt. Erst mit besseren Rechnern und dem Internet versprachen sich die Forscher einen Sprung nach vorn. Akteure wie Google begannen, massenweise Bücher einzuscannen und der Öffentlichkeit zur Verfügung zu stellen. Wissenschaftler überlegten sich zudem Kategorien und Strukturen für Buch-Metadaten, um alles besser sortieren und vergleichen zu können.

Doch auch heute sind nicht alle von der Informatik begeistert. Einige Forscher befürchten, der Computer könnte der Geisteswissenschaft ein Objektivitätsversprechen aufdrücken – denn die Geldgeber in der Forschung lieben die Informationstechnik. Sie liefert schnelle, logische Resultate, die anschaulich präsentierbar sind – doch gerade objektiv will das Fach nicht sein.

Alan Liu, Anglistik-Professor der Universität von Kalifornien, spricht den „Digital Humanities“ zudem jegliches Interesse an Kulturkritik ab. Er erklärt, er sehe nicht, wie sich der Fachbereich auf Konferenzen und Veröffentlichungen kritisch mit den großen Fragestellungen der postindustriellen Welt auseinandersetze – nicht einmal mit digitalen Themen wie der digitalen Kluft, dem Datenschutz oder Urheberrecht.

Dabei sind diese Befürchtungen meiner Ansicht nach überflüssig. „Digital Humanities“ entwickelt Hilfsmittel, stellt neue Fragen, erweitert die Forschungsmöglichkeiten und vermittelt digitale Kompetenzen, denen sich zumindest einige Geisteswissenschaftler noch immer hartnäckig verweigern – obwohl die Mehrheit der Studierenden sich zweifellos dafür begeistert. Wenn Geldgeber die IT-Philologie bevorzugen, mag das auch daran liegen, dass die Literaturwissenchaftler nach wie vor große Schwierigkeiten haben, ihre Kern-Kompetenzen öffentlich zu vermitteln. Womit ich nicht sagen will, dass Forschung ausschließlich nach Drittmittel-Verfügbarkeit betrieben werden soll. Aber warum soll man nicht die Möglichkeiten nutzen, die neue Türen öffnen?